JP5066851B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5066851B2
JP5066851B2 JP2006185584A JP2006185584A JP5066851B2 JP 5066851 B2 JP5066851 B2 JP 5066851B2 JP 2006185584 A JP2006185584 A JP 2006185584A JP 2006185584 A JP2006185584 A JP 2006185584A JP 5066851 B2 JP5066851 B2 JP 5066851B2
Authority
JP
Japan
Prior art keywords
image
defocus
photoelectric conversion
attribute
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006185584A
Other languages
Japanese (ja)
Other versions
JP2008015754A (en
Inventor
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006185584A priority Critical patent/JP5066851B2/en
Publication of JP2008015754A publication Critical patent/JP2008015754A/en
Application granted granted Critical
Publication of JP5066851B2 publication Critical patent/JP5066851B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像された画像に処理を施す撮像装置、画像処理装置および画素処理方法に関する。   The present invention relates to an imaging apparatus, an image processing apparatus, and a pixel processing method that perform processing on a captured image.

所定の視差を有する一対の撮影レンズで同時に一対の画像を撮影し、これらの一対の画像に基づいて求められた被写界の距離分布に基づいて、一対の画像の内の一方の画像に対しボケを付加する画像処理を施すようにした画像処理装置が知られている(例えば、特許文献1参照)。   A pair of photographing lenses having a predetermined parallax are photographed at the same time, and one of the pair of images is obtained based on the distance distribution of the object scene obtained based on the pair of images. An image processing apparatus that performs image processing for adding blur is known (for example, see Patent Document 1).

この出願の発明に関連する先行技術文献としては次のものがある。
特開平09−181966号公報
Prior art documents related to the invention of this application include the following.
JP 09-181966 A

しかし、上述した従来の画像処理装置には次のような問題がある。
ボケ量はデフォーカス量(予定結像面と実際の結像面との差)に比例するので、ボケ量を演算する過程でデフォーカス量を算出する必要があるが、被写体距離のみに基づいて直接的にデフォーカス量を算出することはできない。ピントを合わせたい主要被写体の距離(合焦距離)を指定し、合焦距離と被写体距離の差に基づいてデフォーカス量を算出する必要がある。したがって、合焦距離を入力する装置が必要になるとともに、合焦距離の誤差に応じてデフォーカス量およびボケ量も誤差を生じる。
また、合焦距離と被写体距離の差に基づいてデフォーカス量を算出する過程においては、撮影レンズの焦点距離等の光学パラメータが必要となる。光学的パラメータを入力する入力装置が必要になるとともに、光学的パラメータの誤差に応じてデフォーカス量およびボケ量も誤差を生じる。
However, the above-described conventional image processing apparatus has the following problems.
Since the blur amount is proportional to the defocus amount (difference between the planned image plane and the actual image plane), it is necessary to calculate the defocus amount in the process of calculating the blur amount, but based only on the subject distance The defocus amount cannot be calculated directly. It is necessary to specify the distance (focus distance) of the main subject to be focused and calculate the defocus amount based on the difference between the focus distance and the subject distance. Therefore, a device for inputting the in-focus distance is required, and an error occurs in the defocus amount and the blur amount in accordance with the in-focus distance error.
Further, in the process of calculating the defocus amount based on the difference between the focus distance and the subject distance, optical parameters such as the focal length of the photographing lens are required. An input device for inputting an optical parameter is required, and the defocus amount and the blur amount also cause an error according to the error of the optical parameter.

請求項1の発明による撮像装置は、撮像光学系を通過する被写体光束による被写体像を撮像する撮像素子であって、マイクロレンズと光電変換部とからそれぞれ構成される複数の画素が二次元状に配置され、前記マイクロレンズの各々が前記被写体光束を、前記撮像光学系の瞳の一対の瞳領域をそれぞれ通過する一対の光束に分割し、前記複数の光電変換部が、前記一対の光束の一方の光束を受光する複数の第1の光電変換部と前記一対の光束の他方の光束を受光する複数の第2の光電変換部とから構成される撮像素子と、前記複数の第1の光電変換部の出力信号による第1の画像データと前記複数の第2の光電変換部の出力信号による第2の画像データとを加算して合成画像を生成する画像合成手段と、前記第1の画像データと前記第2の画像データとに基づき、撮像画面内の複数の小領域の各々におけるデフォーカス量を算出する焦点検出手段と、前記焦点検出手段によって算出されたデフォーカス量の大きさに応じて、前記複数の小領域を複数のデフォーカス属性のいずれかに類別する類別手段と、前記焦点検出手段がデフォーカス量を算出することができない算出不能な小領域について、前記算出不能な小領域の周囲に位置する小領域におけるデフォーカス量または画像データに基づき、前記算出不能な小領域のデフォーカス属性を設定するデフォーカス属性設定手段と、前記類別手段によって類別されたデフォーカス属性と前記デフォーカス属性設定手段によって設定されたデフォーカス属性とに基づき複数のグループに分けられた小領域にそれぞれ対応する前記合成画像部分に、当該グループのデフォーカス属性に応じた画像処理を施す画像処理手段と、を備えることを特徴とする。
請求項2の発明による撮像装置は、撮像光学系を通過する被写体光束による被写体像を撮像する撮像素子であって、マイクロレンズと光電変換部とからそれぞれ構成される複数の画素が二次元状に配置され、前記マイクロレンズの各々が前記被写体光束を、前記撮像光学系の瞳の一対の瞳領域をそれぞれ通過する一対の光束に分割し、前記複数の光電変換部が、前記一対の光束の一方の光束を受光する複数の第1の光電変換部と前記一対の光束の他方の光束を受光する複数の第2の光電変換部とから構成される撮像素子と、前記複数の第1の光電変換部の出力信号による第1の画像データと前記複数の第2の光電変換部の出力信号による第2の画像データとを加算して合成画像を生成する画像合成手段と、前記第1の画像データと前記第2の画像データとに基づき、撮像画面内の複数の小領域の各々におけるデフォーカス量を算出する焦点検出手段と、前記焦点検出手段によって算出されたデフォーカス量の大きさに応じて、前記複数の小領域を複数のデフォーカス属性のいずれかに類別する類別手段と、前記焦点検出手段がデフォーカス量を算出することができない算出不能な小領域について、前記算出不能な小領域の周囲に位置する小領域におけるデフォーカス量または画像データに基づき、前記算出不能な小領域のデフォーカス属性を設定するデフォーカス属性設定手段と、前記類別手段によって類別されたデフォーカス属性と前記デフォーカス属性設定手段によって設定されたデフォーカス属性とに基づき複数のグループに分けられた小領域にそれぞれ対応する前記合成画像部分に、当該グループのデフォーカス属性に応じた画像処理を施す画像処理手段と、前記画像処理手段によって画像処理された前記合成画像をスルー画像として表示する表示手段と、撮影動作を開始させるレリーズ操作部材と、前記レリーズ操作部材の操作に応じて前記複数の第1の光電変換部から出力される出力信号による第1の画像データと前記複数の第2の光電変換部から出力される出力信号による第2の画像データとを記録する記録手段と、を備えることを特徴とする
An image pickup apparatus according to a first aspect of the present invention is an image pickup device that picks up a subject image by a subject light beam passing through an image pickup optical system, and a plurality of pixels each composed of a microlens and a photoelectric conversion unit are two-dimensionally arranged. Each of the microlenses divides the luminous flux of the subject into a pair of luminous fluxes that respectively pass through a pair of pupil regions of the pupil of the imaging optical system, and the plurality of photoelectric conversion units are connected to one of the pair of luminous fluxes. An imaging device including a plurality of first photoelectric conversion units that receive a plurality of light beams and a plurality of second photoelectric conversion units that receive the other light beam of the pair of light beams, and the plurality of first photoelectric conversions Image synthesizing means for generating a synthesized image by adding the first image data based on the output signal of the unit and the second image data based on the output signals of the plurality of second photoelectric conversion units; and the first image data And the second Based on the image data, a focus detection unit that calculates a defocus amount in each of a plurality of small areas in the imaging screen, and the plurality of small regions according to the magnitude of the defocus amount calculated by the focus detection unit Classification means for classifying an area into one of a plurality of defocus attributes, and small areas that cannot be calculated by the focus detection means and that cannot be calculated, are located around the small areas that cannot be calculated. Defocus attribute setting means for setting a defocus attribute of the small area that cannot be calculated based on the defocus amount or image data in the area, the defocus attribute classified by the classification means, and the defocus attribute setting means The composite image corresponding to each of the small areas divided into a plurality of groups based on the defocused attribute In part, characterized in that it comprises, image processing means for performing image processing corresponding to the defocus attribute of the group.
An image pickup apparatus according to a second aspect of the present invention is an image pickup device that picks up a subject image by a subject light flux passing through an image pickup optical system, and a plurality of pixels each composed of a microlens and a photoelectric conversion unit are two-dimensionally arranged. Each of the microlenses divides the luminous flux of the subject into a pair of luminous fluxes that respectively pass through a pair of pupil regions of the pupil of the imaging optical system, and the plurality of photoelectric conversion units are connected to one of the pair of luminous fluxes. An imaging device including a plurality of first photoelectric conversion units that receive a plurality of light beams and a plurality of second photoelectric conversion units that receive the other light beam of the pair of light beams, and the plurality of first photoelectric conversions Image synthesizing means for generating a synthesized image by adding the first image data based on the output signal of the unit and the second image data based on the output signals of the plurality of second photoelectric conversion units; and the first image data And the second Based on the image data, a focus detection unit that calculates a defocus amount in each of a plurality of small areas in the imaging screen, and the plurality of small regions according to the magnitude of the defocus amount calculated by the focus detection unit Classification means for classifying an area into one of a plurality of defocus attributes, and small areas that cannot be calculated by the focus detection means and that cannot be calculated, are located around the small areas that cannot be calculated. Defocus attribute setting means for setting a defocus attribute of the small area that cannot be calculated based on the defocus amount or image data in the area, the defocus attribute classified by the classification means, and the defocus attribute setting means The composite image corresponding to each of the small areas divided into a plurality of groups based on the defocused attribute An image processing unit that performs image processing according to a defocus attribute of the group, a display unit that displays the composite image processed by the image processing unit as a through image, and a release operation that starts a shooting operation A first image data based on an output signal output from the plurality of first photoelectric conversion units and an output signal output from the plurality of second photoelectric conversion units according to an operation of the member, the release operation member Recording means for recording the second image data .

本発明によれば、得られた画像に対して簡単な構成で精度よくボケを付加することができる。   According to the present invention, it is possible to add blur to an obtained image with high accuracy with a simple configuration.

本願発明の画像処理装置を備えた撮像装置を、デジタルスチルカメラに適用した一実施の形態を説明する。図1は一実施の形態の構成を示す。一実施の形態のデジタルスチルカメラ201は交換レンズ202とカメラボディ203から構成され、交換レンズ202はマウント部204によりカメラボディ203に装着される。   An embodiment in which an imaging apparatus including an image processing apparatus according to the present invention is applied to a digital still camera will be described. FIG. 1 shows the configuration of an embodiment. A digital still camera 201 according to an embodiment includes an interchangeable lens 202 and a camera body 203, and the interchangeable lens 202 is attached to the camera body 203 by a mount unit 204.

交換レンズ202はレンズ駆動制御装置206、絞り207、ズーミング用レンズ208、レンズ209、フォーカシング用レンズ210などを備えている。レンズ駆動制御装置206は、マイクロコンピューターとメモリなどの周辺部品から成り、フォーカシング用レンズ210と絞り207の駆動制御、絞り207、ズーミング用レンズ208およびフォーカシング用レンズ210の状態検出、後述するボディ駆動制御装置214に対するレンズ情報の送信とカメラ情報の受信などを行う。   The interchangeable lens 202 includes a lens drive control device 206, a diaphragm 207, a zooming lens 208, a lens 209, a focusing lens 210, and the like. The lens drive control device 206 includes peripheral components such as a microcomputer and a memory. The lens drive control device 206 controls the driving of the focusing lens 210 and the diaphragm 207, detects the states of the diaphragm 207, the zooming lens 208 and the focusing lens 210, and body drive control described later. Transmission of lens information to the device 214 and reception of camera information are performed.

カメラボディ203は撮像素子211、ボディ駆動制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217、メモリカード219などを備えている。撮像素子211には後述する画素が二次元状に配列されており、交換レンズ202の予定結像面に配置されて交換レンズ202により結像される被写体像を撮像する。ボディ駆動制御装置214はマイクロコンピューターとメモリなどの周辺部品から成り、撮像素子211からの画像信号の読み出し、画像信号の補正、交換レンズ202の焦点調節状態の検出、レンズ駆動制御装置206からのレンズ情報の受信とカメラ情報(デフォーカス量)の送信、デジタルスチルカメラ全体の動作制御などを行う。ボディ駆動制御装置214とレンズ駆動制御装置206は、マウント部204の電気接点部213を介して通信を行う。   The camera body 203 includes an imaging element 211, a body drive control device 214, a liquid crystal display element drive circuit 215, a liquid crystal display element 216, an eyepiece lens 217, a memory card 219, and the like. Pixels, which will be described later, are arranged in a two-dimensional manner on the imaging element 211, and are arranged on the planned imaging plane of the interchangeable lens 202 to capture a subject image formed by the interchangeable lens 202. The body drive control device 214 includes peripheral components such as a microcomputer and a memory, reads out an image signal from the image sensor 211, corrects the image signal, detects a focus adjustment state of the interchangeable lens 202, and a lens from the lens drive control device 206. Receives information, transmits camera information (defocus amount), and controls the operation of the entire digital still camera. The body drive control device 214 and the lens drive control device 206 communicate via the electrical contact portion 213 of the mount portion 204.

液晶表示素子駆動回路215は、液晶ビューファインダー(EVF:電気的ビューファインダー)の液晶表示素子216を駆動する。撮影者は接眼レンズ217を介して液晶表示素子216に表示された像を観察することができる。メモリカード219はカメラボディ203に脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。   The liquid crystal display element driving circuit 215 drives a liquid crystal display element 216 of a liquid crystal viewfinder (EVF: electrical viewfinder). The photographer can observe an image displayed on the liquid crystal display element 216 via the eyepiece lens 217. The memory card 219 is removable from the camera body 203 and is a portable storage medium that stores and stores image signals.

交換レンズ202を通過して撮像素子211上に形成された被写体像は、撮像素子211により光電変換され、その出力はボディ駆動制御装置214へ送られる。ボディ駆動制御装置214は、撮像素子211の出力に基づいて画面上におけるデフォーカス分布情報を生成し、デフォーカス分布情報に応じて撮像素子出力に画像処理を加える。また、ボディ駆動制御装置214は、画素出力に基づいて所定の焦点検出位置におけるデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。さらに、ボディ駆動制御装置214は、撮像素子211の出力に基づいて生成した画像信号をメモリカード219に格納するとともに、画像信号を液晶表示素子駆動回路215へ送り、液晶表示素子216に画像を表示させる。撮影者は液晶表示素子216に表示された画像を、接眼レンズ217を介して観察することができる。   The subject image formed on the image sensor 211 after passing through the interchangeable lens 202 is photoelectrically converted by the image sensor 211, and its output is sent to the body drive controller 214. The body drive control device 214 generates defocus distribution information on the screen based on the output of the image sensor 211, and adds image processing to the image sensor output according to the defocus distribution information. Further, the body drive control device 214 calculates a defocus amount at a predetermined focus detection position based on the pixel output, and sends this defocus amount to the lens drive control device 206. Further, the body drive control device 214 stores an image signal generated based on the output of the image sensor 211 in the memory card 219 and sends the image signal to the liquid crystal display element drive circuit 215 to display an image on the liquid crystal display element 216. Let The photographer can observe the image displayed on the liquid crystal display element 216 through the eyepiece lens 217.

カメラボディ203には不図示の操作部材(シャッターボタン、焦点検出位置の設定部材、画像処理調整パラメータ入力部材等)が設けられており、これらの操作部材からの操作状態信号をボディ駆動制御装置214が検出し、検出結果に応じた動作(撮像動作、焦点検出位置の設定動作、画像処理動作)の制御を行う。   The camera body 203 is provided with unshown operation members (shutter button, focus detection position setting member, image processing adjustment parameter input member, etc.), and the body drive control device 214 receives operation state signals from these operation members. , And controls the operation (imaging operation, focus detection position setting operation, image processing operation) according to the detection result.

レンズ駆動制御装置206はレンズ情報をフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ駆動制御装置206は、レンズ208、210の位置と絞り207の絞り位置をモニターし、モニター情報に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからモニター情報に応じたレンズ情報を選択する。レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、このレンズ駆動量に基づいてフォーカシングレンズ210を不図示のモーター等の駆動源により合焦点へと駆動する。   The lens drive control device 206 changes the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the lens drive control device 206 monitors the positions of the lenses 208 and 210 and the diaphragm position of the diaphragm 207, calculates lens information according to the monitor information, or monitors from a lookup table prepared in advance. Select lens information according to the information. The lens drive control device 206 calculates a lens drive amount based on the received defocus amount, and drives the focusing lens 210 to a focal point by a drive source such as a motor (not shown) based on the lens drive amount.

図2は撮像素子211の画素配列構成を示す正面拡大図である。撮像素子211には、画素311と画素312が二次元状に規則的に配列されている。   FIG. 2 is an enlarged front view showing the pixel arrangement configuration of the image sensor 211. In the imaging element 211, pixels 311 and pixels 312 are regularly arranged in a two-dimensional manner.

図3は画素の構成を示す。図3(a)に示すように、画素312はマイクロレンズ10と光電変換部13とから構成される。光電変換部13はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。また、図3(b)に示すように、画素311はマイクロレンズ10と光電変換部12とから構成される。光電変換部12はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。光電変換部12と13は、マイクロレンズ10を重ね合わせて表示した場合に左右水平方向に並んでおり、マイクロレンズ10の垂直2等分線に関して対称な形状をしている。撮像素子211には、画素311と画素312が水平方向(光電変換部12と13の並び方向)に交互に配置された画素行が、垂直方向に1行おきに1画素ずらして配置される   FIG. 3 shows the configuration of the pixel. As illustrated in FIG. 3A, the pixel 312 includes the microlens 10 and the photoelectric conversion unit 13. The photoelectric conversion unit 13 has a rectangular shape in which the right side is substantially in contact with the perpendicular bisector of the microlens 10. As shown in FIG. 3B, the pixel 311 includes a microlens 10 and a photoelectric conversion unit 12. The photoelectric conversion unit 12 has a rectangular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. The photoelectric conversion units 12 and 13 are arranged in the horizontal direction when the microlenses 10 are displayed in an overlapped manner, and have a symmetrical shape with respect to the vertical bisector of the microlens 10. In the image sensor 211, pixel rows in which pixels 311 and 312 are alternately arranged in the horizontal direction (alignment direction of the photoelectric conversion units 12 and 13) are arranged by shifting one pixel every other row in the vertical direction.

図4は画素の断面図である。(a)は画素311の断面を示す。画素311において、光電変換部12の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部12が前方に投影される。光電変換部12は半導体回路基板29上に形成されるとともに、その上にマイクロレンズ10が半導体イメージセンサーの製造工程により一体的かつ固定的に形成される。光電変換部12はマイクロレンズ10の光軸の片側に配置される。(b)は画素312の断面を示す。画素312において、光電変換部13の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部13が前方に投影される。光電変換部13は半導体回路基板29上に形成されるとともに、その上にマイクロレンズ10が半導体イメージセンサの製造工程により一体的かつ固定的に形成される。光電変換部13はマイクロレンズ10の光軸の片側でかつ光電変換部12の反対側に配置される。   FIG. 4 is a cross-sectional view of a pixel. (a) shows a cross section of the pixel 311. In the pixel 311, the microlens 10 is disposed in front of the photoelectric conversion unit 12, and the photoelectric conversion unit 12 is projected forward by the microlens 10. The photoelectric conversion unit 12 is formed on the semiconductor circuit substrate 29, and the microlens 10 is integrally and fixedly formed thereon by a semiconductor image sensor manufacturing process. The photoelectric conversion unit 12 is disposed on one side of the optical axis of the microlens 10. (b) shows a cross section of the pixel 312. In the pixel 312, the microlens 10 is disposed in front of the photoelectric conversion unit 13, and the photoelectric conversion unit 13 is projected forward by the microlens 10. The photoelectric conversion unit 13 is formed on the semiconductor circuit substrate 29, and the microlens 10 is integrally and fixedly formed thereon by the manufacturing process of the semiconductor image sensor. The photoelectric conversion unit 13 is disposed on one side of the optical axis of the microlens 10 and on the opposite side of the photoelectric conversion unit 12.

次に、図5を参照してマイクロレンズを用いた瞳分割型位相差検出方式焦点検出の原理を説明する。図5において、90は、交換レンズの予定結像面に配置されたマイクロレンズの前方d4の距離に設定された射出瞳である。なお、距離d4は、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部の間の距離などに応じて決まる距離であって、以下では測距瞳距離という。91は交換レンズの光軸、10a〜10cはマイクロレンズ、12a、12b、13a、13bは光電変換部、311a、311b、312a、312bは画素、72,73、82,83は光束である。   Next, the principle of focus detection using a pupil division type phase difference detection method using a microlens will be described with reference to FIG. In FIG. 5, reference numeral 90 denotes an exit pupil set at a distance d4 in front of the microlens arranged on the planned imaging plane of the interchangeable lens. Note that the distance d4 is a distance determined according to the curvature, refractive index, distance between the microlens and the photoelectric conversion unit, and the like, and is hereinafter referred to as a distance measurement pupil distance. 91 is an optical axis of the interchangeable lens, 10a to 10c are microlenses, 12a, 12b, 13a and 13b are photoelectric conversion units, 311a, 311b, 312a and 312b are pixels, and 72, 73, 82 and 83 are light beams.

92は、マイクロレンズ10a、10cにより投影された光電変換部12a、12bの領域である。この明細書では領域92を測距瞳と呼ぶ。なお、図5では解りやすくするために楕円形状の領域で表すが、実際には光電変換部12a、12bの形状が拡大投影された形状となる。同様に、93は、マイクロレンズ10b、10dにより投影された光電変換部13a、13bの領域、すなわち測距瞳である。なお、図5では解りやすくするために楕円形状の領域で表すが、実際には光電変換部13a、13bの形状が拡大投影された形状となる。   Reference numeral 92 denotes regions of the photoelectric conversion units 12a and 12b projected by the microlenses 10a and 10c. In this specification, the region 92 is called a distance measuring pupil. In FIG. 5, an elliptical region is used for ease of understanding, but the shape of the photoelectric conversion units 12 a and 12 b is actually an enlarged projection shape. Similarly, 93 is a region of the photoelectric conversion units 13a and 13b projected by the microlenses 10b and 10d, that is, a distance measuring pupil. In FIG. 5, an elliptical region is used for easy understanding, but the shape of the photoelectric conversion units 13 a and 13 b is actually an enlarged projection shape.

図5では、隣接する4画素311a、311b、312a、312bを模式的に例示しているが、その他の画素においても同様に、光電変換部がそれぞれ対応した測距瞳から各マイクロレンズに到来する光束を受光する。   FIG. 5 schematically illustrates four adjacent pixels 311a, 311b, 312a, and 312b. Similarly, in other pixels, the photoelectric conversion unit arrives at each microlens from the corresponding distance measurement pupil. Receives light flux.

マイクロレンズ10a〜10cは交換レンズの予定結像面近傍に配置されており、マイクロレンズ10a〜10cによりその背後に配置された光電変換部12a、12b、13a、13bの形状がマイクロレンズ10a〜10cから測距瞳距離d4だけ離間した射出瞳90上に投影され、その投影形状は測距瞳92,93を形成する。すなわち、投影距離d4にある射出瞳90上で各画素の光電変換部の投影形状(測距瞳92,93)が一致するように、各画素における光電変換部の投影方向が決定されている。   The microlenses 10a to 10c are disposed in the vicinity of the planned imaging plane of the interchangeable lens, and the shapes of the photoelectric conversion units 12a, 12b, 13a, and 13b disposed behind the microlenses 10a to 10c are the microlenses 10a to 10c. Is projected onto an exit pupil 90 separated by a distance measurement pupil distance d4, and the projection shape forms distance measurement pupils 92 and 93. That is, the projection direction of the photoelectric conversion unit in each pixel is determined so that the projection shape (ranging pupils 92 and 93) of the photoelectric conversion unit of each pixel matches on the exit pupil 90 at the projection distance d4.

光電変換部12aは測距瞳92を通過し、マイクロレンズ10aに向う光束72によりマイクロレンズ10a上に形成される像の強度に対応した信号を出力する。また、光電変換部12bは測距瞳92を通過し、マイクロレンズ10cに向う光束82によりマイクロレンズ10c上に形成される像の強度に対応した信号を出力する。さらに、光電変換部13aは測距瞳93を通過し、マイクロレンズ10bに向う光束73によりマイクロレンズ10b上に形成される像の強度に対応した信号を出力する。また、光電変換部13bは測距瞳92を通過し、マイクロレンズ10dに向う光束83によりマイクロレンズ10d上に形成される像の強度に対応した信号を出力する。   The photoelectric conversion unit 12a passes through the distance measuring pupil 92 and outputs a signal corresponding to the intensity of the image formed on the microlens 10a by the light beam 72 directed to the microlens 10a. The photoelectric conversion unit 12b outputs a signal corresponding to the intensity of the image formed on the microlens 10c by the light beam 82 passing through the distance measuring pupil 92 and directed to the microlens 10c. Further, the photoelectric conversion unit 13a outputs a signal corresponding to the intensity of the image formed on the microlens 10b by the light flux 73 passing through the distance measuring pupil 93 and directed to the microlens 10b. In addition, the photoelectric conversion unit 13b outputs a signal corresponding to the intensity of the image formed on the microlens 10d by the light beam 83 passing through the distance measuring pupil 92 and directed to the microlens 10d.

このような2種類の画素を直線状に多数配置し、各画素の光電変換部の出力を測距瞳92および測距瞳93に対応した出力グループにまとめることによって、測距瞳92と測距瞳93を各々通過する焦点検出光束が画素列上に形成する一対の像の強度分布に関する情報が得られる。この情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。そして、この像ズレ量に所定の変換係数を乗ずることにより、予定結像面に対する現在の結像面(予定結像面上のマイクロレンズアレイの位置に対応した焦点検出位置における結像面)の偏差(デフォーカス量)が算出される。   A large number of these two types of pixels are arranged in a straight line, and the output of the photoelectric conversion unit of each pixel is grouped into an output group corresponding to the distance measuring pupil 92 and the distance measuring pupil 93, so that the distance measuring pupil 92 and the distance measuring Information on the intensity distribution of a pair of images formed on the pixel array by the focus detection light fluxes that pass through the pupils 93 is obtained. By applying an image shift detection calculation process (correlation calculation process, phase difference detection process), which will be described later, to this information, an image shift amount of a pair of images is detected by a so-called pupil division type phase difference detection method. Then, by multiplying this image shift amount by a predetermined conversion coefficient, the current imaging plane with respect to the planned imaging plane (the imaging plane at the focus detection position corresponding to the position of the microlens array on the planned imaging plane). A deviation (defocus amount) is calculated.

図6は射出瞳面における投影関係を示す図である。各画素から光電変換部をマイクロレンズにより射出瞳面90に投影した測距瞳92,93は、光学系の射出瞳89を含むような大きさに設定されている。したがって、実際に画素の光電変換部が受光する光束は、測距瞳92,93を光学系の射出瞳89で絞り込んだ領域を通過する光束となる。このように、測距瞳92、93を光学系の射出瞳89より大きな領域に設定することによって、光学系の絞りを制御したときに光電変換部で絞りの制御量に応じた光量を受光することが可能になり、画素の出力を画像データとして用いるのに適した構成となる。   FIG. 6 is a diagram showing a projection relationship on the exit pupil plane. The distance measuring pupils 92 and 93 obtained by projecting the photoelectric conversion unit from each pixel onto the exit pupil plane 90 by the microlens are set to a size including the exit pupil 89 of the optical system. Therefore, the light beam actually received by the photoelectric conversion unit of the pixel is a light beam that passes through a region in which the distance measuring pupils 92 and 93 are narrowed by the exit pupil 89 of the optical system. In this way, by setting the distance measuring pupils 92 and 93 in a region larger than the exit pupil 89 of the optical system, the photoelectric conversion unit receives a light amount corresponding to the control amount of the aperture when the aperture of the optical system is controlled. This makes it possible to use a pixel output as image data.

図7により、瞳分割型位相差検出方式における像の形成状態を説明する。図7(a)に示すように、光学系の射出瞳面90において測距瞳92、93に分割され、像を形成する光束は測距瞳92を通過する光束72と、測距瞳93を通過する光束73とに分割される。このような構成により、例えば光軸91上にあり図7の紙面に垂直な方向の線パターン(黒地に白線)を光学系により結像させた場合、合焦面P0においては測距瞳92を通過する光束72と測距瞳93を通過する光束73は、図7(c)に示すように光軸91上の同じ位置に高コントラストな線像パターンを形成する。   The image formation state in the pupil division type phase difference detection method will be described with reference to FIG. As shown in FIG. 7A, the light beam which is divided into distance measuring pupils 92 and 93 on the exit pupil plane 90 of the optical system and forms an image is divided into a light beam 72 passing through the distance measuring pupil 92 and a distance measuring pupil 93. It is divided into a luminous flux 73 that passes through. With such a configuration, for example, when a line pattern (white line on a black background) on the optical axis 91 and perpendicular to the paper surface of FIG. 7 is imaged by the optical system, the distance measuring pupil 92 is formed on the focusing plane P0. The light beam 72 passing through and the light beam 73 passing through the distance measuring pupil 93 form a high-contrast line image pattern at the same position on the optical axis 91 as shown in FIG.

一方、合焦面P0より前方の面P1においては、測距瞳92を通過する光束72と測距瞳93を通過する光束73は、図7(b)に示すように異なる位置にぼけた線像パターンを形成する。また、合焦面P0より後方の面P2においては、測距瞳92を通過する光束72と測距瞳93を通過する光束73は、図7(d)に示すように、図7(b)とは反対方向の異なる位置にぼけた線像パターンを形成する。したがって、測距瞳92を通過する光束72と測距瞳93を通過する光束73とにより形成される2つの像を分離して検出し、2つの像の相対的な位置関係(像ズレ量)を算出することによって、2つの像を検出した面における光学系の焦点調節状態を検出できる。   On the other hand, on the plane P1 ahead of the focusing plane P0, the light beam 72 passing through the distance measuring pupil 92 and the light beam 73 passing through the distance measuring pupil 93 are lines blurred at different positions as shown in FIG. 7B. An image pattern is formed. On the surface P2 behind the focusing plane P0, the light beam 72 passing through the distance measuring pupil 92 and the light beam 73 passing through the distance measuring pupil 93 are as shown in FIG. 7 (b). A blurred line image pattern is formed at a different position in the opposite direction. Therefore, two images formed by the light beam 72 passing through the distance measuring pupil 92 and the light beam 73 passing through the distance measuring pupil 93 are detected separately, and the relative positional relationship (image shift amount) between the two images is detected. By calculating the focus adjustment state of the optical system on the surface where the two images are detected can be detected.

図8は、一実施の形態のデジタルスチルカメラ(撮像装置)の動作を示すフローチャートである。ボディ駆動制御装置214は、カメラの電源がオンされるとこの動作を繰り返し実行する。ステップ100で電源がオンされるとステップ110へ進み、撮像素子211から一対の画像データ(2種類の画素のデータ)を読み出し、一対の画像データを加算して基本画像データを生成する。ステップ120では画面を微小領域に分割した微小ブロックごとに後述する像ズレ検出演算処理(相関演算処理)を行い、像ズレ量を演算し、さらにデフォーカス量を算出してデフォーカス分布情報を生成する。   FIG. 8 is a flowchart illustrating the operation of the digital still camera (imaging device) according to the embodiment. The body drive control device 214 repeatedly executes this operation when the camera is powered on. When the power is turned on in step 100, the process proceeds to step 110, a pair of image data (data of two types of pixels) is read from the image sensor 211, and a pair of image data is added to generate basic image data. In step 120, image shift detection calculation processing (correlation calculation processing) described later is performed for each minute block obtained by dividing the screen into minute regions, the image shift amount is calculated, and the defocus amount is calculated to generate defocus distribution information. To do.

ステップ130において、デフォーカス分布情報に基づいて基本画像データに対してボケ制御の画像処理を行う。この処理については詳細を後述する。続くステップ140では画像処理が行われた基本画像データを電子ビューファインダーに表示させる。ステップ150で焦点検出位置のデフォーカス量が合焦近傍か否か、つまり算出されたデフォーカス量の絶対値が所定値以内であるか否かを調べる。なお、焦点検出位置は不図示の位置設定操作部材を用いて撮影者により指定されている。合焦近傍でないと判定した場合はステップ160へ進み、デフォーカス量をレンズ駆動制御装置206へ送信して交換レンズ202のフォーカシングレンズ210を合焦位置に駆動させ、ステップ110へ戻って上述した動作を繰り返す。なお、焦点検出不能な場合もステップ160へ分岐し、レンズ駆動制御装置206へスキャン駆動命令を送信し、交換レンズ202のフォーカシングレンズ210を無限から至近までの間でスキャン駆動させ、ステップ110へ戻って上述した動作を繰り返す。   In step 130, image processing for blur control is performed on the basic image data based on the defocus distribution information. Details of this process will be described later. In subsequent step 140, the basic image data subjected to the image processing is displayed on the electronic viewfinder. In step 150, it is checked whether or not the defocus amount at the focus detection position is close to focusing, that is, whether or not the absolute value of the calculated defocus amount is within a predetermined value. The focus detection position is designated by the photographer using a position setting operation member (not shown). If it is determined that the lens is not in focus, the process proceeds to step 160 where the defocus amount is transmitted to the lens drive control unit 206 to drive the focusing lens 210 of the interchangeable lens 202 to the in-focus position, and the process returns to step 110 to perform the above-described operation. repeat. Even when focus detection is impossible, the process branches to step 160, a scan drive command is transmitted to the lens drive control device 206, and the focusing lens 210 of the interchangeable lens 202 is scanned from infinity to the nearest position, and the process returns to step 110. The above operation is repeated.

合焦近傍であると判定した場合はステップ170へ進み、不図示の操作部材の操作によりシャッターレリーズがなされたか否かを判定し、なされていないと判定された場合はステップ110へ戻って上述した動作を繰り返す。一方、シャッターレリーズがなされたと判定された場合はステップ180へ進み、撮像素子211に撮像動作を行わせ、撮像素子211から一対の画像データ(2種類の画素のデータ)を読み出し、一対の画像データを独立にメモリーカード219に格納する。   If it is determined that it is close to the in-focus state, the process proceeds to step 170 to determine whether or not a shutter release has been performed by operating an operation member (not shown). If it is determined that the shutter release has not been performed, the process returns to step 110 and described above. Repeat the operation. On the other hand, if it is determined that the shutter release has been performed, the process proceeds to step 180 where the image pickup device 211 performs an image pickup operation, reads a pair of image data (data of two types of pixels) from the image pickup device 211, and a pair of image data. Are stored in the memory card 219 independently.

図9により、図8のステップ120で実行されるデフォーカス量算出処理の詳細を説明する。微小ブロックにおける一対の画素データを(E(1)〜E(m))、(F(1)〜F(m)、mはデータ数)と一般化して表現した場合に、データ系列(E(1)〜E(m))に対しデータ系列(F(1)〜F(m)を相対的にずらしながら数式1により2つのデータ列間のずらし量kにおける相関量C(k)を演算する。
C(k)=Σ|E(n)−F(n+k)| ・・・(1)
(1)式において、Σ演算はnについて計算される。このΣ演算においてn、n+kのとる範囲は1〜mの範囲に限定される。また、ずらし量kは整数であり、一対のデータの検出ピッチを単位とした相対的シフト量である。
The details of the defocus amount calculation process executed in step 120 of FIG. 8 will be described with reference to FIG. When a pair of pixel data in a minute block is expressed as (E (1) to E (m)), (F (1) to F (m), where m is the number of data), the data series (E ( 1) to E (m)), the correlation amount C (k) in the shift amount k between the two data strings is calculated by Equation 1 while relatively shifting the data series (F (1) to F (m)). .
C (k) = Σ | E (n) −F (n + k) | (1)
In the equation (1), the Σ operation is calculated for n. In this Σ operation, the range of n and n + k is limited to a range of 1 to m. The shift amount k is an integer, and is a relative shift amount in units of the detection pitch of a pair of data.

(1)式の演算結果は、図9(a)に示すように、一対のデータ系列の相関が高いシフト量(図9(a)ではk=kj=2)において相関量C(k)が最小(小さいほど相関度が高い)になる。続いて下記(2)〜(5)式による3点内挿の手法を用い、連続的な相関量に対する最小値C(x)を与えるシフト量xを求める。
x=kj+D/SLOP ・・・(2),
C(x)= C(kj)−|D| ・・・(3),
D={C(kj-1)−C(kj+1)}/2 ・・・(4),
SLOP=MAX{C(kj+1)−C(kj),C(kj-1)−C(kj)} ・・・(5)
As shown in FIG. 9A, the calculation result of the expression (1) shows that the correlation amount C (k) is the shift amount with high correlation between the pair of data series (k = kj = 2 in FIG. 9A). The minimum (the smaller the value, the higher the degree of correlation). Subsequently, the shift amount x that gives the minimum value C (x) with respect to the continuous correlation amount is obtained by using a three-point interpolation method according to the following equations (2) to (5).
x = kj + D / SLOP (2),
C (x) = C (kj) − | D | (3),
D = {C (kj-1) -C (kj + 1)} / 2 (4),
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)} (5)

(2)式で求めたシフト量xより、被写体像面の予定結像面に対するデフォーカス量DEFを下記(6)式で求めることができる。
DEF=KX・PY・x ・・・(6)
(6)式において、PYは検出ピッチ(同一種類の画素の配置ピッチ)であり、KXは一対の測距瞳を通過する光束の重心の開き角の大きさによって決まる変換係数である。また、一対のデータ系列がぴったり合致した場合(x=0)は、実際にはデータ列が検出ピッチの半分だけすれた状態となるので、(2)式で求めたシフト量は半ピッチ分だけ補正されて(6)式に適用される。さらに、一対の測距瞳を通過する光束の重心の開き角の大きさは、交換レンズ202の絞り開口の大きさ(開放絞り値)に応じて変化するので、レンズ情報に応じて決定される。
The defocus amount DEF of the subject image plane with respect to the planned imaging plane can be obtained from the following equation (6) from the shift amount x obtained from the equation (2).
DEF = KX · PY · x (6)
In equation (6), PY is a detection pitch (arrangement pitch of the same type of pixels), and KX is a conversion coefficient determined by the size of the opening angle of the center of gravity of the light beam passing through the pair of distance measuring pupils. In addition, when the pair of data series exactly match (x = 0), the data string is actually shifted by half of the detected pitch, so the shift amount obtained by equation (2) is only half the pitch. It is corrected and applied to equation (6). Furthermore, since the size of the opening angle of the center of gravity of the light beam passing through the pair of distance measuring pupils changes according to the size of the aperture of the interchangeable lens 202 (open aperture value), it is determined according to the lens information. .

算出されたデフォーカス量DEFの信頼性があるかどうかは、以下のようにして判定される。図9(b)に示すように、一対のデータ系列の相関度が低い場合は、内挿された相関量の最小値C(x)の値が大きくなる。したがって、C(x)が所定値以上の場合は信頼性が低いと判定する。あるいは、C(x)をデータのコントラストで規格化するために、コントラストに比例した値となるSLOPでC(x)を除した値が所定値以上の場合は信頼性が低いと判定する。あるいはまた、コントラストに比例した値となるSLOPが所定値以下の場合は、被写体が低コントラストであり、算出されたデフォーカス量DEFの信頼性が低いと判定する。   Whether or not the calculated defocus amount DEF is reliable is determined as follows. As shown in FIG. 9B, when the degree of correlation between the pair of data series is low, the value of the minimum value C (x) of the interpolated correlation amount becomes large. Therefore, when C (x) is equal to or greater than a predetermined value, it is determined that the reliability is low. Alternatively, in order to normalize C (x) with the contrast of data, if the value obtained by dividing C (x) by SLOP that is proportional to the contrast is equal to or greater than a predetermined value, it is determined that the reliability is low. Alternatively, if SLOP that is proportional to the contrast is equal to or less than a predetermined value, it is determined that the subject has low contrast and the reliability of the calculated defocus amount DEF is low.

図9(c)に示すように、一対のデータ系列の相関度が低く、所定のシフト範囲kmin〜kmaxの間で相関量C(k)の落ち込みがない場合は、最小値C(x)を求めることができず、このような場合は焦点検出不能と判定する。焦点検出が可能であった場合は、算出された像ズレ量に所定の変換係数を乗じてデフォーカス量を算出する。   As shown in FIG. 9C, when the correlation between the pair of data series is low and there is no drop in the correlation amount C (k) between the predetermined shift ranges kmin to kmax, the minimum value C (x) is set. In such a case, it is determined that the focus cannot be detected. When focus detection is possible, the defocus amount is calculated by multiplying the calculated image shift amount by a predetermined conversion coefficient.

上述した説明では一対のデータ系列について求めたデフォーカス量を採用しているが、同一微小ブロック内の複数対のデータ系列について求めたデフォーカス量を統計処理(例えば平均やメディアンなど)をして最終的なデフォーカス量を求めてもよい。   In the above description, the defocus amount obtained for a pair of data series is adopted, but the defocus amount obtained for a plurality of pairs of data series in the same minute block is subjected to statistical processing (for example, average or median). The final defocus amount may be obtained.

図10は、図8のステップ110〜130における画像処理の概要を示すブロック図である。右測距瞳画像デ−タR(x,y)、左測距瞳画像データL(x,y)を加算して基本画像データg(x,y)を算出する。ここで、(x,y)は画素の2次元の離散的な位置を表し、図2に示す撮像素子211においてxが水平方向、yが垂直方向に対応する。ただし、右測距瞳画像デ−タR(x,y)はxが奇数の場合のみ存在し、左測距瞳画像データL(x,y)はxが偶数の場合のみ存在するものとする。
g(x,y)=R(x,y)+(L(x-1,y)+L(x+1,y))/2、If x:奇数、
g(x,y)=L(x,y)+(R(x-1,y)+R(x+1,y))/2、If x:偶数
・・・(7)
デフォーカス分布情報データd(p,q)を、図9に説明すように分割された微小ブロックごとに算出する。ここで、(p,q)は微小ブロックの2次元の離散的な位置を表す。
FIG. 10 is a block diagram showing an overview of image processing in steps 110 to 130 of FIG. The right ranging pupil image data R (x, y) and the left ranging pupil image data L (x, y) are added to calculate basic image data g (x, y). Here, (x, y) represents a two-dimensional discrete position of the pixel, and in the image sensor 211 shown in FIG. 2, x corresponds to the horizontal direction and y corresponds to the vertical direction. However, the right ranging pupil image data R (x, y) exists only when x is an odd number, and the left ranging pupil image data L (x, y) exists only when x is an even number. .
g (x, y) = R (x, y) + (L (x-1, y) + L (x + 1, y)) / 2, If x: odd number,
g (x, y) = L (x, y) + (R (x-1, y) + R (x + 1, y)) / 2, If x: even number
... (7)
Defocus distribution information data d (p, q) is calculated for each small block divided as described in FIG. Here, (p, q) represents a two-dimensional discrete position of the minute block.

微小ブロック内の基本画像データg(x,y)に対し、微小ブロックのデフォーカス量および外部より指定された画像処理制御パラメータに応じて画像処理を施し、画像処理済みの基本画像データG(x,y)を生成する。
G(x,y)=F(g(x,y),d,z) ・・・(8)
関数Fは、デフォーカス量dとパラメータzに応じて画像データに画像処理を加える関数である。
The basic image data g (x, y) in the minute block is subjected to image processing according to the defocus amount of the minute block and the image processing control parameter designated from the outside, and the basic image data G (x , Y).
G (x, y) = F (g (x, y), d, z) (8)
The function F is a function for applying image processing to image data in accordance with the defocus amount d and the parameter z.

このように、右測距瞳画像デ−タと左測距瞳画像データを加算した基本画像データに対して画像処理を行っているので、焦点調節に応じて画像の重心位置が移動することがなく、画像処理済みの基本画像データを電子ビューファインダーで表示した場合でも違和感なく自然に観察することができる。一方の画像データのみに画像処理を加えた場合には、焦点調節状に応じて画像の重心位置が移動してしまうので、電子ビューファインダーで表示した場合に違和感が生じ、不自然さが感じられてしまう(図7参照)。   As described above, since the image processing is performed on the basic image data obtained by adding the right ranging pupil image data and the left ranging pupil image data, the barycentric position of the image may be moved according to the focus adjustment. In addition, even when image-processed basic image data is displayed on the electronic viewfinder, it can be observed naturally without a sense of incongruity. When image processing is applied to only one of the image data, the center of gravity of the image moves according to the focus adjustment, so that an uncomfortable feeling occurs when displayed with an electronic viewfinder, and unnaturalness is felt. (See FIG. 7).

また、一方の画像データのみに画像処理を加えた場合には、もともとの画像データが一対の測距瞳の片側の測距瞳を通過する光束により形成される像に対応しているので、測距瞳の形状(絞りにより制限されるので半円状になる)を反映したボケ味になり、ボケを加味した後の画像データでも電子ビューファインダーで表示した場合に違和感が生じ、不自然さが感じられてしまう。   In addition, when image processing is applied to only one of the image data, the original image data corresponds to an image formed by a light flux that passes through the distance measuring pupil on one side of the pair of distance measuring pupils. The bokeh reflects the shape of the distance pupil (it becomes semicircular because it is limited by the aperture), and even when the image data after adding blur is displayed on the electronic viewfinder, a sense of incongruity occurs and the unnaturalness I feel it.

図11は、図8のステップ120〜130における画像処理の詳細を示すフローチャートである。ステップ200において画面を図12に示すように微小ブロック101に分割し、微小ブロックごとにデフォーカス量を算出する。これにより、画面全体に渡り図13に示すような二次元状のデフォーカス量dの分布情報(デフォーカス分布情報d(p、q))が得られる。ステップ210でデフォーカス分布情報d(p、q)に基づいてデフォーカス量dのヒストグラムを算出する(図14参照)。   FIG. 11 is a flowchart showing details of the image processing in steps 120 to 130 of FIG. In step 200, the screen is divided into minute blocks 101 as shown in FIG. 12, and the defocus amount is calculated for each minute block. As a result, two-dimensional distribution information of the defocus amount d (defocus distribution information d (p, q)) as shown in FIG. 13 is obtained over the entire screen. In step 210, a histogram of the defocus amount d is calculated based on the defocus distribution information d (p, q) (see FIG. 14).

ステップ220において、デフォーカス量dのヒストグラムに基づいて頻度が低いデフォーカス量を境界としてデフォーカス量を複数の範囲に類別する。ここでは、図15に示すような基本画像データを例に上げて説明する。図15において、近景が主要被写体の人物であり、中景が建物、遠景が空と雲になっている。この基本画像データに対しデフォーカス量dのヒストグラムをとると、図14に示すように、近景に対応した部分113、中景に対応した部分114、遠景に対応した部分115に大まかに類別することができる。部分113と114の中間(谷間)にしきい値デフォーカス量d1を、部分114と115の中間にしきい値デフォーカス量d2をそれぞれ設定し、デフォーカス範囲をL1(+∞>d≧d1)、L2(d1>d≧d2)、L3(d2>d>−∞)の3つの範囲に分割する。各デフォーカス範囲L1、L2、L3を代表するデフォーカス量をDL1、DL2、DL3とする。   In step 220, the defocus amount is classified into a plurality of ranges based on the defocus amount with a low frequency based on the defocus amount d histogram. Here, basic image data as shown in FIG. 15 will be described as an example. In FIG. 15, the near view is a person who is a main subject, the middle view is a building, and the distant view is a sky and clouds. When a histogram of the defocus amount d is taken with respect to this basic image data, as shown in FIG. 14, it is roughly classified into a portion 113 corresponding to the near view, a portion 114 corresponding to the middle view, and a portion 115 corresponding to the distant view. Can do. A threshold defocus amount d1 is set between the portions 113 and 114 (valley), a threshold defocus amount d2 is set between the portions 114 and 115, and the defocus range is set to L1 (+ ∞> d ≧ d1), Dividing into three ranges of L2 (d1> d ≧ d2) and L3 (d2> d> −∞). Defocus amounts representative of the defocus ranges L1, L2, and L3 are DL1, DL2, and DL3.

ステップ230では微小ブロックのデフォーカス量dがどのデフォーカス範囲に属するかによって、微小ブロックを4つのデフォーカス属性(H0:焦点検出不能、H1:デフォーカス範囲L1、H2:デフォーカス範囲L2、H3:デフォーカス範囲L3)に類別する(図16参照)。ステップ240において、低コントラスト等の原因で焦点検出不能な微小ブロック(属性H0)に対して、周囲の微小ブロックとの画像特性と類似性に基づいてデフォーカス特性H1,H2,H3を決定する。   In step 230, depending on which defocus range the defocus amount d of the micro block belongs to, the micro block has four defocus attributes (H0: focus cannot be detected, H1: defocus range L1, H2: defocus range L2, H3). : Defocus range L3) (see FIG. 16). In step 240, defocus characteristics H 1, H 2, and H 3 are determined based on image characteristics and similarities with surrounding micro blocks for a micro block (attribute H 0) incapable of focus detection due to low contrast or the like.

例えば、基本画像データより肌色の領域(図17の130)を切り出し、この領域に含まれる微小ブロックのデフォーカス属性が1つの属性H1に集中している場合には、この領域に属する焦点検出不能な微小ブロックの属性をH1とする。あるいは、この領域の外形輪郭部分に属する微小ブロックのデフォーカス属性が1つの属性H1に集中している場合には、この領域に属する焦点検出不能な微小ブロックの属性をH1とする。また、例えば基本画像データに対して輪郭抽出の画像処理を施した画像データ(図18参照)に基づき、輪郭線131を含む微小ブロックが焦点検出不能である場合には、輪郭線が連続している方向の周囲の焦点検出可能な微小ブロックのデフォーカス属性を該焦点検出不能な微小ブロックの属性として採用する。   For example, when a skin color region (130 in FIG. 17) is cut out from the basic image data and the defocus attributes of the minute blocks included in this region are concentrated on one attribute H1, focus detection that belongs to this region is impossible. Let H1 be the attribute of a small block. Alternatively, when the defocus attributes of the minute blocks belonging to the outer contour portion of this region are concentrated on one attribute H1, the attribute of the minute block that cannot be detected in the focus belonging to this region is set to H1. For example, based on image data obtained by performing contour extraction image processing on basic image data (see FIG. 18), when the focus detection is impossible for a minute block including the contour 131, the contour is continuous. The defocus attribute of the minute block capable of detecting the focus in the surrounding direction is adopted as the attribute of the minute block incapable of detecting the focus.

焦点検出不能な微小ブロックのデフォーカス属性決定方法は上記の方法に限定されず、焦点検出不能な微小ブロックと焦点検出可能な周囲の微小ブロックとの画像特性の類似性および連続性に基づいて決定することができる。画像特性としては、輝度情報、色相情報、彩度情報、コントラスト情報などを使用することができる。   The method for determining the defocus attribute of a minute block incapable of focus detection is not limited to the above method, and is determined based on the similarity and continuity of image characteristics of a minute block incapable of focus detection and surrounding minute blocks in which focus detection is possible. can do. As image characteristics, luminance information, hue information, saturation information, contrast information, and the like can be used.

ステップ250で微小ブロックのデフォーカス属性に基づいて微小ブロックをグループ化する。ここでは、図19に示すように、グループJ1、グループJ2、グループJ3に分類する。続くステップ260では同一グループに属する微小ブロックをまとめ、グループごとに抜き出す。図20にはグループJ1を、図21にはグループJ2を、図22にはグループJ3をそれぞれ抜き出した例を示す。次に、抜き出した領域に対応する基本画像データ部分を切り出す。図23(a)にはグループJ1に対応する基本画像データ部分を、図24(a)にはグループJ2に対応する基本画像データ部分を、図25(a)にはグループJ3に対応する基本画像データ部分をそれぞれ示す。   In step 250, the minute blocks are grouped based on the defocus attribute of the minute block. Here, as shown in FIG. 19, it is classified into group J1, group J2, and group J3. In subsequent step 260, the minute blocks belonging to the same group are collected and extracted for each group. FIG. 20 shows an example of extracting the group J1, FIG. 21 shows the group J2, and FIG. 22 shows the group J3. Next, the basic image data portion corresponding to the extracted area is cut out. 23A shows the basic image data portion corresponding to the group J1, FIG. 24A shows the basic image data portion corresponding to the group J2, and FIG. 25A shows the basic image data portion corresponding to the group J3. Each data part is shown.

ステップ270において、切り出した部分画像データに対して、デフォーカス属性と指定された画像処理制御パラメータに応じた画像処理を施し、グループごとに画像レイヤーを生成する。図23(b)にグループJ1に対応する画像レイヤーを、図24(b)にグループJ2に対応する画像レイヤーを、図25(b)にグループJ3に対応する画像レイヤーをそれぞれ示す。ステップ280で画像レイヤーを距離に応じた順序に重ねていき、最終的な画像処理済みの基本画像データを生成する。ここでは、遠景が下、近景が上になる順序で重ねる。図26は遠景の上に中景を重ねた段階の画像を示し、図27は図26の上に近景を重ね完成した段階の画像を示す。   In step 270, image processing corresponding to the defocus attribute and the designated image processing control parameter is performed on the cut out partial image data, and an image layer is generated for each group. FIG. 23B shows an image layer corresponding to the group J1, FIG. 24B shows an image layer corresponding to the group J2, and FIG. 25B shows an image layer corresponding to the group J3. In step 280, the image layers are superimposed in the order corresponding to the distance, and final image-processed basic image data is generated. Here, the distant view is overlaid and the close-up view is overlaid in order. FIG. 26 shows an image at a stage where a middle scene is overlaid on a distant view, and FIG. 27 shows an image at a stage where a near scene is superimposed on FIG.

次に、ステップ270における画像処理を詳細に説明する。部分画像W(x,y)に対し、この部分画像のデフォーカス属性および指定された画像処理制御パラメータに基づいて画像処理が施される。ここでは、画像処理例としてボケ付加処理を行う。部分画像W(x,y)に対し、ボケによる点像分布関数(ポイントスプレッドファンクションPSF(x,y))をコンボルーション演算(フィルタリング演算)し、処理済み部分画像V(x,y)を生成する。
V(x,y)=W(x,y)◇PSF(x,y) ・・・(9)
(9)式において、◇ は二次元のコンボルーション演算を表す。なお、∫∫PSF(x,y)dxdy=1とする。
Next, the image processing in step 270 will be described in detail. Image processing is performed on the partial image W (x, y) based on the defocus attribute of the partial image and the designated image processing control parameter. Here, blur addition processing is performed as an example of image processing. The partial image W (x, y) is subjected to a convolution operation (filtering operation) with a point spread function (point spread function PSF (x, y)) by blur to generate a processed partial image V (x, y). To do.
V (x, y) = W (x, y) PSF (x, y) (9)
In equation (9), ◇ represents a two-dimensional convolution operation. Note that ∫∫PSF (x, y) dxdy = 1.

点像分布関数PSF(x,y)は例えば次のようにする。
PSF(x,y)=1/(π*r2) if x2+y2≦r2,
PSF(x,y)=0 if x2+y2>r2 ・・・(10)
(10)式において、rは点像ボケの半径、ただしr=0の場合はPSF(x,y)=δ(x,y)とする。
r=Zf・|dL| ・・・(11)
(11)式において、Zfは画像処理制御パラメータであり、不図示の操作部材の操作により手動で入力されるか、あるいは露出制御に応じて自動で入力される絞り開口F値に相当するパラメータである。また、dLは部分画像のデフォーカス属性に応じたデフォーカス量である。例えばデフォーカス属性H1(デフォーカス範囲L1)についてはデフォーカス量dL1、デフォーカス属性H2(デフォーカス範囲L2)についてはデフォーカス量dL2、デフォーカス属性H3(デフォーカス範囲L3)についてはデフォーカス量dL3となる(図14参照)。
For example, the point spread function PSF (x, y) is as follows.
PSF (x, y) = 1 / (π * r2) if x2 + y2 ≦ r2,
PSF (x, y) = 0 if x2 + y2> r2 (10)
In the equation (10), r is the radius of the point image blur. However, when r = 0, PSF (x, y) = δ (x, y).
r = Zf · | dL | (11)
In the equation (11), Zf is an image processing control parameter, which is a parameter corresponding to the aperture F value that is manually input by operating an operation member (not shown) or automatically input according to exposure control. is there. DL is a defocus amount corresponding to the defocus attribute of the partial image. For example, for the defocus attribute H1 (defocus range L1), the defocus amount dL1, for the defocus attribute H2 (defocus range L2), the defocus amount dL2, and for the defocus attribute H3 (defocus range L3), the defocus amount. dL3 (see FIG. 14).

(11)式により、半径rの値はデフォーカス量dLと入力値Zfに応じて変化するので、部分画像に加えられる画像処理の量も変化する。例えば図14においてデフォーカス量dL1=0とすれば、図23に示すように画像処理前の基本画像データ(a)と画像処理後の基本画像データ(b)は変化しないが、デフォーカス量dLが大きくなるほど画像処理後の基本画像データのボケ量は大きくなる。また、パラメータZfの値が大きくなるほど画像処理後の基本画像データのボケ量は大きくなる。   According to equation (11), the value of the radius r changes according to the defocus amount dL and the input value Zf, so the amount of image processing applied to the partial image also changes. For example, if the defocus amount dL1 = 0 in FIG. 14, the basic image data (a) before image processing and the basic image data (b) after image processing do not change as shown in FIG. 23, but the defocus amount dL The larger the is, the larger the blur amount of the basic image data after image processing is. Further, as the value of the parameter Zf increases, the amount of blur of the basic image data after image processing increases.

画像処理制御パラメータZfを入力するための操作部材は、露光時の絞り開口F値を設定するために通常使用される操作部材を拡張して使用することができる。例えば、交換レンズに設けられている絞り設定のための絞り環の操作に応じて、絞り開口の大きさが対応できる限界までは絞りを制御してビューファインダー表示や撮像を行い、絞り開口の限界を超えた絞り設定の場合は、画像処理による画像をビューファインダー表示や撮像に使用することができる。もちろん、画像処理専用のパラメータ入力操作部材を設けてもよい。   The operation member for inputting the image processing control parameter Zf can be used by expanding the operation member that is normally used for setting the aperture F value at the time of exposure. For example, according to the operation of the aperture ring for the aperture setting provided on the interchangeable lens, the viewfinder display and imaging are performed by controlling the aperture to the limit that the aperture aperture can accommodate, and the aperture aperture limit In the case of an aperture setting exceeding 1, an image obtained by image processing can be used for viewfinder display and imaging. Of course, a parameter input operation member dedicated to image processing may be provided.

点像分布関数PSF(x,y)は(11)式に示すようなステップ関数に限定されず、関数の形状がなめらかに変化するものであってもよい。関数の形状、大きさを調整することによってボケ味の制御を行うことができる。   The point spread function PSF (x, y) is not limited to the step function as shown in the equation (11), and the shape of the function may change smoothly. Bokeh can be controlled by adjusting the shape and size of the function.

上述した画像処理では部分画像に対し個別の画像処理を加え、画像処理後の部分画像を合成することによって最終的な画像処理済み画像を生成している。デフォーカス量のヒストグラムに応じて、相対的な距離が近接している被写体が同じ部分画像に入るように部分画像の切り出しを行っているので、画像処理後の部分画像を合成した場合にも、違和感のない自然な合成画像を得ることができる。また、画像処理後の部分画像を合成する際に、部分画像のつなぎ目近傍(境界近傍)がより自然になるような画像処理、例えば平均化処理や輪郭強調処理を施してもよい。   In the image processing described above, individual image processing is applied to the partial images, and the final image processed image is generated by synthesizing the partial images after the image processing. Depending on the histogram of defocus amount, the partial image is cut out so that the subject whose relative distance is close enters the same partial image, so even when combining the partial images after image processing, A natural composite image without a sense of incongruity can be obtained. Further, when combining the partial images after the image processing, image processing such as averaging processing or contour enhancement processing may be performed so that the vicinity of the joints (near the boundary) of the partial images becomes more natural.

また、デフォーカス量とボケ量を関係づける式は(11)式に限定されず、合焦位置オフセット用のピント調整パラメーターOffを加えた次式を用いてもよい。
r=Zf・|dL−Off| ・・・(12)
合焦位置オフセット用のピント調整パラメーターOffを手動または自動で調整することによって、基本画像データに対してフォーカス位置を調整変更した画像処理済みの基本画像データを生成することも可能になる。
Further, the expression relating the defocus amount and the blur amount is not limited to the expression (11), and the following expression in which a focus adjustment parameter Off for the focus position offset is added may be used.
r = Zf · | dL−Off | (12)
By adjusting the focus adjustment parameter Off for the focus position offset manually or automatically, it is also possible to generate image-processed basic image data in which the focus position is adjusted and changed with respect to the basic image data.

基本画像データの生成に関しては(7)式のような単純加算平均に限定されず、画像の重心位置がデフォーカス量に応じて変化しない処理であれば、重み付け加算平均やその他の合成演算処理を用いることができる。   The generation of the basic image data is not limited to the simple addition average as shown in the expression (7), and weighted addition average and other synthesis calculation processes are performed as long as the center of gravity position of the image does not change according to the defocus amount. Can be used.

焦点検出不能な微小ブロックに対し、すべて周囲の微小ブロックとの関係に基づいてデフォーカス量を決定する必要はない。例えば、コントラストが低い画像は画像処理を加えても変化が少ないので、コントラストが所定しきい値値以下の焦点検出不能な微小ブロックに対しては画像処理を加えずにそのまま合成に使用するようにしてもよい。   It is not necessary to determine the defocus amount based on the relationship with the surrounding minute blocks for all the minute blocks where the focus cannot be detected. For example, an image with low contrast has little change even when image processing is applied. Therefore, a fine block whose contrast is equal to or lower than a predetermined threshold value and cannot be detected is used as it is without being subjected to image processing. May be.

画像処理としては(9)式のようなボケ付加処理に限定されず、例えばデフォーカス量dLに応じたパラメータにより鮮明化処理(ハイパスフィルタ処理)を行うことによって、ボケた画像データを回復する画像処理を行ってもよい。このような撮影後にデフォーカス量に応じた鮮明化処理が可能になれば、容易にパンフォーカス画像を得ることができる。また、光量不足のために絞り開口を大きくして撮影せざるを得ない場合にも、撮影した画像データから被写界深度の深い画像データを得ることができる。   The image processing is not limited to the blur addition processing as expressed by the equation (9), and for example, an image that recovers the blurred image data by performing a sharpening process (high-pass filter process) using a parameter corresponding to the defocus amount dL. Processing may be performed. If a sharpening process according to the defocus amount becomes possible after such shooting, a pan-focus image can be easily obtained. Further, even when it is necessary to shoot with a large aperture opening due to insufficient light quantity, image data having a deep depth of field can be obtained from the captured image data.

画像処理としてボケの付加や鮮明化だけでなく、ボケ味(絞り開口形状を反映したボケ形状)を採用することができる。例えば、通常の絞り形状(円形)で撮影した画像データに対し、反射方式のレンズで撮影した場合に生じるリング状のボケとなるような画像処理を施したり、多角形の絞りで撮影した画像データを画像処理して、円形絞りで撮影した画像データにすることも可能である。   As image processing, not only blurring and sharpening but also blurring (a blurred shape reflecting the aperture opening shape) can be employed. For example, image data shot with a normal aperture shape (circular) is subjected to image processing that causes ring-shaped blurring when shooting with a reflective lens, or image data shot with a polygonal aperture. Can be processed into image data photographed with a circular aperture.

また、特定のデフォーカス範囲の画像のみに画像処理を加えることも可能である。例えば、前ボケが汚い場合には前ボケ(デフォーカス量が+)の画像のみにボケ整形画像処理を加え、前ボケが良好な画像を得ることができる。   It is also possible to apply image processing only to an image in a specific defocus range. For example, when the front blur is dirty, it is possible to obtain an image with a good front blur by applying blur shaping image processing only to the front blur (defocus amount +) image.

さらに、デフォーカス量に応じた収差修正処理を行うことも可能である。例えば、デフォーカス量に応じた非点収差やコマ収差などの見苦しいボケが発生する場合でも、本発明の画像処理を適用することにより、好ましいボケに修正することが可能になる。   Furthermore, it is possible to perform aberration correction processing according to the defocus amount. For example, even when an unsightly blur such as astigmatism or coma depending on the defocus amount occurs, it can be corrected to a preferable blur by applying the image processing of the present invention.

上述したようにデフォーカス量に応じて部分画像に対し画像処理を加えることによって、物理的な制限(絞り開口の大きさや形状など)に依存せずに、デフォーカス量に応じた効果が加味された画像を得ることができる。また、例えば物理的な制限(絞り開口の大きさ、形状など)をデフォーカス量に応じた描写コントロール(ボケ味調整、被写界深度調整など)以外の撮影コントロール(全体光量調整、周辺光量調整、収差調整、解像度/コントラスト調整、フレアー/迷光調整など)に使わざるを得ない場合においても、後処理によりデフォーカス量に応じた描写コントロールを追加することができる。   As described above, the image processing is applied to the partial image according to the defocus amount, so that the effect according to the defocus amount is added without depending on physical restrictions (size or shape of the aperture opening). Images can be obtained. In addition, for example, physical control (aperture aperture size, shape, etc.) other than rendering controls (blur adjustment, depth of field adjustment, etc.) according to the defocus amount, shooting controls (total light intensity adjustment, peripheral light intensity adjustment) Even if it has to be used for aberration adjustment, resolution / contrast adjustment, flare / stray light adjustment, etc., it is possible to add depiction control according to the defocus amount by post-processing.

《発明の一実施の形態の変形例》
図28は撮像素子211の画素配列の変形例を示す。画素311はマイクロレンズ10と光電変換部12とから構成される。光電変換部12はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、画素312はマイクロレンズ10と光電変換部13とから構成される。光電変換部13はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。光電変換部12と13は、マイクロレンズ10を重ね合わせて表示した場合、左右水平方向に並んでおり、マイクロレンズ10の垂直2等分線に関して対称な形状をしている。
<< Modification of Embodiment of Invention >>
FIG. 28 shows a modification of the pixel array of the image sensor 211. The pixel 311 includes the microlens 10 and the photoelectric conversion unit 12. The photoelectric conversion unit 12 has a rectangular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. The pixel 312 includes the microlens 10 and the photoelectric conversion unit 13. The photoelectric conversion unit 13 has a rectangular shape in which the right side is substantially in contact with the perpendicular bisector of the microlens 10. The photoelectric conversion units 12 and 13 are aligned in the horizontal direction when the microlenses 10 are displayed in a superimposed manner, and have a symmetrical shape with respect to the vertical bisector of the microlens 10.

画素316はマイクロレンズ10と光電変換部16とから構成される。光電変換部16はマイクロレンズ10の水平2等分線に上辺を略接する長方形状である。また、画素317はマイクロレンズ10と光電変換部17とから構成される。光電変換部17はマイクロレンズ10の水平2等分線に下辺を略接する長方形状である。光電変換部16と17は、マイクロレンズ10を重ね合わせて表示した場合、上下垂直方向に並んでおり、マイクロレンズ10の水平2等分線に関して対称な形状をしている。   The pixel 316 includes the microlens 10 and the photoelectric conversion unit 16. The photoelectric conversion unit 16 has a rectangular shape in which the upper side is substantially in contact with the horizontal bisector of the microlens 10. The pixel 317 includes the microlens 10 and the photoelectric conversion unit 17. The photoelectric conversion unit 17 has a rectangular shape in which the lower side is substantially in contact with the horizontal bisector of the microlens 10. The photoelectric conversion units 16 and 17 are arranged vertically in the vertical direction when the microlenses 10 are superimposed and displayed, and have a symmetrical shape with respect to the horizontal bisector of the microlens 10.

光電変換部16と17に対応する測距瞳96、97を図29に示す。画素316は測距瞳96から来る光束を受光し、画素317は測距瞳97から来る光束を受光する。測距瞳96と測距瞳97は軸xに対し線対称に配置される。   FIG. 29 shows distance measuring pupils 96 and 97 corresponding to the photoelectric conversion units 16 and 17. The pixel 316 receives the light beam coming from the distance measuring pupil 96, and the pixel 317 receives the light beam coming from the distance measuring pupil 97. The distance measuring pupil 96 and the distance measuring pupil 97 are arranged line-symmetrically with respect to the axis x.

図28に示す撮像素子211では、画素311と画素312が水平方向に交互に配置された第1の画素行の次の行に、画素316と画素317が水平方向に交互に配置された第2の画素行が配置され、その次の行には第1の画素行を1画素水平方向にずらした第3の行が配置され、その次の行には第2の画素行を1画素水平方向にずらした第4の行が配置される。以上の4行からなる配列を垂直方向に順次配列している。   In the image sensor 211 shown in FIG. 28, the second pixel in which the pixels 316 and 317 are alternately arranged in the horizontal direction in the row next to the first pixel row in which the pixels 311 and 312 are alternately arranged in the horizontal direction. The pixel row is arranged, and the next row is arranged with a third row obtained by shifting the first pixel row in the horizontal direction by one pixel, and the next row is arranged with the second pixel row in the horizontal direction by one pixel. A fourth row shifted to is arranged. The above four rows of arrays are sequentially arranged in the vertical direction.

このように、画素を水平方向および垂直方向に稠密に配置した正方配列の画素配列においては、水平方向、垂直方向において像ズレ検出が可能になる。したがって、微小ブロックのデフォーカス量を算出するにあたり、被写体パターンの方向性によって焦点検出不能になる確率が減少する。   As described above, in a square pixel array in which pixels are densely arranged in the horizontal direction and the vertical direction, image shift detection can be performed in the horizontal direction and the vertical direction. Therefore, in calculating the defocus amount of a minute block, the probability that focus detection becomes impossible due to the directionality of the subject pattern is reduced.

図30は変形例の画素構成を示す。図30(a)に示すように、画素602はマイクロレンズ10と光電変換部513とから構成される。光電変換部513はマイクロレンズ10の垂直2等分線に右辺を略接する半円形状である。また、図30(b)に示すように、画素601はマイクロレンズ10と光電変換部512とから構成される。光電変換部512はマイクロレンズ10の垂直2等分線に左辺を略接する半円形状である。このような光電変換部形状を設定することによって、交換レンスの最大絞り開口(円形)に対し、限られた半導体基板の表面を効率よく利用できる。   FIG. 30 shows a pixel configuration of a modified example. As illustrated in FIG. 30A, the pixel 602 includes a microlens 10 and a photoelectric conversion unit 513. The photoelectric conversion unit 513 has a semicircular shape in which the right side is substantially in contact with the vertical bisector of the microlens 10. In addition, as illustrated in FIG. 30B, the pixel 601 includes a microlens 10 and a photoelectric conversion unit 512. The photoelectric conversion unit 512 has a semicircular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. By setting such a photoelectric conversion portion shape, the limited surface of the semiconductor substrate can be efficiently used for the maximum aperture (circular shape) of the exchange lens.

図31は変形例の画素構成を示す。画素603はマイクロレンズ10と一対の光電変換部612、613とから構成される。光電変換部612はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部613はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。   FIG. 31 shows a pixel configuration of a modified example. The pixel 603 includes the microlens 10 and a pair of photoelectric conversion units 612 and 613. The photoelectric conversion unit 612 has a rectangular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. The photoelectric conversion unit 613 has a rectangular shape in which the right side is substantially in contact with the vertical bisector of the microlens 10.

図32は、図31に示す画素603の断面図である。画素603において、光電変換部612、613の前方にマイクロレンズ10が配置され、マイクロレンズ10により光電変換部612、613が前方に投影される。光電変換部612、613は、半導体回路基板29上に形成されるとともに、その上にマイクロレンズ10が半導体イメージセンサの製造工程により一体的かつ固定的に形成される。光電変換部612、613は、マイクロレンズ10の光軸を挟んで振り分けて配置される。   32 is a cross-sectional view of the pixel 603 shown in FIG. In the pixel 603, the microlens 10 is disposed in front of the photoelectric conversion units 612 and 613, and the photoelectric conversion units 612 and 613 are projected forward by the microlens 10. The photoelectric conversion units 612 and 613 are formed on the semiconductor circuit substrate 29, and the microlens 10 is integrally and fixedly formed thereon by the manufacturing process of the semiconductor image sensor. The photoelectric conversion units 612 and 613 are arranged so as to be distributed across the optical axis of the microlens 10.

図33は、図31に示す画素を二次元状に展開した変形例の撮像素子211の画素配列構成を示す。この撮像素子211において、画素603が二次元的に規則的に配列されている。図31から図33の構成により、一対の光電変換部612、613の並び方向(図33の水平方向)の像ズレ検出が可能になる。像の検出ピッチが図2の撮像素子に比較して半分になるので、デフォーカス検出精度が向上する。なお、図33に示す画素配置においては、右測距瞳画像デ−タR(x,y)、左測距瞳画像データL(x,y)が同じ画素に存在するので、基本画像データg(x,y)は(7)式の代わりに下記(13)式で算出する。
g(x,y)=R(x、y)+L(x、y) ・・・(13)
同一の画素における右測距瞳画像デ−タと左測距瞳画像データを合成して基本画像データを生成するので、画像品質が向上する。
FIG. 33 shows a pixel arrangement configuration of the image sensor 211 of a modified example in which the pixels shown in FIG. 31 are developed two-dimensionally. In the image sensor 211, the pixels 603 are regularly arranged in a two-dimensional manner. The configuration shown in FIGS. 31 to 33 makes it possible to detect an image shift in the direction in which the pair of photoelectric conversion units 612 and 613 are aligned (the horizontal direction in FIG. 33). Since the image detection pitch is halved compared to the image sensor of FIG. 2, the defocus detection accuracy is improved. In the pixel arrangement shown in FIG. 33, the right ranging pupil image data R (x, y) and the left ranging pupil image data L (x, y) exist in the same pixel, so the basic image data g (X, y) is calculated by the following equation (13) instead of the equation (7).
g (x, y) = R (x, y) + L (x, y) (13)
Since the basic image data is generated by synthesizing the right ranging pupil image data and the left ranging pupil image data in the same pixel, the image quality is improved.

図34は変形例の撮像素子211の画素配列構成を示す。撮像素子の光電変換部の分光特性感度はすべて同一である必要はない。図34に示す撮像素子211において、画素421,422,423が二次元状に規則的に配列されている。図34において、Gを記した光電変換部51、71は図35に示す緑(G)の分光感度特性を有し、Rを記した光電変換部52、72は図35に示す赤(R)の分光感度特性を有し、Bを記した光電変換部53、73は図35に示す緑(B)の分光感度特性を有する。2つの画素421と画素422,423はベイヤー配列をなしている。 FIG. 34 shows a pixel arrangement configuration of the image sensor 211 of a modification. The spectral characteristic sensitivities of the photoelectric conversion units of the image sensor need not all be the same. In the image sensor 211 shown in FIG. 34, the pixels 421, 422, and 423 are regularly arranged in a two-dimensional manner. 34, the photoelectric conversion units 51 and 71 marked G have the green (G) spectral sensitivity characteristics shown in FIG. 35, and the photoelectric conversion units 52 and 72 marked R are red (R) shown in FIG. The photoelectric conversion units 53 and 73 marked with B have the spectral sensitivity characteristic of green (B) shown in FIG. The two pixels 421 and the pixels 422 and 423 form a Bayer array.

画素421はマイクロレンズ10と光電変換部51、71とから構成される。光電変換部51はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部71はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。画素422はマイクロレンズ10と光電変換部52、72とから構成される。光電変換部52はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部72はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。画素423はマイクロレンズ10と光電変換部53、73とから構成される。光電変換部53はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部73はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。   The pixel 421 includes the microlens 10 and photoelectric conversion units 51 and 71. The photoelectric conversion unit 51 has a rectangular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. The photoelectric conversion unit 71 has a rectangular shape in which the right side is substantially in contact with the vertical bisector of the microlens 10. The pixel 422 includes the microlens 10 and the photoelectric conversion units 52 and 72. The photoelectric conversion unit 52 has a rectangular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. The photoelectric conversion unit 72 has a rectangular shape in which the right side is substantially in contact with the vertical bisector of the microlens 10. The pixel 423 includes the microlens 10 and the photoelectric conversion units 53 and 73. The photoelectric conversion unit 53 has a rectangular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. The photoelectric conversion unit 73 has a rectangular shape in which the right side is substantially in contact with the vertical bisector of the microlens 10.

図36は画素421の断面図である。画素421において、光電変換部51、71の前方に共通のマイクロレンズ10が配置され、マイクロレンズ10により光電変換部51、71が前方に投影される。マイクロレンズと光電変換部の間には緑の色フィルタ401が配置される。光電変換部51、71は、半導体回路基板29上に形成されるとともに、その上に色フィルタ401およびマイクロレンズ10が半導体イメージセンサの製造工程により一体的かつ固定的に形成される。画素422,423も、色フィルタの色以外は同様の構成である。   FIG. 36 is a cross-sectional view of the pixel 421. In the pixel 421, the common microlens 10 is disposed in front of the photoelectric conversion units 51 and 71, and the photoelectric conversion units 51 and 71 are projected forward by the microlens 10. A green color filter 401 is disposed between the microlens and the photoelectric conversion unit. The photoelectric conversion units 51 and 71 are formed on the semiconductor circuit substrate 29, and the color filter 401 and the microlens 10 are integrally and fixedly formed thereon by the manufacturing process of the semiconductor image sensor. The pixels 422 and 423 have the same configuration except for the color of the color filter.

図34に示す撮像素子211の画素配列構成においては、一対の光電変換部(51,71)、(52、72)、(53、73)の並び方向(図34の水平方向)の像ズレ検出が緑、赤、青の3色において可能になる。したがって、微小ブロックのデフォーカス量を算出するにあたり、被写体パターンの色によって焦点検出不能になる確率が減少する。   In the pixel array configuration of the image sensor 211 shown in FIG. 34, image shift detection in the direction in which the pair of photoelectric conversion units (51, 71), (52, 72), (53, 73) is arranged (horizontal direction in FIG. 34). Is possible in three colors, green, red and blue. Accordingly, in calculating the defocus amount of the minute block, the probability that the focus detection becomes impossible due to the color of the subject pattern is reduced.

図37は変形例の撮像素子211の画素配列構成を示す。この変形例の撮像素子211において、画素421,423、424,425が二次元状に規則的に配列されている。図37において、Gを記した光電変換部51、71、54、74は図35に示す緑(G)の分光感度特性を有し、Rを記した光電変換部55、75は図35に示す赤(R)の分光感度特性を有し、Bを記した光電変換部53、73は図35に示す緑(B)の分光感度特性を有する。画素421,423、424,425はベイヤー配列をなしている。   FIG. 37 shows a pixel arrangement configuration of the imaging element 211 of a modification. In the image sensor 211 of this modification, the pixels 421, 423, 424, and 425 are regularly arranged in a two-dimensional manner. In FIG. 37, photoelectric conversion units 51, 71, 54 and 74 marked G have the green (G) spectral sensitivity characteristics shown in FIG. 35, and photoelectric conversion units 55 and 75 marked R are shown in FIG. The photoelectric conversion units 53 and 73 having red (R) spectral sensitivity characteristics and B are green (B) spectral sensitivity characteristics shown in FIG. The pixels 421, 423, 424, 425 form a Bayer array.

画素421はマイクロレンズ10と光電変換部51、71とから構成される。光電変換部51はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部71はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。画素423はマイクロレンズ10と光電変換部53、73とから構成される。光電変換部53はマイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。また、光電変換部73はマイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。   The pixel 421 includes the microlens 10 and photoelectric conversion units 51 and 71. The photoelectric conversion unit 51 has a rectangular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. The photoelectric conversion unit 71 has a rectangular shape in which the right side is substantially in contact with the vertical bisector of the microlens 10. The pixel 423 includes the microlens 10 and the photoelectric conversion units 53 and 73. The photoelectric conversion unit 53 has a rectangular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. The photoelectric conversion unit 73 has a rectangular shape in which the right side is substantially in contact with the vertical bisector of the microlens 10.

画素424はマイクロレンズ10と光電変換部54、74とから構成される。光電変換部54はマイクロレンズ10の水平2等分線に上辺を略接する長方形状である。また、光電変換部74はマイクロレンズ10の水平2等分線に下辺を略接する長方形状である。画素425はマイクロレンズ10と光電変換部55、75とから構成される。光電変換部55はマイクロレンズ10の水平2等分線に上辺を略接する長方形状である。光電変換部75はマイクロレンズ10の水平2等分線に下辺を略接する長方形状である。   The pixel 424 includes the microlens 10 and photoelectric conversion units 54 and 74. The photoelectric conversion unit 54 has a rectangular shape whose upper side is substantially in contact with the horizontal bisector of the microlens 10. The photoelectric conversion unit 74 has a rectangular shape in which the lower side is substantially in contact with the horizontal bisector of the microlens 10. The pixel 425 includes the microlens 10 and photoelectric conversion units 55 and 75. The photoelectric conversion unit 55 has a rectangular shape whose upper side is substantially in contact with the horizontal bisector of the microlens 10. The photoelectric conversion unit 75 has a rectangular shape in which the lower side is substantially in contact with the horizontal bisector of the microlens 10.

図37に示す撮像素子211の画素配列構成においては、一対の光電変換部(51,71)、(53、73)の並び方向(図37の水平方向)の像ズレ検出が緑、青の2色において可能になるとともに、一対の光電変換部(54,74)、(55、75)の並び方向(図37の垂直方向)の像ズレ検出が緑、赤の2色において可能になる。したがって、微小ブロックのデフォーカス量を算出するにあたり、被写体パターンの色および方向によって焦点検出不能になる確率が減少する。   In the pixel array configuration of the image sensor 211 shown in FIG. 37, the image shift detection in the arrangement direction (horizontal direction in FIG. 37) of the pair of photoelectric conversion units (51, 71), (53, 73) is green and blue. In addition to being possible in color, image shift detection in the direction in which the pair of photoelectric conversion units (54, 74) and (55, 75) are arranged (vertical direction in FIG. 37) is possible in two colors of green and red. Therefore, in calculating the defocus amount of the minute block, the probability that the focus cannot be detected decreases depending on the color and direction of the subject pattern.

図37に示す画素配列では、1つの微小ブロックにおいて複数の色、方向に対するデフォーカス量が求められる。最終的に1つのデフォーカス量を決定する手法としては、以下のような方法がある。(1)複数のデフォーカス量の平均にする。(2)特定色のデフォーカス量を優先する。例えば、比視感度の高い緑のデフォーカス量を優先する。(3)データの平均値が高い色のデフォーカス量を選択することによって、SNが高く高精度な焦点検出ができる。(4)上述した信頼性判定に基づいて、より信頼性が高いデフォーカス量を選択する。(5)焦点検出方向に応じた優先度を設ける。   In the pixel array shown in FIG. 37, defocus amounts for a plurality of colors and directions are obtained in one minute block. As a method for finally determining one defocus amount, there are the following methods. (1) An average of a plurality of defocus amounts. (2) Prioritize the defocus amount of a specific color. For example, priority is given to a green defocus amount with high specific visibility. (3) By selecting a defocus amount of a color having a high average value of data, it is possible to detect a focus with high SN and high accuracy. (4) A defocus amount with higher reliability is selected based on the reliability determination described above. (5) A priority according to the focus detection direction is provided.

図38は再結像瞳分割型位相差検出方式の焦点検出を説明するための図である。瞳分割の方式は図5に示すマイクロレンズを用いた方式に限定されず、再結像瞳分割型位相差検出方式であってもよい。図38において、91は交換レンズの光軸、110はコンデンサレンズ、111は絞りマスク、112,113は絞り開口、114、115は再結像レンズ、116は焦点検出用のイメージセンサー(CCD)、132,133は焦点検出光束である。また、101は交換レンズの予定結像面の前方d5の距離に設定された射出瞳である。ここで、距離d5は、コンデンサレンズ110の焦点距離とコンデンサレンズ110と絞り開口112,113の間の距離などに応じて決まる距離であり、以下では測距瞳距離と呼ぶ。   FIG. 38 is a diagram for explaining focus detection by the re-image pupil division type phase difference detection method. The pupil division method is not limited to the method using the microlens shown in FIG. 5, and may be a re-imaging pupil division type phase difference detection method. In FIG. 38, 91 is an optical axis of the interchangeable lens, 110 is a condenser lens, 111 is an aperture mask, 112 and 113 are aperture openings, 114 and 115 are re-imaging lenses, 116 is an image sensor (CCD) for focus detection, Reference numerals 132 and 133 denote focus detection light beams. Reference numeral 101 denotes an exit pupil set at a distance d5 in front of the planned imaging plane of the interchangeable lens. Here, the distance d5 is a distance determined according to the focal length of the condenser lens 110 and the distance between the condenser lens 110 and the aperture openings 112 and 113, and is hereinafter referred to as a distance measuring pupil distance.

702はコンデンサレンズ110により投影された絞り開口112の領域(測距瞳)、703はコンデンサレンズ110により投影された絞り開口113の領域(測距瞳)である。コンデンサレンズ110、絞りマスク111、絞り開口112,113、再結像レンズ114、115、イメージセンサー116が、撮像と焦点検出を同時に行う再結像ユニットを構成する。   Reference numeral 702 denotes an area of the aperture opening 112 projected by the condenser lens 110 (ranging pupil), and reference numeral 703 denotes an area of the aperture opening 113 projected by the condenser lens 110 (ranging pupil). The condenser lens 110, the diaphragm mask 111, the diaphragm apertures 112 and 113, the re-imaging lenses 114 and 115, and the image sensor 116 constitute a re-imaging unit that simultaneously performs imaging and focus detection.

図38において、光軸91上にある再結像ユニットは、交換レンズの予定結像面近傍に配置されたコンデンサレンズ110、その背後に配置されたイメージサンサー116、コンデンサレンズ110とイメージサンサー116の間に配置され、予定結像面近傍に結像された1次像をイメージセンサー116上に再結像する一対の再結像レンズ114、115、一対の再結像レンズの近傍(図では前面)に配置された一対の絞り開口112、113を有する絞りマスク111から構成される。イメージセンサー116は、複数の光電変換部が二次元状に配置されたイメージセンサーである。   In FIG. 38, the re-imaging unit on the optical axis 91 includes a condenser lens 110 disposed in the vicinity of the planned imaging surface of the interchangeable lens, an image sensor 116 disposed behind the condenser lens 110, and the condenser lens 110 and the image sensor 116. A pair of re-imaging lenses 114 and 115 that are disposed between and re-image a primary image formed in the vicinity of a predetermined imaging surface on the image sensor 116, and in the vicinity of the pair of re-imaging lenses (in the figure, the front surface). ), A diaphragm mask 111 having a pair of diaphragm openings 112, 113. The image sensor 116 is an image sensor in which a plurality of photoelectric conversion units are two-dimensionally arranged.

イメージセンサー116上に再結像された一対の像の強度分布に対応した情報がイメージセンサー116から出力され、この一対の画像に対し像ズレ検出演算処理(相関処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式(再結像方式)で一対の像の像ズレ量が検出される。コンデンサレンズ110は、絞りマスク111の絞り開口112、113を射出瞳701上に領域702、703として投影している。領域702,703を測距瞳と呼ぶ。すなわち、イメージセンサー116上に再結像される一対の像は、射出瞳701上の一対の測距瞳702,703を通過する光束132、133によって形成される。図38に示す再結像瞳分割型位相差検出方式においては、イメージセンサー116として通常のイメージセンサーを使用できるというメリットがある。   Information corresponding to the intensity distribution of the pair of images re-imaged on the image sensor 116 is output from the image sensor 116, and image shift detection calculation processing (correlation processing, phase difference detection processing) is performed on the pair of images. Thus, the image shift amount of the pair of images is detected by a so-called pupil division type phase difference detection method (re-imaging method). The condenser lens 110 projects the aperture openings 112 and 113 of the aperture mask 111 as regions 702 and 703 on the exit pupil 701. Regions 702 and 703 are called distance measurement pupils. That is, a pair of images re-imaged on the image sensor 116 is formed by the light beams 132 and 133 that pass through the pair of distance measuring pupils 702 and 703 on the exit pupil 701. The re-imaging pupil division type phase difference detection method shown in FIG. 38 has an advantage that a normal image sensor can be used as the image sensor 116.

図39により、偏光フィルターを用いた瞳分割方式の焦点検出について説明する。瞳分割の方式としてはマイクロレンズによる方式に限定されず、図39に示すように偏光フィルターを用いても実現することができる。図において、690は偏光フィルター保持枠であり、偏光フィルター以外の部分は遮光されている。この偏光フィルター保持枠690は交換レンズの絞り近傍に配置される。692は偏光フィルターであり、フィルターの位置および形状により測距瞳を構成する。また、693も偏光フィルターであり、フィルターの位置および形状により測距瞳を構成する。偏光フィルター692と693は、互いに偏光方向が直交する。91は交換レンズの光軸である。621は偏光フィルターであり、偏光方向が偏光フィルター692と一致する。また、622も偏光フィルター、偏光方向が偏光フィルター693と一致する。611、612は光電変換部、631、632は画素、672,673、682,683は光束である。   39, pupil division type focus detection using a polarization filter will be described. The pupil division method is not limited to the microlens method, and can be realized using a polarizing filter as shown in FIG. In the figure, reference numeral 690 denotes a polarizing filter holding frame, and portions other than the polarizing filter are shielded from light. This polarizing filter holding frame 690 is disposed near the stop of the interchangeable lens. Reference numeral 692 denotes a polarizing filter, which forms a distance measuring pupil according to the position and shape of the filter. Reference numeral 693 denotes a polarizing filter, which forms a distance measuring pupil according to the position and shape of the filter. The polarization directions of the polarization filters 692 and 693 are orthogonal to each other. Reference numeral 91 denotes an optical axis of the interchangeable lens. Reference numeral 621 denotes a polarizing filter whose polarization direction coincides with that of the polarizing filter 692. Further, reference numeral 622 is a polarizing filter, and the polarizing direction is the same as that of the polarizing filter 693. 611 and 612 are photoelectric conversion units, 631 and 632 are pixels, and 672, 673, 682, and 683 are light beams.

図39では、隣接する4画素を模式的に例示してある。画素631において、光電変換部611は偏光フィルター621の作用により、偏光フィルター692によって形成された測距瞳を通過する光束を受光し、光束672または682によりに形成される像の強度に対応した信号を出力する。また、画素632において、光電変換部612は偏光フィルター622の作用により、偏光フィルター693によって形成された測距瞳を通過する光束を受光し、光束673または683によりに形成される像の強度に対応した信号を出力する。   In FIG. 39, four adjacent pixels are schematically illustrated. In the pixel 631, the photoelectric conversion unit 611 receives the light beam passing through the distance measuring pupil formed by the polarization filter 692 by the action of the polarization filter 621, and a signal corresponding to the intensity of the image formed by the light beam 672 or 682. Is output. In the pixel 632, the photoelectric conversion unit 612 receives the light beam passing through the distance measuring pupil formed by the polarization filter 693 by the action of the polarization filter 622, and corresponds to the intensity of the image formed by the light beam 673 or 683. Output the signal.

上記のような偏光フィルターを用いた画素631,632を二次元状に配置し、各画素の光電変換部の出力を測距瞳に対応した出力グループにまとめることによって、各測距瞳を各々通過する焦点検出光束が画素列上に形成する一対の像の強度分布に関する情報を得ることができる。この情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことにより、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。   The pixels 631 and 632 using the polarization filter as described above are two-dimensionally arranged, and the output of the photoelectric conversion unit of each pixel is collected into an output group corresponding to the distance measurement pupil, thereby passing through each distance measurement pupil. It is possible to obtain information on the intensity distribution of a pair of images formed by the focus detection light beam to be formed on the pixel row. By applying an image shift detection calculation process (correlation calculation process, phase difference detection process), which will be described later, to this information, the image shift amount of a pair of images is detected by a so-called pupil division type phase difference detection method.

なお、図34、図37に示す撮像素子例では赤、青,緑の3原色のフィルターを使用した例を示したが、2つの色のみの撮像素子や4色以上の色を検出するフィルターを備えた撮像素子にも適用可能である。また、色分解フィルターは原色フィルタ(RGB)としていたが、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)を採用してもよい。さらにまた、色分解は色フィルター以外にも光電変換部を構成するフォトダイオードの分光感度特性を光電変換部毎に変更することによっても達成することができる。   The example of the image sensor shown in FIGS. 34 and 37 shows an example in which filters of three primary colors of red, blue, and green are used. However, an image sensor having only two colors and a filter for detecting four or more colors are used. The present invention can also be applied to an image sensor provided. Although the color separation filter is a primary color filter (RGB), a complementary color filter (green: G, yellow: Ye, magenta: Mg, cyan: Cy) may be employed. Furthermore, color separation can also be achieved by changing the spectral sensitivity characteristics of the photodiodes constituting the photoelectric conversion unit for each photoelectric conversion unit in addition to the color filter.

図28、図37に示す撮像素子の画素配列では水平方向と垂直方向の2方向で像ズレ検出を行う例を示したが、一対の測距瞳の並び方向が水平方向および垂直方向以外の方向になるように画素を構成するとともに、これらの画素を一対の測距瞳の並び方向に配列することによって、水平方向および垂直方向以外の方向でも像ズレ検出が可能になる。このようにすれば微小ブロックで焦点検出不能となる確率が減少し、より正確なデフォーカス分布情報をえることができるので、画像処理による画像品質が向上する。   In the pixel array of the image sensor shown in FIGS. 28 and 37, an example in which image misalignment detection is performed in two directions, the horizontal direction and the vertical direction, is shown. However, the alignment direction of the pair of distance measurement pupils is a direction other than the horizontal direction and the vertical direction. By arranging these pixels in the direction in which the pair of distance measuring pupils are arranged, it is possible to detect image misalignment in directions other than the horizontal direction and the vertical direction. In this way, the probability that focus detection is impossible in a minute block is reduced, and more accurate defocus distribution information can be obtained, so that image quality by image processing is improved.

なお、上述した撮像素子はCCDイメージセンサーやCMOSイメージセンサーとして形成することができる   Note that the above-described imaging element can be formed as a CCD image sensor or a CMOS image sensor.

図8に示すフローチャートでは画像データをメモリーカードに保存する例を示したが、画像データを電子ビューファインダーやボディの背面に設けられた不図示の背面モニター画面に表示するようにしてもよい。   In the flowchart shown in FIG. 8, an example in which the image data is stored in the memory card is shown, but the image data may be displayed on an electronic viewfinder or a back monitor screen (not shown) provided on the back of the body.

図40は変形例の撮像装置の構成を示す。図1に示す撮像装置では撮像素子211を焦点検出用と撮像用に兼用する例を示したが、図40に示すように撮像専用の撮像素子212を設け、上述した一実施の形態の撮像素子211は焦点検出と電子ビューファインダー表示用に用いるようにしてもよい。図40において、カメラボディ203には撮影光束を分離するハーフミラー221が配置され、透過側に撮像専用の撮像素子212が配置されるとともに、反射側に焦点検出兼電子ビューファインダー表示用の撮像素子211が配置される。撮影前は、撮像素子211の出力に応じて、焦点検出および電子ビューファインダー表示が行われる。レリーズ時は、撮像専用の撮像素子212の出力に応じた画像データが生成される。ハーフミラー221を全反射ミラーとし、撮影時は撮影光路から退避するようにしてもよい。このような構成においては、上述した一実施の形態の画像処理は電子ビューファインダーの表示用のみに使用される。観察時に実際に絞りを絞り込まずに光量を確保したまま絞りを絞り込んだ場合の画像を観察することができる。   FIG. 40 shows a configuration of an imaging apparatus according to a modification. In the image pickup apparatus shown in FIG. 1, an example in which the image pickup device 211 is used for both focus detection and image pickup is shown. However, as shown in FIG. 40, an image pickup device 212 dedicated to image pickup is provided, and the image pickup device of the above-described embodiment 211 may be used for focus detection and electronic viewfinder display. In FIG. 40, the camera body 203 is provided with a half mirror 221 for separating a photographic light beam, an imaging device 212 dedicated to imaging is provided on the transmission side, and an imaging device for focus detection and electronic viewfinder display on the reflection side. 211 is arranged. Before shooting, focus detection and electronic viewfinder display are performed according to the output of the image sensor 211. At the time of release, image data corresponding to the output of the imaging element 212 dedicated to imaging is generated. The half mirror 221 may be a total reflection mirror, and may be retracted from the photographing optical path during photographing. In such a configuration, the image processing of the embodiment described above is used only for display of the electronic viewfinder. It is possible to observe an image when the aperture is narrowed while securing the light quantity without actually reducing the aperture during observation.

《一実施の形態の適用範囲》
一実施の形態の撮像装置は、交換レンズとカメラボディとから構成されるデジタルスチルカメラやフィルムスチルカメラに限定されず、レンズ一体型のデジタルスチルカメラやビデオカメラやフィルムカメラにも適用できる。また、携帯電話等に内蔵される小型カメラや、監視カメラス、テレオ画像撮影装置などにも適用できる。
<< Applicable scope of one embodiment >>
The imaging apparatus according to the embodiment is not limited to a digital still camera or a film still camera including an interchangeable lens and a camera body, but can be applied to a lens-integrated digital still camera, a video camera, or a film camera. Further, the present invention can also be applied to a small camera built in a mobile phone or the like, a surveillance camera, a teleo imaging device, or the like.

また、画像を取り込む装置と取り込んだ画像に画像処理を加える装置を別体として形成してもよい。画像処理においては、大量のデータを高速に処理する能力を持った処理装置(CPU)と、それに伴う電力消費の増加やスペースの増加が見込まれるが、このような構成にすることによって、画像取り込み装置を簡便でコンパクトな構成にすることができるとともに、いったん保存された画像データに対し高速で高度な画像処理を施すことが可能になる。画像処理を加える装置には画像処理制御パラメータを入力する操作部材が設けられる。さらに、撮影して保存した画像に対し、再生時に描写性能を調整しながら画像を閲覧することが可能になる。   Further, a device that captures an image and a device that performs image processing on the captured image may be formed separately. In image processing, a processing unit (CPU) capable of processing a large amount of data at high speed and an accompanying increase in power consumption and space are expected. It is possible to make the apparatus simple and compact, and it is possible to perform advanced image processing at high speed on the image data once stored. An apparatus for applying image processing is provided with an operation member for inputting image processing control parameters. Furthermore, it is possible to view images while adjusting the depiction performance at the time of reproduction with respect to the images captured and stored.

画像取り込み装置と画像処理装置の間の情報の受け渡し方法としては以下の2種類がある。(1)一対の画像データを画像取り込み装置側から画像処理装置側に渡し、画像処理装置側で基本画像データとデフォーカス分布情報を演算する。このような構成ではデフォーカス分布の算出に色々な方式を適用できる。(2)画像取り込み装置側で基本画像データとデフォーカス分布情報を演算し、基本画像データとデフォーカス分布情報を画像処理装置側に渡す。このような構成では受け渡しするデータの容量を減少できる。   There are the following two methods for transferring information between the image capturing device and the image processing device. (1) A pair of image data is transferred from the image capturing device side to the image processing device side, and basic image data and defocus distribution information are calculated on the image processing device side. In such a configuration, various methods can be applied to calculate the defocus distribution. (2) The basic image data and defocus distribution information are calculated on the image capturing device side, and the basic image data and defocus distribution information are passed to the image processing device side. With such a configuration, the volume of data to be transferred can be reduced.

以上説明したように、一実施の形態によれば次のような効果が得られる。
(1)単一の光学系により結像した画像のみを用いて当該画像にボケを付加することができる。
(2)画像におけるデフォーカス量分布を対の画像に基づいて直接算出しているので、合焦距離の指定や撮影レンズの光学的パラメータの入力が不要になり、画像処理の精度が向上する。
(3)撮影レンズにより撮像された画像を撮像素子で撮像しているので、リアルタイムに画像処理が施こすことができ、撮影現場で画像処理結果を見ながら、画像処理のパラメータを調整することも可能になる。
(4)単一の撮影レンズで撮像した画像に対して画像処理を施した場合でも、違和感なく自然な画像を生成することができる。
(5)対の画像に基づいてデフォーカス量分布を算出する際に、デフォーカス量が算出できない領域が画面上に発生した場合でも、該領域と周囲の領域の画像特性(輝度、色相、彩度、コントラスト、輪郭など)の類似性に基づいて良好なデフォーカス量分布を決定することができる。
(6)対の画像の像ズレ量に基づいてデフォーカス量分布を算出する際に、複数の方向の像ズレ量に基づいてデフォーカス量を算出しているので、デフォーカス量の算出が不能となる領域が減少する。
(7)対の画像を独立して可搬記録媒体に保存しておくので、後から対の画像を読み出して所望の結果が得られるように画像処理をやりなおすことが可能となる。
(8)基本画像データとデフォーカス分布情報を独立して可搬記録媒体に保存しておくので、後から基本画像データとデフォーカス分布情報を読み出し、所望の結果が得られるように画像処理をやりなおすことが可能となる。
(9)絞り開口を大きくできない撮影光学系を用いて撮影した場合でも、絞り開口を大きくして撮影した場合のボケ効果を後処理により得ることができる。例えばコンパクトサイズのカメラにおいては、スペース的に大きな絞り開口を有する撮影レンズを搭載することが困難であり、また絞り開口を大きくすると光学系の諸特性(像面湾曲、球面収差、色収差、非点収差、歪曲収差、周辺光量、コントラスト、解像度など)が悪化するので、撮影時は絞り開口を絞って撮影せざるを得ない場合でも、絞り開口を大きくして撮影した場合のボケ効果を後処理により得ることができる。さらに、高輝度な被写体を撮影するときに、シャッター速度の高速側の限界を超えるために、絞り開口を絞って露光量を調節する場合でも、絞り開口を大きくして撮影した場合のボケ効果を後処理により得ることができる。
As described above, according to the embodiment, the following effects can be obtained.
(1) Blur can be added to an image formed using only an image formed by a single optical system.
(2) Since the defocus amount distribution in the image is directly calculated based on the pair of images, it is not necessary to specify a focus distance or input optical parameters of the photographing lens, and the accuracy of image processing is improved.
(3) Since the image picked up by the taking lens is picked up by the image pickup device, image processing can be performed in real time, and the image processing parameters can be adjusted while viewing the image processing result at the shooting site. It becomes possible.
(4) Even when image processing is performed on an image captured by a single photographing lens, a natural image can be generated without a sense of incongruity.
(5) When calculating a defocus amount distribution based on a pair of images, even if an area where the defocus amount cannot be calculated occurs on the screen, the image characteristics (luminance, hue, saturation) of the area and the surrounding area are generated. A good defocus amount distribution can be determined based on the similarity of degree, contrast, contour, and the like.
(6) When calculating the defocus amount distribution based on the image shift amount of the pair of images, the defocus amount cannot be calculated because the defocus amount is calculated based on the image shift amounts in a plurality of directions. The area that becomes is reduced.
(7) Since the pair of images are stored in the portable recording medium independently, the image processing can be performed again so that the pair of images can be read later to obtain a desired result.
(8) Since the basic image data and the defocus distribution information are independently stored in the portable recording medium, the basic image data and the defocus distribution information are read out later, and image processing is performed so that a desired result is obtained. You can start over.
(9) Even when photographing is performed using a photographing optical system in which the aperture is not large, the blur effect when photographing with a large aperture can be obtained by post-processing. For example, in a compact camera, it is difficult to mount a photographic lens having a large aperture in space. When the aperture is increased, various characteristics of the optical system (field curvature, spherical aberration, chromatic aberration, astigmatism, etc.) Aberration, distortion, peripheral light, contrast, resolution, etc.) will deteriorate, so even if you have to shoot with the aperture opening restricted during shooting, you can post-process the blur effect when shooting with a large aperture opening. Can be obtained. Furthermore, when shooting a high-luminance subject, the blurring effect of shooting with a large aperture opening can be achieved even when adjusting the exposure amount by reducing the aperture opening to exceed the high-speed limit of the shutter speed. It can be obtained by post-treatment.

一実施の形態の構成を示す図The figure which shows the structure of one embodiment 撮像素子の画素配列構成を示す正面拡大図Front enlarged view showing pixel arrangement configuration of image sensor 画素の構成を示す図Diagram showing pixel configuration 画素の断面図Cross section of pixel マイクロレンズを用いた瞳分割型位相差検出方式焦点検出の原理を説明する図Diagram explaining the principle of pupil detection type phase difference detection focus detection using microlenses 射出瞳面における投影関係を示す図Diagram showing the projection relationship on the exit pupil plane 瞳分割型位相差検出方式における像の形成状態を説明する図The figure explaining the image formation state in a pupil division type phase difference detection system 一実施の形態のデジタルスチルカメラ(撮像装置)の動作を示すフローチャートThe flowchart which shows operation | movement of the digital still camera (imaging device) of one embodiment デフォーカス量算出処理の詳細を説明する図The figure explaining the detail of defocus amount calculation processing 画像処理の概要を示すブロック図Block diagram showing an overview of image processing 画像処理の詳細を示すフローチャートFlow chart showing details of image processing 画面を微少ブロックに分割した図Figure with the screen divided into small blocks デフォーカス量分布を示す図Diagram showing defocus amount distribution デフォーカス量のヒストグラムを示す図Diagram showing defocus amount histogram 基本画像データ例を示す図Diagram showing examples of basic image data 画面の微少ブロックを4つのデフォーカス属性に類別した図A figure that categorizes small blocks on the screen into four defocus attributes. 基本画像データより肌色の領域を切り出した図Diagram of skin color area cut out from basic image data 基本画像データに対して輪郭抽出の画像処理を施した画像データを示す図The figure which shows the image data which performed the image processing of outline extraction with respect to basic image data 画面の微少ブロックをグループ化する例を示す図The figure which shows the example which groups the minute block of the screen 画面の微少ブロックの中のグループJ1を抜き出した図Illustration of group J1 extracted from a small block on the screen 画面の微少ブロックの中のグループJ2を抜き出した図Illustration of group J2 extracted from a small block on the screen 画面の微少ブロックの中のグループJ3を抜き出した図Illustration of group J3 extracted from a small block on the screen グループJ1に対応する基本画像データ部分を示す図The figure which shows the basic image data part corresponding to group J1 グループJ2に対応する基本画像データ部分を示す図The figure which shows the basic image data part corresponding to group J2 グループJ3に対応する基本画像データ部分を示す図The figure which shows the basic image data part corresponding to group J3 遠景の上に中景を重ねた段階の画像を示す図The figure which shows the image of the stage where the middle view is superimposed on the distant view 遠景の上に中景を重ねた段階の画像を示し、さらにその上に近景を重ね完成した段階の画像を示す図The figure which shows the image of the stage where the middle scene was superimposed on the distant view, and the image of the stage where the foreground was further superimposed on it 撮像素子の画素配列の変形例を示す図The figure which shows the modification of the pixel arrangement | sequence of an image pick-up element 光電変換部に対応する測距瞳を示す図The figure which shows the ranging pupil corresponding to a photoelectric conversion part 変形例の画素構成を示す図The figure which shows the pixel structure of a modification. 変形例の画素構成を示す図The figure which shows the pixel structure of a modification. 図31に示す画素の断面図FIG. 31 is a cross-sectional view of the pixel shown in FIG. 図31に示す画素を二次元状に展開した変形例の撮像素子の画素配列構成を示す図The figure which shows the pixel arrangement | sequence structure of the image pick-up element of the modification which expanded the pixel shown in FIG. 31 two-dimensionally 変形例の撮像素子の画素配列構成を示す図The figure which shows the pixel arrangement structure of the image pick-up element of a modification 光電変換部の分光感度特性を示す図The figure which shows the spectral sensitivity characteristic of a photoelectric conversion part 画素の断面図Cross section of pixel 変形例の撮像素子の画素配列構成を示す図The figure which shows the pixel arrangement structure of the image pick-up element of a modification 再結像瞳分割型位相差検出方式の焦点検出を説明するための図The figure for demonstrating the focus detection of a re-imaging pupil division type phase difference detection system 偏光フィルターを用いた瞳分割方式の焦点検出について説明する図The figure explaining the focus detection of the pupil division method using a polarization filter 変形例の撮像装置の構成を示す図The figure which shows the structure of the imaging device of a modification

符号の説明Explanation of symbols

211 撮像素子
214 ボディ駆動制御装置
219 メモリカード
211 Image sensor 214 Body drive control device 219 Memory card

Claims (8)

撮像光学系を通過する被写体光束による被写体像を撮像する撮像素子であって、マイクロレンズと光電変換部とからそれぞれ構成される複数の画素が二次元状に配置され、前記マイクロレンズの各々が前記被写体光束を、前記撮像光学系の瞳の一対の瞳領域をそれぞれ通過する一対の光束に分割し、前記複数の光電変換部が、前記一対の光束の一方の光束を受光する複数の第1の光電変換部と前記一対の光束の他方の光束を受光する複数の第2の光電変換部とから構成される撮像素子と、
前記複数の第1の光電変換部の出力信号による第1の画像データと前記複数の第2の光電変換部の出力信号による第2の画像データとを加算して合成画像を生成する画像合成手段と、
前記第1の画像データと前記第2の画像データとに基づき、撮像画面内の複数の小領域の各々におけるデフォーカス量を算出する焦点検出手段と、
前記焦点検出手段によって算出されたデフォーカス量の大きさに応じて、前記複数の小領域を複数のデフォーカス属性のいずれかに類別する類別手段と、
前記焦点検出手段がデフォーカス量を算出することができない算出不能な小領域について、前記算出不能な小領域の周囲に位置する小領域におけるデフォーカス量または画像データに基づき、前記算出不能な小領域のデフォーカス属性を設定するデフォーカス属性設定手段と、
前記類別手段によって類別されたデフォーカス属性と前記デフォーカス属性設定手段によって設定されたデフォーカス属性とに基づき複数のグループに分けられた小領域にそれぞれ対応する前記合成画像部分に、当該グループのデフォーカス属性に応じた画像処理を施す画像処理手段と、を備えることを特徴とする撮像装置。
An imaging element that captures a subject image by a subject light flux passing through an imaging optical system, wherein a plurality of pixels each composed of a microlens and a photoelectric conversion unit are two-dimensionally arranged, and each of the microlenses is The subject light beam is divided into a pair of light beams that respectively pass through a pair of pupil regions of the pupil of the imaging optical system, and the plurality of photoelectric conversion units receive a plurality of first light beams that receive one of the pair of light beams. An imaging device including a photoelectric conversion unit and a plurality of second photoelectric conversion units that receive the other light beam of the pair of light beams;
Image composition means for generating a composite image by adding first image data based on output signals of the plurality of first photoelectric conversion units and second image data based on output signals of the plurality of second photoelectric conversion units. When,
Focus detection means for calculating a defocus amount in each of a plurality of small areas in the imaging screen based on the first image data and the second image data;
Classification means for classifying the plurality of small areas into one of a plurality of defocus attributes according to the magnitude of the defocus amount calculated by the focus detection means;
The small area that cannot be calculated based on the defocus amount or the image data in the small area that is located around the small area that cannot be calculated for the small area that cannot be calculated by the focus detection unit. Defocus attribute setting means for setting the defocus attribute of
The combined image portion corresponding to each of the small regions divided into a plurality of groups based on the defocus attribute classified by the classification unit and the defocus attribute set by the defocus attribute setting unit is included in the defocus attribute of the group. An image processing apparatus comprising: an image processing unit that performs image processing according to a focus attribute.
撮像光学系を通過する被写体光束による被写体像を撮像する撮像素子であって、マイクロレンズと光電変換部とからそれぞれ構成される複数の画素が二次元状に配置され、前記マイクロレンズの各々が前記被写体光束を、前記撮像光学系の瞳の一対の瞳領域をそれぞれ通過する一対の光束に分割し、前記複数の光電変換部が、前記一対の光束の一方の光束を受光する複数の第1の光電変換部と前記一対の光束の他方の光束を受光する複数の第2の光電変換部とから構成される撮像素子と、
前記複数の第1の光電変換部の出力信号による第1の画像データと前記複数の第2の光電変換部の出力信号による第2の画像データとを加算して合成画像を生成する画像合成手段と、
前記第1の画像データと前記第2の画像データとに基づき、撮像画面内の複数の小領域の各々におけるデフォーカス量を算出する焦点検出手段と、
前記焦点検出手段によって算出されたデフォーカス量の大きさに応じて、前記複数の小領域を複数のデフォーカス属性のいずれかに類別する類別手段と、
前記焦点検出手段がデフォーカス量を算出することができない算出不能な小領域について、前記算出不能な小領域の周囲に位置する小領域におけるデフォーカス量または画像データに基づき、前記算出不能な小領域のデフォーカス属性を設定するデフォーカス属性設定手段と、
前記類別手段によって類別されたデフォーカス属性と前記デフォーカス属性設定手段によって設定されたデフォーカス属性とに基づき複数のグループに分けられた小領域にそれぞれ対応する前記合成画像部分に、当該グループのデフォーカス属性に応じた画像処理を施す画像処理手段と、
前記画像処理手段によって画像処理された前記合成画像をスルー画像として表示する表示手段と、
撮影動作を開始させるレリーズ操作部材と、
前記レリーズ操作部材の操作に応じて前記複数の第1の光電変換部から出力される出力信号による第1の画像データと前記複数の第2の光電変換部から出力される出力信号による第2の画像データとを記録する記録手段と、を備えることを特徴とする撮像装置。
An imaging element that captures a subject image by a subject light flux passing through an imaging optical system, wherein a plurality of pixels each composed of a microlens and a photoelectric conversion unit are two-dimensionally arranged, and each of the microlenses is The subject light beam is divided into a pair of light beams that respectively pass through a pair of pupil regions of the pupil of the imaging optical system, and the plurality of photoelectric conversion units receive a plurality of first light beams that receive one of the pair of light beams. An imaging device including a photoelectric conversion unit and a plurality of second photoelectric conversion units that receive the other light beam of the pair of light beams;
Image composition means for generating a composite image by adding first image data based on output signals of the plurality of first photoelectric conversion units and second image data based on output signals of the plurality of second photoelectric conversion units. When,
Focus detection means for calculating a defocus amount in each of a plurality of small areas in the imaging screen based on the first image data and the second image data;
Classification means for classifying the plurality of small areas into one of a plurality of defocus attributes according to the magnitude of the defocus amount calculated by the focus detection means;
The small area that cannot be calculated based on the defocus amount or the image data in the small area that is located around the small area that cannot be calculated for the small area that cannot be calculated by the focus detection unit. Defocus attribute setting means for setting the defocus attribute of
The combined image portion corresponding to each of the small regions divided into a plurality of groups based on the defocus attribute classified by the classification unit and the defocus attribute set by the defocus attribute setting unit is included in the defocus attribute of the group. Image processing means for performing image processing according to the focus attribute;
Display means for displaying the composite image processed by the image processing means as a through image;
A release operation member for starting a photographing operation;
First image data based on output signals output from the plurality of first photoelectric conversion units and second output based on output signals output from the plurality of second photoelectric conversion units in response to an operation of the release operation member. An image pickup apparatus comprising: a recording unit that records image data.
請求項1または2に記載の撮像装置において、
前記第1及び第2の光電変換部が前記各マイクロレンズに対応して配置され、
前記画像合成手段は、前記各マイクロレンズに対応する前記第1及び第2の光電変換部の出力信号を加算することを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The first and second photoelectric conversion units are arranged corresponding to the microlenses,
The image synthesizing unit adds the output signals of the first and second photoelectric conversion units corresponding to the microlenses .
請求項1または2に記載の撮像装置において、
前記複数のマイクロレンズのうち互いに隣接配置された一対のマイクロレンズは、その一方のマイクロレンズに対応して前記第1の光電変換部が配置され、その他方のマイクロレンズに対応して前記第2の光電変換部が配置され、
前記画像合成手段は、前記隣接配置されたマイクロレンズにそれぞれ対応する前記第1及び第2の光電変換部の出力信号を加算することを特徴とする撮像装置。
The imaging device according to claim 1 or 2 ,
The pair of microlenses arranged adjacent to each other among the plurality of microlenses has the first photoelectric conversion unit arranged corresponding to one of the microlenses, and the second microlens corresponding to the other microlens. Photoelectric conversion part is arranged,
The image pickup device adds the output signals of the first and second photoelectric conversion units respectively corresponding to the adjacently arranged microlenses .
請求項3または4に記載の撮像装置において、
前記複数のマイクロレンズは、前記撮像光学系の瞳の、所定方向に並んだ一対の瞳領域をそれぞれ通過する一対の光束に分割する第1のマイクロレンズと、前記撮像光学系の瞳の、前記所定方向とは異なった方向に並んだ一対の瞳領域をそれぞれ通過する一対の光束に分割する第2のマイクロレンズとを含むことを特徴とする撮像装置。
In the imaging device according to claim 3 or 4 ,
The plurality of microlenses includes: a first microlens that divides a pupil of the imaging optical system into a pair of light beams that respectively pass through a pair of pupil regions arranged in a predetermined direction; and the pupil of the imaging optical system, An imaging apparatus comprising: a second microlens that divides a pair of light beams that respectively pass through a pair of pupil regions arranged in a direction different from a predetermined direction .
請求項1または2に記載の撮像装置において、
前記デフォーカス属性設定手段は、前記算出不能な小領域の周囲に位置する複数の小領域におけるデフォーカス属性が同一である場合に、前記算出不能な小領域のデフォーカス属性を前記周囲の小領域のデフォーカス属性と同一に設定することを特徴とする撮像装置。
The imaging device according to claim 1 or 2 ,
The defocus attribute setting means determines the defocus attribute of the non-calculatable small area when the defocus attribute is the same in a plurality of small areas located around the non-calculatable small area. An image pickup apparatus having the same defocus attribute as that of the image pickup apparatus.
請求項1または2に記載の撮像装置において、
前記デフォーカス属性設定手段は、前記算出不能な小領域及びその周囲の小領域における画像の輝度情報と色相情報と彩度情報とコントラスト情報との少なくとも一つが類似している場合に、前記算出不能な小領域のデフォーカス属性を前記類似している周囲の小領域のデフォーカス属性と同一に設定することを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The defocus attribute setting means is not capable of calculating when the luminance information, hue information, saturation information, and contrast information of the image in the small area that cannot be calculated and the surrounding small areas are similar. An image pickup apparatus, wherein a defocus attribute of a small area is set to be the same as a defocus attribute of a similar surrounding small area.
請求項1または2に記載の撮像装置において、
前記類別手段によって類別されたデフォーカス属性と前記デフォーカス属性設定手段によって設定されたデフォーカス属性とに基づき、前記複数の小領域を複数のグループに分けるグループ化手段を備える、ことを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
And a grouping unit that divides the plurality of small areas into a plurality of groups based on the defocus attribute classified by the classification unit and the defocus attribute set by the defocus attribute setting unit. Imaging device.
JP2006185584A 2006-07-05 2006-07-05 Imaging device Expired - Fee Related JP5066851B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006185584A JP5066851B2 (en) 2006-07-05 2006-07-05 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006185584A JP5066851B2 (en) 2006-07-05 2006-07-05 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012015260A Division JP5348258B2 (en) 2012-01-27 2012-01-27 Imaging device

Publications (2)

Publication Number Publication Date
JP2008015754A JP2008015754A (en) 2008-01-24
JP5066851B2 true JP5066851B2 (en) 2012-11-07

Family

ID=39072709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006185584A Expired - Fee Related JP5066851B2 (en) 2006-07-05 2006-07-05 Imaging device

Country Status (1)

Country Link
JP (1) JP5066851B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10306132B2 (en) 2015-05-11 2019-05-28 Canon Kabushiki Kaisha Distance calculation apparatus, imaging apparatus and distance calculation method that include confidence calculation of distance information
US10582180B2 (en) 2016-02-03 2020-03-03 Canon Kabushiki Kaisha Depth imaging correction apparatus, imaging apparatus, and depth image correction method
US10659766B2 (en) 2015-10-30 2020-05-19 Canon Kabushiki Kaisha Confidence generation apparatus, confidence generation method, and imaging apparatus

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290268A (en) * 2008-05-27 2009-12-10 Sony Corp Imaging apparatus
JP5229541B2 (en) * 2008-05-29 2013-07-03 株式会社ニコン Distance measuring device, distance measuring method, and program
JP2010085922A (en) * 2008-10-02 2010-04-15 Nikon Corp Focus detector and imaging device
JP5472584B2 (en) * 2008-11-21 2014-04-16 ソニー株式会社 Imaging device
JP5289105B2 (en) * 2009-03-05 2013-09-11 キヤノン株式会社 Image processing apparatus, control method therefor, and imaging apparatus
JP5515396B2 (en) * 2009-05-08 2014-06-11 ソニー株式会社 Imaging device
JP5375359B2 (en) * 2009-06-22 2013-12-25 ソニー株式会社 Imaging device, charge readout method, and imaging apparatus
KR101278797B1 (en) 2009-10-02 2013-06-27 더 차이니즈 유니버시티 오브 홍콩 Methods and apparatus for editing images
JP5592944B2 (en) * 2010-04-28 2014-09-17 富士フイルム株式会社 Imaging device
JP5644177B2 (en) 2010-05-07 2014-12-24 ソニー株式会社 Solid-state imaging device, manufacturing method thereof, and electronic apparatus
JP5737929B2 (en) * 2010-12-22 2015-06-17 キヤノン株式会社 Image processing apparatus and image processing method
WO2012132797A1 (en) * 2011-03-31 2012-10-04 富士フイルム株式会社 Image capturing device and image capturing method
CN103918249B (en) * 2011-08-30 2017-06-23 富士胶片株式会社 Imaging device and imaging method
CN103907188B (en) * 2011-09-14 2016-12-28 株式会社尼康 Imaging apparatus, camera head and image processing apparatus
JP6086681B2 (en) * 2012-09-20 2017-03-01 オリンパス株式会社 Imaging device and imaging apparatus
JP6149369B2 (en) 2012-09-27 2017-06-21 株式会社ニコン Image sensor
JP6218377B2 (en) * 2012-12-27 2017-10-25 キヤノン株式会社 Image processing apparatus and image processing method
JP6218378B2 (en) * 2012-12-27 2017-10-25 キヤノン株式会社 Image processing apparatus and image processing method
JP6198590B2 (en) * 2013-11-28 2017-09-20 キヤノン株式会社 Image processing apparatus, imaging apparatus, and image processing method
JP6254843B2 (en) * 2013-12-19 2017-12-27 キヤノン株式会社 Image processing apparatus and control method thereof
JP6395429B2 (en) 2014-04-18 2018-09-26 キヤノン株式会社 Image processing apparatus, control method thereof, and storage medium
JP6381273B2 (en) 2014-05-02 2018-08-29 キヤノン株式会社 Imaging apparatus, image processing system, and control method thereof
JP2015233270A (en) * 2014-05-13 2015-12-24 キヤノン株式会社 Imaging apparatus and control method of the same
JP6320195B2 (en) 2014-06-24 2018-05-09 キヤノン株式会社 IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6415179B2 (en) 2014-08-20 2018-10-31 キヤノン株式会社 Image processing apparatus, image processing method, imaging apparatus, and control method thereof
WO2016143913A1 (en) * 2015-03-10 2016-09-15 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
JP6415359B2 (en) * 2015-03-10 2018-10-31 キヤノン株式会社 Focus detection apparatus, imaging apparatus, focus detection method, and focus detection program
JP6509027B2 (en) * 2015-05-12 2019-05-08 キヤノン株式会社 Object tracking device, optical apparatus, imaging device, control method of object tracking device, program
JP6891470B2 (en) * 2015-12-04 2021-06-18 株式会社ニコン Imaging device
JP6800628B2 (en) 2016-06-22 2020-12-16 キヤノン株式会社 Tracking device, tracking method, and program
JP2018005008A (en) * 2016-07-04 2018-01-11 株式会社ニコン Camera body and interchangeable lens
JP2018018425A (en) * 2016-07-29 2018-02-01 キヤノン株式会社 Image processing device and image processing method
JP7039221B2 (en) * 2017-09-08 2022-03-22 キヤノン株式会社 Control method of image processing device, image pickup device and image processing device
US10992851B2 (en) 2018-02-15 2021-04-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium, with image processing based on image processing condition and information equivalent to distance from focal plane
JP7117914B2 (en) 2018-06-29 2022-08-15 キヤノン株式会社 Image processing device, image processing method, and program
JP2020010146A (en) 2018-07-05 2020-01-16 キヤノン株式会社 Image processing system, image processing method, and program
JP7199169B2 (en) 2018-07-05 2023-01-05 キヤノン株式会社 Image processing device, image processing method, and program
JP2020009180A (en) 2018-07-09 2020-01-16 キヤノン株式会社 Information processing apparatus, imaging apparatus, image processing method, and program
WO2020121456A1 (en) * 2018-12-12 2020-06-18 株式会社ニコン Microscope, adjustment device for microscope, microscope system, method for controlling microscope, and program
JP7286315B2 (en) 2018-12-28 2023-06-05 キヤノン株式会社 Notification device, imaging device, notification method, and program
JP2020141226A (en) 2019-02-27 2020-09-03 キヤノン株式会社 Image processing system, image processing method and program
JP7210388B2 (en) 2019-06-25 2023-01-23 キヤノン株式会社 IMAGE PROCESSING DEVICE, IMAGING DEVICE, CONTROL METHOD AND PROGRAM FOR IMAGE PROCESSING DEVICE
JP7362312B2 (en) 2019-06-25 2023-10-17 キヤノン株式会社 Image processing device, imaging device, control method for image processing device, and program
JP7337562B2 (en) 2019-06-25 2023-09-04 キヤノン株式会社 IMAGE PROCESSING DEVICE, IMAGING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
EP4007265A4 (en) 2019-07-31 2024-01-10 Canon Kk Image processing device, image processing method, program, and storage medium
JP7319871B2 (en) 2019-09-03 2023-08-02 キヤノン株式会社 Image processing device, image processing method, program, storage medium
JP7361546B2 (en) 2019-09-09 2023-10-16 キヤノン株式会社 Image processing device, image processing method, program, storage medium
JP2021164059A (en) 2020-03-31 2021-10-11 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7159371B2 (en) * 2020-04-22 2022-10-24 キヤノン株式会社 Control device, its control method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4410804A (en) * 1981-07-13 1983-10-18 Honeywell Inc. Two dimensional image panel with range measurement capability
JP2001250931A (en) * 2000-03-07 2001-09-14 Canon Inc Solid-state image sensor and image sensing system using the same
JP4500434B2 (en) * 2000-11-28 2010-07-14 キヤノン株式会社 Imaging apparatus, imaging system, and imaging method
JP2003087545A (en) * 2001-09-07 2003-03-20 Canon Inc Image pickup device, image processor and method
JP2003189171A (en) * 2001-10-12 2003-07-04 Canon Inc Image processing apparatus and method, control program, and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10306132B2 (en) 2015-05-11 2019-05-28 Canon Kabushiki Kaisha Distance calculation apparatus, imaging apparatus and distance calculation method that include confidence calculation of distance information
US10477100B2 (en) 2015-05-11 2019-11-12 Canon Kabushiki Kaisha Distance calculation apparatus, imaging apparatus, and distance calculation method that include confidence calculation of distance information
US10659766B2 (en) 2015-10-30 2020-05-19 Canon Kabushiki Kaisha Confidence generation apparatus, confidence generation method, and imaging apparatus
US10582180B2 (en) 2016-02-03 2020-03-03 Canon Kabushiki Kaisha Depth imaging correction apparatus, imaging apparatus, and depth image correction method

Also Published As

Publication number Publication date
JP2008015754A (en) 2008-01-24

Similar Documents

Publication Publication Date Title
JP5066851B2 (en) Imaging device
RU2585235C2 (en) Image capture devices
JP4908668B2 (en) Focus detection device
JP5012495B2 (en) IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
JP5173954B2 (en) Image processing apparatus and image processing method
JP5183715B2 (en) Image processing apparatus and image processing method
US9258545B2 (en) Stereoscopic imaging apparatus
JP5157400B2 (en) Imaging device
JP4826507B2 (en) Focus detection apparatus and imaging apparatus
JP4992481B2 (en) Focus detection apparatus and imaging apparatus
JP2007279312A (en) Imaging element, image sensor and imaging apparatus
JP5133533B2 (en) Imaging device
JP2008268403A (en) Focus detection device, focus detection method, and imaging apparatus
JP5348258B2 (en) Imaging device
WO2013027504A1 (en) Imaging device
JP4983271B2 (en) Imaging device
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
JP6712362B2 (en) Image processing device, imaging device, image processing method, and program
WO2013005489A1 (en) Image capture device and image processing device
JP2014026051A (en) Image capturing device and image processing device
JP5289105B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
WO2019202984A1 (en) Image capturing device, distance measuring method, distance measuring program, and recording medium
JP6744933B2 (en) Lens part and its control method
JP7235068B2 (en) Imaging device
JP5352003B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110624

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120730

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5066851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees