JP6628617B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6628617B2
JP6628617B2 JP2016011324A JP2016011324A JP6628617B2 JP 6628617 B2 JP6628617 B2 JP 6628617B2 JP 2016011324 A JP2016011324 A JP 2016011324A JP 2016011324 A JP2016011324 A JP 2016011324A JP 6628617 B2 JP6628617 B2 JP 6628617B2
Authority
JP
Japan
Prior art keywords
image
shift amount
imaging
image processing
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016011324A
Other languages
Japanese (ja)
Other versions
JP2017135441A (en
Inventor
勇希 吉村
勇希 吉村
暁彦 上田
暁彦 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016011324A priority Critical patent/JP6628617B2/en
Publication of JP2017135441A publication Critical patent/JP2017135441A/en
Application granted granted Critical
Publication of JP6628617B2 publication Critical patent/JP6628617B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing device and an image processing method.

特許文献1には、1つのマイクロレンズに対して複数個に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置が開示されている。分割された複数の光電変換部は、撮影レンズの射出瞳の異なる領域を経由した光をそれぞれ受光するように構成されている。これらの分割された複数の光電変換部で生成された複数の信号から、複数の画像を生成することができる。   Patent Document 1 discloses an imaging apparatus using a two-dimensional imaging element in which a plurality of photoelectric conversion units are formed for one microlens. The plurality of divided photoelectric conversion units are configured to receive light passing through different areas of the exit pupil of the photographing lens. A plurality of images can be generated from a plurality of signals generated by the plurality of divided photoelectric conversion units.

特許文献2には、分割された複数の光電変換部で受光した信号を加算して画像信号を生成することが開示されている。   Patent Document 2 discloses that an image signal is generated by adding signals received by a plurality of divided photoelectric conversion units.

特許文献3には、複数の視差画像を所定の画素数分シフトして加算することにより、撮像面とは異なる仮想結像面における画像を合成する画像処理技術が開示されている。   Patent Literature 3 discloses an image processing technique of combining images on a virtual imaging plane different from an imaging plane by shifting and adding a plurality of parallax images by a predetermined number of pixels.

米国特許第4410804号明細書U.S. Pat. No. 4,410,804 特開2001−083407号公報JP 2001-083407 A 特開2013−145979号公報JP 2013-145979 A

しかしながら、特許文献3の画像処理技術において、視差画像のシフト量の設定方法については詳細な開示がなされていない。   However, in the image processing technology of Patent Literature 3, no detailed disclosure is made of a method of setting the shift amount of the parallax image.

本発明は、より好適な手法により複数の画像信号を加算する際のシフト量の設定を行い得る画像処理装置を提供することを目的とする。   An object of the present invention is to provide an image processing apparatus capable of setting a shift amount when adding a plurality of image signals by a more suitable method.

本発明の一実施形態に係る画像処理装置は、結像光学系の射出瞳領域の互いに異なる部分を通過した複数の光束の各々に基づき撮像素子で生成された複数の画像信号を用いて再構成画像を生成する画像処理装置であって、前記再構成画像を生成する仮想結像面の位置を示す像面設定値を設定する像面設定手段と、前記結像光学系及び前記撮像素子における射出瞳距離、絞り値、及び像高に基づき設定されるシフト量換算係数と、前記像面設定値と、に基づいて、前記複数の画像信号を合成する際のシフト量を取得するシフト量取得手段と、前記複数の画像信号を前記シフト量だけ相対的にシフトして合成することにより、前記仮想結像面での前記再構成画像を生成する再構成画像生成手段と、を備えることを特徴とする。   An image processing apparatus according to an embodiment of the present invention is configured to perform reconstruction using a plurality of image signals generated by an image sensor based on each of a plurality of light beams that have passed through different portions of an exit pupil region of an imaging optical system. An image processing apparatus for generating an image, comprising: an image plane setting unit configured to set an image plane setting value indicating a position of a virtual image plane for generating the reconstructed image; Shift amount obtaining means for obtaining a shift amount when synthesizing the plurality of image signals based on a shift amount conversion coefficient set based on a pupil distance, an aperture value, and an image height, and the image plane setting value. And a reconstructed image generating means for generating the reconstructed image on the virtual imaging plane by relatively shifting the plurality of image signals by the shift amount and synthesizing the plurality of image signals. I do.

本発明の一実施形態に係る画像処理方法は、結像光学系の射出瞳領域の互いに異なる部分を通過した複数の光束の各々に基づき撮像素子で生成された複数の画像信号を用いて再構成画像を生成する画像処理方法であって、前記再構成画像を生成する仮想結像面の位置を示す像面設定値を設定し、前記結像光学系及び前記撮像素子における射出瞳距離、絞り値、及び像高に基づき設定されるシフト量換算係数と、前記像面設定値と、に基づいて、前記複数の画像信号を合成する際のシフト量を取得し、前記複数の画像信号を前記シフト量だけ相対的にシフトして合成することにより、前記仮想結像面での前記再構成画像を生成することを特徴とする。   An image processing method according to an embodiment of the present invention is configured to perform reconstruction using a plurality of image signals generated by an image sensor based on each of a plurality of light beams that have passed through different portions of an exit pupil region of an imaging optical system. An image processing method for generating an image, comprising setting an image plane setting value indicating a position of a virtual imaging plane for generating the reconstructed image, and setting an exit pupil distance and an aperture value in the imaging optical system and the image sensor. , And a shift amount conversion coefficient set based on an image height and the image plane setting value, and obtains a shift amount when combining the plurality of image signals, and shifts the plurality of image signals. The reconstructed image on the virtual imaging plane is generated by relatively shifting and synthesizing by an amount.

本発明によれば、より好適な手法により複数の画像信号を加算する際のシフト量の設定を行い得る画像処理装置が提供される。   According to the present invention, there is provided an image processing apparatus capable of setting a shift amount when adding a plurality of image signals by a more suitable method.

本発明の実施形態に係る撮像装置のブロック図である。It is a block diagram of an imaging device concerning an embodiment of the present invention. 実施形態に係る撮像素子の画素配列を示す図である。FIG. 3 is a diagram illustrating a pixel array of the image sensor according to the embodiment. 実施形態に係る画素の平面図(a)及び断面図(b)である。It is a top view (a) and a sectional view (b) of a pixel concerning an embodiment. 実施形態に係る画素構造と瞳領域との対応関係を示す図である。FIG. 4 is a diagram illustrating a correspondence relationship between a pixel structure and a pupil region according to the embodiment. 実施形態に係る瞳部分領域での光強度分布を示すグラフである。5 is a graph illustrating a light intensity distribution in a pupil partial region according to the embodiment. 実施形態に係る瞳部分領域と撮像素子の光電変換部との対応関係を示す図である。FIG. 4 is a diagram illustrating a correspondence relationship between a pupil partial region and a photoelectric conversion unit of an image sensor according to the embodiment. 実施形態に係る第1視差画像と第2視差画像のデフォーカス量と像ずれ量の関係を示す図である。FIG. 5 is a diagram illustrating a relationship between a defocus amount and an image shift amount of a first parallax image and a second parallax image according to the embodiment. 実施形態に係る再構成画像の生成処理を説明する図である。FIG. 5 is a diagram illustrating a process of generating a reconstructed image according to the embodiment. 実施形態に係る像面移動可能範囲を示す図である。FIG. 4 is a diagram illustrating an image plane movable range according to the embodiment. 実施形態に係る撮像素子側から見た瞳領域と絞りの関係を示す図である。FIG. 4 is a diagram illustrating a relationship between a pupil region and an aperture as viewed from an image sensor according to the embodiment. 実施形態に係る撮像素子の中央付近及び周辺部における線像を示す図である。FIG. 3 is a diagram illustrating line images near a center and a peripheral portion of the image sensor according to the embodiment. レンズの枠によるケラレの発生を説明する図である。It is a figure explaining generation | occurrence | production of vignetting by the frame of a lens. 実施形態に係るシフト量換算係数の取得及び撮影画像への記録のフローチャートである。9 is a flowchart of acquisition of a shift amount conversion coefficient and recording on a captured image according to the embodiment. 実施形態に係るシフト量換算係数を用いた再構成画像生成のフローチャートである。5 is a flowchart of generating a reconstructed image using a shift amount conversion coefficient according to the embodiment. 実施形態に係る像面設定値の設定のためのユーザインターフェースの例である。5 is an example of a user interface for setting an image plane setting value according to the embodiment.

以下、本発明の例示的な実施形態を、図面に基づいて詳細に説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.

[撮像装置の全体構成]
図1は本発明の実施形態における撮像装置の一例であるカメラの構成を示すブロック図である。撮像装置は、結像光学系として、第1レンズ群101、絞り兼用シャッタ102、第2レンズ群103、第3レンズ群105及び光学的ローパスフィルタ106を有する。
[Overall configuration of imaging device]
FIG. 1 is a block diagram illustrating a configuration of a camera that is an example of an imaging device according to an embodiment of the present invention. The imaging apparatus includes a first lens group 101, a diaphragm / shutter 102, a second lens group 103, a third lens group 105, and an optical low-pass filter 106 as an imaging optical system.

第1レンズ群101は、結像光学系を構成する複数のレンズ群のうち最も被写体に近い側に配置される。第1レンズ群101は、光軸方向(図1中の光軸303の方向)に進退可能な状態でレンズ鏡筒に保持される。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量調節を行う機能を有するとともに、静止画撮影時には露光時間調節用シャッタとしての機能を有する。すなわち、絞り兼用シャッタ102の開口径により結像光学系の絞り値が変化する。第2レンズ群103は、絞り兼用シャッタ102と一体となって光軸方向に進退する。第2レンズ群103は、第1レンズ群101の進退動作との連動により変倍動作を行うズーム機能を実現する。第3レンズ群105は、光軸方向に進退することにより、焦点位置の調節を行う。光学的ローパスフィルタ106は、撮影画像に生じ得る偽色及びモアレを軽減するための光学素子である。   The first lens group 101 is arranged on the side closest to the subject among a plurality of lens groups constituting the imaging optical system. The first lens group 101 is held by the lens barrel such that it can advance and retreat in the optical axis direction (the direction of the optical axis 303 in FIG. 1). The aperture / shutter 102 has a function of adjusting the light amount at the time of shooting by adjusting the aperture diameter thereof, and also has a function as an exposure time adjusting shutter at the time of shooting a still image. That is, the aperture value of the imaging optical system changes depending on the aperture diameter of the aperture shutter 102. The second lens group 103 advances and retreats in the optical axis direction integrally with the stop / shutter 102. The second lens group 103 implements a zoom function of performing a zooming operation in conjunction with the forward / backward movement of the first lens group 101. The third lens group 105 adjusts the focal position by moving back and forth in the optical axis direction. The optical low-pass filter 106 is an optical element for reducing false colors and moire that may occur in a captured image.

撮像装置は、2次元CMOSセンサ及び周辺回路を含む撮像素子107をさらに有する。撮像素子107は、結像光学系の結像面に配置され、被写体からの入射光に基づく画像信号を生成する。   The imaging device further includes an imaging device 107 including a two-dimensional CMOS sensor and peripheral circuits. The image sensor 107 is arranged on an image forming plane of the image forming optical system, and generates an image signal based on incident light from a subject.

撮像装置は、結像光学系のための駆動装置として、ズームアクチュエータ111、絞りシャッタアクチュエータ112及びフォーカスアクチュエータ114をさらに有する。ズームアクチュエータ111は、不図示のカム筒を回転させることにより、第1レンズ群101及び第2レンズ群103を光軸方向に進退させる。この動作により、変倍動作が行われる。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して撮影光量を調節するとともに、静止画撮影時の露光時間を制御する。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に進退させることにより焦点調節を行う。   The imaging device further includes a zoom actuator 111, an aperture shutter actuator 112, and a focus actuator 114 as driving devices for the imaging optical system. The zoom actuator 111 moves the first lens group 101 and the second lens group 103 in the optical axis direction by rotating a cam cylinder (not shown). By this operation, a zooming operation is performed. The aperture shutter actuator 112 controls the aperture diameter of the aperture / shutter 102 to adjust the amount of photographing light, and also controls the exposure time when photographing a still image. The focus actuator 114 adjusts the focus by moving the third lens group 105 back and forth in the optical axis direction.

撮像装置は、電子フラッシュ115及びAF(オートフォーカス)補助光源116をさらに有する。電子フラッシュ115は、撮影時の被写体照明用の照明装置である。電子フラッシュ115は、例えば、キセノン管を用いた閃光照明装置、連続発光するLEDを備える。AF補助光源116は、所定の開口パターンを有するマスクの像を、投光レンズを介して被写界に投影する。これにより、暗い被写体、あるいは低コントラストの被写体に対する焦点検出能力を向上させることができる。   The imaging device further includes an electronic flash 115 and an AF (autofocus) auxiliary light source 116. The electronic flash 115 is a lighting device for illuminating a subject during shooting. The electronic flash 115 includes, for example, a flash lighting device using a xenon tube and an LED that emits light continuously. The AF auxiliary light source 116 projects an image of a mask having a predetermined opening pattern onto a field via a light projecting lens. This makes it possible to improve the focus detection ability for a dark subject or a low-contrast subject.

撮像装置は、撮像装置の種々の制御を司る制御部として機能するCPU121をさらに有する。CPU121は、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェース回路等を有する。CPU121は、ROMに記憶された所定のプログラムを実行する。これにより、撮像装置が有する各種回路が駆動され、焦点検出、撮影、画像処理、記録等の一連の動作が実行される。   The imaging device further includes a CPU 121 that functions as a control unit that performs various controls of the imaging device. The CPU 121 includes an arithmetic unit, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like. The CPU 121 executes a predetermined program stored in the ROM. Accordingly, various circuits included in the imaging device are driven, and a series of operations such as focus detection, photographing, image processing, and recording are performed.

撮像装置は、電子フラッシュ制御回路122及び補助光源駆動回路123をさらに有する。電子フラッシュ制御回路122は、撮影動作に同期して電子フラッシュ115の点灯を制御する。補助光源駆動回路123は、焦点検出動作に同期してAF補助光源116の点灯を制御する。   The imaging device further includes an electronic flash control circuit 122 and an auxiliary light source driving circuit 123. The electronic flash control circuit 122 controls lighting of the electronic flash 115 in synchronization with the photographing operation. The auxiliary light source driving circuit 123 controls lighting of the AF auxiliary light source 116 in synchronization with the focus detection operation.

撮像装置は、撮像素子駆動回路124及び画像処理回路125をさらに有する。撮像素子駆動回路124は、撮像素子107の撮像動作を制御する。画像処理回路125は、撮像素子107により取得された画像信号をA/D変換してCPU121に送信する。画像処理回路125は、取得された画像データに対し、γ変換、カラー補間、JPEG圧縮等の処理を行う。   The imaging device further includes an imaging device driving circuit 124 and an image processing circuit 125. The imaging device drive circuit 124 controls the imaging operation of the imaging device 107. The image processing circuit 125 performs A / D conversion on the image signal acquired by the image sensor 107 and transmits the signal to the CPU 121. The image processing circuit 125 performs processes such as γ conversion, color interpolation, and JPEG compression on the acquired image data.

撮像装置は、フォーカス駆動回路126、絞りシャッタ駆動回路128及びズーム駆動回路129をさらに有する。フォーカス駆動回路126は、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動し、第3レンズ群105を光軸方向に進退させることにより焦点調節を行う。絞りシャッタ駆動回路128は、絞りシャッタアクチュエータ112を駆動し、絞り兼用シャッタ102の開口径を制御する。ズーム駆動回路129は、撮影者のズーム操作に応じてズームアクチュエータ111を駆動し、第1レンズ群101及び第2レンズ群103を光軸方向に進退させる。   The imaging device further includes a focus drive circuit 126, an aperture shutter drive circuit 128, and a zoom drive circuit 129. The focus drive circuit 126 drives the focus actuator 114 based on the focus detection result to adjust the focus by moving the third lens group 105 back and forth in the optical axis direction. The aperture shutter drive circuit 128 drives the aperture shutter actuator 112 and controls the aperture diameter of the aperture / shutter 102. The zoom drive circuit 129 drives the zoom actuator 111 in accordance with the zoom operation of the photographer, and moves the first lens group 101 and the second lens group 103 in the optical axis direction.

撮像装置は、表示器131、操作スイッチ132及びフラッシュメモリ133をさらに有する。表示器131は液晶ディスプレイ等の表示装置である。表示器131は、カメラの撮影モードに関する情報、撮影前のプレビュー画像、撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。操作スイッチ132は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等を含むスイッチ群である。フラッシュメモリ133は、着脱可能な記憶媒体又は撮像装置に内蔵された記憶媒体であり、撮影画像等のデータを記憶する。   The imaging device further includes a display 131, an operation switch 132, and a flash memory 133. The display 131 is a display device such as a liquid crystal display. The display 131 displays information on the shooting mode of the camera, a preview image before shooting, a confirmation image after shooting, an in-focus state display image at the time of focus detection, and the like. The operation switches 132 are a group of switches including a power switch, a release (photographing trigger) switch, a zoom operation switch, a photographing mode selection switch, and the like. The flash memory 133 is a removable storage medium or a storage medium built in the imaging device, and stores data such as a captured image.

[撮像素子の構造]
本実施形態における撮像素子の画素及び副画素の配列を図2に示す。図2は、本実施形態の撮像素子107である2次元CMOSセンサの画素配列の一部を4列×4行の範囲で示したものである。
[Structure of imaging device]
FIG. 2 shows an arrangement of pixels and sub-pixels of the image sensor according to the present embodiment. FIG. 2 shows a part of a pixel array of a two-dimensional CMOS sensor which is the image sensor 107 of the present embodiment in a range of 4 columns × 4 rows.

本実施形態の撮像素子107の画素配列は、2列×2行の画素群203が繰り返し配置されるベイヤー配列となっている。画素群203は、R(赤)の分光感度(色)を有する画素200Rを1つ、G(緑)の分光感度を有する画素200Gを2つ、B(青)の分光感度を有する画素200Bを1つ含む。画素群203内の左上の位置には、画素200Rが配されている。画素群203内の右上と左下の位置には、画素200Gが配されている。画素群203内の右下の位置には、画素200Bが配されている。以下の説明において、画素200R、200G、200Bについて画素の色を区別する必要がない場合には、これらを画素200と総称する。   The pixel array of the image sensor 107 according to the present embodiment has a Bayer array in which the pixel groups 203 of 2 columns × 2 rows are repeatedly arranged. The pixel group 203 includes one pixel 200R having a spectral sensitivity (color) of R (red), two pixels 200G having a spectral sensitivity of G (green), and a pixel 200B having a spectral sensitivity of B (blue). Include one. The pixel 200 </ b> R is arranged at the upper left position in the pixel group 203. Pixels 200G are arranged at upper right and lower left positions in the pixel group 203. The pixel 200 </ b> B is arranged at a lower right position in the pixel group 203. In the following description, when it is not necessary to distinguish the colors of the pixels 200R, 200G, and 200B, these are collectively referred to as a pixel 200.

さらに、撮像素子107に含まれる複数の画素200の各々は、2列×1行に配列された副画素201と副画素202を含む。また、複数の画素200の各々は、入射光を集光するための1つのマイクロレンズ305を備える。すなわち、副画素201と副画素202は1つのマイクロレンズ305を共有する。   Further, each of the plurality of pixels 200 included in the image sensor 107 includes the sub-pixels 201 and 202 arranged in 2 columns × 1 row. Each of the plurality of pixels 200 includes one microlens 305 for collecting incident light. That is, the sub-pixel 201 and the sub-pixel 202 share one microlens 305.

撮像素子107は、図2に示す画素が面上に多数配置された画素アレイを有する。この構成により、撮像素子107は、画像信号及び焦点検出信号を取得できる。画素200が配列される周期Pは、例えば4μmである。画素200の個数の合計、すなわち画素数Nは、例えば横5575列×縦3725行=約2075万である。副画素201、202の横方向周期Pは、例えば2μmである。副画素201、202の個数の合計、すなわち副画素数Nは、例えば横11150列×縦3725行=約4150万である。 The image sensor 107 has a pixel array in which a number of pixels shown in FIG. 2 are arranged on a surface. With this configuration, the image sensor 107 can acquire an image signal and a focus detection signal. The period P in which the pixels 200 are arranged is, for example, 4 μm. The total number of pixels 200, that is, the number N of pixels is, for example, 5575 columns × 3725 rows = approximately 207.5 million. Lateral period P S subpixels 201 and 202, for example, 2 [mu] m. The total number of sub-pixels 201 and 202, i.e., the number of subpixels N S is, for example horizontal 11150 rows × vertical 3725 lines = about 41,500,000.

図3(a)は、図2に示す撮像素子107の画素200を、撮像素子107の受光面側(+Z側)から見た平面図である。画素200の副画素201は、光電変換部301を有する。画素200の副画素202は、光電変換部302を有する。   FIG. 3A is a plan view of the pixel 200 of the image sensor 107 shown in FIG. 2 when viewed from the light receiving surface side (+ Z side) of the image sensor 107. The sub-pixel 201 of the pixel 200 has a photoelectric conversion unit 301. The sub-pixel 202 of the pixel 200 has a photoelectric conversion unit 302.

図3(b)は、図3(a)のA−A’断面を−Y側から見た断面図である。画素200は、半導体基板300、層間絶縁層311、配線307、カラーフィルタ306及びマイクロレンズ305を有する。層間絶縁層311、配線307、カラーフィルタ306及びマイクロレンズ305は半導体基板300上に形成される。光電変換部301は、半導体基板300内に形成されたn型半導体領域309及びp型半導体領域312により形成されるフォトダイオードを含む。光電変換部302は、半導体基板300内に形成されたn型半導体領域310及びp型半導体領域313により形成されるフォトダイオードを含む。これらのフォトダイオードは、p型半導体領域312、313とn型半導体領域309、310の間にイントリンシック層を挟むpin構造フォトダイオードであってもよく、イントリンシック層を省略したpn接合フォトダイオードであってもよい。   FIG. 3B is a cross-sectional view of the A-A ′ cross section of FIG. 3A viewed from the −Y side. The pixel 200 includes a semiconductor substrate 300, an interlayer insulating layer 311, a wiring 307, a color filter 306, and a microlens 305. The interlayer insulating layer 311, the wiring 307, the color filter 306, and the microlens 305 are formed on the semiconductor substrate 300. The photoelectric conversion unit 301 includes a photodiode formed by an n-type semiconductor region 309 and a p-type semiconductor region 312 formed in the semiconductor substrate 300. The photoelectric conversion unit 302 includes a photodiode formed by an n-type semiconductor region 310 and a p-type semiconductor region 313 formed in the semiconductor substrate 300. These photodiodes may be pin structure photodiodes having an intrinsic layer sandwiched between the p-type semiconductor regions 312 and 313 and the n-type semiconductor regions 309 and 310, or may be pn junction photodiodes in which the intrinsic layer is omitted. There may be.

マイクロレンズ305は、半導体基板300の表面、すなわち、光電変換部301、302の受光面304に入射光を集光させるためのレンズである。マイクロレンズ305の光軸303の方向は、受光面304に垂直な方向、すなわちZ方向となる。   The microlens 305 is a lens for condensing incident light on the surface of the semiconductor substrate 300, that is, on the light receiving surfaces 304 of the photoelectric conversion units 301 and 302. The direction of the optical axis 303 of the micro lens 305 is a direction perpendicular to the light receiving surface 304, that is, the Z direction.

カラーフィルタ306は、マイクロレンズ305と、光電変換部301、302との間に形成される。例えば、画素200Gにおいては、カラーフィルタ306は、緑色の光の透過率が高い分光特性を有する材料で構成される。なお、副画素201、202ごとにカラーフィルタ306の透過率を変えてもよい。また、一部の画素200において、カラーフィルタ306を省略してもよい。   The color filter 306 is formed between the micro lens 305 and the photoelectric conversion units 301 and 302. For example, in the pixel 200G, the color filter 306 is made of a material having a high transmittance of green light and a spectral characteristic. Note that the transmittance of the color filter 306 may be changed for each of the sub-pixels 201 and 202. In some pixels 200, the color filter 306 may be omitted.

画素200に入射された光は、マイクロレンズ305により集光され、カラーフィルタ306で分光されたのち、光電変換部301と光電変換部302で受光される。光電変換部301と光電変換部302では、受光量に応じて電子とホールが対生成する。電子とホールは、空乏層で分離された後、電子はn型半導体領域309、310に蓄積され、ホールはp型半導体領域312、313に接続された定電圧源(不図示)を介して撮像素子107の外部へ排出される。   The light incident on the pixel 200 is condensed by the microlens 305, separated by the color filter 306, and received by the photoelectric conversion unit 301 and the photoelectric conversion unit 302. In the photoelectric conversion unit 301 and the photoelectric conversion unit 302, pairs of electrons and holes are generated according to the amount of received light. After the electrons and holes are separated by a depletion layer, the electrons are accumulated in the n-type semiconductor regions 309 and 310, and the holes are imaged through a constant voltage source (not shown) connected to the p-type semiconductor regions 312 and 313. It is discharged outside the element 107.

n型半導体領域309、310に蓄積された電子は、トランジスタを介して、静電容量を有する浮遊拡散領域に転送される。転送された電子は、浮遊拡散領域の電圧を変動させる。これにより、入射光により生じた電荷が電圧信号に変換される。   The electrons accumulated in the n-type semiconductor regions 309 and 310 are transferred to a floating diffusion region having capacitance via a transistor. The transferred electrons change the voltage of the floating diffusion region. Thereby, the charge generated by the incident light is converted into a voltage signal.

なお、画素200R、200Bは、カラーフィルタ306の色を除き画素200Gと同様の構成を有する。   The pixels 200R and 200B have the same configuration as the pixel 200G except for the color of the color filter 306.

図4は、図3(a)及び図3(b)に示した画素構造と瞳領域との対応関係を示す概略説明図である。図4には、図3(a)に示した画素構造のA−A’断面を+Y側から見た断面図が図4の下段に、結像光学系の射出瞳面が図4の上段に示されている。なお、図4では、射出瞳面の座標軸と対応を取るために、断面図のX軸の向きが図3に対して反転されている。   FIG. 4 is a schematic explanatory diagram showing the correspondence between the pixel structure shown in FIGS. 3A and 3B and the pupil region. 4 is a cross-sectional view of the pixel structure shown in FIG. 3A taken along the line AA ′ from the + Y side, and the exit pupil plane of the imaging optical system is shown in the upper part of FIG. It is shown. In FIG. 4, the direction of the X-axis in the sectional view is reversed with respect to FIG. 3 in order to correspond to the coordinate axes of the exit pupil plane.

副画素201の瞳部分領域501は、光電変換部301の受光面と、マイクロレンズ305を介して、ほぼ共役関係になっている。すなわち、瞳部分領域501は、副画素201で受光可能な瞳領域を表している。光電変換部301の受光面は重心が−X方向に偏心しているので、副画素201の瞳部分領域501は、瞳面上で+X側に重心が偏心している。   The pupil partial region 501 of the sub-pixel 201 is substantially conjugate with the light receiving surface of the photoelectric conversion unit 301 via the microlens 305. That is, the pupil partial region 501 represents a pupil region where the sub-pixel 201 can receive light. Since the center of gravity of the light receiving surface of the photoelectric conversion unit 301 is eccentric in the −X direction, the center of gravity of the pupil partial region 501 of the sub-pixel 201 is eccentric to the + X side on the pupil plane.

同様に、副画素202の瞳部分領域502は、光電変換部302の受光面と、マイクロレンズ305を介して、ほぼ共役関係になっている。すなわち、瞳部分領域501は、副画素202で受光可能な瞳領域を表している。光電変換部302の受光面は重心が+X方向に偏心しているので、副画素202の瞳部分領域502は、瞳面上で−X側に重心が偏心している。   Similarly, the pupil partial region 502 of the sub-pixel 202 is substantially conjugate with the light receiving surface of the photoelectric conversion unit 302 via the microlens 305. That is, the pupil partial region 501 represents a pupil region where the sub-pixel 202 can receive light. Since the center of gravity of the light receiving surface of the photoelectric conversion unit 302 is eccentric in the + X direction, the center of gravity of the pupil partial region 502 of the sub-pixel 202 is eccentric to the −X side on the pupil plane.

瞳領域500は、光電変換部301と光電変換部302(副画素201と副画素202)を合わせた画素200全体に対応する瞳領域である。また、瞳領域400は、枠(レンズ枠や絞り枠の総称)によるケラレを考慮した瞳領域である。瞳領域400の大きさ、位置及び形状は、絞り兼用シャッタ102の絞り値、射出瞳から受光面304までの距離等により定まる射出瞳距離、及び撮像素子107の像高の組み合わせにより変化する。   The pupil region 500 is a pupil region corresponding to the entire pixel 200 including the photoelectric conversion unit 301 and the photoelectric conversion unit 302 (the sub-pixel 201 and the sub-pixel 202). The pupil region 400 is a pupil region in which vignetting due to a frame (a generic name of a lens frame and an aperture frame) is considered. The size, position, and shape of the pupil region 400 change depending on the combination of the aperture value of the aperture shutter 102, the exit pupil distance determined by the distance from the exit pupil to the light receiving surface 304, and the image height of the image sensor 107.

図5は、瞳強度分布の例を示すグラフである。横軸はX方向の位置を示しており、縦軸は受光率を示している。図5のグラフでは、瞳部分領域501の瞳強度分布を実線で示しており、瞳部分領域502の瞳強度分布を破線で示している。グラフより、瞳部分領域501、502の光強度分布は、X方向の位置に対してなだらかに変化することがわかる。   FIG. 5 is a graph showing an example of the pupil intensity distribution. The horizontal axis indicates the position in the X direction, and the vertical axis indicates the light receiving rate. In the graph of FIG. 5, the pupil intensity distribution of the pupil partial region 501 is indicated by a solid line, and the pupil intensity distribution of the pupil partial region 502 is indicated by a broken line. The graph shows that the light intensity distributions of the pupil partial regions 501 and 502 change gently with respect to the position in the X direction.

図6は、瞳部分領域501、502と撮像素子107の光電変換部301a、302a、301b、302bとの対応関係を示す図である。ここで、光電変換部の符号に付された「a」、「b」の枝番について、同一の枝番が付されている光電変換部は同一の画素に属することを意味し、異なる枝番が付されている光電変換部は異なる画素に属することを意味するものとする。被写体803から射出され、互いに異なる瞳部分領域501、502を通過した複数の光束は、撮像素子107の各画素200の撮像面800に、それぞれ異なる角度で入射する。これらの光束は、副画素201と副画素202で受光される。被写体803上の点aから射出された複数の光束は、瞳部分領域501、502を通過して、光電変換部301a、302aでそれぞれ受光される。被写体803上の点bから射出された複数の光束は、瞳部分領域501、502を通過して、光電変換部301b、302bでそれぞれ受光される。本実施形態では、瞳領域が水平方向に2つに瞳分割されている例を示している。しかしながら、瞳分割の方向は水平方向に限られず、例えば、垂直方向に瞳分割されていてもよく、水平方向と垂直方向の両方向等の複数方向に瞳分割をなし得る構成とであってもよい。   FIG. 6 is a diagram illustrating the correspondence between the pupil partial regions 501 and 502 and the photoelectric conversion units 301a, 302a, 301b, and 302b of the image sensor 107. Here, with respect to the branch numbers “a” and “b” added to the code of the photoelectric conversion unit, the photoelectric conversion units having the same branch number belong to the same pixel, and different branch numbers. It is assumed that the photoelectric conversion units marked with “” belong to different pixels. A plurality of light beams emitted from the subject 803 and having passed through different pupil partial regions 501 and 502 enter the imaging plane 800 of each pixel 200 of the imaging element 107 at different angles. These light beams are received by the sub-pixel 201 and the sub-pixel 202. The plurality of light beams emitted from the point a on the subject 803 pass through the pupil partial regions 501 and 502, and are received by the photoelectric conversion units 301a and 302a, respectively. The plurality of light beams emitted from the point b on the subject 803 pass through the pupil partial regions 501 and 502, and are received by the photoelectric conversion units 301b and 302b, respectively. The present embodiment shows an example in which the pupil region is divided into two pupils in the horizontal direction. However, the direction of pupil division is not limited to the horizontal direction. For example, pupil division may be performed in the vertical direction, and pupil division may be performed in a plurality of directions such as both the horizontal direction and the vertical direction. .

本実施形態の撮像素子107は、結像光学系の射出瞳領域の互いに異なる部分を通過した複数の光束を受光することができるように構成される。すなわち、撮像素子107は、各々が光電変換部301、302を有する複数の副画素201、202が設けられた画素200が複数の行及び複数の列をなして配列されている。本実施形態では、撮像素子107の各副画素に入射する光束により、異なる瞳部分領域ごとに、複数の視差画像を生成することができる。すなわち、撮像素子107の各画素200の副画素201で受光された光束に基づく信号により第1視差画像が生成される。また、撮像素子107の各画素200の副画素202で受光された光束に基づく信号により第2視差画像が生成される。   The image sensor 107 according to the present embodiment is configured to be able to receive a plurality of light beams that have passed through different portions of the exit pupil region of the imaging optical system. That is, in the image sensor 107, the pixels 200 provided with the plurality of sub-pixels 201 and 202 each having the photoelectric conversion units 301 and 302 are arranged in a plurality of rows and a plurality of columns. In the present embodiment, a plurality of parallax images can be generated for each different pupil partial region by a light beam incident on each sub-pixel of the image sensor 107. That is, the first parallax image is generated by a signal based on the light beam received by the sub-pixel 201 of each pixel 200 of the image sensor 107. Further, a second parallax image is generated by a signal based on the light beam received by the sub-pixel 202 of each pixel 200 of the image sensor 107.

本実施形態では、画素200R、200G、200Bはベイヤー配列となっている。そのため、第1視差画像及び第2視差画像は、それぞれ、ベイヤー配列の画像である。必要に応じて、第1視差画像及び第2視差画像に、デモザイキング処理を行ってもよい。   In the present embodiment, the pixels 200R, 200G, and 200B have a Bayer arrangement. Therefore, each of the first parallax image and the second parallax image is a Bayer array image. If necessary, a demosaicing process may be performed on the first parallax image and the second parallax image.

また、撮像素子107の各画素200の副画素201と副画素202から得られた信号を加算又は平均化して読み出すことにより、画素数Nに相当する解像度の画像を生成することができる。本実施形態では、複数の視差画像(第1視差画像と第2視差画像)を加算して画像を生成する。   Further, by adding or averaging and reading out the signals obtained from the sub-pixels 201 and 202 of each pixel 200 of the image sensor 107, an image having a resolution corresponding to the number N of pixels can be generated. In the present embodiment, an image is generated by adding a plurality of parallax images (a first parallax image and a second parallax image).

[デフォーカス量と像ずれ量の関係]
以下、本実施形態の撮像素子107により取得される第1視差画像と第2視差画像のデフォーカス量と像ずれ量の関係について説明する。
[Relationship between defocus amount and image shift amount]
Hereinafter, the relationship between the defocus amount and the image shift amount of the first parallax image and the second parallax image acquired by the image sensor 107 of the present embodiment will be described.

図7は、第1視差画像と第2視差画像のデフォーカス量と、第1視差画像と第2視差画像間の像ずれ量との関係を示す図である。図7において不図示の撮像素子107は、撮像面800に配置される。結像光学系の射出瞳は、瞳部分領域501と瞳部分領域502に2分割される。   FIG. 7 is a diagram illustrating a relationship between a defocus amount of the first parallax image and the second parallax image and an image shift amount between the first parallax image and the second parallax image. An imaging element 107 (not shown) in FIG. 7 is arranged on the imaging surface 800. The exit pupil of the imaging optical system is divided into a pupil partial region 501 and a pupil partial region 502.

デフォーカス量dは、以下のように定義される。デフォーカス量の絶対値|d|は、被写体の結像位置から撮像面までの距離とする。デフォーカス量dの符号は、被写体の結像位置が撮像面よりも被写体側にある状態(前ピン状態)のときに負(d<0)、被写体の結像位置が撮像面よりも被写体に対して反対側にある状態(後ピン状態)のときに正(d>0)とする。被写体の結像位置が撮像面(合焦位置)にある状態(合焦状態)のときにはd=0である。図8において、被写体801は合焦状態(d=0)となる被写体の位置を示している。被写体802は前ピン状態(d<0)となる被写体の位置を示している。また、前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)と呼ぶ。   The defocus amount d is defined as follows. The absolute value | d | of the defocus amount is the distance from the image forming position of the subject to the imaging surface. The sign of the defocus amount d is negative (d <0) when the imaging position of the subject is closer to the subject than the imaging surface (front focus state), and the imaging position of the subject is closer to the subject than the imaging surface. On the other hand, it is positive (d> 0) when it is on the opposite side (back focus state). D = 0 when the imaging position of the subject is on the imaging surface (focusing position) (focusing state). In FIG. 8, a subject 801 indicates the position of the subject in a focused state (d = 0). The subject 802 indicates the position of the subject in the front focus state (d <0). The front focus state (d <0) and the rear focus state (d> 0) are collectively referred to as a defocus state (| d |> 0).

前ピン状態(d<0)では、被写体802からの光束のうち、瞳部分領域501を通過した光束は、一度、集光した後、光束の重心位置G1を中心として幅Γ1に広がり、撮像面800でボケた像となる。ボケた像は、撮像素子に配列された各画素200を構成する副画素201により受光され、第1視差画像が生成される。よって、第1視差画像は、撮像面800上の重心位置G1の近傍において、被写体802がボケ幅Γ1にわたってボケた被写体像として記録される。被写体像のボケ幅Γ1は、デフォーカス量dの絶対値|d|にほぼ比例する。   In the front focus state (d <0), of the light fluxes from the subject 802, the light fluxes that have passed through the pupil partial region 501 are once condensed, then spread to a width Γ1 around the center of gravity G1 of the light fluxes, and The image is blurred at 800. The blurred image is received by the sub-pixels 201 constituting each pixel 200 arranged in the image sensor, and a first parallax image is generated. Therefore, the first parallax image is recorded as a subject image in which the subject 802 is blurred over the blur width Γ1 near the center of gravity position G1 on the imaging surface 800. The blur width Γ1 of the subject image is substantially proportional to the absolute value | d | of the defocus amount d.

同様に、瞳部分領域502を通過した光束は、光束の重心位置G2を中心として幅Γ2に広がる。ボケた像は、副画素202より受光され、第2視差画像が生成される。よって、第2視差画像は、撮像面800上の重心位置G2の近傍において、被写体802がボケ幅Γ2にわたってボケた被写体像として記録される。被写体像のボケ幅Γ2も、デフォーカス量dの大きさ|d|にほぼ比例する。   Similarly, the light beam that has passed through the pupil partial region 502 spreads to a width of Γ2 around the center of gravity G2 of the light beam. The blurred image is received by the sub-pixel 202, and a second parallax image is generated. Therefore, the second parallax image is recorded as a subject image in which the subject 802 is blurred over the blur width # 2 in the vicinity of the center of gravity G2 on the imaging surface 800. The blur width Γ2 of the subject image is also substantially proportional to the magnitude | d | of the defocus amount d.

よって、第1視差画像と第2視差画像との間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の絶対値|p|も、デフォーカス量dの絶対値|d|にほぼ比例する。なお、後ピン状態(d>0)の場合も、第1視差画像と第2視差画像との間の被写体像の像ずれ方向が前ピン状態と反対となる点を除き、同様である。   Therefore, the absolute value | p | of the image shift amount p of the subject image between the first parallax image and the second parallax image (= the difference G1−G2 of the center of gravity of the light flux) is also the absolute value of the defocus amount d. d | The same applies to the back focus state (d> 0) except that the image shift direction of the subject image between the first parallax image and the second parallax image is opposite to the front focus state.

したがって、本実施形態では、第1視差画像、第2視差画像、又は第1視差画像と第2視差画像を加算した画像のデフォーカス量の絶対値が大きくなると、第1視差画像と第2視差画像間の像ずれ量の絶対値も大きくなる。   Therefore, in the present embodiment, when the absolute value of the defocus amount of the first parallax image, the second parallax image, or the image obtained by adding the first parallax image and the second parallax image increases, the first parallax image and the second parallax image The absolute value of the image shift amount between images also increases.

[像面移動処理]
以下、本実施形態におけるシフト合成による再構成画像の生成処理について説明する。図8は、本実施形態における複数の視差画像(第1視差画像と第2視差画像)により瞳分割方向(列方向、水平方向)の再構成画像を生成する処理を説明する図である。図8の撮像面800は、図6、図7に示した撮像面800に対応している。図8では、iを整数として、撮像面800に配置された撮像素子107のi列目の画素200で得られる第1視差画像をAi、第2視差画像をBiとして模式的に表している。第1視差画像Aiは、図6の瞳部分領域501に対応する主光線角度θaでi番目の画素200に入射した光束に基づく画像信号である。第2視差画像Biは、図6の瞳部分領域502に対応する主光線角度θbでi番目の画素200に入射した光束に基づく画像信号である。なお、主光線角度θa、θbは、撮像面800に対する垂線(すなわち、光軸303)と入射する光束の重心に相当する線とがなす角である。
[Image plane movement processing]
Hereinafter, a process of generating a reconstructed image by shift synthesis in the present embodiment will be described. FIG. 8 is a diagram illustrating a process of generating a reconstructed image in the pupil division direction (column direction, horizontal direction) from a plurality of parallax images (first and second parallax images) according to the present embodiment. The imaging plane 800 in FIG. 8 corresponds to the imaging plane 800 shown in FIGS. In FIG. 8, the first parallax image obtained by the pixel 200 in the i-th column of the image sensor 107 disposed on the imaging surface 800 is schematically represented as Ai, and the second parallax image is represented as Bi, where i is an integer. The first parallax image Ai is an image signal based on a light beam incident on the i-th pixel 200 at the principal ray angle θa corresponding to the pupil partial region 501 in FIG. The second parallax image Bi is an image signal based on the light beam incident on the i-th pixel 200 at the principal ray angle θb corresponding to the pupil partial region 502 in FIG. Note that the principal ray angles θa and θb are angles formed by a line perpendicular to the imaging surface 800 (that is, the optical axis 303) and a line corresponding to the center of gravity of the incident light beam.

第1視差画像Aiと第2視差画像Biは、光強度分布情報だけでなく、入射角度情報をも有している。よって、以下のような処理を考えることにより、仮想結像面810での再構成画像(仮想結像面810に撮像面800が移動した場合に得られる画像)を生成可能であることが理解できる。まず、第1視差画像Aiを光束の向き(光軸303を主光線角度θaだけ傾けた向き)に沿って仮想結像面810まで平行移動させる。次に、第2視差画像Biを光束の向き(光軸303を主光線角度θbだけ傾けた向き)に沿って仮想結像面810の位置まで平行移動させる。これらの視差画像を合成することで、仮想結像面810における再構成画像を生成することができる。   The first parallax image Ai and the second parallax image Bi have not only light intensity distribution information but also incident angle information. Therefore, it is understood that a reconstructed image on the virtual imaging plane 810 (an image obtained when the imaging plane 800 moves to the virtual imaging plane 810) can be generated by considering the following processing. . First, the first parallax image Ai is translated to the virtual imaging plane 810 along the direction of the light beam (the direction in which the optical axis 303 is inclined by the principal ray angle θa). Next, the second parallax image Bi is translated to the position of the virtual imaging plane 810 along the direction of the light beam (the direction in which the optical axis 303 is inclined by the principal ray angle θb). By combining these parallax images, a reconstructed image on the virtual imaging plane 810 can be generated.

このときの並行移動の量が第1視差画像Ai、第2視差画像Biとも水平方向に0.5画素分であるものとする。この場合、第1視差画像Aiを光束に沿って仮想結像面810まで平行移動させることは、水平方向に+0.5画素だけシフトさせることと等価である。第2視差画像Biを光束に沿って仮想結像面810まで平行移動させることは、水平方向に−0.5画素だけシフトさせることと等価である。したがって、第1視差画像Aiと第2視差画像Biとを相対的に+1画素シフトさせる、すなわち、第1視差画像Aiと第2視差画像Bi+1を対応させて合成することで、仮想結像面810における再構成画像を生成することができる。また、第1視差画像Aiと第2視差画像Biをシフト合成することで結像面を移動させる際の像面移動量と、シフト量との対応関係は、主光線角度θaと主光線角度θbの大きさにより決定される。   The amount of parallel movement at this time is assumed to be 0.5 pixels in the horizontal direction for both the first parallax image Ai and the second parallax image Bi. In this case, translating the first parallax image Ai along the light flux to the virtual imaging plane 810 is equivalent to shifting by +0.5 pixel in the horizontal direction. Translating the second parallax image Bi along the light flux to the virtual imaging plane 810 is equivalent to shifting the second parallax image Bi by −0.5 pixel in the horizontal direction. Therefore, the first parallax image Ai and the second parallax image Bi are relatively shifted by +1 pixel, that is, by combining the first parallax image Ai and the second parallax image Bi + 1 in correspondence with each other, the virtual imaging plane 810 is formed. Can be generated. The correspondence between the shift amount and the image plane movement amount when the imaging plane is moved by shifting and synthesizing the first parallax image Ai and the second parallax image Bi is represented by the principal ray angle θa and the principal ray angle θb. Is determined by the size of

上述のシフト合成のシフト量をs、行番号をj、列番号をiとし、j行i列の第1視差画像をA(j,i)、第2視差画像をB(j,i)と表記する。これらをシフト合成して得られた再構成画像をI(j、i;s)とすることで、シフト合成の処理は以下の式(1)で表される。

Figure 0006628617
The shift amount of the above-described shift synthesis is s, the row number is j, the column number is i, the first parallax image of j rows and i columns is A (j, i), and the second parallax image is B (j, i). write. By setting a reconstructed image obtained by shift-synthesizing these to I (j, i; s), the shift-synthesizing process is represented by the following equation (1).
Figure 0006628617

本実施形態では、第1視差画像A(j,i)と第2視差画像B(j,i)がベイヤー配列であるため、シフト量sを2の倍数とすることで同色の視差画像を合成することができる。すなわち、s=2n(nは整数)と表すことができる。このようにシフト量sを設定し、同色の信号が加算されるように式(1)のシフト合成を行うことで、ベイヤー配列を保ったまま、再構成画像I(j、i;s)を生成することができる。その後、必要に応じて、再構成画像I(j、i;s)にデモザイキング処理を行ってもよい。   In the present embodiment, since the first parallax image A (j, i) and the second parallax image B (j, i) are in a Bayer array, parallax images of the same color are synthesized by setting the shift amount s to a multiple of two. can do. That is, it can be expressed as s = 2n (n is an integer). By setting the shift amount s in this way and performing the shift synthesis of Expression (1) so that signals of the same color are added, the reconstructed image I (j, i; s) can be obtained while maintaining the Bayer arrangement. Can be generated. Thereafter, the demosaicing process may be performed on the reconstructed image I (j, i; s) as necessary.

また、第1視差画像A(j,i)と第2視差画像B(j,i)の各画素間の補間信号を生成してから再構成画像を生成してもよい。これにより、シフト量sを非整数とすることができ、シフト量sの設定自由度が向上する。   Further, a reconstructed image may be generated after generating an interpolation signal between each pixel of the first parallax image A (j, i) and the second parallax image B (j, i). As a result, the shift amount s can be a non-integer, and the degree of freedom in setting the shift amount s is improved.

以上のように、本実施形態では、撮影後の複数の視差画像から、結像光学系の仮想結像面における再結像画像を生成することができる。   As described above, in the present embodiment, a re-imaged image on the virtual imaging plane of the imaging optical system can be generated from a plurality of parallax images after shooting.

[像面移動可能範囲]
図9は、本実施形態における像面移動可能範囲を示す図である。許容錯乱円径をδとし、結像光学系の絞り値をFとすると、絞り値Fでの被写界深度は±Fδである。水平方向の瞳分割の分割数をN、垂直方向の瞳分割の分割数をNとする。このとき、N×N分割(本実施形態では2×1分割)されて狭くなった瞳部分領域501の水平方向の実効絞り値F01は、F01=NFとなり、Fよりも大きくなる。したがって、第1視差画像についての実効的な被写界深度は±NFδとN倍深くなり、合焦範囲がN倍に広がる。第1視差画像について、実効的な被写界深度±NFδの範囲内では、合焦した被写体像が取得される。なお、第2視差画像についても同様である。
[Image plane movable range]
FIG. 9 is a diagram illustrating an image plane movable range in the present embodiment. When the allowable circle of confusion is δ and the aperture value of the imaging optical system is F, the depth of field at the aperture value F is ± Fδ. The division number of horizontal pupil division is N H, the division number of the pupil division in the vertical direction and N V. At this time, the effective aperture value F 01 in the horizontal direction of the pupil partial region 501 that has been narrowed by N H × N V division (2 × 1 division in this embodiment) is F 01 = N H F, which is smaller than F. growing. Therefore, the effective depth of field for the first parallax image is ± N H F [delta] and N H times deeper, focusing range spreads N H times. With respect to the first parallax image, a focused subject image is obtained within the range of the effective depth of field ± N H Fδ. Note that the same applies to the second parallax image.

図9に示した再構成処理では、撮影後に像面を移動させて、合焦位置を再調整することができる。しかしながら、第1、第2視差画像についての実効的な被写界深度の範囲が限定されているため、合焦位置を再調整可能なデフォーカス量dの範囲は限定される。デフォーカス量dの像面移動可能範囲は、概ね以下の式(2)の範囲となる。

Figure 0006628617
In the reconstruction processing shown in FIG. 9, the image plane can be moved after photographing, and the focus position can be readjusted. However, since the range of the effective depth of field for the first and second parallax images is limited, the range of the defocus amount d in which the focus position can be readjusted is limited. The image plane movable range of the defocus amount d is approximately the range of the following equation (2).
Figure 0006628617

なお、許容錯乱円径δは、δ=2ΔX(画素周期ΔXにおけるナイキスト周波数1/(2ΔX)の逆数)などで規定される。   Note that the allowable circle of confusion diameter δ is defined by δ = 2ΔX (the reciprocal of the Nyquist frequency 1 / (2ΔX) in the pixel period ΔX) or the like.

[シフト量換算係数の取得]
図10は、撮像素子107側から見た瞳領域と絞りの関係を示す図である。図10に示す瞳領域401は、撮像素子107の中央付近(すなわち、絞り兼用シャッタ102の絞り枠600の開口部中心付近)に配された画素200aから絞り枠600の開口部を介して見ることができる領域である。図10に示す瞳領域402は、撮像素子107の周辺部に配された画素200bから絞り枠600の開口部を介して見ることができる領域である。図10中のグラフの実線及び破線は、それぞれ瞳部分領域501、502に係る瞳強度分布を示す。
[Acquisition of shift amount conversion coefficient]
FIG. 10 is a diagram illustrating a relationship between the pupil region and the aperture viewed from the image sensor 107 side. A pupil region 401 shown in FIG. 10 is viewed from the pixel 200 a arranged near the center of the image sensor 107 (ie, near the center of the opening of the aperture frame 600 of the aperture / shutter 102) through the opening of the aperture frame 600. Is an area where A pupil region 402 shown in FIG. 10 is a region that can be seen from the pixel 200b disposed around the image sensor 107 through the opening of the aperture frame 600. Solid lines and broken lines in the graph in FIG. 10 indicate pupil intensity distributions relating to pupil partial regions 501 and 502, respectively.

図11(a)は、図10の撮像素子107の中央付近における線像を示しており、図11(b)は、図10の撮像素子107の周辺部における線像を示している。図11(a)、図11(b)のグラフの実線及び破線は、それぞれ瞳部分領域501、502に係る線像である。図中に破線で示されたG1、G2はそれぞれ、瞳部分領域501、502に係る線像の重心位置である。ここで、図11(a)、図11(b)の重心位置G1、G2の意味は、図7に示す重心位置G1、G2と同じであるため、重複する説明を省略する。   FIG. 11A shows a line image near the center of the image sensor 107 in FIG. 10, and FIG. 11B shows a line image in a peripheral portion of the image sensor 107 in FIG. 11A and 11B are line images related to the pupil partial regions 501 and 502, respectively. G1 and G2 indicated by broken lines in the figure are the barycentric positions of the line images related to the pupil partial regions 501 and 502, respectively. Here, the meanings of the centroid positions G1 and G2 in FIGS. 11A and 11B are the same as those of the centroid positions G1 and G2 shown in FIG.

図7、図10、図11(a)、図11(b)によれば、図8を参照して説明した主光線角度θaは、重心位置G1と射出瞳との位置関係によって定まり、主光線角度θbは重心位置G2と射出瞳との位置関係によって定まる。また、図7、図10、図11(a)、図11(b)によれば、重心位置G1とG2のそれぞれは、瞳領域401、402の範囲によって定まる。言い換えると、重心位置G1とG2のそれぞれは、絞り枠600の開口部の位置により定まる射出瞳距離と、絞り枠600の開口部の大きさを決定する絞り値と、撮像素子107の受光面における像高とによって変化する。   According to FIGS. 7, 10, 11A and 11B, the principal ray angle θa described with reference to FIG. 8 is determined by the positional relationship between the center of gravity position G1 and the exit pupil, and the principal ray The angle θb is determined by the positional relationship between the position of the center of gravity G2 and the exit pupil. According to FIGS. 7, 10, 11A and 11B, the positions of the centers of gravity G1 and G2 are determined by the ranges of the pupil regions 401 and 402, respectively. In other words, each of the center-of-gravity positions G1 and G2 is the exit pupil distance determined by the position of the opening of the aperture frame 600, the aperture value that determines the size of the aperture of the aperture frame 600, and the light-receiving surface of the image sensor 107. It changes depending on the image height.

図8を参照して述べたように、シフト合成におけるシフト量1画素あたりの像面移動量(シフト量換算係数)は、主光線角度θaと主光線角度θbに基づいて定まる。すなわち、シフト量換算係数は、結像光学系及び撮像素子107における射出瞳距離と、絞り値と、像高とによって変化する。そのため、これらの情報が得られれば、シフト量換算係数を算出して、取得することが可能となる。シフト量換算係数は、あらかじめ算出し、記憶媒体等に記憶させておくことで、シフト合成の処理が行われる際に読み出して用いることができる。このときに、シフト量換算係数を画像信号とともに画像データ内に記録しておいてもよい。あるいは、シフト合成の処理が行われるごとに、撮像装置のCPU121等により演算してシフト量換算係数を取得してもよい。   As described with reference to FIG. 8, the image plane movement amount (shift amount conversion coefficient) per shift amount pixel in the shift synthesis is determined based on the principal ray angle θa and the principal ray angle θb. That is, the shift amount conversion coefficient changes depending on the exit pupil distance, the aperture value, and the image height in the imaging optical system and the image sensor 107. Therefore, if such information is obtained, the shift amount conversion coefficient can be calculated and obtained. The shift amount conversion coefficient is calculated in advance and stored in a storage medium or the like, so that the shift amount conversion coefficient can be read and used when the shift combining process is performed. At this time, the shift amount conversion coefficient may be recorded in the image data together with the image signal. Alternatively, every time the shift combining process is performed, the shift amount conversion coefficient may be obtained by performing calculations by the CPU 121 or the like of the imaging apparatus.

このように、本実施形態によれば、射出瞳距離と、絞り値と、像高とに基づきシフト量換算係数を得ることができ、これを用いて像面移動量をシフト量に換算することができる。例えば、ユーザが再構成画像の生成のための条件を設定する場合、合焦させる像面の位置、すなわち、像面設定値を設定する方が、視差画像のシフト量そのものを設定するよりも容易である。また、視差画像のシフト量は上述のように射出瞳距離と、絞り値と、像高とに依存するので、これらをユーザが考慮して設定することは煩雑である。本実施形態によれば、像面設定値による設定が可能となるので、複数の画像信号を加算する際のシフト量の設定をより好適に行うことができる。   As described above, according to the present embodiment, it is possible to obtain the shift amount conversion coefficient based on the exit pupil distance, the aperture value, and the image height, and use this to convert the image plane movement amount into the shift amount. Can be. For example, when the user sets conditions for generating a reconstructed image, it is easier to set the position of the image plane to be focused, that is, to set the image plane set value than to set the shift amount of the parallax image itself. It is. In addition, since the shift amount of the parallax image depends on the exit pupil distance, the aperture value, and the image height as described above, it is complicated for the user to set them in consideration. According to the present embodiment, the setting based on the image plane setting value becomes possible, so that it is possible to more suitably set the shift amount when adding a plurality of image signals.

[周辺光量情報の取得]
図12(a)及び図12(b)は、枠によるケラレの発生を説明する図である。撮影時に設定される絞り値は1つの値であるが、ケラレの発生により像高に応じて実効的な絞り値(実効絞り値)が変化することがある。図12(a)のように、ケラレを発生させる枠601が1つの場合には、瞳領域403の面積は、像高による変化はほとんどないので、実効絞り値の変化はそれほど生じない。しかしながら、図12(b)に示す枠601、602のように、実際の結像光学系のレンズ等には複数の枠がある。この場合、枠601、602によるケラレに対応する瞳領域403、404の重なり部分である瞳領域405の面積が像高によって変化する。よって、実効絞り値は、複数の枠601、602によるケラレの結果として、像高に応じて変化することがある。
[Acquisition of peripheral light amount information]
FIGS. 12A and 12B are diagrams illustrating the occurrence of vignetting due to a frame. Although the aperture value set at the time of photographing is one value, the effective aperture value (effective aperture value) may change according to the image height due to occurrence of vignetting. As shown in FIG. 12A, when there is one frame 601 that causes vignetting, the area of the pupil region 403 hardly changes due to the image height, so that the effective aperture value does not change much. However, as in frames 601 and 602 shown in FIG. 12B, there are a plurality of frames in a lens or the like of an actual imaging optical system. In this case, the area of the pupil region 405 which is the overlapping portion of the pupil regions 403 and 404 corresponding to the vignetting due to the frames 601 and 602 changes depending on the image height. Therefore, the effective aperture value may change according to the image height as a result of vignetting by the plurality of frames 601 and 602.

多くの場合、レンズ等によるケラレが発生すると、撮像素子107の撮像面の端に近づくにつれて光量の低下(周辺光量低下)が発生する。この周辺光量低下はレンズごとに固有の分布を有する。そのため、撮像装置に結像光学系の周辺光量に関する情報(周辺光量情報)を記憶させておき、撮影後に周辺光量低下を補正する機能を撮像装置が有していてもよい。この周辺光量情報を参照することにより、レンズ枠によるケラレの発生量が推定できる。そのため、周辺光量情報を参照して撮像素子107の像高に応じた実効絞り値を取得することができる。   In many cases, when vignetting due to a lens or the like occurs, the light amount decreases (peripheral light amount decreases) as the image sensor 107 approaches the edge of the imaging surface. This decrease in the peripheral light amount has a unique distribution for each lens. Therefore, the imaging device may store information (peripheral light amount information) on the peripheral light amount of the imaging optical system, and may have a function of correcting a decrease in the peripheral light amount after shooting. By referring to this peripheral light amount information, the amount of occurrence of vignetting due to the lens frame can be estimated. Therefore, an effective aperture value corresponding to the image height of the image sensor 107 can be acquired with reference to the peripheral light amount information.

ある撮像素子の像高(x,y)における周辺光量情報をV(x,y)とし、関数f(V(x,y))をケラレの形状に応じて定まる関数とする。このときの実効絞り値F´は、撮影時に設定された絞り値Fを用いて以下の式(3)にて算出できる。

Figure 0006628617
The peripheral light amount information at the image height (x, y) of a certain image sensor is defined as V (x, y), and the function f (V (x, y)) is a function determined according to the shape of vignetting. The effective aperture value F 'at this time can be calculated by the following equation (3) using the aperture value F set at the time of shooting.
Figure 0006628617

f(V(x,y))はレンズ等により生じるケラレの形状に応じて最適な関数形が異なるため、レンズごとに適した関数を用いる必要がある。関数f(V(x,y))の一例として、ケラレの形状が円形に近い場合(式(4))と、楕円に近い場合(式(5))に好適に用いることができる関数を示す。

Figure 0006628617
Figure 0006628617
Since f (V (x, y)) has an optimal function form depending on the shape of vignetting caused by a lens or the like, it is necessary to use a function suitable for each lens. As an example of the function f (V (x, y)), a function that can be suitably used when the vignetting shape is close to a circle (Formula (4)) and when it is close to an ellipse (Formula (5)) is shown. .
Figure 0006628617
Figure 0006628617

しかしながら、関数f(V(x,y))は、式(4)、式(5)に限定されるものではなく、ケラレの形状にあわせて適宜設定可能である。   However, the function f (V (x, y)) is not limited to the equations (4) and (5), and can be set appropriately according to the shape of vignetting.

[シフト量換算係数の撮影画像への記録]
上述のように、シフト量換算係数は、画像信号とともに画像データ内に記録しておいてもよい。図13は、シフト量換算係数が取得され、画像データに記録されるまでのフローを示すフローチャートである。なお、本処理は、例えば、主として撮像装置内のCPU121により実行され得る。また、撮像装置を用いた撮影時の焦点位置合わせは、AF(オートフォーカス)又はMF(マニュアルフォーカス)で行われ得るものとする。
[Recording of shift amount conversion coefficient in captured image]
As described above, the shift amount conversion coefficient may be recorded in the image data together with the image signal. FIG. 13 is a flowchart showing a flow from the acquisition of the shift amount conversion coefficient to the recording of the shift amount conversion coefficient in the image data. Note that this processing can be mainly executed by the CPU 121 in the imaging device, for example. Further, it is assumed that the focus position adjustment at the time of shooting using the imaging device can be performed by AF (auto focus) or MF (manual focus).

ステップS1301において、CPU121は、画像の撮影に用いられた撮像装置の焦点検出方法の設定を判定する。焦点位置合わせの方法はAF及びMFを含み得る。焦点検出方法の設定がAFの場合、処理はステップS1302に進み、焦点位置合わせの設定がMFの場合、処理はステップS1303に進む。   In step S1301, the CPU 121 determines the setting of the focus detection method of the imaging device used for capturing an image. Focusing methods may include AF and MF. If the focus detection method is set to AF, the process advances to step S1302. If the focus position setting is set to MF, the process advances to step S1303.

ステップS1302において、CPU121は、AFの処理において合焦させた像高(x,y)を含む位置情報を撮像装置の記憶媒体等から取得する。   In step S1302, the CPU 121 acquires position information including the image height (x, y) focused in the AF process from a storage medium or the like of the imaging device.

ステップS1303において、CPU121は、所定の基準位置に対応する像高(x,y)を含む位置情報を撮像装置の記憶媒体等から取得する。   In step S1303, the CPU 121 acquires position information including the image height (x, y) corresponding to the predetermined reference position from the storage medium of the imaging device or the like.

なお、焦点検出方法によらず一定の像高を以下の処理に用いてもよく、その場合、ステップS1301からステップS1303は省略してもよい。   Note that a fixed image height may be used in the following processing regardless of the focus detection method, and in that case, steps S1301 to S1303 may be omitted.

ステップS1304において、CPU121は、画像の撮影における撮影条件のうちから少なくとも射出瞳距離及び絞り値を撮像装置の記憶媒体、レンズユニットに備えられたメモリ等から取得する。   In step S1304, the CPU 121 obtains at least the exit pupil distance and the aperture value from the shooting conditions in the image shooting from the storage medium of the imaging device, the memory provided in the lens unit, and the like.

ステップS1305において、CPU121は、周辺光量情報を撮像装置の記憶媒体、レンズユニットに備えられたメモリ等から取得する。焦点検出方法の設定がAFの場合には、CPU121は、合焦させた像高の周辺光量情報のみ取得してもよく、全ての像高の周辺光量情報を取得してもよい。また、焦点検出方法の設定がMFの場合には、基準像高のみの周辺光量情報を取得してもよく、全ての像高の周辺光量情報を取得してもよい。なお、シフト量換算係数の取得にステップS1304で取得した絞り値をそのまま用いてもよく、このような場合、ステップS1305及びステップS1306は省略してもよい。   In step S1305, the CPU 121 acquires the peripheral light amount information from the storage medium of the imaging device, the memory provided in the lens unit, and the like. When the focus detection method is set to AF, the CPU 121 may acquire only the peripheral light amount information of the focused image height, or may acquire the peripheral light amount information of all image heights. When the focus detection method is set to MF, peripheral light amount information of only the reference image height may be acquired, or peripheral light amount information of all image heights may be acquired. Note that the aperture value acquired in step S1304 may be used as it is for acquiring the shift amount conversion coefficient, and in such a case, steps S1305 and S1306 may be omitted.

ステップS1306において、CPU121は、ステップS1305で取得した周辺光量情報を用いて、実効絞り値を、シフト量換算係数の取得に用いる1つ又は複数の像高に対して算出して取得する。   In step S1306, the CPU 121 uses the peripheral light amount information acquired in step S1305 to calculate and acquire an effective aperture value for one or more image heights used for acquiring the shift amount conversion coefficient.

ステップS1307において、CPU121は、射出瞳距離と、実効絞り値(又はステップS1304で取得した絞り値)と、これらと対応する像高と、を用いて、撮像装置の記憶媒体に記憶されたシフト量換算係数を取得する。あるいは、CPU121は、これらの情報を用いてシフト量換算係数を演算して取得する。   In step S1307, the CPU 121 uses the exit pupil distance, the effective aperture value (or the aperture value acquired in step S1304), and the image height corresponding to these, and stores the shift amount stored in the storage medium of the imaging device. Get the conversion factor. Alternatively, the CPU 121 calculates and acquires a shift amount conversion coefficient using these pieces of information.

ステップS1308において、CPU121は、取得したシフト量換算係数を画像信号の少なくとも1つとともに画像データ内に記録する。これにより、画像データを撮像装置外の画像処理装置で処理する場合に、シフト量換算係数を画像データと別に取得することなく参照することができる。なお、例えば撮像装置内で像面移動処理が可能な場合には、画像データ内にシフト量換算係数を記録することは必須でない。このような場合、ステップS1308を省略してもよい。   In step S1308, the CPU 121 records the obtained shift amount conversion coefficient together with at least one of the image signals in the image data. Accordingly, when the image data is processed by an image processing device outside the imaging device, the shift amount conversion coefficient can be referred to without being acquired separately from the image data. Note that, for example, when the image plane movement processing can be performed in the imaging device, it is not essential to record the shift amount conversion coefficient in the image data. In such a case, step S1308 may be omitted.

[再構成画像の生成方法]
図14は、シフト量換算係数を用いてシフト合成による再構成画像処理を行う際の処理を示すフローチャートである。本フローチャートの処理は、像面設定手段、シフト量取得手段及び再構成画像生成手段を有する画像処理装置により行われ得る。当該画像処理装置は、撮像装置の外部に設けることができる。この場合、撮像装置は、画像処理装置に対し、像面設定手段、シフト量取得手段及び再構成画像生成手段のために用いられるデータを供給することができる。この場合の画像処理装置は、例えばコンピュータがプログラムを実行することにより、像面設定手段、シフト量取得手段及び再構成画像生成手段として機能するものであってもよい。
[Generation method of reconstructed image]
FIG. 14 is a flowchart showing processing when performing reconstructed image processing by shift synthesis using a shift amount conversion coefficient. The processing of this flowchart can be performed by an image processing apparatus having an image plane setting unit, a shift amount obtaining unit, and a reconstructed image generating unit. The image processing device can be provided outside the imaging device. In this case, the imaging apparatus can supply the image processing apparatus with data used for the image plane setting unit, the shift amount acquisition unit, and the reconstructed image generation unit. In this case, the image processing apparatus may function as an image plane setting unit, a shift amount obtaining unit, and a reconstructed image generating unit, for example, when a computer executes a program.

また、当該画像処理装置は、撮像装置の内部に設けることもできる。この場合、例えば、撮像装置内のCPU121が、プログラムを実行することにより、像面設定手段、シフト量取得手段及び再構成画像生成手段として機能してもよい。また、撮像装置内にさらに画像処理回路が設けられ、当該画像処理回路が像面設定手段、シフト量取得手段及び再構成画像生成手段として機能するものであってもよい。   Further, the image processing device can be provided inside the imaging device. In this case, for example, the CPU 121 in the imaging apparatus may function as an image plane setting unit, a shift amount acquisition unit, and a reconstructed image generation unit by executing a program. Further, an image processing circuit may be further provided in the imaging apparatus, and the image processing circuit may function as an image plane setting unit, a shift amount obtaining unit, and a reconstructed image generating unit.

像面設定手段は、再構成画像を生成する仮想結像面810の位置を示す像面設定値を設定する手段である。シフト量決定手段は、結像光学系及び撮像素子107における射出瞳距離、絞り値、及び像高に基づき設定されるシフト量換算係数と、像面設定値と、に基づいて、複数の画像を合成する際のシフト量を取得する手段である。再構成画像生成手段は、式(1)により複数の視差画像を上述のシフト量決定手段で取得されたシフト量だけ互いにシフトして合成することにより、仮想結像面810での再構成画像を生成するシフト合成する手段である。   The image plane setting unit is a unit that sets an image plane setting value indicating the position of the virtual imaging plane 810 that generates the reconstructed image. The shift amount determining unit converts a plurality of images based on a shift amount conversion coefficient set based on an exit pupil distance, an aperture value, and an image height in the imaging optical system and the image sensor 107, and an image plane setting value. This is a means for acquiring the shift amount at the time of combining. The reconstructed image generating unit shifts the plurality of parallax images by the shift amount obtained by the above-described shift amount determining unit and combines the plurality of parallax images according to Expression (1) to combine the reconstructed images on the virtual imaging plane 810. This is a means for performing shift synthesis.

図14のフローチャートの具体的な内容を説明する。ステップS1401において、画像処理装置は、画像データ内に記録されたシフト量換算係数を取得する。画像データへのシフト量換算係数の記録は、例えば、図13のフローチャートの処理により行われたものである。なお、画像データ内にシフト量換算係数が記憶されていることは必須ではなく、その場合、記憶媒体に別途記録されているデータから取得する等の、その他の方法でシフト量換算係数を取得してもよい。   The specific contents of the flowchart in FIG. 14 will be described. In step S1401, the image processing apparatus acquires a shift amount conversion coefficient recorded in image data. The recording of the shift amount conversion coefficient in the image data is, for example, performed by the processing of the flowchart in FIG. It is not essential that the shift amount conversion coefficient is stored in the image data. In such a case, the shift amount conversion coefficient may be obtained by another method, such as obtaining the data from data separately recorded in a storage medium. You may.

ステップS1402において、像面設定手段として機能する画像処理装置は、ユーザからの操作等に基づき像面設定値を取得する。ステップS1401とステップS1402の順序は、図14のように、ステップS1401が先であってもよく、これとは逆にステップS1402が先であってもよい。   In step S1402, the image processing apparatus that functions as an image plane setting unit acquires an image plane setting value based on an operation from a user or the like. As for the order of step S1401 and step S1402, as shown in FIG. 14, step S1401 may be first, and conversely, step S1402 may be first.

ステップS1403において、シフト量取得手段として機能する画像処理装置は、ステップS1401で取得したシフト量換算係数と、ステップS1402で取得した像面設定値を用いて、視差画像の合成のためのシフト量を取得する。   In step S1403, the image processing apparatus functioning as a shift amount obtaining unit uses the shift amount conversion coefficient obtained in step S1401 and the image plane setting value obtained in step S1402 to calculate the shift amount for synthesizing the parallax image. get.

ステップS1404において、再構成画像生成手段として機能する画像処理装置は、ステップS1403で取得したシフト量を用いて、複数の視差画像を上述のシフト量だけ相対的にシフトして合成することにより、仮想結像面での再構成画像を生成する。   In step S1404, the image processing apparatus functioning as the reconstructed image generating unit shifts the plurality of parallax images relative to each other by the above-described shift amount using the shift amount acquired in step S1403, and synthesizes the virtual images. Generate a reconstructed image on the imaging plane.

ステップS1405において、画像処理装置に備えられた表示部、又は画像処理装置と一体として用いられる装置の表示部は、ステップS1404で生成した再構成画像を表示する。なお、このステップS1405は必須ではない。   In step S1405, the display unit provided in the image processing device or the display unit of the device used integrally with the image processing device displays the reconstructed image generated in step S1404. Step S1405 is not essential.

上述のステップS1402において、像面設定手段による像面設定値の設定は、ユーザが、画像処理装置に対して、撮影した画像の合焦位置を移動させる量を決定する操作(リフォーカス操作)をすることにより行われる。図15(a)及び図15(b)は、ユーザが合焦位置を指定するためのユーザインターフェース用画面の例を示す図である。図15(a)及び図15(b)には、画像処理装置に備えられた表示部、又は画像処理装置と一体として用いられる装置の表示部に表示される操作用画像が示されている。   In the above-described step S1402, the setting of the image plane setting value by the image plane setting unit is performed by the user performing an operation (refocus operation) for determining, by the image processing apparatus, an amount by which the focus position of the captured image is moved. It is done by doing. FIGS. 15A and 15B are diagrams illustrating examples of a user interface screen for a user to specify a focus position. FIGS. 15A and 15B show operation images displayed on a display unit provided in the image processing apparatus or a display unit of an apparatus used integrally with the image processing apparatus.

図15(a)は、ユーザインターフェースの一例を示す図である。操作画面1500には視差画像のうちの1つと操作用の画像とが表示されている。操作画面1500に表示された視差画像は、撮像装置からの距離が互いに異なる第1被写体1501及び第2被写体1502を含む。第1被写体の顔部分には、合焦表示枠1503が示されている。合焦表示枠1503は撮影時に合焦させた基準位置(ピントの合った位置)を示している。さらに、操作画面1500の右側には、操作部であるスライダーバー1504が示されている。ユーザは、操作画面1500に表示されたスライダーバー1504のつまみを上下に操作することにより、合焦表示枠1503の位置を基準に仮想結像面810の位置を設定することができる。   FIG. 15A is a diagram illustrating an example of a user interface. The operation screen 1500 displays one of the parallax images and an operation image. The parallax image displayed on operation screen 1500 includes first subject 1501 and second subject 1502 at different distances from the imaging device. An in-focus display frame 1503 is shown at the face of the first subject. A focus display frame 1503 indicates a reference position (a focused position) at which the image was focused at the time of shooting. Further, on the right side of the operation screen 1500, a slider bar 1504 as an operation unit is shown. The user can set the position of the virtual imaging plane 810 based on the position of the focus display frame 1503 by operating the knob of the slider bar 1504 displayed on the operation screen 1500 up and down.

図15(b)は、ユーザインターフェースの別の例を示す図である。操作画面1506には、合焦表示枠1503に代えてポインタ1505が表示されている。ポインタ1505も、スライダーバー1504とともに操作部として機能する。ユーザは、ポインタ1505を所望の位置に動かすことにより、合焦の基準位置を変えることができる。例えば、第2被写体1502にピントを合わせたい場合には、ユーザは、ポインタ1505を第2被写体1502の位置に移動させることにより、第2被写体1502の位置を基準に仮想結像面810の位置を設定することができる。なお、図15(b)の操作画面1506では、ユーザがポインタ1505で指定した場所において合焦した再構成画像が生成されるように自動的に仮想結像面810の位置が設定されてもよい。また、ポインタ1505での指定後に、手動でスライダーバー1504を操作することで仮想結像面810の位置が設定されてもよい。   FIG. 15B is a diagram illustrating another example of the user interface. A pointer 1505 is displayed on the operation screen 1506 instead of the focus display frame 1503. The pointer 1505 also functions as an operation unit together with the slider bar 1504. The user can change the focus reference position by moving the pointer 1505 to a desired position. For example, when the user wants to focus on the second object 1502, the user moves the pointer 1505 to the position of the second object 1502, thereby changing the position of the virtual imaging plane 810 based on the position of the second object 1502. Can be set. Note that the position of the virtual imaging plane 810 may be automatically set on the operation screen 1506 in FIG. 15B so that a focused reconstructed image is generated at a location designated by the pointer 1505 by the user. . After the designation with the pointer 1505, the position of the virtual imaging plane 810 may be set by manually operating the slider bar 1504.

上述のように、1画素シフトあたりの像面移動量は結像光学系及び撮像素子107における射出瞳距離、絞り値、及び像高に応じて異なる。そのため、例えば、レンズの交換等の撮影条件の変更がなされると、1画素シフトあたりの像面移動量が変化する。再構成画像の生成のためのユーザインターフェースが、ユーザにシフト量を入力させるようなものである場合、ユーザ自身がこれらのパラメータを考慮してシフト量を決定する必要が生じ、操作が煩雑となる。   As described above, the amount of movement of the image plane per one pixel shift differs depending on the exit pupil distance, the aperture value, and the image height in the imaging optical system and the image sensor 107. Therefore, for example, when the photographing condition is changed such as replacement of a lens, the image plane movement amount per one pixel shift changes. When the user interface for generating the reconstructed image is such as to allow the user to input the shift amount, it is necessary for the user to determine the shift amount in consideration of these parameters, and the operation becomes complicated. .

しかしながら、本実施形態では、画像処理装置が、入力された像面設定値とシフト量換算係数とを用いてシフト量を取得する。すなわち、ユーザが仮想結像面の位置を示す像面設定値をスライダーバー1504等により入力するだけで、自動的に視差画像のシフト量が取得される。そのため、ユーザは、レンズ等の撮影条件の変更に依存しない一定の操作により再構成画像を生成することができる。   However, in the present embodiment, the image processing apparatus acquires the shift amount using the input image plane setting value and the shift amount conversion coefficient. That is, the shift amount of the parallax image is automatically acquired only by the user inputting the image plane setting value indicating the position of the virtual imaging plane using the slider bar 1504 or the like. Therefore, the user can generate a reconstructed image by a certain operation that does not depend on a change in shooting conditions such as a lens.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. It can also be realized by the following processing. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

101 第1レンズ群
102 絞り兼用シャッタ
103 第2レンズ群
105 第3レンズ群
106 光学的ローパスフィルタ
107 撮像素子
501、502 瞳部分領域
600 絞り枠
810 仮想結像面
Reference Signs List 101 First lens group 102 Aperture / shutter 103 Second lens group 105 Third lens group 106 Optical low-pass filter 107 Image sensors 501, 502 Pupil partial area 600 Aperture frame 810 Virtual image plane

Claims (10)

結像光学系の射出瞳領域の互いに異なる部分を通過した複数の光束の各々に基づき撮像素子で生成された複数の画像信号を用いて再構成画像を生成する画像処理装置であって、
前記再構成画像を生成する仮想結像面の位置を示す像面設定値を設定する像面設定手段と、
前記結像光学系及び前記撮像素子における射出瞳距離、絞り値、及び像高に基づき設定されるシフト量換算係数と、前記像面設定値と、に基づいて、前記複数の画像信号を合成する際のシフト量を取得するシフト量取得手段と、
前記複数の画像信号を前記シフト量だけ相対的にシフトして合成することにより、前記仮想結像面での前記再構成画像を生成する再構成画像生成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that generates a reconstructed image using a plurality of image signals generated by an imaging device based on each of a plurality of light beams that have passed through different portions of an exit pupil region of an imaging optical system,
Image plane setting means for setting an image plane setting value indicating the position of the virtual imaging plane to generate the reconstructed image,
The plurality of image signals are synthesized based on the shift amount conversion coefficient set based on the exit pupil distance, the aperture value, and the image height in the imaging optical system and the image sensor, and the image plane setting value. Shift amount obtaining means for obtaining the shift amount at the time of,
Reconstructed image generating means for generating the reconstructed image on the virtual image plane by relatively shifting the plurality of image signals by the shift amount and synthesizing the plurality of image signals;
An image processing apparatus comprising:
前記シフト量換算係数は、さらに前記結像光学系の周辺光量に関する情報に基づき設定されることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the shift amount conversion coefficient is set based on information on a peripheral light amount of the imaging optical system. 前記結像光学系の前記周辺光量に関する情報は、前記結像光学系に含まれるレンズの枠による入射光のケラレに関する情報を含むことを特徴とする請求項2に記載の画像処理装置。   3. The image processing apparatus according to claim 2, wherein the information on the peripheral light amount of the imaging optical system includes information on vignetting of incident light by a lens frame included in the imaging optical system. 前記シフト量換算係数は、前記複数の画像信号の少なくとも1つとともに画像データ内に記録されていることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein the shift amount conversion coefficient is recorded in image data together with at least one of the plurality of image signals. 5. 前記複数の画像信号は、前記撮像素子を備える撮像装置によりオートフォーカスでの焦点位置合わせを行って取得された画像であり、前記像高は、前記オートフォーカスにおいて合焦した像高であることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The plurality of image signals are images obtained by performing autofocus focusing by an imaging device including the imaging element, and the image height is an image height focused in the autofocus. The image processing apparatus according to claim 1, wherein: 前記複数の画像信号は、前記撮像素子を備える撮像装置によりマニュアルフォーカスでの焦点位置合わせを行って取得された画像であり、前記像高は、所定の基準位置に対応する像高であることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The plurality of image signals are images obtained by performing focus adjustment with manual focus by an imaging device including the imaging device, and the image height is an image height corresponding to a predetermined reference position. The image processing apparatus according to claim 1, wherein: 前記複数の画像信号に基づく複数の画像のうちの少なくとも1つと、操作部とを表示する表示部をさらに備え、
前記像面設定手段は、前記操作部に対するユーザからの操作に基づき前記像面設定値を設定することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
A display unit that displays at least one of the plurality of images based on the plurality of image signals and an operation unit;
The image processing apparatus according to claim 1, wherein the image plane setting unit sets the image plane set value based on an operation of the operation unit by a user.
結像光学系の射出瞳領域の互いに異なる部分を通過した複数の光束の各々に基づき撮像素子で生成された複数の画像信号を用いて再構成画像を生成する画像処理方法であって、
前記再構成画像を生成する仮想結像面の位置を示す像面設定値を設定し、
前記結像光学系及び前記撮像素子における射出瞳距離、絞り値、及び像高に基づき設定されるシフト量換算係数と、前記像面設定値と、に基づいて、前記複数の画像信号を合成する際のシフト量を取得し、
前記複数の画像信号を前記シフト量だけ相対的にシフトして合成することにより、前記仮想結像面での前記再構成画像を生成する
ことを特徴とする画像処理方法。
An image processing method for generating a reconstructed image using a plurality of image signals generated by the imaging device based on each of a plurality of light beams that have passed through different portions of the exit pupil region of the imaging optical system,
Setting an image plane setting value indicating the position of the virtual imaging plane to generate the reconstructed image,
The plurality of image signals are synthesized based on the shift amount conversion coefficient set based on the exit pupil distance, the aperture value, and the image height in the imaging optical system and the image sensor, and the image plane setting value. Get the shift amount when
An image processing method, wherein the reconstructed image on the virtual imaging plane is generated by relatively shifting and synthesizing the plurality of image signals by the shift amount.
コンピュータに、請求項8に記載の画像処理方法を実行させることを特徴とするプログラム。   A program for causing a computer to execute the image processing method according to claim 8. コンピュータに、請求項8に記載の画像処理方法を実行させることを特徴とするプログラムを記憶した記憶媒体。   A storage medium storing a program for causing a computer to execute the image processing method according to claim 8.
JP2016011324A 2016-01-25 2016-01-25 Image processing apparatus and image processing method Active JP6628617B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016011324A JP6628617B2 (en) 2016-01-25 2016-01-25 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016011324A JP6628617B2 (en) 2016-01-25 2016-01-25 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2017135441A JP2017135441A (en) 2017-08-03
JP6628617B2 true JP6628617B2 (en) 2020-01-15

Family

ID=59505001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016011324A Active JP6628617B2 (en) 2016-01-25 2016-01-25 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6628617B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5818697B2 (en) * 2012-01-13 2015-11-18 キヤノン株式会社 Image generation method, imaging device, display device, program, and storage medium
JP6214236B2 (en) * 2013-03-05 2017-10-18 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP6362060B2 (en) * 2013-07-01 2018-07-25 キヤノン株式会社 Imaging apparatus, control method thereof, and program

Also Published As

Publication number Publication date
JP2017135441A (en) 2017-08-03

Similar Documents

Publication Publication Date Title
JP5818697B2 (en) Image generation method, imaging device, display device, program, and storage medium
JP6071374B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus including image processing apparatus
JP5552214B2 (en) Focus detection device
JP5917125B2 (en) Image processing apparatus, image processing method, imaging apparatus, and display apparatus
JP6584149B2 (en) Imaging device
JP6789833B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP6249825B2 (en) Imaging device, control method thereof, and control program
CN107431755B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US20140071322A1 (en) Image pickup apparatus with image pickup device and control method for image pickup apparatus
JP7100735B2 (en) Image sensor and image sensor
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP6671130B2 (en) Imaging device, imaging device, focus detection device, image processing device, and control method therefor
US9794468B2 (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method of image capturing apparatus using pupil division in different directions
JP2014215436A (en) Image-capturing device, and control method and control program therefor
JP7150785B2 (en) Image processing device, imaging device, image processing method, and storage medium
JP6639326B2 (en) Control device, imaging device, control method, program, and storage medium
JP6600217B2 (en) Image processing apparatus, image processing method, imaging apparatus, and control method thereof
JP6628617B2 (en) Image processing apparatus and image processing method
JP6701023B2 (en) Imaging device, image processing method, image processing system, and image processing program
JP2018022984A (en) Image processing device, control method therefor, program and imaging device
JP6263221B2 (en) Image processing apparatus, image processing method, imaging apparatus, and display apparatus
JP2017219786A (en) Control device, imaging device, control method, program, and storage medium
JP6817855B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
JP6748529B2 (en) Imaging device and imaging device
JP2019092215A (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191203

R151 Written notification of patent or utility model registration

Ref document number: 6628617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151