JP6789833B2 - Image processing equipment, imaging equipment, image processing methods and programs - Google Patents

Image processing equipment, imaging equipment, image processing methods and programs Download PDF

Info

Publication number
JP6789833B2
JP6789833B2 JP2017012065A JP2017012065A JP6789833B2 JP 6789833 B2 JP6789833 B2 JP 6789833B2 JP 2017012065 A JP2017012065 A JP 2017012065A JP 2017012065 A JP2017012065 A JP 2017012065A JP 6789833 B2 JP6789833 B2 JP 6789833B2
Authority
JP
Japan
Prior art keywords
image
image processing
viewpoint
region
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017012065A
Other languages
Japanese (ja)
Other versions
JP2018121235A (en
Inventor
暁彦 上田
暁彦 上田
福田 浩一
浩一 福田
勇希 吉村
勇希 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017012065A priority Critical patent/JP6789833B2/en
Priority to US15/878,526 priority patent/US10681286B2/en
Publication of JP2018121235A publication Critical patent/JP2018121235A/en
Application granted granted Critical
Publication of JP6789833B2 publication Critical patent/JP6789833B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、撮像装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an imaging device, an image processing method and a program.

従来、撮影レンズの射出瞳を複数の領域に瞳分割し、分割された瞳領域に応じた複数の視点画像を同時に撮影することができる撮像装置が提案されている。
特許文献1は、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置を開示している。複数に分割された光電変換部は、1つのマイクロレンズを介して撮影レンズの射出瞳の異なる瞳部分領域を受光するように構成され、瞳分割を行う。複数に分割された光電変換部で受光したそれぞれの信号から、分割された瞳部分領域に応じた複数の視点画像を生成することができる。特許文献2は、分割された光電変換部で受光した信号を、全て加算することにより撮像画像を生成する撮像装置を開示している。
Conventionally, an imaging device has been proposed in which the exit pupil of a photographing lens is divided into a plurality of regions and a plurality of viewpoint images corresponding to the divided pupil regions can be simultaneously captured.
Patent Document 1 discloses an image pickup device using a two-dimensional image pickup element in which one microlens and a plurality of photoelectric conversion units are formed for one pixel. The photoelectric conversion unit divided into a plurality of parts is configured to receive light from different pupil region regions of the exit pupil of the photographing lens via one microlens, and performs pupil division. From each signal received by the photoelectric conversion unit divided into a plurality of parts, it is possible to generate a plurality of viewpoint images according to the divided pupil region. Patent Document 2 discloses an imaging device that generates an captured image by adding all the signals received by the divided photoelectric conversion unit.

撮影された複数の視点信号は、光強度の空間分布および角度分布情報であるライトフィールド(Light Field)データと等価である。非特許文献1は、取得されたライトフィールドデータを用いて撮像面とは異なる仮想結像面における画像を合成することで、撮影後に撮像画像の合焦位置を変更するリフォーカス技術を開示している。 The plurality of captured viewpoint signals are equivalent to the light field (Light Field) data which is the spatial distribution and the angular distribution information of the light intensity. Non-Patent Document 1 discloses a refocusing technique for changing the in-focus position of an captured image after shooting by synthesizing an image on a virtual image plane different from the image plane using the acquired light field data. There is.

米国特許4410804号明細書U.S. Pat. No. 4,410,804 特開2001−083407号公報Japanese Unexamined Patent Publication No. 2001-083407

Aaron Isaksen、 Leonard McMillan、 Steven J. Gortler、 “Dynamically reparameterized light fields”、 SIGGRAPH‘00 Proceedings of the 27th annual conference on Computer graphics and interactive techniques、(USA)、2000、p.297−306Aaron Isaksen, Leonard McMillan, Stephen J. et al. Görtler, "Dynamicly reparated limited graphics", SIGGRAPH '00 Proceedings of the 27th annual conference on Computer graphics, ent. 297-306

しかしながら、視点移動した合成画像を生成する場合に、複数の視点画像の重み付けが変化することにより、合成画像の一部においてボケ形状が真円から変形したボケ像となるなど、ユーザが意図しない画像変化が生じる場合がある。 However, when a composite image in which the viewpoint is moved is generated, the weighting of a plurality of viewpoint images is changed, so that the blurred shape of a part of the composite image is deformed from a perfect circle, which is an image not intended by the user. Changes may occur.

本発明は、複数の視点画像から合成画像を生成する場合に、領域ごとにユーザが意図した画像処理を可能とする画像処理装置を提供することを目的とする。 An object of the present invention is to provide an image processing device that enables image processing intended by a user for each area when a composite image is generated from a plurality of viewpoint images.

上記課題を解決するために、本発明の画像処理装置は、複数の視点画像を取得する取得手段と、前記複数の視点画像に基づく画像データに画像処理を施して、合成画像を生成する画像処理手段と、前記画像処理手段による前記画像処理を行う領域を指定する指定手段と、前記指定手段が指定した前記領域ごとに前記画像処理の調整可能範囲の設定を行う調整手段と、を備える。 In order to solve the above problems, the image processing apparatus of the present invention has an acquisition means for acquiring a plurality of viewpoint images and an image process for generating a composite image by performing image processing on image data based on the plurality of viewpoint images. It includes means, a designating means for designating an area for performing the image processing by the image processing means, and an adjusting means for setting an adjustable range of the image processing for each of the areas designated by the designated means.

本発明によれば、複数の視点画像から合成画像を生成する場合に、領域ごとにユーザが意図した画像処理を可能とする画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing device that enables image processing intended by the user for each area when a composite image is generated from a plurality of viewpoint images.

撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image pickup apparatus. 画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image processing apparatus. 画素配列の概略図である。It is a schematic diagram of a pixel array. 画素の概略平面図と概略断面図である。It is a schematic plan view and a schematic sectional view of a pixel. 画素と瞳分割の概略説明図である。It is the schematic explanatory drawing of the pixel and pupil division. 画素内部の光強度分布の例を示す図である。It is a figure which shows the example of the light intensity distribution inside a pixel. 瞳強度分布の例を示す図である。It is a figure which shows the example of the pupil intensity distribution. 撮像素子と瞳分割の概略説明図である。It is a schematic explanatory drawing of an image sensor and pupil division. 第1視点画像と第2視点画像のデフォーカス量と像ずれ量の概略関係図である。It is a schematic relationship diagram of the defocus amount and the image shift amount of the 1st viewpoint image and the 2nd viewpoint image. 視点移動の概略説明図である。It is a schematic explanatory view of viewpoint movement. 撮像素子の周辺像高での瞳ずれの概略説明図である。It is the schematic explanatory drawing of the pupil deviation at the peripheral image height of an image sensor. 視点画像の例を示す図である。It is a figure which shows the example of the viewpoint image. 視点画像とユーザインタフェースの概略図である。It is a schematic diagram of a viewpoint image and a user interface. メインフローチャートである。This is the main flowchart. 視点変更処理のサブフローチャートである。It is a sub-flow chart of the viewpoint change process. 現像処理のサブフローチャートである。It is a sub-flow chart of the development process.

以下、本発明を実施するための形態について図面などを参照して説明する。なお、以下の実施形態では、デジタルカメラ等の撮像装置に適用した場合について説明するが、本発明に係る画像処理を実行する画像処理装置や情報処理装置、電子機器等に幅広く適用可能である。 Hereinafter, embodiments for carrying out the present invention will be described with reference to drawings and the like. In the following embodiments, a case where the device is applied to an image pickup device such as a digital camera will be described, but the present embodiment can be widely applied to an image processing device, an information processing device, an electronic device, or the like that executes image processing according to the present invention.

図1は、撮像素子を有する撮像装置の構成例を示すブロック図を示している。画像処理装置300は、撮像装置に備えられていてもよいし、撮像装置とは別に独立して存在してもよい。
撮像装置の詳細について説明する。撮像光学系(結像光学系)の先端に配置された第1レンズ群101は、レンズ鏡筒にて光軸方向に進退可能に保持される。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量調節を行う他、静止画撮影時には露光秒時調節用シャッタとしての機能をもつ。第2レンズ群103は、絞り兼用シャッタ102と一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)を有する。第3レンズ群105は、光軸方向の進退により焦点調節を行うフォーカスレンズである。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。撮像素子107は、例えば2次元CMOS(相補型金属酸化膜半導体)フォトセンサと周辺回路からなり、撮像光学系の結像面に配置される。本実施形態の撮像素子107の各画素は、複数の光電変換部に対応する複数の副画素(例えば、第1副画素と第2副画素)を有しており、構成の詳細については、図3〜5を用いて後述する。
FIG. 1 shows a block diagram showing a configuration example of an image pickup device having an image pickup device. The image processing device 300 may be provided in the image pickup device, or may exist independently of the image pickup device.
The details of the image pickup apparatus will be described. The first lens group 101 arranged at the tip of the imaging optical system (imaging optical system) is held by the lens barrel so as to be able to move forward and backward in the optical axis direction. The aperture combined shutter 102 adjusts the amount of light at the time of shooting by adjusting the aperture diameter thereof, and also has a function as a shutter for adjusting the exposure seconds at the time of shooting a still image. The second lens group 103 moves forward and backward in the optical axis direction integrally with the shutter 102 that also serves as an aperture, and has a magnification-changing action (zoom function) in conjunction with the forward / backward operation of the first lens group 101. The third lens group 105 is a focus lens that adjusts the focus by advancing and retreating in the optical axis direction. The optical low-pass filter 106 is an optical element for reducing false color and moire of a captured image. The image sensor 107 is composed of, for example, a two-dimensional CMOS (complementary metal oxide semiconductor) photosensor and peripheral circuits, and is arranged on the image plane of the image pickup optical system. Each pixel of the image sensor 107 of the present embodiment has a plurality of sub-pixels (for example, a first sub-pixel and a second sub-pixel) corresponding to a plurality of photoelectric conversion units, and details of the configuration are shown in FIG. 3 to 5 will be described later.

ズームアクチュエータ111は、不図示のカム筒を回動することで、第1レンズ群101および第2レンズ群103を光軸方向に移動させて変倍動作を行う。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行う。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に移動させて焦点調節動作を行う。 The zoom actuator 111 rotates the cam cylinder (not shown) to move the first lens group 101 and the second lens group 103 in the optical axis direction to perform a magnification change operation. The aperture shutter actuator 112 controls the aperture diameter of the aperture / shutter 102 to adjust the amount of shooting light, and also controls the exposure time during still image shooting. The focus actuator 114 moves the third lens group 105 in the optical axis direction to perform a focus adjustment operation.

被写体照明用の電子フラッシュ115は撮影時に使用し、キセノン管を用いた閃光照明装置または連続発光するLED(発光ダイオード)を備えた照明装置が用いられる。AF(オートフォーカス)補助光源116は、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影する。これにより、低輝度の被写体または低コントラストの被写体に対する焦点検出能力が向上する。 The electronic flash 115 for illuminating the subject is used at the time of photographing, and a flash illuminating device using a xenon tube or a illuminating device provided with an LED (light emitting diode) that continuously emits light is used. The AF (autofocus) auxiliary light source 116 projects an image of a mask having a predetermined aperture pattern onto the field of view via a projection lens. As a result, the focus detection ability for a low-luminance subject or a low-contrast subject is improved.

カメラ本体部の制御部を構成するCPU(中央演算処理装置)121は、種々の制御を司る制御中枢機能をもつ。CPU121は、演算部、ROM(リード・オンリー・メモリ)、RAM(ランダム・アクセス・メモリ)、A(アナログ)/D(デジタル)コンバーター、D/Aコンバーター、通信インターフェイス回路等を有する。CPU121はROMに記憶された所定のプログラムに従って、カメラ内の各種回路を駆動し、AF制御、撮像処理、画像処理、記録処理等の一連の動作を実行する。また、CPU121は、後述する画像処理装置300の機能を有していてもよい。 The CPU (Central Processing Unit) 121 that constitutes the control unit of the camera body has a control center function that controls various controls. The CPU 121 includes a calculation unit, a ROM (read only memory), a RAM (random access memory), an A (analog) / D (digital) converter, a D / A converter, a communication interface circuit, and the like. The CPU 121 drives various circuits in the camera according to a predetermined program stored in the ROM, and executes a series of operations such as AF control, imaging processing, image processing, and recording processing. Further, the CPU 121 may have the function of the image processing device 300 described later.

電子フラッシュ制御回路122はCPU121の制御指令に従い、撮影動作に同期して電子フラッシュ115を点灯制御する。補助光源回路123はCPU121の制御指令に従い、焦点検出動作に同期してAF補助光源116を点灯制御する。撮像素子駆動回路124は撮像素子107の撮像動作を制御するとともに、取得した撮像信号をA/D変換してCPU121に送信する。画像処理回路125はCPU121の制御指令に従い、撮像素子107により取得した画像のガンマ変換、カラー補間、JPEG(Joint Photographic Experts Group)圧縮等の処理を行う。 The electronic flash control circuit 122 controls the lighting of the electronic flash 115 in synchronization with the shooting operation in accordance with the control command of the CPU 121. The auxiliary light source circuit 123 controls the AF auxiliary light source 116 to be turned on in synchronization with the focus detection operation in accordance with the control command of the CPU 121. The image pickup element drive circuit 124 controls the image pickup operation of the image pickup element 107, and A / D-converts the acquired image pickup signal and transmits it to the CPU 121. The image processing circuit 125 performs processing such as gamma conversion, color interpolation, and JPEG (Joint Photographic Experts Group) compression of the image acquired by the image sensor 107 in accordance with the control command of the CPU 121.

フォーカス駆動回路126はCPU121の制御指令に従い、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動し、第3レンズ群105を光軸方向に移動させて焦点調節を行う。絞りシャッタ駆動回路128はCPU121の制御指令に従い、絞りシャッタアクチュエータ112を駆動し、絞り兼用シャッタ102の開口径を制御する。ズーム駆動回路129はCPU121の制御指令に従い、撮影者のズーム操作指示に応じてズームアクチュエータ111を駆動する。 The focus drive circuit 126 drives the focus actuator 114 based on the focus detection result in accordance with the control command of the CPU 121, and moves the third lens group 105 in the optical axis direction to adjust the focus. The aperture shutter drive circuit 128 drives the aperture shutter actuator 112 in accordance with a control command of the CPU 121 to control the aperture diameter of the aperture shutter 102. The zoom drive circuit 129 drives the zoom actuator 111 according to the zoom operation instruction of the photographer in accordance with the control command of the CPU 121.

表示部131はLCD(液晶表示装置)等の表示デバイスを有し、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。操作部132は操作スイッチとして、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等を備え、操作指示信号をCPU121に出力する。フラッシュメモリ133はカメラ本体部に着脱可能な記録媒体であり、撮影済み画像データ等を記録する。 The display unit 131 has a display device such as an LCD (liquid crystal display), and displays information on the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, an in-focus state display image at the time of focus detection, and the like. To do. The operation unit 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like as operation switches, and outputs an operation instruction signal to the CPU 121. The flash memory 133 is a recording medium that can be attached to and detached from the camera body, and records captured image data and the like.

次に、図2を用いて画像処理装置300の構成について説明する。図2は、画像処理装置300の構成例を示すブロック図である。
メモリ321は、画像データを保存する。保存する画像データは、表示部131での表示やフラッシュメモリ133への記録などにも用いる撮像画像および複数の視点画像である。撮像画像は、第1副画素と第2副画素の信号を全て合成した画像(A+B像)である。視点画像は、例えば、画素毎に第1副画素の信号を選択し生成した、第1視点画像(A像)である。減算部322は、撮像画像(A+B像)から第1視点画像(A像)を減算することで第2視点画像(B像)を生成する。メモリ321は、例えば、撮像素子107から取得されフラッシュメモリ133に記録され画像データを、フラッシュメモリ133から取得する。
Next, the configuration of the image processing apparatus 300 will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration example of the image processing device 300.
The memory 321 stores image data. The image data to be saved is an captured image and a plurality of viewpoint images that are also used for display on the display unit 131 and recording in the flash memory 133. The captured image is an image (A + B image) in which all the signals of the first sub-pixel and the second sub-pixel are combined. The viewpoint image is, for example, a first viewpoint image (A image) generated by selecting a signal of the first sub-pixel for each pixel. The subtraction unit 322 generates a second viewpoint image (B image) by subtracting the first viewpoint image (A image) from the captured image (A + B image). The memory 321 is, for example, acquired from the image sensor 107 and recorded in the flash memory 133, and the image data is acquired from the flash memory 133.

シェーディング処理部323は、第1視点画像と第2視点画像の像高による光量変化を補正する。操作部324は、ユーザが視点移動の調整を行うユーザインタフェースを生成し、出力部314を介して不図時の表示装置へ表示し、ユーザがユーザインタフェースにて設定した視点移動とピント調整(リフォーカス)の調整値を受け取る。そして、ユーザが操作した調整値を視点変更処理部327へ転送する。視点変更処理部327は、操作部324から取得した調整値に基づき、複数の視点画像を用いて画像処理を行う。視点変更処理部327は、画像処理により、視点画像の加算比率を変えて視点変更した画像や被写界深度を変更した画像を生成する。 The shading processing unit 323 corrects the change in the amount of light due to the image heights of the first viewpoint image and the second viewpoint image. The operation unit 324 generates a user interface for adjusting the viewpoint movement by the user, displays it on the display device at the time of non-figure via the output unit 314, and sets the viewpoint movement and focus adjustment by the user in the user interface. Receives the adjustment value of focus). Then, the adjustment value operated by the user is transferred to the viewpoint change processing unit 327. The viewpoint change processing unit 327 performs image processing using a plurality of viewpoint images based on the adjustment value acquired from the operation unit 324. The viewpoint change processing unit 327 generates an image in which the viewpoint is changed or an image in which the depth of field is changed by changing the addition ratio of the viewpoint image by image processing.

画像から複数の領域を指定する領域指定手段である領域指定部325は、ユーザが表示画面上のUI操作により画像内の任意の領域指定を可能にし、指定された領域の座標位置、縦横サイズなどの座標情報を記憶し、調整部326へ受け渡す。調整部326は、領域指定部325から指定された領域の情報を受け取り、視点変更等の画像処理の調整範囲を領域ごとに変更する。 The area designation unit 325, which is an area designation means for designating a plurality of areas from an image, enables the user to specify an arbitrary area in the image by operating the UI on the display screen, such as the coordinate position, vertical and horizontal size of the designated area. The coordinate information of is stored and passed to the adjustment unit 326. The adjustment unit 326 receives information on the designated area from the area designation unit 325, and changes the adjustment range of image processing such as changing the viewpoint for each area.

次に、画像処理装置300のうち現像処理を行う構成要素について説明する。ホワイトバランス部308は、ホワイトバランス処理を行う。具体的には、白の領域のR,G,Bが等色になるようにR,G,Bの各色にゲインをかける。ホワイトバランス処理をデモザイキング処理前に行うことで、彩度を算出する際に、色かぶり等により偽色の彩度よりも高い彩度になることを回避し、誤判定を防止することが可能となる。 Next, the components of the image processing apparatus 300 that perform the development process will be described. The white balance unit 308 performs a white balance process. Specifically, gain is applied to each color of R, G, and B so that R, G, and B in the white region have the same color. By performing the white balance processing before the demosaiking processing, it is possible to prevent the saturation from becoming higher than the saturation of the false color due to color cast or the like when calculating the saturation, and to prevent erroneous judgment. It becomes.

デモザイキング部309は、各画素において欠落している3原色のうちの2色のカラーモザイク画像データを補間することによって、全ての画素においてR,G,Bのカラー画像データが揃ったカラー画像を生成する。具体的には、まず注目画素に対してその周辺の画素を用いてそれぞれの規定方向で補間を行い、その後、方向選択を行うことで、各画素について補間処理結果としてR、G,Bの3原色のカラー画像信号を生成する。ガンマ変換部310は、各画素のカラー画像データにガンマ補正処理を行い、基本的なカラー画像データを生成する。色調整部311は、画像の見栄えを改善するための処理であるノイズ低減、彩度強調、色相補正、エッジ強調といった各種の色調整処理を行う。 The demoizing unit 309 interpolates the color mosaic image data of two of the three primary colors missing in each pixel to obtain a color image in which the color image data of R, G, and B are aligned in all the pixels. Generate. Specifically, first, the pixel of interest is interpolated in each of the specified directions using the pixels around it, and then the direction is selected. As a result of the interpolation processing for each pixel, 3 of R, G, and B Generates a color image signal of the primary colors. The gamma conversion unit 310 performs gamma correction processing on the color image data of each pixel to generate basic color image data. The color adjustment unit 311 performs various color adjustment processes such as noise reduction, saturation enhancement, hue correction, and edge enhancement, which are processes for improving the appearance of the image.

圧縮部312は、色調整されたカラー画像データをJPEG等の方法で圧縮し、記録時のデータサイズを小さくする。記録部313は、圧縮部312で圧縮された画像データをフラッシュメモリ等の記録媒体に記録する。出力部314は、不図時の表示装置にユーザインタフェースや画像を表示させるため、生成したユーザインタフェースや画像を出力する。なお、本実施形態では、画像処理を画像処理装置300内での処理で説明したが、画像処理装置とは別に上記の画像処理の制御プログラムを撮像装置が有する構成でもよい。その場合、出力部314は、撮像装置の表示部131にユーザインタフェースや画像を出力する。 The compression unit 312 compresses the color-adjusted color image data by a method such as JPEG to reduce the data size at the time of recording. The recording unit 313 records the image data compressed by the compression unit 312 on a recording medium such as a flash memory. The output unit 314 outputs the generated user interface or image in order to display the user interface or image on the display device at the time of non-figure. In the present embodiment, the image processing has been described as the processing in the image processing device 300, but the image processing device may have the above-mentioned image processing control program separately from the image processing device. In that case, the output unit 314 outputs the user interface and the image to the display unit 131 of the imaging device.

図3は、撮像素子の画素と副画素の配列の概略図を示す図である。図3の左右方向をx軸方向とし、上下方向をy軸方向とし、x軸方向およびy軸方向に直交する方向(紙面に垂直な方向)をz軸方向と定義する。図3は、本実施形態の2次元CMOSセンサー(撮像素子)の画素配列を4列×4行の範囲で、副画素配列を8列×4行の範囲で示したものである。 FIG. 3 is a diagram showing a schematic diagram of an arrangement of pixels and sub-pixels of the image sensor. The left-right direction of FIG. 3 is defined as the x-axis direction, the vertical direction is defined as the y-axis direction, and the x-axis direction and the direction orthogonal to the y-axis direction (direction perpendicular to the paper surface) are defined as the z-axis direction. FIG. 3 shows the pixel arrangement of the two-dimensional CMOS sensor (imaging element) of the present embodiment in the range of 4 columns × 4 rows, and the sub-pixel arrangement in the range of 8 columns × 4 rows.

図3に示した2列×2行の画素200では、R(赤)の分光感度を有する画素200Rが左上の位置に、G(緑)の分光感度を有する画素200Gが右上と左下の位置に、B(青)の分光感度を有する画素200Bが右下の位置に配置されている。さらに、各画素は、x軸方向に2分割、y軸方向に1分割された第1副画素201と第2副画素202を有している。つまり、x方向における分割数をNxと表記し、y方向における分割数をNyと表記し、分割数をNLFと表記すると、図3はNx=2、Ny=1、NLF=Nx×Ny=2の例を示している。副画素はそれぞれ、焦点検出信号を出力する焦点検出画素としての機能を有する。 In the pixel 200 of 2 columns × 2 rows shown in FIG. 3, the pixel 200R having the spectral sensitivity of R (red) is in the upper left position, and the pixel 200G having the spectral sensitivity of G (green) is in the upper right and lower left positions. , B (blue) pixel 200B having a spectral sensitivity is arranged at the lower right position. Further, each pixel has a first sub-pixel 201 and a second sub-pixel 202 that are divided into two in the x-axis direction and one in the y-axis direction. In other words, the number of division in the x-direction is denoted by Nx, when the division number in y-direction is denoted by Ny, it denoted the number of divisions N LF, 3 Nx = 2, Ny = 1, N LF = Nx × Ny An example of = 2 is shown. Each of the sub-pixels has a function as a focus detection pixel that outputs a focus detection signal.

図3に示す例では、4列×4行の画素(8列×4行の副画素)を面上に多数配置することで、表示部131での表示やフラッシュメモリ133への記録などにも用いる撮像画像(A+B像)および複数の視点画像を生成するための信号を取得可能である。本実施形態においては、画素の周期Pが4μm、画素数Nが横5575列×縦3725行=約2075万画素、副画素の列方向周期PSが2μm、副画素数NSが横11150列×縦3725行=約4150万画素の撮像素子として説明を行う。 In the example shown in FIG. 3, by arranging a large number of pixels of 4 columns × 4 rows (sub-pixels of 8 columns × 4 rows) on the surface, it can be displayed on the display unit 131 or recorded in the flash memory 133. It is possible to acquire a captured image (A + B image) to be used and a signal for generating a plurality of viewpoint images. In the present embodiment, the pixel period P is 4 μm, the number of pixels N is 5575 columns wide × 3725 rows = about 20.75 million pixels, the columnwise period PS of the sub-pixels is 2 μm, and the number of sub-pixels NS is 11150 columns wide × vertical. The description will be given as an image sensor with 3725 lines = about 41.5 million pixels.

図4(A)は、図3に示す撮像素子の1つの画素200Gを、撮像素子の受光面側(+z側)から見た平面図である。図4(A)の紙面に垂直な方向にz軸を設定し、手前側をz軸の正方向と定義する。また、z軸に直交する上下方向にy軸を設定して上方をy軸の正方向とし、z軸およびy軸に直交する左右方向にx軸を設定して右方をx軸の正方向と定義する。図4(B)は、図4(A)のa−a切断線に沿って−y側から見た場合の断面図である。 FIG. 4A is a plan view of one pixel 200G of the image pickup device shown in FIG. 3 as viewed from the light receiving surface side (+ z side) of the image pickup device. The z-axis is set in the direction perpendicular to the paper surface of FIG. 4A, and the front side is defined as the positive direction of the z-axis. Further, the y-axis is set in the vertical direction orthogonal to the z-axis so that the upper side is the positive direction of the y-axis, the x-axis is set in the horizontal direction orthogonal to the z-axis and the y-axis, and the right side is the positive direction of the x-axis. Is defined as. FIG. 4B is a cross-sectional view taken from the −y side along the aa cutting line of FIG. 4A.

図4(A)および図4(B)に示されるように、画素200Gには、各画素の受光面側(+z軸方向)に入射光を集光するためのマイクロレンズ305が形成されている。さらに、x方向に2分割、y方向に1分割された分割数2の複数の光電変換部が形成されている。第1光電変換部301と第2光電変換部302が、それぞれ、第1副画素201と第2副画素202に対応する。なお、光電変換部(副画素)の分割数については2に限定されない。分割の方向もx方向に限定されず、y方向に分割してもよい。 As shown in FIGS. 4 (A) and 4 (B), the pixel 200G is formed with a microlens 305 for condensing incident light on the light receiving surface side (+ z-axis direction) of each pixel. .. Further, a plurality of photoelectric conversion units having a number of divisions of 2 are formed, which are divided into two in the x direction and one in the y direction. The first photoelectric conversion unit 301 and the second photoelectric conversion unit 302 correspond to the first sub-pixel 201 and the second sub-pixel 202, respectively. The number of divisions of the photoelectric conversion unit (sub-pixel) is not limited to 2. The direction of division is not limited to the x direction, and may be divided in the y direction.

第1光電変換部301と第2光電変換部302は、2つの独立したpn接合フォトダイオードであり、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードである。また、必要に応じてイントリンシック層を省略し、pn接合フォトダイオードとしてもよい。各画素には、マイクロレンズ305と、第1光電変換部301および第2光電変換部302との間に、カラーフィルター306が形成される。また、必要に応じて、画素毎や光電変換部毎(副画素毎)にカラーフィルター306の分光透過率を変えてもよいし、カラーフィルターを省略しても構わない。 The first photoelectric conversion unit 301 and the second photoelectric conversion unit 302 are two independent pn junction photodiodes, and are pin structure photodiodes in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer. Further, if necessary, the intrinsic layer may be omitted and a pn junction photodiode may be used. A color filter 306 is formed in each pixel between the microlens 305 and the first photoelectric conversion unit 301 and the second photoelectric conversion unit 302. Further, if necessary, the spectral transmittance of the color filter 306 may be changed for each pixel or each photoelectric conversion unit (for each sub-pixel), or the color filter may be omitted.

画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルター306で分光されたのち、第1光電変換部301と第2光電変換部302それぞれで受光される。第1光電変換部301と第2光電変換部302では、受光量に応じて電子とホール(正孔)が対生成し、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子外部へ排出される。第1光電変換部301と第2光電変換部302のn型層(不図示)に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。 The light incident on the pixel 200G is collected by the microlens 305, separated by the color filter 306, and then received by the first photoelectric conversion unit 301 and the second photoelectric conversion unit 302, respectively. In the first photoelectric conversion unit 301 and the second photoelectric conversion unit 302, electrons and holes (holes) are pair-produced according to the amount of light received, and after being separated by the depletion layer, negatively charged electrons are generated in the n-type layer (non-type layer). Accumulated in (shown). On the other hand, the hole is discharged to the outside of the image sensor through a p-type layer connected to a constant voltage source (not shown). The electrons accumulated in the n-type layer (not shown) of the first photoelectric conversion unit 301 and the second photoelectric conversion unit 302 are transferred to the capacitance unit (FD) via the transfer gate and converted into a voltage signal. To.

図5は、画素構造と瞳分割との対応関係を示す概略説明図である。図5には、図4(A)に示した画素構造のa−a切断線での断面を+y側から見た断面図と、結像光学系の射出瞳面を−z軸方向から見た図を示す。図5では、射出瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図4に示す状態に対して反転させて示している。撮像素子は、撮影レンズ(結像光学系)の結像面近傍に配置され、被写体からの光束は、結像光学系の射出瞳400を通過して、それぞれの画素に入射する。撮像素子が配置された面を撮像面とする。 FIG. 5 is a schematic explanatory view showing a correspondence relationship between the pixel structure and pupil division. FIG. 5 shows a cross-sectional view of the pixel structure shown in FIG. 4 (A) at the aa cutting line seen from the + y side, and the exit pupil surface of the imaging optical system seen from the −z axis direction. The figure is shown. In FIG. 5, the x-axis and the y-axis of the cross-sectional view are inverted with respect to the state shown in FIG. 4 in order to correspond to the coordinate axes of the exit pupil surface. The image pickup element is arranged near the imaging plane of the photographing lens (imaging optical system), and the luminous flux from the subject passes through the exit pupil 400 of the imaging optical system and is incident on each pixel. The surface on which the image sensor is arranged is defined as the image pickup surface.

第1副画素201の第1瞳部分領域501は、重心が−x方向に偏心している第1光電変換部301の受光面と、マイクロレンズ305によって、概ね光学的に共役関係になっている。第1瞳部分領域501は、第1副画素201で受光可能な瞳領域を表している。第1副画素201の第1瞳部分領域501は、瞳面上で+X側に重心が偏心している。
第2副画素202の第2瞳部分領域502は、重心が+x方向に偏心している第2光電変換部302の受光面と、マイクロレンズ305によって、概ね光学的に共役関係になっている。第2瞳部分領域502は、第2副画素202で受光可能な瞳領域を表している。第2副画素202の第2瞳部分領域502は、瞳面上で−X側に重心が偏心している。
The first pupil region 501 of the first sub-pixel 201 is substantially optically conjugated to the light receiving surface of the first photoelectric conversion unit 301 whose center of gravity is eccentric in the −x direction by the microlens 305. The first pupil region 501 represents a pupil region that can be received by the first sub-pixel 201. The center of gravity of the first pupil portion region 501 of the first sub-pixel 201 is eccentric to the + X side on the pupil surface.
The second pupil partial region 502 of the second sub-pixel 202 is substantially optically conjugated to the light receiving surface of the second photoelectric conversion unit 302 whose center of gravity is eccentric in the + x direction by the microlens 305. The second pupil region 502 represents a pupil region that can be received by the second sub-pixel 202. The center of gravity of the second pupil partial region 502 of the second sub-pixel 202 is eccentric to the −X side on the pupil surface.

瞳領域500は、第1光電変換部301と第2光電変換部302を全て合わせた受光面と、マイクロレンズ305によって、概ね光学的に共役な関係になっている。瞳領域500は、第1副画素201と第2副画素202を全て合わせた画素200G全体で受光可能な瞳領域である。 The pupil region 500 has a substantially optically conjugated relationship with the light receiving surface in which the first photoelectric conversion unit 301 and the second photoelectric conversion unit 302 are all combined, and the microlens 305. The pupil region 500 is a pupil region that can receive light in the entire pixel 200G in which the first sub-pixel 201 and the second sub-pixel 202 are all combined.

図6は、各画素に形成されたマイクロレンズに、光が入射した場合の光強度分布の例を示す図である。図6(A)はマイクロレンズの光軸に平行な断面での光強度分布を示す。図6(B)はマイクロレンズの焦点位置において、マイクロレンズの光軸に垂直な断面での光強度分布を示す。入射光は、マイクロレンズにより、焦点位置に集光される。しかし、光の波動性による回折の影響のため、集光スポットの直径は回折限界Δより小さくすることはできず、有限の大きさとなる。光電変換部の受光面サイズは約1〜2μm程度であり、これに対してマイクロレンズの集光スポットが約1μm程度である。そのため、光電変換部の受光面とマイクロレンズを介して共役の関係にある、図5の第1瞳部分領域501と第2瞳部分領域502は、回折ボケのため、明瞭に瞳分割されず、光の入射角に依存した受光率分布(瞳強度分布)となる。 FIG. 6 is a diagram showing an example of a light intensity distribution when light is incident on a microlens formed in each pixel. FIG. 6A shows a light intensity distribution in a cross section parallel to the optical axis of the microlens. FIG. 6B shows the light intensity distribution in the cross section perpendicular to the optical axis of the microlens at the focal position of the microlens. The incident light is focused on the focal position by the microlens. However, due to the influence of diffraction due to the wave nature of light, the diameter of the focused spot cannot be made smaller than the diffraction limit Δ, and has a finite size. The size of the light receiving surface of the photoelectric conversion unit is about 1 to 2 μm, whereas the condensing spot of the microlens is about 1 μm. Therefore, the first pupil region 501 and the second pupil region 502 in FIG. 5, which are conjugate to the light receiving surface of the photoelectric conversion unit via the microlens, are not clearly divided into pupils due to diffraction blur. The light receiving rate distribution (pupil intensity distribution) depends on the incident angle of light.

図7は、光の入射角に依存した受光率分布(瞳強度分布)の例を示す図である。横軸は瞳座標を表し、縦軸は受光率を表す。図7に実線で示すグラフ線L1は、図5の第1瞳部分領域501のX軸に沿った瞳強度分布を表す。グラフ線L1で示す受光率は、左端から急峻に上昇してピークに到達した後で徐々に低下してから変化率が緩やかになって右端へと至る。また、図7に破線で示すグラフ線L2は、第2瞳部分領域502のX軸に沿った瞳強度分布を表す。グラフ線L2で示す受光率は、グラフ線L1とは反対(左右対称的)に、右端から急峻に上昇してピークに到達した後で徐々に低下してから変化率が緩やかになって左端へと至る。図示のように、緩やかに瞳分割されることがわかる。 FIG. 7 is a diagram showing an example of a light receiving rate distribution (pupil intensity distribution) depending on the incident angle of light. The horizontal axis represents the pupil coordinates, and the vertical axis represents the light receiving rate. The graph line L1 shown by a solid line in FIG. 7 represents the pupil intensity distribution along the X axis of the first pupil portion region 501 of FIG. The light receiving rate shown by the graph line L1 rises sharply from the left end, reaches a peak, then gradually decreases, and then the rate of change becomes gradual and reaches the right end. Further, the graph line L2 shown by the broken line in FIG. 7 represents the pupil intensity distribution along the X axis of the second pupil partial region 502. The light receiving rate shown by the graph line L2 is opposite to the graph line L1 (symmetrical), rises sharply from the right end, reaches a peak, then gradually decreases, and then the rate of change becomes gentle and moves to the left end. To reach. As shown in the figure, it can be seen that the pupils are gently divided.

図8は、撮像素子と瞳分割との対応関係を示す概略図である。第1光電変換部301と第2光電変換部302が、それぞれ、第1副画素201と第2副画素202に対応する。撮像素子の各画素において、2×1分割された第1副画素201と第2副画素202は、それぞれ結像光学系の第1瞳部分領域501と第2瞳部分領域502の異なる瞳部分領域を通過した光束を受光する。すなわち、第1瞳部分領域501と第2瞳部分領域502の異なる瞳部分領域を通過した光束は、撮像素子の各画素にそれぞれ異なる角度で入射し、2×1分割された第1副画素201と第2副画素202でそれぞれ受光される。 FIG. 8 is a schematic view showing the correspondence between the image sensor and the pupil division. The first photoelectric conversion unit 301 and the second photoelectric conversion unit 302 correspond to the first sub-pixel 201 and the second sub-pixel 202, respectively. In each pixel of the image sensor, the first sub-pixel 201 and the second sub-pixel 202 divided into 2 × 1 are different pupil region regions of the first pupil region 501 and the second pupil region 502 of the imaging optical system, respectively. Receives the light flux that has passed through. That is, the luminous flux that has passed through the different pupil region regions of the first pupil region 501 and the second pupil region 502 is incident on each pixel of the image sensor at a different angle, and the first sub-pixel 201 is divided into 2 × 1. Is received by the second sub-pixel 202, respectively.

各副画素で受光された信号から、画素毎に第1副画素201と第2副画素202の中から特定の副画素の信号を選択することで、結像光学系の第1瞳部分領域501と第2瞳部分領域502の中の特定の瞳部分領域に対応した視点画像を生成できる。例えば、各画素において、第1副画素201の信号を選択することで、結像光学系の第1瞳部分領域501に対応した画素数Nの解像度を有する第1視点画像を生成できる。他の副画素でも同様である。本実施形態の撮像素子は、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の光電変換部(副画素)が設けられた画素が複数配列された構造を有し、異なる瞳部分領域毎に複数の視点画像を生成することができる。 By selecting a signal of a specific sub-pixel from the first sub-pixel 201 and the second sub-pixel 202 for each sub-pixel from the signal received by each sub-pixel, the first pupil partial region 501 of the imaging optical system is selected. And a viewpoint image corresponding to a specific pupil region in the second pupil region 502 can be generated. For example, by selecting the signal of the first sub-pixel 201 in each pixel, it is possible to generate a first viewpoint image having a resolution of the number of pixels N corresponding to the first pupil partial region 501 of the imaging optical system. The same applies to other sub-pixels. The image pickup device of the present embodiment has a structure in which a plurality of pixels provided with a plurality of photoelectric conversion units (sub-pixels) for receiving light flux passing through different pupil region regions of the imaging optical system are arranged, and the pupils are different. A plurality of viewpoint images can be generated for each subregion.

本実施形態では、第1視点画像および第2視点画像は、それぞれベイヤー配列の画像となる。必要に応じて、第1視点画像、第2視点画像に、デモザイキング処理を行ってもよい。また、撮像素子の画素毎に、第1副画素201と第2副画素202の信号を加算して読み出すことで、有効画素数Nの解像度の撮像画像を生成することができる。 In the present embodiment, the first viewpoint image and the second viewpoint image are Bayer array images, respectively. If necessary, the first viewpoint image and the second viewpoint image may be demosized. Further, by adding and reading the signals of the first sub-pixel 201 and the second sub-pixel 202 for each pixel of the image sensor, it is possible to generate an captured image having a resolution of N effective pixels.

次に、本実施形態の撮像素子により取得される第1視点画像と第2視点画像のデフォーカス量と像ずれ量の関係について説明する。図9は、第1視点画像と第2視点画像のデフォーカス量と第1視点画像と第2視点画像間の像ずれ量の概略関係を示す図である。撮像面800に撮像素子(不図示)が配置され、図5、図8の場合と同様に、結像光学系の射出瞳が、第1瞳部分領域501と第2瞳部分領域502に2×1分割される。 Next, the relationship between the defocus amount and the image shift amount of the first viewpoint image and the second viewpoint image acquired by the image sensor of the present embodiment will be described. FIG. 9 is a diagram showing a schematic relationship between the defocus amount of the first viewpoint image and the second viewpoint image and the image shift amount between the first viewpoint image and the second viewpoint image. An image sensor (not shown) is arranged on the image pickup surface 800, and as in the cases of FIGS. 5 and 8, the exit pupils of the imaging optical system are 2 × in the first pupil portion region 501 and the second pupil portion region 502. It is divided into one.

デフォーカス量dは、その大きさ|d|が被写体像の結像位置から撮像面800までの距離を表す。被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)として向きを定義する。被写体の結像位置が撮像面(合焦位置)にある合焦状態は、d=0である。図9で、被写体801は合焦状態(d=0)のに対応する位置の例を示しており、被写体802は前ピン状態(d<0)のに対応する位置の例を示している。以下では、前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)という。 The amount of defocus d has a magnitude | d | representing the distance from the imaging position of the subject image to the imaging surface 800. The front pin state where the image formation position of the subject is on the subject side of the imaging surface is a negative sign (d <0), and the rear pin state where the image formation position of the subject is on the opposite side of the subject from the imaging surface is a positive sign (d> 0). ) To define the orientation. The focusing state in which the imaging position of the subject is on the imaging surface (focusing position) is d = 0. In FIG. 9, the subject 801 shows an example of the position corresponding to the in-focus state (d = 0), and the subject 802 shows an example of the position corresponding to the front pin state (d <0). In the following, the front pin state (d <0) and the rear pin state (d> 0) are collectively referred to as a defocus state (| d |> 0).

前ピン状態(d<0)では、被写体802からの光束のうち、第1瞳部分領域501(または第2瞳部分領域502)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がる。この場合、撮像面800上でボケ像となる。ボケ像は、撮像素子に配列された各画素を構成する第1副画素201(または第2副画素202)により受光され、第1視点画像(または第2視点画像)が生成される。よって、被写体802は、第1視点画像(または第2視点画像)では、撮像面800上の重心位置G1(またはG2)にて、ボケ幅Γ1(Γ2)をもった被写体像(ボケ像)の画像データとして記録される。 In the front pin state (d <0), among the luminous fluxes from the subject 802, the luminous flux passing through the first pupil region 501 (or the second pupil region 502) is focused once and then the position of the center of gravity of the luminous flux. It extends to a width of Γ1 (Γ2) centered on G1 (G2). In this case, a blurred image is obtained on the imaging surface 800. The blurred image is received by the first sub-pixel 201 (or the second sub-pixel 202) constituting each pixel arranged in the image sensor, and the first viewpoint image (or the second viewpoint image) is generated. Therefore, in the first viewpoint image (or the second viewpoint image), the subject 802 is a subject image (blurred image) having a blurred width Γ1 (Γ2) at the center of gravity position G1 (or G2) on the imaging surface 800. Recorded as image data.

被写体像のボケ幅Γ1(またはΓ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加する。同様に、第1視点画像と第2視点画像間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加する。なお、後ピン状態(d>0)では、第1視点画像と第2視点画像間の被写体像の像ずれ方向が前ピン状態とは反対となるが、同様の傾向がある。 The blur width Γ1 (or Γ2) of the subject image increases substantially proportionally as the magnitude | d | of the defocus amount d increases. Similarly, the magnitude of the image shift p (= difference in the position of the center of gravity of the luminous flux G1-G2) of the subject image between the first viewpoint image and the second viewpoint image | p | is also the magnitude of the defocus amount d | d. As | increases, it increases roughly in proportion. In the rear pin state (d> 0), the image shift direction of the subject image between the first viewpoint image and the second viewpoint image is opposite to that in the front pin state, but there is the same tendency.

したがって、本実施形態では、第1視点画像と第2視点画像、または、第1視点画像と第2視点画像を加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1視点画像と第2視点画像間の像ずれ量の大きさが増加する。 Therefore, in the present embodiment, as the magnitude of the defocus amount of the first viewpoint image and the second viewpoint image or the image pickup signal obtained by adding the first viewpoint image and the second viewpoint image increases, the first viewpoint image The amount of image shift between the image and the second viewpoint image increases.

次に、視点移動の画像処理の原理を、図10を用いて説明する。図10は、視点移動の概略説明図である。図10において、撮像面800に本実施形態の撮像素子(不図示)が配置され、図5、図8、図9の場合と同様に、結像光学系の射出瞳が第1瞳部分領域501と第2瞳部分領域502に2分割される。視点移動は、複数の光電変換部を有する撮像素子により取得された、複数の視差画像を用いて行われる。本実施形態では、第1視点画像と第2視点画像により視点移動を行い、合成画像を生成する。 Next, the principle of image processing of viewpoint movement will be described with reference to FIG. FIG. 10 is a schematic explanatory view of viewpoint movement. In FIG. 10, the image pickup device (not shown) of the present embodiment is arranged on the image pickup surface 800, and the exit pupil of the imaging optical system is the first pupil portion region 501 as in the cases of FIGS. 5, 8 and 9. And the second pupil partial region 502 are divided into two. The viewpoint movement is performed using a plurality of parallax images acquired by an image sensor having a plurality of photoelectric conversion units. In the present embodiment, the viewpoint is moved by the first viewpoint image and the second viewpoint image, and a composite image is generated.

図10(A)は、主被写体q1の合焦像p1に、手前の被写体q2のボケ像Γ1+Γ2が重なって撮影され、撮影画像において遠近競合(主被写体への前ボケ被り)が生じている例である。この例を、結像光学系の第1瞳部分領域501を通過する光束と、第2瞳部分領域502を通過する光束とに、それぞれ分けたものを、図10(B)および図10(C)に示す。 FIG. 10A shows an example in which the focused image p1 of the main subject q1 is photographed by superimposing the blurred image Γ1 + Γ2 of the subject q2 in the foreground, and perspective conflict (front blurring on the main subject) occurs in the captured image. Is. In this example, the luminous flux passing through the first pupil region 501 of the imaging optical system and the luminous flux passing through the second pupil region 502 are divided into FIGS. 10 (B) and 10 (C), respectively. ).

図10(B)では、主被写体q1からの光束は、第1瞳部分領域501を通過して、合焦状態で像p1に結像する。一方、手前の被写体q2からの光束は、第1瞳部分領域501を通過して、デフォーカス状態でボケ像Γ1に広がり、撮像素子の各画素の第1副画素201で受光される。そして、第1副画素201の受光信号から、第1視点画像が生成される。第1視点画像では、主被写体q1の像p1と手前の被写体q2のボケ像Γ1が重ならずに、異なる位置で撮像される。 In FIG. 10B, the luminous flux from the main subject q1 passes through the first pupil portion region 501 and is imaged on the image p1 in the focused state. On the other hand, the luminous flux from the subject q2 in the foreground passes through the first pupil portion region 501, spreads to the blurred image Γ1 in the defocused state, and is received by the first sub-pixel 201 of each pixel of the image sensor. Then, the first viewpoint image is generated from the received signal of the first sub-pixel 201. In the first viewpoint image, the image p1 of the main subject q1 and the blurred image Γ1 of the subject q2 in the foreground do not overlap and are imaged at different positions.

一方、図10(C)では、主被写体q1からの光束は、第2瞳部分領域502を通過して、合焦状態で像p1に結像する。一方、手前の被写体q2からの光束は、第2瞳部分領域502を通過して、デフォーカス状態でボケ像Γ2に広がり、撮像素子の各画素の第2副画素202で受光される。そして、第2副画素202の受光信号から、第2視点画像が生成される。第2視点画像では、主被写体q1の像p1と手前の被写体q2のボケ像Γ2が重なって撮像される。 On the other hand, in FIG. 10C, the luminous flux from the main subject q1 passes through the second pupil portion region 502 and is imaged on the image p1 in the focused state. On the other hand, the luminous flux from the subject q2 in the foreground passes through the second pupil portion region 502, spreads to the blurred image Γ2 in the defocused state, and is received by the second sub-pixel 202 of each pixel of the image sensor. Then, a second viewpoint image is generated from the received signal of the second sub-pixel 202. In the second viewpoint image, the image p1 of the main subject q1 and the blurred image Γ2 of the subject q2 in the foreground overlap each other.

図10(B)および図10(C)において、主被写体q1の像p1近傍の領域を、所定領域rとする。図10(B)で生成される第1視点画像と図10(C)で生成される第2視点画像を比較すると、所定領域rにおいて、第1視点画像の手前の被写体q2のボケ像Γ1は、第2視点画像の手前の被写体q2のボケ像Γ2よりボケ像の範囲が狭い。また、第1視点画像の所定領域rでは、ボケ像Γ1の写りが少なく、主被写体q1の像p1にボケ像Γ1が重なることはないため、所定領域rのコントラスト評価値が大きくなる。一方、第2視点画像の所定領域rでは、ボケ像Γ2の写りが多く、主被写体q1の像p1とボケ像Γ2とが重なって撮像されるため、所定領域rのコントラスト評価値は小さくなる。 In FIGS. 10B and 10C, a region near the image p1 of the main subject q1 is defined as a predetermined region r. Comparing the first viewpoint image generated in FIG. 10 (B) and the second viewpoint image generated in FIG. 10 (C), the blurred image Γ1 of the subject q2 in front of the first viewpoint image is obtained in the predetermined region r. , The range of the blurred image is narrower than the blurred image Γ2 of the subject q2 in front of the second viewpoint image. Further, in the predetermined region r of the first viewpoint image, the blurred image Γ1 is less likely to be captured, and the blurred image Γ1 does not overlap the image p1 of the main subject q1, so that the contrast evaluation value of the predetermined region r becomes large. On the other hand, in the predetermined region r of the second viewpoint image, the blurred image Γ2 is often captured, and the image p1 of the main subject q1 and the blurred image Γ2 are imaged in an overlapping manner, so that the contrast evaluation value of the predetermined region r becomes small.

本実施形態では、合成画像の所定領域rにおいて、複数の視点画像の中で、至近側の被写体が最も広い範囲で撮影されている視点画像の重み係数を最も小さく、または、至近側の被写体が最も狭い範囲で撮影されている視点画像の重み係数を最も大きくする。言い換えると、本実施形態では、合成画像の所定領域rにおいて、複数の視点画像の中で、コントラスト評価値が最も小さい視点画像の重み係数を最も小さく、または、コントラスト評価値が最も大きい視点画像の重み係数を最も大きくする。 In the present embodiment, in a predetermined region r of the composite image, among the plurality of viewpoint images, the viewpoint image in which the closest subject is photographed in the widest range has the smallest weight coefficient, or the closest subject has the smallest weight coefficient. The weighting coefficient of the viewpoint image captured in the narrowest range is maximized. In other words, in the present embodiment, in the predetermined region r of the composite image, among the plurality of viewpoint images, the viewpoint image having the smallest contrast evaluation value has the smallest weighting coefficient, or the viewpoint image having the largest contrast evaluation value. Make the weighting factor the largest.

したがって、本実施形態では、所定領域rにおいて、像p1とボケ像Γ1の重なりが少ない第1視点画像の第1重み係数Waを、像p1とボケ像Γ2の重なりが多い第2視点画像の第2重み係数Wbより大きくし、合成画像を生成する。このような視点移動を行うことで、所定領域において主被写体への前ボケ被りを低減した合成画像を生成することができる。 Therefore, in the present embodiment, in the predetermined region r, the first weighting coefficient Wa of the first viewpoint image with less overlap between the image p1 and the blurred image Γ1 is set, and the second viewpoint image with more overlap between the image p1 and the blurred image Γ2 is used. 2 The weight coefficient Wb is set to be larger than the Wb, and a composite image is generated. By moving the viewpoint in this way, it is possible to generate a composite image in which the front blurring on the main subject is reduced in a predetermined area.

ここで、撮像素子の周辺像高での瞳ずれについて説明する。図11は、撮像素子の周辺像高での瞳ずれの概略説明図である。具体的には、撮像素子の周辺像高に配列された各画素の第1光電変換部301が受光する第1瞳部分領域501、第2光電変換部302が受光する第、および結像光学系の射出瞳400の関係を示す。第1光電変換部301と第2光電変換部302が、それぞれ、第1副画素201と第2副画素202に対応する。 Here, the pupil shift at the peripheral image height of the image sensor will be described. FIG. 11 is a schematic explanatory view of pupil deviation at the peripheral image height of the image sensor. Specifically, the first pupil region 501 that receives light from the first photoelectric conversion unit 301 of each pixel arranged at the peripheral image height of the image sensor, the first that receives light from the second photoelectric conversion unit 302, and the imaging optical system. The relationship between the exit pupils 400 and 400 is shown. The first photoelectric conversion unit 301 and the second photoelectric conversion unit 302 correspond to the first sub-pixel 201 and the second sub-pixel 202, respectively.

図11(A)は、結像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsが、概ね一致する場合である。この場合、中央像高と同様に、撮像素子の周辺像高でも、第1瞳部分領域501と第2瞳部分領域502により、結像光学系の射出瞳400が概ね均等に瞳分割される。 FIG. 11A shows a case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor substantially match. In this case, as with the central image height, the exit pupil 400 of the imaging optical system is substantially evenly divided by the first pupil region 501 and the second pupil region 502 in the peripheral image height of the image sensor.

これに対して、図11(B)は、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより短い場合である。この場合、撮像素子の周辺像高では、結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、第1瞳部分領域501と第2瞳部分領域502により、結像光学系の射出瞳400が、不均一に瞳分割されてしまう。図11(B)の例では、第1瞳部分領域501に対応した第1視点画像の実効絞り値が、第2瞳部分領域502に対応した第2視点画像の実効絞り値より小さい(明るい)値となる。反対側の像高では、逆に、第1瞳部分領域501に対応した第1視点画像の実効絞り値が、第2瞳部分領域502に対応した第2視点画像の実効絞り値より大きい(暗い)値となる。 On the other hand, FIG. 11B shows a case where the exit pupil distance Dl of the imaging optical system is shorter than the set pupil distance Ds of the image sensor. In this case, the peripheral image height of the image pickup device causes a pupil shift between the exit pupil of the image pickup optical system and the entrance pupil of the image pickup device, and the first pupil portion region 501 and the second pupil portion region 502 cause the imaging optical system to shift. The exit pupil 400 is unevenly divided into pupils. In the example of FIG. 11B, the effective aperture value of the first viewpoint image corresponding to the first pupil region 501 is smaller (brighter) than the effective aperture value of the second viewpoint image corresponding to the second pupil region 502. It becomes a value. On the opposite side, the effective aperture value of the first viewpoint image corresponding to the first pupil region 501 is larger than the effective aperture value of the second viewpoint image corresponding to the second pupil region 502 (dark). ) Value.

図11(C)は、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより長い場合である。この場合も、撮像素子の周辺像高では、撮像素子の周辺像高で結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳400が、第1瞳部分領域501と第2瞳部分領域502により不均一に瞳分割される。図11(C)の例では、第1瞳部分領域501に対応した第1視点画像の実効絞り値が、第2瞳部分領域502に対応した第2視点画像の実効絞り値より大きい(暗い)値となる。反対側の像高では、逆に、第1瞳部分領域501に対応した第1視点画像の実効絞り値が、第2瞳部分領域502に対応した第2視点画像の実効絞り値より小さい(明るい)値となる。 FIG. 11C shows a case where the exit pupil distance Dl of the imaging optical system is longer than the set pupil distance Ds of the image sensor. In this case as well, at the peripheral image height of the image sensor, the exit pupil of the imaging optical system and the entrance pupil of the image sensor are displaced from each other at the peripheral image height of the image sensor, and the exit pupil 400 of the image pickup optical system is the first. The pupil is unevenly divided by the pupil region 501 and the second pupil region 502. In the example of FIG. 11C, the effective aperture value of the first viewpoint image corresponding to the first pupil region 501 is larger than the effective aperture value of the second viewpoint image corresponding to the second pupil region 502 (dark). It becomes a value. On the opposite side, the effective aperture value of the first viewpoint image corresponding to the first pupil region 501 is smaller than the effective aperture value of the second viewpoint image corresponding to the second pupil region 502 (bright). ) Value.

瞳ずれにより周辺像高で瞳分割が不均一になるのに伴い、第1視点画像と第2視点画像の実効F値も不均一になり、そのため、第1視点画像と第2視点画像のいずれかのボケの広がり方が大きくなり、他方のボケの広がり方が小さくなる。そのため、合成画像の所定領域において、複数の視点画像の中で、実効絞り値が最も小さい視点画像の重み係数を最も小さく、または、実効絞り値が最も大きい視点画像の重み係数を最も大きくすることが望ましい。以上の構成により、撮影後に視点移動の画像処理を行うことで主被写体への前ボケ被りを低減させることができる。 As the pupil division becomes non-uniform due to the peripheral image height due to the pupil shift, the effective F-numbers of the first-view image and the second-view image also become non-uniform. Therefore, either the first-view image or the second-view image The spread of the blur becomes large, and the spread of the other blur becomes small. Therefore, in a predetermined area of the composite image, the weighting coefficient of the viewpoint image having the smallest effective aperture value is the smallest, or the weighting coefficient of the viewpoint image having the largest effective aperture value is the largest among the plurality of viewpoint images. Is desirable. With the above configuration, it is possible to reduce the front blurring on the main subject by performing image processing for moving the viewpoint after shooting.

次に、深度変更処理について説明する。図11(B)では第1瞳部分領域501を通過した像が第1視点画像となり、第2瞳部分領域502を通過した像が第2視点画像となる。各視点画像は本来の瞳領域の半分を通過した画像であり、水平方向2分割の瞳部分領域の場合には水平方向の絞り径としては半分となるため、水平方向の被写界深度は4倍になる。なお、本実施形態の例では垂直方向に瞳分割した構成ではないため、垂直方向の被写界深度の変化は変化しない。そのため第1視点画像または第2視点画像は、第1と第2視点画像を合成した画像(A+B像)の被写界深度に対して、縦横平均として倍の被写界深度の画像になる。 Next, the depth change process will be described. In FIG. 11B, the image that has passed through the first pupil portion region 501 is the first viewpoint image, and the image that has passed through the second pupil portion region 502 is the second viewpoint image. Each viewpoint image is an image that has passed through half of the original pupil region, and in the case of the pupil portion region divided into two in the horizontal direction, the aperture diameter in the horizontal direction is halved, so the depth of field in the horizontal direction is 4. Double. In the example of this embodiment, since the pupil is not divided in the vertical direction, the change in the depth of field in the vertical direction does not change. Therefore, the first-viewpoint image or the second-viewpoint image is an image having a depth of field that is double the vertical and horizontal average of the depth of field of the image (A + B image) obtained by combining the first and second viewpoint images.

以上により、視点変更処理部327で、第1視点画像と第2視点画像の加算比率を1:1以外に変えた合成画像を生成することで、被写界深度が拡大した画像を生成することができる。さらに、視点変更処理部327で、コントラスト分布、像ずれ分布を用いたアンシャープマスク処理を第1視点画像と第2視点画像の加算比率を変更した画像に対して行うことで、深度拡大し、かつ輪郭強調した合成画像を生成できる。 As described above, the viewpoint change processing unit 327 generates a composite image in which the addition ratio of the first viewpoint image and the second viewpoint image is changed to other than 1: 1 to generate an image with an enlarged depth of field. Can be done. Further, the viewpoint change processing unit 327 performs unsharp mask processing using the contrast distribution and the image shift distribution on the image in which the addition ratio of the first viewpoint image and the second viewpoint image is changed to expand the depth. Moreover, it is possible to generate a composite image with contour enhancement.

次に、領域指定について図12および13を用いて説明する。図12は、視点画像および合成画像におけるボケ形状の例を図である。図13は、ユーザが領域を指定して、視点移動や深度変更を行う例を示す図である。 Next, the area designation will be described with reference to FIGS. 12 and 13. FIG. 12 is a diagram showing an example of a blurred shape in a viewpoint image and a composite image. FIG. 13 is a diagram showing an example in which the user specifies an area and moves the viewpoint or changes the depth.

図12(A)は、第1視点画像と第2視点画像を合成した画像(A+B像)である。図12(B)は、第1視点画像(A像)である。図13(C)は、第2視点画像(B像)である。A+B像とA像、B像のボケ形状を、各図の点線内で囲った領域1200で比較する。A+B像の画像(合成画像)である図13(A)に対して、A像の画像(第1視点画像)である図13(B)は、領域1200のボケ形状の右側が欠けた画像となっている。また、B像の画像(第2視点画像)である図13(C)は、領域1200のボケ形状の左側が欠けた画像となる。第1視点画像と第2視点画像は、それぞれ瞳領域の一部である第1瞳部分領域501と第2瞳部分領域502を通過した光束のため、実効F値が大きくかつ形状が半円形状となるため、ボケ形状が真円から変形したボケになってしまう。 FIG. 12A is an image (A + B image) obtained by combining the first viewpoint image and the second viewpoint image. FIG. 12B is a first viewpoint image (A image). FIG. 13C is a second viewpoint image (B image). The blurred shapes of the A + B image, the A image, and the B image are compared in the area 1200 surrounded by the dotted line in each figure. In contrast to FIG. 13 (A), which is an image of the A + B image (composite image), FIG. 13 (B), which is the image of the A image (first viewpoint image), is an image in which the right side of the blurred shape of the region 1200 is missing. It has become. Further, FIG. 13 (C), which is an image of the B image (second viewpoint image), is an image in which the left side of the blurred shape of the region 1200 is missing. Since the first viewpoint image and the second viewpoint image are light fluxes that have passed through the first pupil region 501 and the second pupil region 502, which are part of the pupil region, respectively, the effective F value is large and the shape is semicircular. Therefore, the bokeh shape is deformed from a perfect circle.

そこで、本実施形態では、望まないボケ形状の変化等を抑制するためユーザが指定した領域でのみ視点移動や深度拡大を行い、その他の領域では視点画像を用いた画像処理の効果を禁止または低減する。したがって、ユーザが視点移動したい領域を指定し、指定領域と指定領域以外で異なるパラメータで画像処理を行えるようにする。また、本実施形態においては、視点移動処理を行わない領域、即ち指定領域以外の領域では、結像光学系のボケ形状を変化させないために、複数の視点画像毎の重み係数(第1重み係数、第2重み係数)を、概ね均等に加算し、合成画像を生成する。 Therefore, in the present embodiment, in order to suppress unwanted changes in the blurred shape, the viewpoint is moved or the depth is expanded only in the area specified by the user, and the effect of image processing using the viewpoint image is prohibited or reduced in other areas. To do. Therefore, the user can specify the area in which the viewpoint is to be moved, and perform image processing with different parameters in the specified area and other than the specified area. Further, in the present embodiment, in the region where the viewpoint movement process is not performed, that is, in the region other than the designated region, the weighting coefficient (first weighting coefficient) for each of the plurality of viewpoint images is not changed so that the blurred shape of the imaging optical system is not changed. , Second weighting factor) is added almost evenly to generate a composite image.

図13に、領域を指定して視点移動を行う例を示す。
まず、図13(A)のようにA+B像を表示する。そして、ユーザに画像の中から視点移動や深度拡大を行う指定領域1001を指定させる。本実施形態の撮像素子は、水平方向に2分割の瞳分割した構成のため、水平方向の視点画像を有している。そのため、ユーザに視点が変わる方向へ操作させるためのUIとして、スライダーバー1002とスライダー1003を水平方向に配置する。スライダーの右端の値を1、中央を0、左端の値を−1と定義した場合に、スライダーが任意の位置xにある場合には、第1視点画像と第2視点画像の比率は(1+x):(1−x)となるように加算比率を変更し、視点移動した合成画像を生成する。
FIG. 13 shows an example of moving the viewpoint by designating an area.
First, the A + B image is displayed as shown in FIG. 13 (A). Then, the user is made to specify the designated area 1001 for moving the viewpoint and expanding the depth from the image. The image pickup device of the present embodiment has a horizontal viewpoint image because the pupil is divided into two in the horizontal direction. Therefore, the slider bar 1002 and the slider 1003 are arranged in the horizontal direction as a UI for allowing the user to operate in the direction in which the viewpoint changes. If the value at the right end of the slider is defined as 1, the value at the center is 0, and the value at the left end is -1, and the slider is at an arbitrary position x, the ratio of the first viewpoint image to the second viewpoint image is (1 + x). ): The addition ratio is changed so as to be (1-x), and a composite image in which the viewpoint is moved is generated.

図13(A)は、スライダー位置が中央の場合の画像であり、この場合の第1視点画像と第2視点画像の合成比率は1:1である。図13(B)は、スライダー位置を左端とした場合の画像であり、この場合の第1視点画像と第2視点画像の合成比率は0:2である。図13(C)は、スライダー位置を右端とした場合の画像であり、この場合の第1視点画像と第2視点画像の合成比率は2:0である。したがって、図13(B)の指定領域1001は第2視点画像のみ、図13(C)の指定領域1001は第1視点画像のみで生成される。一方、指定領域1001においてのみ視点画像の加算比率を変更させるため、指定領域1001以外の領域(例えば点線内の領域1200)における各視点画像の合成比率は1:1のまま、すなわち元のA+B像のままである。そのため、領域1200のボケ形状が真円から変形したボケになることはない。 FIG. 13A is an image when the slider position is in the center, and the composite ratio of the first viewpoint image and the second viewpoint image in this case is 1: 1. FIG. 13B is an image when the slider position is set to the left end, and the composite ratio of the first viewpoint image and the second viewpoint image in this case is 0: 2. FIG. 13C is an image when the slider position is set to the right end, and the composite ratio of the first viewpoint image and the second viewpoint image in this case is 2: 0. Therefore, the designated area 1001 in FIG. 13B is generated only by the second viewpoint image, and the designated area 1001 in FIG. 13C is generated only by the first viewpoint image. On the other hand, since the addition ratio of the viewpoint image is changed only in the designated area 1001, the composition ratio of each viewpoint image in the area other than the designated area 1001 (for example, the area 1200 in the dotted line) remains 1: 1, that is, the original A + B image. Remains. Therefore, the bokeh shape of the region 1200 is not deformed from a perfect circle.

本実施形態では指定領域1001以外の領域に対して視点画像の加算比率を変更しない例を説明したが、指定領域1001以外の領域を指定領域1001とは異なる調整範囲としてもよい。例えば、視点画像の加算比率を指定領域1001では最大(0:10)から最小(10:0)まで、指定領域1001以外は最大(3:7)から最小(7:3)までとし、ボケ形状が真円から変形したボケになることを低減できる調整範囲に制限してもよい。
以上により、分割された瞳領域に応じた複数の視点画像の重み付けを変えて合成する場合に、ボケ形状が真円から変形するのを低減し、所望の被写体(領域)にのみ視点移動や深度拡大を行うことができる。
In the present embodiment, an example in which the addition ratio of the viewpoint image is not changed with respect to an area other than the designated area 1001 has been described, but an area other than the designated area 1001 may be set as an adjustment range different from the designated area 1001. For example, the addition ratio of the viewpoint image is set from the maximum (0:10) to the minimum (10: 0) in the designated area 1001 and from the maximum (3: 7) to the minimum (7: 3) in the areas other than the designated area 1001. May be limited to an adjustment range that can reduce the blurring that is deformed from a perfect circle.
As described above, when synthesizing a plurality of viewpoint images by changing the weighting according to the divided pupil region, it is possible to reduce the deformation of the blurred shape from a perfect circle, and to move the viewpoint or depth only to a desired subject (region). Can be expanded.

次に、本実施形態における視点移動の画像処理について説明する。視点移動により、例えば、ボケを調整して主被写体への前ボケ被りを低減することができる。
まず、画像処理装置300は、撮像素子107により取得された撮像画像と第1視点画像を取得し、減算部322に入力して第2視点画像を生成する。そして、第1視点画像と第2視点画像を、視点変更処理部327に入力する。視点変更処理部327は、取得した複数の視点画像(第1視点画像と第2視点画像)から合成画像を生成する。この合成画像は、各視点画像の合成比率(重み)を変えることで、視点移動が可能な画像である。なお、減算部322が取得する画像は、予め本実施形態の撮像素子により撮影され、記録媒体に保存されている画像を用いてもよい。
以下、j、iを整数として、第1視点画像および第2視点画像の行方向j番目、列方向i番目の位置を(j、i)とし、位置(j、i)の画素の第1視点画像をA(j、i)、第2視点画像をB(j、i)とする。
Next, the image processing of the viewpoint movement in the present embodiment will be described. By moving the viewpoint, for example, blurring can be adjusted to reduce front blurring on the main subject.
First, the image processing device 300 acquires the captured image and the first viewpoint image acquired by the image pickup device 107 and inputs them to the subtraction unit 322 to generate the second viewpoint image. Then, the first viewpoint image and the second viewpoint image are input to the viewpoint change processing unit 327. The viewpoint change processing unit 327 generates a composite image from the acquired plurality of viewpoint images (first viewpoint image and second viewpoint image). This composite image is an image in which the viewpoint can be moved by changing the composite ratio (weight) of each viewpoint image. As the image acquired by the subtraction unit 322, an image previously captured by the image sensor of the present embodiment and stored in the recording medium may be used.
Hereinafter, the j-th and i-th positions in the row direction and the i-th column direction of the first viewpoint image and the second viewpoint image are defined as (j, i), where j and i are integers, and the first viewpoint of the pixel at the position (j, i). Let the image be A (j, i) and the second viewpoint image be B (j, i).

調整部326は、第1ステップとして、視点移動を行う指定領域R=[j1、j2]×[i1、i2]、および、指定領域の境界幅σを設定する。指定領域Rは、表示画面上のUI操作などによりユーザにより指定された任意の領域である。領域指定部325がユーザが指定した領域の座標情報などを取得し、調整部326に入力する。調整部326は、式(1)により、指定領域Rと指定領域の境界幅σに応じたテーブル関数T(j、i)を算出する。
As the first step, the adjusting unit 326 sets the designated area R = [j1, j2] × [i1, i2] for moving the viewpoint, and the boundary width σ of the designated area. The designated area R is an arbitrary area designated by the user by a UI operation or the like on the display screen. The area designation unit 325 acquires the coordinate information of the area designated by the user and inputs it to the adjustment unit 326. The adjusting unit 326 calculates the table function T (j, i) according to the boundary width σ between the designated area R and the designated area by the equation (1).

テーブル関数T(j、i)は、指定領域Rの内側で1、指定領域Rの外側で0となり、指定領域Rの境界幅σで、概ね1から0に連続的に変化する。必要に応じて、指定領域は、円形や、その他の任意の形状としてもよい。また、必要に応じて、複数の指定領域、および、境界幅を設定してもよい。 The table function T (j, i) becomes 1 inside the designated area R and 0 outside the designated area R, and changes continuously from approximately 1 to 0 at the boundary width σ of the designated area R. If desired, the designated area may have a circular shape or any other shape. Moreover, you may set a plurality of designated areas and a boundary width as needed.

視点変更処理部327は、第2ステップとして、視点移動を行う指定領域Rにおける各視点画像の重み係数を算出する。具体的には、実係数w(−1≦w≦1)とし、式(2A)により、第1視点画像A(j、i)の第1重み係数Wa(j、i)を算出する。さらに、式(2B)により、第2視点画像B(j、i)の第2重み係数Wb(j、i)を算出する。
As the second step, the viewpoint change processing unit 327 calculates the weighting coefficient of each viewpoint image in the designated area R for moving the viewpoint. Specifically, the actual coefficient w (-1 ≦ w ≦ 1) is used, and the first weighting coefficient Wa (j, i) of the first viewpoint image A (j, i) is calculated by the equation (2A). Further, the second weighting coefficient Wb (j, i) of the second viewpoint image B (j, i) is calculated by the equation (2B).

視点変更処理部327は、第3ステップとして、指定領域Rの視点移動を行った合成画像を生成する。具体的には、第1視点画像A(j、i)、第2視点画像B(j、i)、第1重み係数Wa(j、i)、第2重み係数Wb(j、i)から、式(3)により、合成画像I(j、i)を生成する。
As the third step, the viewpoint change processing unit 327 generates a composite image in which the viewpoint is moved in the designated area R. Specifically, from the first viewpoint image A (j, i), the second viewpoint image B (j, i), the first weight coefficient Wa (j, i), and the second weight coefficient Wb (j, i), The composite image I (j, i) is generated by the formula (3).

視点変更処理部327は、必要に応じて、シフト量sとして、リフォーカス処理と組み合わせて、式(4A)もしくは式(4B)により、合成画像Is(j、i)を生成してもよい。
The viewpoint change processing unit 327 may generate the composite image Is (j, i) by the formula (4A) or the formula (4B) in combination with the refocus processing as the shift amount s, if necessary.

本実施形態では、結像光学系の異なる瞳部分領域を通過した光束を受光する複数の副画素が設けられた画素を複数配列した撮像素子により取得される、信号から複数の視点画像を生成する。そして、複数の視点画像毎に重み係数をかけて合成し合成画像を生成する。複数の視点画像毎の重み係数は、合成画像の領域に応じて連続的に変化する。本実施形態では、複数の視点画像毎に重み係数をかけて加算もしくはシフト加算し、合成画像を生成する。 In the present embodiment, a plurality of viewpoint images are generated from signals acquired by an image pickup device in which a plurality of pixels provided with a plurality of sub-pixels for receiving light flux passing through different pupil region regions of the imaging optical system are arranged. .. Then, each of the plurality of viewpoint images is multiplied by a weighting coefficient and combined to generate a composite image. The weighting coefficient for each of the plurality of viewpoint images changes continuously according to the region of the composite image. In the present embodiment, a weight coefficient is applied to each of a plurality of viewpoint images and addition or shift addition is performed to generate a composite image.

最後に、図14〜図16を用いて、複数の視点画像を用いて合成画像を生成する処理の流れを説明する。
図14は、合成画像を生成する処理のメインフローチャートである。S100でスタートし、S101へ進む。S101では、撮像素子107で視点画像(A+B像とA像)を撮像する。そして、S102で、視点画像(A+B像とA像)を撮像素子107から出力し、1つのファイルフォーマットの画像データとしてフラッシュメモリ133に記憶する。S103では、S102でフラッシュメモリ133に記憶した画像データを画像処理装置300のメモリ321に読み込む。このとき、減算部322はメモリ321に読み込まれた撮像画像(A+B像)と第1視点画像(A像)から、第2視点画像(B像)を生成し、メモリ321は原残部により生成された第2視点画像も読み込む。S104で、画像処理装置300は、画像処理(視点画像操作処理)を行い、S105へ進み完了となる。S104での画像処理(視点画像操作処理)は図15のサブフローチャートで説明する。
Finally, with reference to FIGS. 14 to 16, a flow of processing for generating a composite image using a plurality of viewpoint images will be described.
FIG. 14 is a main flowchart of a process for generating a composite image. Start at S100 and proceed to S101. In S101, the image sensor 107 captures a viewpoint image (A + B image and A image). Then, in S102, the viewpoint images (A + B image and A image) are output from the image sensor 107 and stored in the flash memory 133 as image data in one file format. In S103, the image data stored in the flash memory 133 in S102 is read into the memory 321 of the image processing device 300. At this time, the subtraction unit 322 generates a second viewpoint image (B image) from the captured image (A + B image) and the first viewpoint image (A image) read into the memory 321, and the memory 321 is generated by the original balance. The second viewpoint image is also read. In S104, the image processing device 300 performs image processing (viewpoint image manipulation processing), proceeds to S105, and is completed. The image processing (viewpoint image operation processing) in S104 will be described with reference to the sub-flow chart of FIG.

次に、図15のサブフローチャートを用いて、領域指定による画像処理(視点画像操作処理)について説明する。ここでは、画像処理の例として、視点移動処理を行う場合について説明する。
S200で視点画像操作処理をスタートし、S201へ進む。S201では、操作部324が出力部314を介して表示装置に画像とユーザインターフェース(以下、UI)を表示する。このとき表示する画像は、複数の視点画像に基づく画像データに対応する画像であり、最初に表示されるのは、各視点画像の加算比率が1:1の画像、すなわち撮像画像(A+B像)である。S202では、操作部324がUIにおけるユーザの選択に基づいて視点移動を行うかどうかを判定し、視点移動を行う場合にはS203へ進む。一方、視点移動を行わない場合にはS209へ進み処理を終了する。
Next, image processing (viewpoint image manipulation processing) by specifying an area will be described with reference to the sub-flow chart of FIG. Here, as an example of image processing, a case where viewpoint movement processing is performed will be described.
The viewpoint image operation process is started in S200, and the process proceeds to S201. In S201, the operation unit 324 displays an image and a user interface (hereinafter, UI) on the display device via the output unit 314. The image displayed at this time is an image corresponding to image data based on a plurality of viewpoint images, and the first displayed image is an image in which the addition ratio of each viewpoint image is 1: 1, that is, a captured image (A + B image). Is. In S202, the operation unit 324 determines whether or not to move the viewpoint based on the user's selection in the UI, and if the viewpoint is moved, the process proceeds to S203. On the other hand, if the viewpoint is not moved, the process proceeds to S209 and the process ends.

S203では、ユーザが視点移動を行う領域を表示装置に表示された画像上で指定し、領域指定部325が指定された領域の座標やサイズなどの座標情報を取得する。S204では、調整部326がS203で指定した各領域のパラメータの調整可能範囲を設定する。なお、本実施形態のパラメータは各視点画像の加算比率であるが、シャープネス等のその他の画像処理をパラメータとしてもよい。S205では、ユーザが視点移動UIを操作し、操作部324がユーザにより設定されたスライダー位置に応じて調整値を取得する。視点移動UIは、例えば、図13で示したスライダーバー1002とスライダー1003である。スライダーバー1002の範囲はS204で設定した調整可能範囲であり、ユーザがスライダーを操作して設定できる調整値は、調整可能範囲の範囲内である。S206では、S205で取得された調整値に応じて、視点変更処理部327が、視点画像の加算比率を変更する。視点画像である第1視点画像(A像)は左側の視点の画像であり、第2視点画像(B像)は右側の視点の画像である。そこで、スライダー位置に応じて第1視点画像と第2視点画像の加算比率を変更した合成画像を生成することで視点移動した画像を生成する。スライダーの右端の値を1、中央を0、左端の値を−1と定義した場合に、スライダーが任意の位置xにある場合には、第1視点画像と第2視点画像の比率は(1+x):(1−x)となるように加算比率を変更する。また、このとき指定領域の境界領域の加算比率を、指定領域の加算比率と指定領域に隣接する領域の加算比率の中間になるように決定してもよい。 In S203, the area where the user moves the viewpoint is designated on the image displayed on the display device, and the area designation unit 325 acquires the coordinate information such as the coordinates and size of the designated area. In S204, the adjusting unit 326 sets the adjustable range of the parameters of each area specified in S203. The parameter of this embodiment is the addition ratio of each viewpoint image, but other image processing such as sharpness may be used as a parameter. In S205, the user operates the viewpoint movement UI, and the operation unit 324 acquires the adjustment value according to the slider position set by the user. The viewpoint movement UI is, for example, the slider bar 1002 and the slider 1003 shown in FIG. The range of the slider bar 1002 is the adjustable range set in S204, and the adjustment value that can be set by the user by operating the slider is within the adjustable range. In S206, the viewpoint change processing unit 327 changes the addition ratio of the viewpoint image according to the adjustment value acquired in S205. The first viewpoint image (A image), which is a viewpoint image, is an image of the left viewpoint, and the second viewpoint image (B image) is an image of the right viewpoint. Therefore, an image in which the viewpoint is moved is generated by generating a composite image in which the addition ratio of the first viewpoint image and the second viewpoint image is changed according to the slider position. If the value at the right end of the slider is defined as 1, the value at the center is 0, and the value at the left end is -1, and the slider is at an arbitrary position x, the ratio of the first viewpoint image to the second viewpoint image is (1 + x). ): Change the addition ratio so that it becomes (1-x). Further, at this time, the addition ratio of the boundary area of the designated area may be determined to be between the addition ratio of the designated area and the addition ratio of the area adjacent to the designated area.

S207では、画像処理を施された画像データ、すなわちユーザから指定された領域において視点画像の加算比率を変えた画像で現像処理を行い、合成画像を生成する。現像処理の詳細は、図16のサブフローチャートを用いて後述する。S208では、S207で現像処理した合成画像を出力部314が表示装置に出力し、表示装置で表示する。そして、S209へ進み、視点画像操作処理を完了する。 In S207, development processing is performed on the image data that has undergone image processing, that is, an image in which the addition ratio of the viewpoint image is changed in a region designated by the user, and a composite image is generated. Details of the development process will be described later using the sub-flow chart of FIG. In S208, the output unit 314 outputs the composite image developed in S207 to the display device and displays it on the display device. Then, the process proceeds to S209, and the viewpoint image operation process is completed.

なお、本実施形態では、指定された領域以外の領域は調整を行わず、第1視点画像と第2視点画像の加算比率が1:1となる例を示したが、これに限られるものではない。例えば、指定された領域以外の領域において、指定領域より制限された調整範囲で視点移動を行えるようにしてもよい。 In the present embodiment, an example is shown in which the addition ratio of the first viewpoint image and the second viewpoint image is 1: 1 without adjusting the region other than the designated region, but the present invention is not limited to this. Absent. For example, in an area other than the designated area, the viewpoint may be moved within an adjustment range limited from the designated area.

次に、図16を用いて現像処理について説明する。S300で処理をスタートし、S301へ進む。S301では、ホワイトバランス部308がホワイトバランス処理を行う。ホワイトバランス処理は白の領域のR,G,Bが等色になるようにR,G,Bの各色にゲインをかける処理である。S302では、デモザイキング部309がデモザイキング処理を行う。デモザイキング処理は、それぞれの規定方向で補間を行い、その後、方向選択を行うことで、各画素について補間処理結果としてR、G,Bの3原色のカラー画像信号を生成する処理である。S303では、ガンマ変換部310がガンマ処理を行う。S304では、色調整部311が色調整処理を行う。色調整処理は、画像の見栄えを改善するための処理であるノイズ低減、彩度強調、色相補正、エッジ強調といった各種の処理である。S305では、圧縮部312が色調整されたカラー画像データをJPEG等の方法で圧縮処理する。S306では、記録部313が圧縮処理で圧縮された画像データを記録媒体に記録する。そして、S307で処理を完了し、視点画像操作のサブフローチャートに戻る。 Next, the development process will be described with reference to FIG. The process is started in S300 and proceeds to S301. In S301, the white balance unit 308 performs the white balance process. The white balance process is a process of applying a gain to each color of R, G, and B so that R, G, and B in the white region have the same color. In S302, the demosaiking unit 309 performs the demosaiking process. The demosaiking process is a process of generating color image signals of the three primary colors R, G, and B as the result of interpolation processing for each pixel by performing interpolation in each specified direction and then selecting a direction. In S303, the gamma conversion unit 310 performs gamma processing. In S304, the color adjustment unit 311 performs the color adjustment process. The color adjustment process is various processes such as noise reduction, saturation enhancement, hue correction, and edge enhancement, which are processes for improving the appearance of an image. In S305, the compression unit 312 compresses the color-adjusted color image data by a method such as JPEG. In S306, the recording unit 313 records the image data compressed by the compression process on the recording medium. Then, the process is completed in S307, and the process returns to the sub-flow chart of the viewpoint image operation.

なお、以上では領域を指定して視点移動を行う例を説明したが、画像処理(視点画像操作処理)は視点移動のみに限られない。例えば、領域を指定してピント調整(リフォーカス)を行ったり被写界深度を変更する処理を行ったりしてもよい。この場合も、指定された領域でのみ、複数の視点画像の重み係数(加算比率)が変更され、指定された領域以外の領域において意図しない変化が生じるのを抑制することができる。また、指定された領域について視点画像操作を行い、その他の領域については行わない例を示したが、逆に、ボケを残したい領域などを、視点画像操作を行わない領域として指定して、その他の領域において視点画像操作を行うようにしてもよい。 Although the example of moving the viewpoint by designating the area has been described above, the image processing (viewpoint image manipulation processing) is not limited to the viewpoint movement. For example, a region may be specified to perform focus adjustment (refocus) or a process of changing the depth of field. Also in this case, the weighting coefficients (addition ratios) of the plurality of viewpoint images are changed only in the designated area, and it is possible to suppress the occurrence of unintended changes in the areas other than the designated area. In addition, an example was shown in which the viewpoint image operation is performed for the specified area and not for the other areas, but conversely, the area where the blur is desired to be left is designated as the area where the viewpoint image operation is not performed, and other areas are not performed. The viewpoint image operation may be performed in the area of.

以上のように、本実施形態によれば、分割された瞳領域に応じた複数の視点画像の重み付けを変えて合成画像を生成する場合に、ユーザが意図した合成画像を提供可能とする。 As described above, according to the present embodiment, it is possible to provide a composite image intended by the user when a composite image is generated by changing the weighting of a plurality of viewpoint images according to the divided pupil regions.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

300 画像処理装置
305 領域指定部
307 視点変更処理部
300 Image processing device 305 Area designation unit 307 Viewpoint change processing unit

Claims (12)

複数の視点画像を取得する取得手段と、
前記複数の視点画像に基づく画像データに画像処理を施して、合成画像を生成する画像処理手段と、
前記画像処理手段による前記画像処理を行う領域を指定する指定手段と、
前記指定手段が指定した前記領域ごとに前記画像処理の調整可能範囲の設定を行う調整手段と、を備えることを特徴とする画像処理装置。
An acquisition method for acquiring multiple viewpoint images,
An image processing means for generating a composite image by performing image processing on image data based on the plurality of viewpoint images.
Designating means for designating an area for performing the image processing by the image processing means, and
An image processing apparatus comprising: an adjusting means for setting an adjustable range of the image processing for each of the areas designated by the designated means.
前記指定手段は、ユーザからの指定に基づいて前記領域を指定し、
前記ユーザからの指定は、前記画像処理を行う領域の指定、もしくは、前記画像処理を行わない領域の指定であることを特徴とする請求項1に記載の画像処理装置。
The designation means designates the area based on the designation from the user.
The image processing apparatus according to claim 1, wherein the designation from the user is the designation of the area where the image processing is performed or the designation of the area where the image processing is not performed.
前記調整手段は、前記画像処理を行う領域の他の領域の調整可能範囲を、前記画像処理を行う領域の調整可能範囲より小さく設定することを特徴とする請求項1または2に記載の画像処理装置。 The image processing according to claim 1 or 2, wherein the adjusting means sets the adjustable range of another region of the image processing region to be smaller than the adjustable range of the image processing region. apparatus. 前記画像処理手段は、前記複数の視点画像を合成して前記合成画像を生成し、前記領域ごとに設定された前記調整可能範囲の範囲内で指定された調整値に基づいて、前記領域ごとに前記複数の視点画像の加算比率を決定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The image processing means synthesizes the plurality of viewpoint images to generate the composite image, and based on the adjustment value specified within the adjustable range set for each region, for each region. The image processing apparatus according to any one of claims 1 to 3, wherein the addition ratio of the plurality of viewpoint images is determined. 前記画像処理手段は、前記画像処理を行う所定の領域の境界領域における前記複数の視点画像の加算比率を、前記所定の領域の調整値と、前記所定の領域に隣接する領域の調整値に基づいて決定することを特徴とする請求項4に記載の画像処理装置。 The image processing means bases the addition ratio of the plurality of viewpoint images in the boundary region of the predetermined region on which the image processing is performed based on the adjustment value of the predetermined region and the adjustment value of the region adjacent to the predetermined region. The image processing apparatus according to claim 4, wherein the image processing apparatus is determined. 前記画像処理は、視点移動の処理であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the image processing is a process of moving a viewpoint. 前記画像処理は、リフォーカス処理または被写界深度の変更処理であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the image processing is a refocusing process or a depth of field changing process. 前記画像処理を行う領域の指定をユーザが行うための画像と、前記調整可能範囲を示すユーザインタフェースを表示装置に出力する出力部をさらに備えることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 Any one of claims 1 to 7, further comprising an image for the user to specify the area for performing the image processing, and an output unit for outputting the user interface indicating the adjustable range to the display device. The image processing apparatus according to the section. 請求項1乃至8のいずれか1項に記載の画像処理装置と、
被写体を撮像する撮像素子と、を備えることを特徴とする撮像装置。
The image processing apparatus according to any one of claims 1 to 8.
An image pickup device including an image pickup device that captures an image of a subject.
前記撮像素子は、複数のマイクロレンズと、複数の光電変換部を有し、各マイクロレンズがそれぞれ前記複数の光電変換部に対応しており、
前記各マイクロレンズに対応する前記複数の光電変換部により出力される信号に基づく前記複数の視点画像が出力されることを特徴とする請求項9に記載の撮像装置。
The image sensor has a plurality of microlenses and a plurality of photoelectric conversion units, and each microlens corresponds to the plurality of photoelectric conversion units.
The imaging device according to claim 9, wherein the plurality of viewpoint images based on signals output by the plurality of photoelectric conversion units corresponding to the respective microlenses are output.
複数の視点画像を取得する工程と、
画像処理を行う領域を指定する工程と、
指定された領域ごとに前記画像処理の調整可能範囲の設定を行う工程と、
領域ごとに前記調整可能範囲の範囲内で設定された調整値を取得して、前記調整値に基づいて前記複数の視点画像に基づく画像データに画像処理を施して、合成画像を生成する工程と、を有することを特徴とする画像処理方法。
The process of acquiring multiple viewpoint images and
The process of specifying the area to perform image processing and
The process of setting the adjustable range of the image processing for each designated area, and
A step of acquiring an adjustment value set within the adjustable range for each region and performing image processing on image data based on the plurality of viewpoint images based on the adjustment value to generate a composite image. An image processing method characterized by having.
請求項11に記載の各工程を画像処理装置のコンピュータに実行させるためのプログラム。 A program for causing a computer of an image processing apparatus to execute each step according to claim 11.
JP2017012065A 2017-01-26 2017-01-26 Image processing equipment, imaging equipment, image processing methods and programs Active JP6789833B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017012065A JP6789833B2 (en) 2017-01-26 2017-01-26 Image processing equipment, imaging equipment, image processing methods and programs
US15/878,526 US10681286B2 (en) 2017-01-26 2018-01-24 Image processing apparatus, imaging apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017012065A JP6789833B2 (en) 2017-01-26 2017-01-26 Image processing equipment, imaging equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018121235A JP2018121235A (en) 2018-08-02
JP6789833B2 true JP6789833B2 (en) 2020-11-25

Family

ID=63043187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017012065A Active JP6789833B2 (en) 2017-01-26 2017-01-26 Image processing equipment, imaging equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6789833B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9979890B2 (en) 2015-04-23 2018-05-22 Apple Inc. Digital viewfinder user interface for multiple cameras
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information

Also Published As

Publication number Publication date
JP2018121235A (en) 2018-08-02

Similar Documents

Publication Publication Date Title
JP6789833B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
US10681286B2 (en) Image processing apparatus, imaging apparatus, image processing method, and recording medium
CN108886581B (en) Image processing apparatus, image pickup apparatus, and control method thereof
CN107465866B (en) Image processing apparatus and method, image capturing apparatus, and computer-readable storage medium
JP6071374B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus including image processing apparatus
JP6249825B2 (en) Imaging device, control method thereof, and control program
JP6239857B2 (en) Imaging apparatus and control method thereof
US10674074B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for generating an image based on a plurality of parallax images
KR101983047B1 (en) Image processing method, image processing apparatus and image capturing apparatus
JP6254843B2 (en) Image processing apparatus and control method thereof
JP6976754B2 (en) Image processing equipment and image processing methods, imaging equipment, programs
JP7204357B2 (en) Imaging device and its control method
JP7150785B2 (en) Image processing device, imaging device, image processing method, and storage medium
JP7091048B2 (en) Image pickup device and its control method
WO2017163588A1 (en) Image processing apparatus, image pickup apparatus, and control methods therefor, and program
JP6800648B2 (en) Image processing device and its control method, program and imaging device
JP6701023B2 (en) Imaging device, image processing method, image processing system, and image processing program
JP6817855B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
JP2017102240A (en) Image processing device and image processing method, imaging device, program
JP6628617B2 (en) Image processing apparatus and image processing method
JP2019092215A (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2020067489A (en) Imaging apparatus and control method for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201104

R151 Written notification of patent or utility model registration

Ref document number: 6789833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151