JP2018007205A - Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program - Google Patents

Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program Download PDF

Info

Publication number
JP2018007205A
JP2018007205A JP2016136059A JP2016136059A JP2018007205A JP 2018007205 A JP2018007205 A JP 2018007205A JP 2016136059 A JP2016136059 A JP 2016136059A JP 2016136059 A JP2016136059 A JP 2016136059A JP 2018007205 A JP2018007205 A JP 2018007205A
Authority
JP
Japan
Prior art keywords
image
depth information
read
photoelectric conversion
reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016136059A
Other languages
Japanese (ja)
Inventor
前田 浩二
Koji Maeda
浩二 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016136059A priority Critical patent/JP2018007205A/en
Publication of JP2018007205A publication Critical patent/JP2018007205A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of generating a picked-up image in which noise is reduced, and depth information corresponding to the picked-up image.SOLUTION: An imaging apparatus 100 comprises: an imaging device 11 including multiple pixel groups, each of pixels in the pixel group including multiple photoelectric conversion elements; a system control part 31 performing a first read operation for reading signals from partial photoelectric conversion elements from among the multiple photoelectric conversion elements as a viewpoint image and a second read operation for mixing the signals from the multiple photoelectric conversion elements and reading the mixed signal as a first composite image with respect to the multiple pixel groups; and an image processing part 13 for generating depth information corresponding to the first composite image. The image processing part 13 generates the depth information using the viewpoint image that the system control part 31 has read through the first read operation, and depth information corresponding to the first composite image that the system control part 31 obtains by performing the second read operation without performing the first read operation, is generated by using the depth information that is generated by using the viewpoint image.SELECTED DRAWING: Figure 3

Description

本発明は、デフォーカス分布に関連する情報を取得する画像処理装置、撮像装置、画像処理装置の制御方法及びプログラムに関するものである。   The present invention relates to an image processing apparatus, an imaging apparatus, an image processing apparatus control method, and a program for acquiring information related to a defocus distribution.

撮影レンズの射出瞳を複数の領域に瞳分割し、分割された瞳領域に応じた複数の視点画像を同時に撮影することができる撮像装置が提案されている。特許文献1では、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置が開示されている。分割された光電変換部は、1つのマイクロレンズを介して瞳分割されて撮影レンズの射出瞳の異なる瞳部分領域を受光するように構成されている。これらの光電変換部で受光したそれぞれの信号から、分割された瞳部分領域に応じた複数の視点画像を生成することができる。特許文献2では、分割された光電変換部で受光した信号を、全て加算することにより撮像画像を生成することが開示されている。さらに特許文献3では、瞳分割された複数の視点画像の出力から左右視差または上下視差によるデフォーカスマップを作成する撮像装置が開示されている。   There has been proposed an imaging apparatus that can divide an exit pupil of a photographing lens into a plurality of areas and simultaneously photograph a plurality of viewpoint images corresponding to the divided pupil areas. Patent Document 1 discloses an imaging apparatus using a two-dimensional imaging element in which one microlens and a plurality of divided photoelectric conversion units are formed for one pixel. The divided photoelectric conversion unit is configured to receive a pupil partial region which is divided into pupils through one microlens and has different exit pupils of the photographing lens. A plurality of viewpoint images corresponding to the divided pupil partial regions can be generated from the respective signals received by these photoelectric conversion units. Patent Document 2 discloses that a captured image is generated by adding all signals received by divided photoelectric conversion units. Further, Patent Document 3 discloses an imaging device that creates a defocus map based on left-right parallax or vertical parallax from the output of a plurality of viewpoint images obtained by pupil division.

米国特許第4410804号明細書US Pat. No. 4,410,804 特開2001−083407号公報JP 2001-083407 A 特開2009−165115号公報JP 2009-165115 A

瞳分割された光電変換部から読み出す際、深度情報を生成するために視点画像と複数の視点画像を合成(混合)した合成画像を読み出す場合、視点画像を読み出さずに合成画像を読み出す場合に比べて合成画像のノイズ量が多くなる場合があった。   When reading from a pupil-divided photoelectric conversion unit, when reading a combined image that combines (mixed) viewpoint images and multiple viewpoint images to generate depth information, compared to reading a combined image without reading the viewpoint image In some cases, the amount of noise in the composite image increases.

上記課題に鑑み、本発明は、ノイズを低減した撮像画像と撮像画像に対応した深度情報を生成できる画像処理装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an image processing apparatus capable of generating a captured image with reduced noise and depth information corresponding to the captured image.

上記課題を解決するために、本発明の撮像装置は、複数の画素群を含み、画素群の各画素が複数の光電変換素子を含む撮像素子と、前記複数の光電変換素子のうち一部の光電変換素子からの信号を視点画像として読み出すための第1の読み出し動作と、前記複数の光電変換素子からの信号を混合して第1の合成画像として読み出すための第2の読み出し動作を、複数の画素群に対して行う読み出し制御手段と、前記第1の合成画像に対応する深度情報を生成する生成手段と、を有し、前記生成手段は、前記読み出し制御手段が前記第1の読み出し動作によって読み出した視点画像を用いて前記深度情報を生成し、前記読み出し制御手段が前記第1の読み出し動作を行わずに前記第2の読み出し動作を行って得られる第1の合成画像に対応する深度情報は、前記視点画像を用いて生成された深度情報を用いて生成される。   In order to solve the above-described problem, an imaging device of the present invention includes a plurality of pixel groups, each pixel of the pixel group including a plurality of photoelectric conversion elements, and a part of the plurality of photoelectric conversion elements. A plurality of first readout operations for reading out signals from the photoelectric conversion elements as viewpoint images, and a second readout operation for reading out signals from the plurality of photoelectric conversion elements as a first composite image. Read control means for the pixel group, and generation means for generating depth information corresponding to the first composite image, wherein the read control means performs the first read operation. The depth information is generated using the viewpoint image read out by the step, and the read control unit corresponds to the first composite image obtained by performing the second read operation without performing the first read operation. Degree information is generated using the depth information is generated by using the viewpoint images.

本発明によれば、ノイズを低減した撮像画像と撮像画像に対応した深度情報を生成できる画像処理装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus which can produce | generate the depth information corresponding to the captured image which reduced noise, and the captured image can be provided.

撮像装置の構成例を示す図である。It is a figure which shows the structural example of an imaging device. 撮像部の構成例を示す図である。It is a figure which shows the structural example of an imaging part. 撮像装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an imaging device. 静止画用デフォーカスマップの生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of the defocus map for still images.

図1は、本発明の実施形態における撮像装置の構成例を示す図である。撮像装置100は、撮影レンズ10、撮像素子11、撮像素子11のアナログ信号出力をディジタル信号に変換するA/D変換器12、画像処理部13を備えている。撮像装置100は、デタルカメラやビデオカメラ等であるが、これらに限定されるものではない。撮像素子11は、複数の画素群を含み、画素群の各画素が光学像を電気信号に変換する複数の光電変換素子を含む撮像部であり、複数の視点画像を同時に取得できる。画像処理部13は、A/D変換器12からのデータ或いはメモリ制御部20からのデータに対して所定のデモザイク処理やホワイトバランス調整、色補間、縮小/拡大、フィルタリングなどの処理を行う。さらにデフォーカスマップの生成、複数枚の画像の動きベクトル算出などの様々な画像処理を行う。   FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus according to an embodiment of the present invention. The imaging apparatus 100 includes a photographing lens 10, an imaging element 11, an A / D converter 12 that converts an analog signal output from the imaging element 11 into a digital signal, and an image processing unit 13. The imaging apparatus 100 is a digital camera, a video camera, or the like, but is not limited thereto. The imaging element 11 is an imaging unit that includes a plurality of pixel groups, and each pixel of the pixel group includes a plurality of photoelectric conversion elements that convert an optical image into an electrical signal, and can simultaneously acquire a plurality of viewpoint images. The image processing unit 13 performs predetermined demosaic processing, white balance adjustment, color interpolation, reduction / enlargement, filtering, and the like on the data from the A / D converter 12 or the data from the memory control unit 20. Further, various image processing such as defocus map generation and motion vector calculation of a plurality of images is performed.

撮像装置100はさらに、メモリ制御部20、D/A変換器21、画像表示部22、画像表示メモリ23、メモリ24を備える。メモリ制御部20は、A/D変換器12、画像処理部13を制御する。A/D変換器12から出力されたデータが、画像処理部13及びメモリ制御部20を介して、或いはA/D変換器12のデータが、直接メモリ制御部20を介して、画像表示メモリ23またはメモリ24に書き込まれる。画像表示部22は、TFT LCD等を有する画像表示部であり、画像表示メモリ23に書き込まれた表示画像用の画像データはD/A変換器21を介して画像表示部22により表示される。画像表示部22を用いて、撮像した画像データを逐次表示すれば、ライブビュー機能を実現することが可能である。   The imaging apparatus 100 further includes a memory control unit 20, a D / A converter 21, an image display unit 22, an image display memory 23, and a memory 24. The memory control unit 20 controls the A / D converter 12 and the image processing unit 13. The data output from the A / D converter 12 is sent to the image display memory 23 via the image processing unit 13 and the memory control unit 20, or the data of the A / D converter 12 is sent directly to the memory control unit 20. Or it is written in the memory 24. The image display unit 22 is an image display unit having a TFT LCD or the like, and the display image image data written in the image display memory 23 is displayed by the image display unit 22 via the D / A converter 21. The live view function can be realized by sequentially displaying the captured image data using the image display unit 22.

メモリ24は撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。さらに、メモリ24には、回復フィルタを生成するための1つ以上のOTFデータ110が保存されている。これにより、複数枚の静止画像を連続して撮影する連写撮影の場合にも、高速かつ大量の画像書き込みをメモリ24に対して行うことが可能となる。また、メモリ24は、システム制御部31の作業領域としても使用することが可能である。   The memory 24 is a memory for storing captured still images and moving images, and has a sufficient storage capacity for storing a predetermined number of still images and moving images for a predetermined time. Further, the memory 24 stores one or more OTF data 110 for generating a recovery filter. This makes it possible to write a large amount of images to the memory 24 at high speed even in continuous shooting where a plurality of still images are continuously captured. The memory 24 can also be used as a work area for the system control unit 31.

撮像装置100はさらに、記録部30、システム制御部31、SW32、SW33、モードダイアル40を備えている。記録部30は、記録媒体を含む。システム制御部31は、撮像装置100全体を制御するシステム制御部である。SW32は、シャッタースイッチで、不図示のシャッターボタンの操作途中(半押し)でONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作開始を指示する。SW33は、シャッタースイッチで、不図示のシャッターボタンの押下(全押し)でONとなりとなる。SW33のONは、撮像素子11からの信号の読み出しから記録部30に画像データを書き込む記録処理までの一連の処理の動作開始を指示するものである。一連の処理では、撮像素子11から信号を読み出し、A/D変換器12、メモリ制御部20を介して画像処理部13やメモリ制御部20での演算を用いた現像処理、メモリ24からの画像データの読み出し、圧縮処理を行う。そして、記録部30に画像データを書き込む記録処理を行う。   The imaging apparatus 100 further includes a recording unit 30, a system control unit 31, SW32, SW33, and a mode dial 40. The recording unit 30 includes a recording medium. The system control unit 31 is a system control unit that controls the entire imaging apparatus 100. SW32 is a shutter switch, which is turned on when a shutter button (not shown) is being operated (half-pressed), and AF (auto focus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, EF (flash pre-flash). ) Instruct the start of operations such as processing. SW33 is a shutter switch that is turned ON when a shutter button (not shown) is pressed (fully pressed). The SW 33 is turned ON to instruct the start of a series of processes from reading a signal from the image sensor 11 to a recording process for writing image data to the recording unit 30. In a series of processing, a signal is read from the image sensor 11, development processing using calculation in the image processing unit 13 or the memory control unit 20 via the A / D converter 12 and the memory control unit 20, and an image from the memory 24. Data reading and compression processing are performed. Then, a recording process for writing image data into the recording unit 30 is performed.

本実施形態の撮像素子と瞳分割との対応関係の概念図を図2に示す。図2(A)は、撮像素子11の画素配列の構成例を示す模式図である。図2(A)にて紙面に直交する方向をz方向とし、手前側を+z方向と定義する。z方向に直交する第1の方向をx方向とし、図2(A)の右方向を+x方向と定義する。また、z方向に直交する第2の方向をy方向とし、図2(A)の上方向を+y方向と定義する。図2(A)には、ある画素200を拡大した模式図を示す。画素200は、マイクロレンズ201と、一対の光電変換素子である瞳分割画素202A、203Bから構成される。撮像素子11は、複数の画素200が二次元アレイ状に規則的に配列されている。複数の光電変換素子のうち一部の光電変換素子から、視点画像として信号を読み出す。本実施形態においては、規則的に配列された読み出し部である瞳分割画素202A、203Bから、一対の画像としてA像、B像がそれぞれ読み出されるものとする。デフォーカスマップなどの深度情報を生成するために視点画像と複数の視点画像を合成(混合)した合成画像をこの順に読み出す場合、視点画像A像(B像)を読み出さずに合成画像AB像を読み出す場合に比べて合成画像のノイズ量が多くなる場合があった。これは、暗電流などに起因するノイズを除去するための成分を読み出すNull読みのタイミングが合成画像の蓄積期間と離れてしまうことなどが考えられる。そこで本実施形態では後述するように、静止画用の合成画像AB像の読み出し時にはA像の読み出しを行わないようにすることでAB像のノイズ悪化を低減する。   FIG. 2 shows a conceptual diagram of the correspondence relationship between the image sensor of this embodiment and pupil division. FIG. 2A is a schematic diagram illustrating a configuration example of a pixel array of the image sensor 11. In FIG. 2A, the direction orthogonal to the paper surface is defined as the z direction, and the near side is defined as the + z direction. The first direction orthogonal to the z direction is defined as the x direction, and the right direction in FIG. 2A is defined as the + x direction. Further, the second direction orthogonal to the z direction is defined as the y direction, and the upward direction in FIG. 2A is defined as the + y direction. FIG. 2A shows a schematic diagram in which a certain pixel 200 is enlarged. The pixel 200 includes a microlens 201 and pupil division pixels 202A and 203B that are a pair of photoelectric conversion elements. In the image sensor 11, a plurality of pixels 200 are regularly arranged in a two-dimensional array. Signals are read as viewpoint images from some of the plurality of photoelectric conversion elements. In the present embodiment, it is assumed that an A image and a B image are read out as a pair of images from pupil division pixels 202A and 203B, which are regularly arranged readout units. When a combined image obtained by combining (mixing) a viewpoint image and a plurality of viewpoint images to read depth information such as a defocus map is read in this order, the combined image AB image is read without reading the viewpoint image A image (B image). In some cases, the amount of noise in the composite image is larger than in the case of reading. This may be because the Null reading timing for reading a component for removing noise caused by dark current or the like is separated from the composite image accumulation period. Therefore, in this embodiment, as will be described later, the noise deterioration of the AB image is reduced by not reading the A image when reading the still image synthetic image AB image.

図2(B)は、撮像光学系の瞳と撮像素子の光電変換部との関係を示す模式図である。撮像素子11は、撮影レンズ10の結像面近傍に配置され、被写体からの光束は、撮影レンズ10の射出瞳800を通過して、それぞれ対応する画素に入射する。射出瞳800の大きさは、絞りの大きさや、レンズを保持するレンズ枠などの大きさによって変化する。瞳部分領域801A、802Bは、x方向にて2分割された瞳分割画素202A、203Bの受光面と、マイクロレンズによって概ね共役関係になっている。従って、各瞳部分領域を通過した光束は、共役関係にある各瞳分割画素で受光される。水平方向における瞳分割数をMとし、垂直方向における瞳分割数をNとすると、撮影レンズ10の射出瞳800は、瞳分割数をNp=M×Nとして、異なる瞳部分領域に分割される。撮影レンズ10の絞り値をFとすると、瞳部分領域の実効絞り値は、概ね(√(M×N))×Fとなる。また、瞳領域803は、M×N個に分割された光電変換部を全て合わせた際の画素200全体で受光可能な瞳領域(全開口領域)である。例えば、瞳分割数をM=2、N=1とする場合、瞳部分領域の実効絞り値はFの√2倍となる。つまり、1つの瞳分割画像は全開口画像と比較して、一段分被写界深度が深く、暗い画像が得られる。   FIG. 2B is a schematic diagram illustrating the relationship between the pupil of the imaging optical system and the photoelectric conversion unit of the imaging element. The image sensor 11 is disposed in the vicinity of the imaging surface of the photographing lens 10, and the light flux from the subject passes through the exit pupil 800 of the photographing lens 10 and enters each corresponding pixel. The size of the exit pupil 800 varies depending on the size of the stop and the size of the lens frame that holds the lens. The pupil partial areas 801A and 802B are substantially conjugated with each other by the microlens and the light receiving surfaces of the pupil divided pixels 202A and 203B divided into two in the x direction. Therefore, the light flux that has passed through each pupil partial region is received by each pupil division pixel that is in a conjugate relationship. When the number of pupil divisions in the horizontal direction is M and the number of pupil divisions in the vertical direction is N, the exit pupil 800 of the photographing lens 10 is divided into different pupil partial regions with the number of pupil divisions Np = M × N. When the aperture value of the taking lens 10 is F, the effective aperture value of the pupil partial area is approximately (√ (M × N)) × F. The pupil region 803 is a pupil region (entire aperture region) that can receive light in the entire pixel 200 when all the photoelectric conversion units divided into M × N are combined. For example, when the number of pupil divisions is M = 2 and N = 1, the effective aperture value of the pupil partial area is √2 times F. That is, one pupil-divided image has a depth of field that is one step deeper than that of the full aperture image, and a dark image is obtained.

以上の構成により、図1の撮影レンズ10の瞳にて異なる領域をそれぞれ通過する一対の光束を、一対の光学像として結像させて、一対の画像である視点画像が得られる。一対の視点画像を、画素毎に信号を全て加算(合成)することで、有効画素数の解像度を有する画像を生成することができる。ここで、A像とB像を撮像素子11から読み出す前に混合(加算)し、A/D変換した画像(第1の合成画像)をAB像と呼ぶ。   With the above configuration, a pair of light beams that pass through different regions in the pupil of the photographing lens 10 in FIG. 1 are formed as a pair of optical images, and a viewpoint image that is a pair of images is obtained. By adding (combining) all signals for each pixel of a pair of viewpoint images, an image having a resolution of the effective number of pixels can be generated. Here, an image obtained by mixing (adding) the A image and the B image before reading them from the image sensor 11 and A / D converting (first synthesized image) is referred to as an AB image.

図3および図4は、本実施形態の撮像装置100の処理を示すフローチャートである。図3および図4を用いて、撮像装置100の動作を説明する。
処理が開始されると、システム制御部31は、フラグや制御変数等の初期化し、画像表示部22の画像表示をOFF状態などに初期設定する。
ステップS301にて、システム制御部31は、モードダイアル40の設定位置を判断する。モードダイアル40が電源OFFに設定されていたならばS302に進む。S302にて、システム制御部31は、各表示部の表示を終了状態に変更し、フラグや制御変数等を含む必要なパラメータや設定値、設定モードを不揮発性メモリに記録するなど、所定の終了処理を行う。モードダイアル40が撮影モード以外に設定されていたならば、S303に進む。S303にて、システム制御部31は、選択されたモードに応じた処理を実行し、処理を終えたならばS301に戻る。モードダイアル40が撮影モードに設定されていたならば、S304に進む。
3 and 4 are flowcharts showing processing of the imaging apparatus 100 of the present embodiment. The operation of the imaging apparatus 100 will be described with reference to FIGS. 3 and 4.
When the process is started, the system control unit 31 initializes flags and control variables, and initializes the image display of the image display unit 22 to an OFF state or the like.
In step S301, the system control unit 31 determines the setting position of the mode dial 40. If the mode dial 40 is set to power OFF, the process proceeds to S302. In S302, the system control unit 31 changes the display of each display unit to an end state, records necessary parameters, setting values, and setting modes including flags, control variables, and the like in a non-volatile memory. Process. If the mode dial 40 is set to a mode other than the shooting mode, the process proceeds to S303. In S303, the system control unit 31 executes processing according to the selected mode, and returns to S301 when the processing is completed. If the mode dial 40 is set to the shooting mode, the process proceeds to S304.

ステップS304にて、システム制御部31は、視点画像であるA像及びB像と、表示用の合成画像であるA+B像を読み出す(第1の読み出し動作)。具体的には、内部メモリ或いはメモリに記憶される測光データに従い、撮像素子11を露光し、測光データに従って所定の時間が経過した後、撮像素子11からA像およびB像の電荷信号をそれぞれ読み出す。そして、A/D変換器12、画像処理部13、メモリ制御部20を介して、或いはA/D変換器12から直接メモリ制御部20を介して、メモリ24にA像およびB像のデータを書き込む。さらに、画像処理部13は、式(1)で示す通り、A像およびB像の着目画素位置(x,y)毎に画素値を加算することでA+B像を生成し、生成したA+B像をメモリ24に書き込む。
A+B(x,y)=A(x,y)+B(x,y) ・・・(1)
In step S304, the system control unit 31 reads the A and B images that are viewpoint images and the A + B image that is a composite image for display (first reading operation). Specifically, the image sensor 11 is exposed according to photometric data stored in the internal memory or the memory, and after a predetermined time has elapsed according to the photometric data, the charge signals of the A and B images are read from the image sensor 11 respectively. . Then, the A and B image data are stored in the memory 24 via the A / D converter 12, the image processing unit 13, the memory control unit 20, or directly from the A / D converter 12 via the memory control unit 20. Write. Further, the image processing unit 13 generates an A + B image by adding pixel values for each target pixel position (x, y) of the A image and the B image, as shown in Expression (1), and the generated A + B image is Write to memory 24.
A + B (x, y) = A (x, y) + B (x, y) (1)

ステップS305にて、画像処理部13は、ステップS304での撮影で取得された瞳分割画像であるA像とB像の各信号を用いて、着目画素位置ごとのデフォーカス量を算出し、デフォーカスマップ(DEF1、深度情報)を生成する。デフォーカス量は、被写体の深度分布に関連する情報であり、デフォーカスマップデータの値を表す。デフォーカス量算出の詳細を下記に示す。
着目画素位置におけるA像の信号列をE(1)〜E(m)と表記し、B像の信号列をF(1)〜F(m)と表記する。A像の信号列E(1)〜E(m)に対して、B像の信号列F(1)〜F(m)を相対的にずらしながら、式(2)を用いて2つの信号列間のずらし量kにおける相関量C(k)の演算が行われる。
C(k)=Σ|E(n)−F(n+k)| ・・・(2)
式(2)において、Σ演算はnについて総和を算出する演算を意味する。Σ演算においてn、n+kの取る範囲は、1からmの範囲に限定される。ずらし量kは整数値をとり、一対のデータの検出ピッチを単位とした相対的シフト量を表す。
In step S305, the image processing unit 13 calculates the defocus amount for each pixel position of interest using each signal of the A image and the B image, which are pupil-divided images acquired by the shooting in step S304, and performs defocusing. A focus map (DEF1, depth information) is generated. The defocus amount is information related to the depth distribution of the subject and represents the value of the defocus map data. Details of the defocus amount calculation are shown below.
The signal sequence of the A image at the target pixel position is expressed as E (1) to E (m), and the signal sequence of the B image is expressed as F (1) to F (m). The two signal sequences are expressed using Equation (2) while relatively shifting the B image signal sequences F (1) to F (m) with respect to the A image signal sequences E (1) to E (m). The correlation amount C (k) is calculated for the gap amount k.
C (k) = Σ | E (n) −F (n + k) | (2)
In Equation (2), Σ operation means an operation for calculating the sum for n. The range taken by n and n + k in the Σ operation is limited to a range of 1 to m. The shift amount k takes an integer value and represents a relative shift amount with the detection pitch of a pair of data as a unit.

式(2)の演算結果のうちで、一対の信号系列の相関が高いシフト量(ずらし量k)において相関量C(k)が最小になる。以下では、離散的な相関量C(k)が最小となるときのkを、kjと表記する。以下の式(3)から式(5)による3点内挿処理を用いて、連続的な相関量に対する最小値C(x)を与えるシフト量xが算出される。
x=kj+D/SLOP ・・・(3)
D={C(kj−1)−C(kj+1)}/2 ・・・(4)
SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)}
・・・(5)
Among the calculation results of Expression (2), the correlation amount C (k) is minimized at the shift amount (shift amount k) in which the correlation between the pair of signal sequences is high. In the following, k when the discrete correlation amount C (k) is minimum is denoted as kj. The shift amount x that gives the minimum value C (x) with respect to the continuous correlation amount is calculated using the three-point interpolation processing according to the following equations (3) to (5).
x = kj + D / SLOP (3)
D = {C (kj−1) −C (kj + 1)} / 2 (4)
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)}
... (5)

式(3)で算出されるシフト量xから、デフォーカス量(DEFと記す)を式(6)によって求めることができる。
DEF=KX・PY・x ・・・(6)
式(6)に示すKXは、一対の瞳領域を通過する光束の重心の開き角の大きさによって決まる変換係数である。PYは、検出ピッチである。参照する領域が白とびの領域または黒つぶれの領域である場合、式(2)における|E(n)−F(n+k)|の項が0となり、C(k)の値がゼロとなる。そのため、相関量C(k)が最小となるkjを正しく算出できなくなる結果、算出されたデフォーカス量は正確な値でなくなる。以上のように算出したデフォーカス量の空間的な分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップデータを、メモリ24に記録する。
The defocus amount (denoted as DEF) can be obtained from equation (6) from the shift amount x calculated by equation (3).
DEF = KX · PY · x (6)
KX shown in Expression (6) is a conversion coefficient determined by the size of the opening angle of the center of gravity of the light beam passing through the pair of pupil regions. PY is a detection pitch. When the area to be referred to is an overexposure area or an underexposure area, the term | E (n) −F (n + k) | For this reason, kj that minimizes the correlation amount C (k) cannot be calculated correctly. As a result, the calculated defocus amount is not an accurate value. Defocus map data representing the spatial distribution of the defocus amount calculated as described above (distribution on the two-dimensional plane of the captured image) is recorded in the memory 24.

ステップS306にて、画像処理部13は表示画像用画像を取得する。具体的には、まず、システム制御部31は、メモリ制御部20を介して、メモリ24に書き込まれたA+B像と、デフォーカスマップデータを読み出す。画像処理部13は、読み出したA+B像に色処理やデフォーカスマップを用いた補正処理を順次行い表示画像用画像を生成し、メモリ24に表示画像用画像データを書き込む。
ステップS307にて、システム制御部31は、メモリ24から表示画像用画像データを読み出し、メモリ制御部20を介して画像表示メモリ23に表示画像データの転送を行う。そして、画像表示メモリ23に書き込まれた表示画像データを、画像表示部22にてライブビュー表示を行う。
In step S306, the image processing unit 13 acquires a display image image. Specifically, first, the system control unit 31 reads the A + B image written in the memory 24 and the defocus map data via the memory control unit 20. The image processing unit 13 sequentially performs correction processing using color processing and a defocus map on the read A + B image to generate a display image image, and writes the display image image data in the memory 24.
In step S307, the system control unit 31 reads the display image image data from the memory 24, and transfers the display image data to the image display memory 23 via the memory control unit 20. Then, the display image data written in the image display memory 23 is displayed in live view on the image display unit 22.

ステップS308にて、システム制御部31は、静止画撮影用のSW33が押下されていないか(スイッチが全押しされていないか)判断する。押されていないならば、S301に戻る。SW33が押されたならば、S309に進む。
S309にて、システム制御部31は、静止画用(撮像画像用)のAB像を読み出す(第2の読み出し動作)。具体的には、内部メモリ或いはメモリ24に記憶される測光データに従い、絞り機能を有するシャッターを絞り値に応じて開放して、必要な場合はフラッシュを発光させ、撮像素子11を露光する。測光データに従って撮像素子11の露光終了を待ち、シャッターを閉じて、撮像素子11からAB画像信号を読み出す。そして、A/D変換器12、画像処理部13、メモリ制御部20を介して、或いはA/D変換器12から直接メモリ制御部20を介して、メモリ24に撮像画像用であるAB像のデータを書き込む。
In step S308, the system control unit 31 determines whether the still image shooting SW 33 is not pressed (whether the switch is fully pressed). If not, the process returns to S301. If SW33 is pressed, the process proceeds to S309.
In S309, the system control unit 31 reads an AB image for a still image (for a captured image) (second read operation). Specifically, according to the photometric data stored in the internal memory or the memory 24, a shutter having an aperture function is opened according to the aperture value, and if necessary, a flash is emitted to expose the image sensor 11. According to the photometric data, the image sensor 11 waits for the exposure to end, closes the shutter, and reads the AB image signal from the image sensor 11. Then, an AB image for a captured image is stored in the memory 24 via the A / D converter 12, the image processing unit 13, the memory control unit 20, or directly from the A / D converter 12 via the memory control unit 20. Write data.

ステップS310にて、ステップS309で取得したAB像の色処理やデフォーカスマップを用いた補正処理などの現像処理を行うため、AB像用のデフォーカスマップ(DEF2)を生成する。このステップS310の撮像画像用のデフォーカスマップの生成処理の詳細は、図4を用いて後述する。
ステップS311にて、画像処理部13は、AB像に対し撮像画像用のデフォーカスマップ(DEF2)を用いて現像処理を行い、画像圧縮処理を行い、撮像画像(静止画像)を生成する。具体的には、まず、システム制御部31が、ステップS310で生成したデフォーカスマップをメモリ24から読み出す。画像処理部13は、読み出したデフォーカスマップを用いて色処理や補正処理などの現像処理を行い、また、設定したモードに応じた画像圧縮処理を行い、撮像画像を生成する。そして、システム制御部31は、記録部30へ撮像画像データの書き込みを行う記録処理を実行する。
In step S310, a defocus map (DEF2) for the AB image is generated to perform development processing such as color processing of the AB image acquired in step S309 and correction processing using the defocus map. Details of the processing for generating a defocus map for a captured image in step S310 will be described later with reference to FIG.
In step S311, the image processing unit 13 performs development processing on the AB image using a defocus map (DEF2) for a captured image, performs image compression processing, and generates a captured image (still image). Specifically, first, the system control unit 31 reads the defocus map generated in step S310 from the memory 24. The image processing unit 13 performs development processing such as color processing and correction processing using the read defocus map, and performs image compression processing according to the set mode to generate a captured image. Then, the system control unit 31 executes a recording process for writing captured image data to the recording unit 30.

図4は、図3のステップS310における撮像画像用のデフォーカスマップを生成する詳細な処理を示すフローチャートである。撮像画像は視点画像を取得せずに(A像、B像の各信号を取得せずに)生成されるものであり、AB像の信号しか持たない撮像画像に対応するデフォーカスマップを、ステップS305のようにA像、B像の各信号から生成することができない。撮影でA像、B像の各信号を取得しない場合にも、撮像画像に対応するデフォーカスマップを生成する処理について、図4を用いて説明する。
ステップS401にて、システム制御部31は、ステップS304にて記録した表示画像用のA+B像と、S305でA像及びB像から生成したデフォーカスマップ(深度情報。以下、DEF1という)をメモリ24から読み出す。このとき読み出す信号及びデフォーカスマップは、静止画撮影時刻より前に取得され、かつ、静止画撮影時刻に一番近い直前のものである。
ステップS402にて、システム制御部31は、ステップS309にて記録した静止画AB像をメモリ24から読み出す。
FIG. 4 is a flowchart showing detailed processing for generating a defocus map for a captured image in step S310 in FIG. The captured image is generated without acquiring the viewpoint image (without acquiring the signals of the A image and the B image), and a defocus map corresponding to the captured image having only the signal of the AB image is stepped. It cannot be generated from the A and B image signals as in S305. Processing for generating a defocus map corresponding to a captured image even when signals A and B are not acquired during shooting will be described with reference to FIG.
In step S401, the system control unit 31 stores the A + B image for the display image recorded in step S304 and the defocus map (depth information; hereinafter referred to as DEF1) generated from the A image and the B image in S305. Read from. The signal and the defocus map read at this time are acquired before the still image shooting time and are the one immediately before the still image shooting time.
In step S402, the system control unit 31 reads the still image AB image recorded in step S309 from the memory 24.

ステップS403にて、画像処理部13は、表示画像用のA+B像と撮像画像用のAB像の動きベクトルを算出する。動きベクトルは、2つの画像をブロック状に分割した複数のブロックそれぞれについて、ブロックマッチングにより差分絶対値和を算出する。差分絶対値和が小さいほど、ブロックマッチングの相関が高いことになる。ブロックマッチングにおいて差分絶対値和が最小になるシフト量を動きベクトル(Vx、Vy)とする。本実施形態では、ブロックマッチングによって動きベクトルを算出したが、オプティカルフローによる動きベクトル算出でもよい。   In step S403, the image processing unit 13 calculates the motion vectors of the A + B image for the display image and the AB image for the captured image. The motion vector calculates the sum of absolute differences by block matching for each of a plurality of blocks obtained by dividing two images into blocks. The smaller the difference absolute value sum, the higher the block matching correlation. A shift amount that minimizes the sum of absolute differences in block matching is defined as a motion vector (Vx, Vy). In this embodiment, the motion vector is calculated by block matching, but may be calculated by an optical flow.

ステップS404にて、画像処理部13は、DEF1に対して算出した動きベクトル(Vx、Vy)に基づいて補間を行い、撮像画像用のデフォーカスマップ(以下、DEF2という)を生成する。DEF2の生成は、下記の式(8)の通り、DEF1の各画素に対して、動きベクトル分画素を移動させて行えばよい。
DEF2(x, y) = DEF1(x −Vx,y −Vy) ・・・(8)
In step S404, the image processing unit 13 performs interpolation based on the motion vector (Vx, Vy) calculated for DEF1, and generates a defocus map (hereinafter referred to as DEF2) for the captured image. The generation of DEF2 may be performed by moving a pixel corresponding to the motion vector with respect to each pixel of DEF1, as shown in the following equation (8).
DEF2 (x, y) = DEF1 (x−Vx, y−Vy) (8)

ステップS405にて、画像処理部13は、ステップS404で生成されたDEF2に対して整形処理を行う。画像処理部13は、撮像画像用のAB像を整形用画像として、デフォーカスマップにバイラテラルフィルタ処理を施し、システム制御部31は、整形したデフォーカスマップをメモリ24に記録する。バイラテラルフィルタ処理の詳細を下記に説明する。着目画素位置pのフィルタ結果をJpと記すと、これは下記の式(9)で表される。
Jp=(1/Kp)ΣI1q・f(|p−q|)・g(|I2p−I2q|)
・・・(9)
In step S405, the image processing unit 13 performs a shaping process on DEF2 generated in step S404. The image processing unit 13 performs a bilateral filter process on the defocus map using the AB image for the captured image as a shaping image, and the system control unit 31 records the shaped defocus map in the memory 24. Details of the bilateral filter processing will be described below. If the filter result at the target pixel position p is denoted by Jp, this is expressed by the following equation (9).
Jp = (1 / Kp) ΣI1q · f (| p−q |) · g (| I2p−I2q |)
... (9)

式(9)中の各記号の意味は以下のとおりである。
q :周辺画素位置
Ω :着目画素位置pを中心とする積算対象領域
Σ :q∈Ω範囲の積算
I1q:周辺画素位置qにおけるデフォーカスマップ信号値
f(|p−q|):着目画素位置pを中心とするガウシアン関数
I2p :着目画素位置pでの整形用画像信号値
I2q :周辺画素位置qでの整形用画像信号値
g(|I2p−I2q|):整形用画像信号値I2pを中心とするガウシアン関数
Kp :正規化係数であり、f・g重みの積算値。
The meaning of each symbol in Formula (9) is as follows.
q: peripheral pixel position Ω: integration target region centered on the target pixel position p Σ: integration in the range of q∈Ω I1q: defocus map signal value at the peripheral pixel position q f (| p−q |): target pixel position Gaussian function centered on p I2p: image signal value for shaping at target pixel position p I2q: image signal value for shaping at peripheral pixel position q g (| I2p−I2q |): centering on image signal value I2p for shaping Gapsian function Kp: normalization coefficient, integrated value of f · g weights.

着目画素位置pでの信号値I2pと周辺画素位置qでの信号値I2qとの差が小さい場合、つまり整形用画像において着目画素の画素値と周辺画素の画素値が近いと、その周辺画素のf・g重み(平滑化の重み)は大きくなる。
S405の整形処理によって、デフォーカスマップでの被写体の輪郭が正しい輪郭に合うことになる。また、デフォーカスマップの整形処理は距離の信号値を正しい輪郭に合わせる作用を有するだけではなく、フレーム補間の際に生じたデフォーカスマップの歪み補正にも有効である。
When the difference between the signal value I2p at the target pixel position p and the signal value I2q at the peripheral pixel position q is small, that is, when the pixel value of the target pixel and the pixel value of the peripheral pixel are close in the shaping image, The f · g weight (smoothing weight) increases.
By the shaping process in S405, the contour of the subject in the defocus map matches the correct contour. The defocus map shaping process not only has the effect of matching the distance signal value with the correct contour, but is also effective in correcting the distortion of the defocus map that occurs during frame interpolation.

本実施形態では、撮像素子11から一対の画像であるA像とB像を読み出し、表示用画像としてA像とB像をそれぞれA/D変換した後に加算したA+B像を取得していた。しかし、本発明はこれに限られるものではなく、例えば、撮像素子11からAB像とA像を読み出し、そこからB像を取得するようにしてもよい。この場合も、AB像のみを取得する撮像画像の場合に比べて、AB像とA像の二つを読み出すためノイズ量が多くなるため、ノイズの少ない撮像画像と撮像画像に対応したデフォーカスマップを生成する本発明を適用できる。   In the present embodiment, a pair of images, A and B images, are read from the image sensor 11 and A / B images obtained by performing A / D conversion on the A and B images as display images are obtained. However, the present invention is not limited to this, and for example, the AB image and the A image may be read from the image sensor 11 and the B image may be acquired therefrom. Also in this case, compared to the case of a captured image that acquires only an AB image, the amount of noise increases because two images, the AB image and the A image, are read, and therefore, the defocus map corresponding to the captured image and the captured image with less noise The present invention for generating can be applied.

また、本実施形態では、デフォーカスマップについて説明したが、これに限られるものではなく、視点画像から生成される様々な深度を表す情報(深度情報)であればよい。深度情報は、例えば、瞳分割画像の視差量の分布情報(視差マップ、像ズレマップ)、被写体の奥行き方向の相対的な位置関係がわかる分布情報などである。深度情報は、ステップS311で撮像画像を生成するときに行われる補正処理などで利用される。補正処理は、例えば、リフォーカス、背景ぼかし、領域判定などであるが、これに限られるものではない。   In the present embodiment, the defocus map has been described. However, the present invention is not limited to this, and any information (depth information) representing various depths generated from the viewpoint image may be used. The depth information is, for example, distribution information (parallax map, image shift map) of the amount of parallax of the pupil-divided image, distribution information that indicates the relative positional relationship of the subject in the depth direction, and the like. The depth information is used in correction processing performed when a captured image is generated in step S311. The correction process includes, for example, refocusing, background blurring, area determination, and the like, but is not limited thereto.

以上のように、本実施形態によれば、撮像画像をA像とB像を撮像素子11から読み出す前に加算したノイズの少ないAB像から生成することができる。また、撮像画像に対応するデフォーカスマップを、ライブビュー表示用のデフォーカスマップから補間し生成することができる。そのため、撮像画像にノイズの多い複数の視点画像を取得することなくデフォーカスマップを生成し、ノイズの少ない撮像画像に対してデフォーカスマップを用いた補正を行うことが可能となる。   As described above, according to the present embodiment, a captured image can be generated from an AB image with less noise that is added before an A image and a B image are read from the image sensor 11. Also, a defocus map corresponding to the captured image can be generated by interpolation from the defocus map for live view display. Therefore, it is possible to generate a defocus map without acquiring a plurality of noisy viewpoint images in the captured image and perform correction using the defocus map for the captured image with less noise.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

13 画像処理部
31 システム制御部
100 撮像装置
13 Image Processing Unit 31 System Control Unit 100 Imaging Device

Claims (10)

複数の画素群を含み、画素群の各画素が複数の光電変換素子を含む撮像素子と、
前記複数の光電変換素子のうち一部の光電変換素子からの信号を視点画像として読み出すための第1の読み出し動作と、前記複数の光電変換素子からの信号を混合して第1の合成画像として読み出すための第2の読み出し動作を、複数の画素群に対して行う読み出し制御手段と、
前記第1の合成画像に対応する深度情報を生成する生成手段と、を有し、
前記生成手段は、前記読み出し制御手段が前記第1の読み出し動作によって読み出した視点画像を用いて前記深度情報を生成し、
前記読み出し制御手段が前記第1の読み出し動作を行わずに前記第2の読み出し動作を行って得られる第1の合成画像に対応する深度情報は、前記視点画像を用いて生成された深度情報を用いて生成されることを特徴とする撮像装置。
An image sensor including a plurality of pixel groups, each pixel of the pixel group including a plurality of photoelectric conversion elements;
A first readout operation for reading out signals from some of the plurality of photoelectric conversion elements as a viewpoint image, and mixing the signals from the plurality of photoelectric conversion elements as a first composite image A read control means for performing a second read operation for reading a plurality of pixel groups;
Generating means for generating depth information corresponding to the first composite image,
The generation means generates the depth information using the viewpoint image read by the read control means by the first read operation,
The depth information corresponding to the first composite image obtained by performing the second read operation without performing the first read operation by the read control unit is the depth information generated using the viewpoint image. An imaging apparatus characterized by being generated by using.
前記深度情報は被写体の奥行き方向の相対的な位置関係がわかる分布情報であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the depth information is distribution information that indicates a relative positional relationship of the subject in the depth direction. 前記第1の読み出し動作によって読み出した視点画像を合成して第2の合成画像を生成する合成手段を有し、
前記生成手段は、前記第1の合成画像と前記第2の合成画像から動きベクトルを検出し、前記視点画像と前記動きベクトルを用いて前記第1の合成画像に対応する深度情報を生成することを特徴とする請求項1または2に記載の撮像装置。
Synthesizing means for synthesizing the viewpoint images read out by the first reading operation to generate a second synthesized image;
The generation means detects a motion vector from the first composite image and the second composite image, and generates depth information corresponding to the first composite image using the viewpoint image and the motion vector. The imaging device according to claim 1, wherein:
前記動きベクトルの検出に用いる前記第2の合成画像は、前記第1の合成画像を読み出すための第2の読み出し動作の直前の第1の読み出し動作で読み出された視点画像を合成して生成された第2の合成画像であることを特徴とする請求項3に記載の撮像装置。   The second synthesized image used for detecting the motion vector is generated by synthesizing the viewpoint image read out in the first readout operation immediately before the second readout operation for reading out the first synthesized image. The imaging device according to claim 3, wherein the imaging device is a second synthesized image. 前記生成手段は、前記視点画像と前記動きベクトルを用いて生成した深度情報に整形処理を行い、前記第1の合成画像に対応する深度情報を生成することを特徴とする請求項1から4のいずれか1項に記載の撮像装置。   5. The generation unit according to claim 1, wherein the generation unit performs shaping processing on depth information generated using the viewpoint image and the motion vector, and generates depth information corresponding to the first composite image. The imaging device according to any one of the above. 前記整形処理は、バイラテラルフィルタ処理であることを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the shaping process is a bilateral filter process. 前記深度情報に基づき画像を補正する補正手段をさらに備えることを特徴とする請求項1から6のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a correction unit that corrects an image based on the depth information. 複数の光電変換素子のうち一部の光電変換素子からの信号を視点画像として読み出すための第1の読み出し動作と、複数の光電変換素子からの信号を混合して合成画像として読み出すための第2の読み出し動作を、複数の画素群に対して行う読み出し制御手段と、
前記合成画像に対応する深度情報を生成する生成手段と、を有し、
前記生成手段は、前記読み出し制御手段が前記第1の読み出し動作によって読み出した視点画像を用いて前記深度情報を生成し、
前記読み出し制御手段が前記第1の読み出し動作を行わずに前記第2の読み出し動作を行って得られる合成画像に対応する深度情報は、前記視点画像を用いて生成された深度情報を用いて生成されることを特徴とする画像処理装置。
A first readout operation for reading out signals from some of the plurality of photoelectric conversion elements as viewpoint images, and a second for reading out signals from the plurality of photoelectric conversion elements as a combined image. Reading control means for performing the reading operation for a plurality of pixel groups;
Generating means for generating depth information corresponding to the composite image,
The generation means generates the depth information using the viewpoint image read by the read control means by the first read operation,
Depth information corresponding to a composite image obtained by performing the second read operation without performing the first read operation by the read control unit is generated using depth information generated using the viewpoint image. An image processing apparatus.
複数の画素群を含み、画素群の各画素が複数の光電変換素子を含む撮像素子を有する撮像装置の制御方法であって、
前記複数の光電変換素子のうち一部の光電変換素子からの信号を視点画像として読み出すための第1の読み出し工程と、
前記複数の光電変換素子からの信号を混合して合成画像として読み出すための第2の読み出し工程と、
前記合成画像に対応する深度情報を生成する工程と、を有し、
前記生成する工程において、前記第1の読み出し工程において読み出した視点画像を用いて前記深度情報を生成し、
前記第1の読み出し工程を行わずに前記第2の読み出し工程を行って得られる合成画像に対応する深度情報は、前記視点画像を用いて生成された深度情報を用いて生成されることを特徴とする制御方法。
A control method for an imaging apparatus that includes a plurality of pixel groups, and each pixel of the pixel group includes an imaging element including a plurality of photoelectric conversion elements,
A first reading step for reading a signal from some of the plurality of photoelectric conversion elements as a viewpoint image;
A second readout step for mixing signals from the plurality of photoelectric conversion elements to read out as a composite image;
Generating depth information corresponding to the composite image,
In the generating step, the depth information is generated using the viewpoint image read in the first reading step,
Depth information corresponding to a composite image obtained by performing the second readout step without performing the first readout step is generated using depth information generated using the viewpoint image. Control method.
コンピュータを請求項1から7のいずれか1項に記載の撮像装置が備える各手段として機能させることを特徴とするプログラム。
A program that causes a computer to function as each unit included in the imaging apparatus according to any one of claims 1 to 7.
JP2016136059A 2016-07-08 2016-07-08 Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program Pending JP2018007205A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016136059A JP2018007205A (en) 2016-07-08 2016-07-08 Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016136059A JP2018007205A (en) 2016-07-08 2016-07-08 Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program

Publications (1)

Publication Number Publication Date
JP2018007205A true JP2018007205A (en) 2018-01-11

Family

ID=60949951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016136059A Pending JP2018007205A (en) 2016-07-08 2016-07-08 Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP2018007205A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021027523A (en) * 2019-08-07 2021-02-22 キヤノン株式会社 Depth information generation device, imaging apparatus, depth information generation method, image processing device, image processing method, and program
US11721713B2 (en) 2021-04-09 2023-08-08 Samsung Electronics Co., Ltd. Image sensors

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021027523A (en) * 2019-08-07 2021-02-22 キヤノン株式会社 Depth information generation device, imaging apparatus, depth information generation method, image processing device, image processing method, and program
US11468584B2 (en) 2019-08-07 2022-10-11 Canon Kabushiki Kaisha Depth information generating apparatus, image capturing apparatus, depth information generating method, image processing apparatus, and image processing method
JP7431527B2 (en) 2019-08-07 2024-02-15 キヤノン株式会社 Depth information generation device, imaging device, depth information generation method, image processing device, image processing method, and program
US11721713B2 (en) 2021-04-09 2023-08-08 Samsung Electronics Co., Ltd. Image sensors

Similar Documents

Publication Publication Date Title
JP5226600B2 (en) Image deformation apparatus and operation control method thereof
JP6335434B2 (en) Imaging apparatus, control method thereof, and program
JP2012049773A (en) Imaging apparatus and method, and program
JPWO2014046184A1 (en) Apparatus and method for measuring distance of multiple subjects
JP6095266B2 (en) Image processing apparatus and control method thereof
CN104580921A (en) Imaging apparatus and its control method
JP6175748B2 (en) Imaging device
JP6360338B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP2014026051A (en) Image capturing device and image processing device
JP6608194B2 (en) Image processing apparatus, control method therefor, and program
JP2012133194A (en) Imaging apparatus
JP5149861B2 (en) Intermediate image generation apparatus and operation control method thereof
JP2018007205A (en) Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program
JP2008053787A (en) Multiple-lens electronic camera and parallax correcting method of multi-lens electronic camera
JP2022173069A (en) Image processing apparatus and method, and imaging apparatus and method for controlling the same, program, and storage medium
JP5882785B2 (en) Imaging device
JP2019009694A (en) Imaging apparatus, control method and program
JP7134601B2 (en) Image processing device, image processing method, imaging device, and imaging device control method
JP2022117599A (en) Image processing device, imaging device, control method, and program
JP2020136697A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP6677336B2 (en) Imaging device
US20220358667A1 (en) Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium
JP2008147751A (en) Imaging device
JP6702798B2 (en) Image processing apparatus, control method thereof, imaging apparatus, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170202