JP2018007205A - Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program - Google Patents
Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program Download PDFInfo
- Publication number
- JP2018007205A JP2018007205A JP2016136059A JP2016136059A JP2018007205A JP 2018007205 A JP2018007205 A JP 2018007205A JP 2016136059 A JP2016136059 A JP 2016136059A JP 2016136059 A JP2016136059 A JP 2016136059A JP 2018007205 A JP2018007205 A JP 2018007205A
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth information
- read
- photoelectric conversion
- reading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、デフォーカス分布に関連する情報を取得する画像処理装置、撮像装置、画像処理装置の制御方法及びプログラムに関するものである。 The present invention relates to an image processing apparatus, an imaging apparatus, an image processing apparatus control method, and a program for acquiring information related to a defocus distribution.
撮影レンズの射出瞳を複数の領域に瞳分割し、分割された瞳領域に応じた複数の視点画像を同時に撮影することができる撮像装置が提案されている。特許文献1では、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置が開示されている。分割された光電変換部は、1つのマイクロレンズを介して瞳分割されて撮影レンズの射出瞳の異なる瞳部分領域を受光するように構成されている。これらの光電変換部で受光したそれぞれの信号から、分割された瞳部分領域に応じた複数の視点画像を生成することができる。特許文献2では、分割された光電変換部で受光した信号を、全て加算することにより撮像画像を生成することが開示されている。さらに特許文献3では、瞳分割された複数の視点画像の出力から左右視差または上下視差によるデフォーカスマップを作成する撮像装置が開示されている。 There has been proposed an imaging apparatus that can divide an exit pupil of a photographing lens into a plurality of areas and simultaneously photograph a plurality of viewpoint images corresponding to the divided pupil areas. Patent Document 1 discloses an imaging apparatus using a two-dimensional imaging element in which one microlens and a plurality of divided photoelectric conversion units are formed for one pixel. The divided photoelectric conversion unit is configured to receive a pupil partial region which is divided into pupils through one microlens and has different exit pupils of the photographing lens. A plurality of viewpoint images corresponding to the divided pupil partial regions can be generated from the respective signals received by these photoelectric conversion units. Patent Document 2 discloses that a captured image is generated by adding all signals received by divided photoelectric conversion units. Further, Patent Document 3 discloses an imaging device that creates a defocus map based on left-right parallax or vertical parallax from the output of a plurality of viewpoint images obtained by pupil division.
瞳分割された光電変換部から読み出す際、深度情報を生成するために視点画像と複数の視点画像を合成(混合)した合成画像を読み出す場合、視点画像を読み出さずに合成画像を読み出す場合に比べて合成画像のノイズ量が多くなる場合があった。 When reading from a pupil-divided photoelectric conversion unit, when reading a combined image that combines (mixed) viewpoint images and multiple viewpoint images to generate depth information, compared to reading a combined image without reading the viewpoint image In some cases, the amount of noise in the composite image increases.
上記課題に鑑み、本発明は、ノイズを低減した撮像画像と撮像画像に対応した深度情報を生成できる画像処理装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an image processing apparatus capable of generating a captured image with reduced noise and depth information corresponding to the captured image.
上記課題を解決するために、本発明の撮像装置は、複数の画素群を含み、画素群の各画素が複数の光電変換素子を含む撮像素子と、前記複数の光電変換素子のうち一部の光電変換素子からの信号を視点画像として読み出すための第1の読み出し動作と、前記複数の光電変換素子からの信号を混合して第1の合成画像として読み出すための第2の読み出し動作を、複数の画素群に対して行う読み出し制御手段と、前記第1の合成画像に対応する深度情報を生成する生成手段と、を有し、前記生成手段は、前記読み出し制御手段が前記第1の読み出し動作によって読み出した視点画像を用いて前記深度情報を生成し、前記読み出し制御手段が前記第1の読み出し動作を行わずに前記第2の読み出し動作を行って得られる第1の合成画像に対応する深度情報は、前記視点画像を用いて生成された深度情報を用いて生成される。 In order to solve the above-described problem, an imaging device of the present invention includes a plurality of pixel groups, each pixel of the pixel group including a plurality of photoelectric conversion elements, and a part of the plurality of photoelectric conversion elements. A plurality of first readout operations for reading out signals from the photoelectric conversion elements as viewpoint images, and a second readout operation for reading out signals from the plurality of photoelectric conversion elements as a first composite image. Read control means for the pixel group, and generation means for generating depth information corresponding to the first composite image, wherein the read control means performs the first read operation. The depth information is generated using the viewpoint image read out by the step, and the read control unit corresponds to the first composite image obtained by performing the second read operation without performing the first read operation. Degree information is generated using the depth information is generated by using the viewpoint images.
本発明によれば、ノイズを低減した撮像画像と撮像画像に対応した深度情報を生成できる画像処理装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus which can produce | generate the depth information corresponding to the captured image which reduced noise, and the captured image can be provided.
図1は、本発明の実施形態における撮像装置の構成例を示す図である。撮像装置100は、撮影レンズ10、撮像素子11、撮像素子11のアナログ信号出力をディジタル信号に変換するA/D変換器12、画像処理部13を備えている。撮像装置100は、デタルカメラやビデオカメラ等であるが、これらに限定されるものではない。撮像素子11は、複数の画素群を含み、画素群の各画素が光学像を電気信号に変換する複数の光電変換素子を含む撮像部であり、複数の視点画像を同時に取得できる。画像処理部13は、A/D変換器12からのデータ或いはメモリ制御部20からのデータに対して所定のデモザイク処理やホワイトバランス調整、色補間、縮小/拡大、フィルタリングなどの処理を行う。さらにデフォーカスマップの生成、複数枚の画像の動きベクトル算出などの様々な画像処理を行う。
FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus according to an embodiment of the present invention. The
撮像装置100はさらに、メモリ制御部20、D/A変換器21、画像表示部22、画像表示メモリ23、メモリ24を備える。メモリ制御部20は、A/D変換器12、画像処理部13を制御する。A/D変換器12から出力されたデータが、画像処理部13及びメモリ制御部20を介して、或いはA/D変換器12のデータが、直接メモリ制御部20を介して、画像表示メモリ23またはメモリ24に書き込まれる。画像表示部22は、TFT LCD等を有する画像表示部であり、画像表示メモリ23に書き込まれた表示画像用の画像データはD/A変換器21を介して画像表示部22により表示される。画像表示部22を用いて、撮像した画像データを逐次表示すれば、ライブビュー機能を実現することが可能である。
The
メモリ24は撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。さらに、メモリ24には、回復フィルタを生成するための1つ以上のOTFデータ110が保存されている。これにより、複数枚の静止画像を連続して撮影する連写撮影の場合にも、高速かつ大量の画像書き込みをメモリ24に対して行うことが可能となる。また、メモリ24は、システム制御部31の作業領域としても使用することが可能である。
The
撮像装置100はさらに、記録部30、システム制御部31、SW32、SW33、モードダイアル40を備えている。記録部30は、記録媒体を含む。システム制御部31は、撮像装置100全体を制御するシステム制御部である。SW32は、シャッタースイッチで、不図示のシャッターボタンの操作途中(半押し)でONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作開始を指示する。SW33は、シャッタースイッチで、不図示のシャッターボタンの押下(全押し)でONとなりとなる。SW33のONは、撮像素子11からの信号の読み出しから記録部30に画像データを書き込む記録処理までの一連の処理の動作開始を指示するものである。一連の処理では、撮像素子11から信号を読み出し、A/D変換器12、メモリ制御部20を介して画像処理部13やメモリ制御部20での演算を用いた現像処理、メモリ24からの画像データの読み出し、圧縮処理を行う。そして、記録部30に画像データを書き込む記録処理を行う。
The
本実施形態の撮像素子と瞳分割との対応関係の概念図を図2に示す。図2(A)は、撮像素子11の画素配列の構成例を示す模式図である。図2(A)にて紙面に直交する方向をz方向とし、手前側を+z方向と定義する。z方向に直交する第1の方向をx方向とし、図2(A)の右方向を+x方向と定義する。また、z方向に直交する第2の方向をy方向とし、図2(A)の上方向を+y方向と定義する。図2(A)には、ある画素200を拡大した模式図を示す。画素200は、マイクロレンズ201と、一対の光電変換素子である瞳分割画素202A、203Bから構成される。撮像素子11は、複数の画素200が二次元アレイ状に規則的に配列されている。複数の光電変換素子のうち一部の光電変換素子から、視点画像として信号を読み出す。本実施形態においては、規則的に配列された読み出し部である瞳分割画素202A、203Bから、一対の画像としてA像、B像がそれぞれ読み出されるものとする。デフォーカスマップなどの深度情報を生成するために視点画像と複数の視点画像を合成(混合)した合成画像をこの順に読み出す場合、視点画像A像(B像)を読み出さずに合成画像AB像を読み出す場合に比べて合成画像のノイズ量が多くなる場合があった。これは、暗電流などに起因するノイズを除去するための成分を読み出すNull読みのタイミングが合成画像の蓄積期間と離れてしまうことなどが考えられる。そこで本実施形態では後述するように、静止画用の合成画像AB像の読み出し時にはA像の読み出しを行わないようにすることでAB像のノイズ悪化を低減する。
FIG. 2 shows a conceptual diagram of the correspondence relationship between the image sensor of this embodiment and pupil division. FIG. 2A is a schematic diagram illustrating a configuration example of a pixel array of the
図2(B)は、撮像光学系の瞳と撮像素子の光電変換部との関係を示す模式図である。撮像素子11は、撮影レンズ10の結像面近傍に配置され、被写体からの光束は、撮影レンズ10の射出瞳800を通過して、それぞれ対応する画素に入射する。射出瞳800の大きさは、絞りの大きさや、レンズを保持するレンズ枠などの大きさによって変化する。瞳部分領域801A、802Bは、x方向にて2分割された瞳分割画素202A、203Bの受光面と、マイクロレンズによって概ね共役関係になっている。従って、各瞳部分領域を通過した光束は、共役関係にある各瞳分割画素で受光される。水平方向における瞳分割数をMとし、垂直方向における瞳分割数をNとすると、撮影レンズ10の射出瞳800は、瞳分割数をNp=M×Nとして、異なる瞳部分領域に分割される。撮影レンズ10の絞り値をFとすると、瞳部分領域の実効絞り値は、概ね(√(M×N))×Fとなる。また、瞳領域803は、M×N個に分割された光電変換部を全て合わせた際の画素200全体で受光可能な瞳領域(全開口領域)である。例えば、瞳分割数をM=2、N=1とする場合、瞳部分領域の実効絞り値はFの√2倍となる。つまり、1つの瞳分割画像は全開口画像と比較して、一段分被写界深度が深く、暗い画像が得られる。
FIG. 2B is a schematic diagram illustrating the relationship between the pupil of the imaging optical system and the photoelectric conversion unit of the imaging element. The
以上の構成により、図1の撮影レンズ10の瞳にて異なる領域をそれぞれ通過する一対の光束を、一対の光学像として結像させて、一対の画像である視点画像が得られる。一対の視点画像を、画素毎に信号を全て加算(合成)することで、有効画素数の解像度を有する画像を生成することができる。ここで、A像とB像を撮像素子11から読み出す前に混合(加算)し、A/D変換した画像(第1の合成画像)をAB像と呼ぶ。
With the above configuration, a pair of light beams that pass through different regions in the pupil of the photographing
図3および図4は、本実施形態の撮像装置100の処理を示すフローチャートである。図3および図4を用いて、撮像装置100の動作を説明する。
処理が開始されると、システム制御部31は、フラグや制御変数等の初期化し、画像表示部22の画像表示をOFF状態などに初期設定する。
ステップS301にて、システム制御部31は、モードダイアル40の設定位置を判断する。モードダイアル40が電源OFFに設定されていたならばS302に進む。S302にて、システム制御部31は、各表示部の表示を終了状態に変更し、フラグや制御変数等を含む必要なパラメータや設定値、設定モードを不揮発性メモリに記録するなど、所定の終了処理を行う。モードダイアル40が撮影モード以外に設定されていたならば、S303に進む。S303にて、システム制御部31は、選択されたモードに応じた処理を実行し、処理を終えたならばS301に戻る。モードダイアル40が撮影モードに設定されていたならば、S304に進む。
3 and 4 are flowcharts showing processing of the
When the process is started, the
In step S301, the
ステップS304にて、システム制御部31は、視点画像であるA像及びB像と、表示用の合成画像であるA+B像を読み出す(第1の読み出し動作)。具体的には、内部メモリ或いはメモリに記憶される測光データに従い、撮像素子11を露光し、測光データに従って所定の時間が経過した後、撮像素子11からA像およびB像の電荷信号をそれぞれ読み出す。そして、A/D変換器12、画像処理部13、メモリ制御部20を介して、或いはA/D変換器12から直接メモリ制御部20を介して、メモリ24にA像およびB像のデータを書き込む。さらに、画像処理部13は、式(1)で示す通り、A像およびB像の着目画素位置(x,y)毎に画素値を加算することでA+B像を生成し、生成したA+B像をメモリ24に書き込む。
A+B(x,y)=A(x,y)+B(x,y) ・・・(1)
In step S304, the
A + B (x, y) = A (x, y) + B (x, y) (1)
ステップS305にて、画像処理部13は、ステップS304での撮影で取得された瞳分割画像であるA像とB像の各信号を用いて、着目画素位置ごとのデフォーカス量を算出し、デフォーカスマップ(DEF1、深度情報)を生成する。デフォーカス量は、被写体の深度分布に関連する情報であり、デフォーカスマップデータの値を表す。デフォーカス量算出の詳細を下記に示す。
着目画素位置におけるA像の信号列をE(1)〜E(m)と表記し、B像の信号列をF(1)〜F(m)と表記する。A像の信号列E(1)〜E(m)に対して、B像の信号列F(1)〜F(m)を相対的にずらしながら、式(2)を用いて2つの信号列間のずらし量kにおける相関量C(k)の演算が行われる。
C(k)=Σ|E(n)−F(n+k)| ・・・(2)
式(2)において、Σ演算はnについて総和を算出する演算を意味する。Σ演算においてn、n+kの取る範囲は、1からmの範囲に限定される。ずらし量kは整数値をとり、一対のデータの検出ピッチを単位とした相対的シフト量を表す。
In step S305, the
The signal sequence of the A image at the target pixel position is expressed as E (1) to E (m), and the signal sequence of the B image is expressed as F (1) to F (m). The two signal sequences are expressed using Equation (2) while relatively shifting the B image signal sequences F (1) to F (m) with respect to the A image signal sequences E (1) to E (m). The correlation amount C (k) is calculated for the gap amount k.
C (k) = Σ | E (n) −F (n + k) | (2)
In Equation (2), Σ operation means an operation for calculating the sum for n. The range taken by n and n + k in the Σ operation is limited to a range of 1 to m. The shift amount k takes an integer value and represents a relative shift amount with the detection pitch of a pair of data as a unit.
式(2)の演算結果のうちで、一対の信号系列の相関が高いシフト量(ずらし量k)において相関量C(k)が最小になる。以下では、離散的な相関量C(k)が最小となるときのkを、kjと表記する。以下の式(3)から式(5)による3点内挿処理を用いて、連続的な相関量に対する最小値C(x)を与えるシフト量xが算出される。
x=kj+D/SLOP ・・・(3)
D={C(kj−1)−C(kj+1)}/2 ・・・(4)
SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)}
・・・(5)
Among the calculation results of Expression (2), the correlation amount C (k) is minimized at the shift amount (shift amount k) in which the correlation between the pair of signal sequences is high. In the following, k when the discrete correlation amount C (k) is minimum is denoted as kj. The shift amount x that gives the minimum value C (x) with respect to the continuous correlation amount is calculated using the three-point interpolation processing according to the following equations (3) to (5).
x = kj + D / SLOP (3)
D = {C (kj−1) −C (kj + 1)} / 2 (4)
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)}
... (5)
式(3)で算出されるシフト量xから、デフォーカス量(DEFと記す)を式(6)によって求めることができる。
DEF=KX・PY・x ・・・(6)
式(6)に示すKXは、一対の瞳領域を通過する光束の重心の開き角の大きさによって決まる変換係数である。PYは、検出ピッチである。参照する領域が白とびの領域または黒つぶれの領域である場合、式(2)における|E(n)−F(n+k)|の項が0となり、C(k)の値がゼロとなる。そのため、相関量C(k)が最小となるkjを正しく算出できなくなる結果、算出されたデフォーカス量は正確な値でなくなる。以上のように算出したデフォーカス量の空間的な分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップデータを、メモリ24に記録する。
The defocus amount (denoted as DEF) can be obtained from equation (6) from the shift amount x calculated by equation (3).
DEF = KX · PY · x (6)
KX shown in Expression (6) is a conversion coefficient determined by the size of the opening angle of the center of gravity of the light beam passing through the pair of pupil regions. PY is a detection pitch. When the area to be referred to is an overexposure area or an underexposure area, the term | E (n) −F (n + k) | For this reason, kj that minimizes the correlation amount C (k) cannot be calculated correctly. As a result, the calculated defocus amount is not an accurate value. Defocus map data representing the spatial distribution of the defocus amount calculated as described above (distribution on the two-dimensional plane of the captured image) is recorded in the
ステップS306にて、画像処理部13は表示画像用画像を取得する。具体的には、まず、システム制御部31は、メモリ制御部20を介して、メモリ24に書き込まれたA+B像と、デフォーカスマップデータを読み出す。画像処理部13は、読み出したA+B像に色処理やデフォーカスマップを用いた補正処理を順次行い表示画像用画像を生成し、メモリ24に表示画像用画像データを書き込む。
ステップS307にて、システム制御部31は、メモリ24から表示画像用画像データを読み出し、メモリ制御部20を介して画像表示メモリ23に表示画像データの転送を行う。そして、画像表示メモリ23に書き込まれた表示画像データを、画像表示部22にてライブビュー表示を行う。
In step S306, the
In step S307, the
ステップS308にて、システム制御部31は、静止画撮影用のSW33が押下されていないか(スイッチが全押しされていないか)判断する。押されていないならば、S301に戻る。SW33が押されたならば、S309に進む。
S309にて、システム制御部31は、静止画用(撮像画像用)のAB像を読み出す(第2の読み出し動作)。具体的には、内部メモリ或いはメモリ24に記憶される測光データに従い、絞り機能を有するシャッターを絞り値に応じて開放して、必要な場合はフラッシュを発光させ、撮像素子11を露光する。測光データに従って撮像素子11の露光終了を待ち、シャッターを閉じて、撮像素子11からAB画像信号を読み出す。そして、A/D変換器12、画像処理部13、メモリ制御部20を介して、或いはA/D変換器12から直接メモリ制御部20を介して、メモリ24に撮像画像用であるAB像のデータを書き込む。
In step S308, the
In S309, the
ステップS310にて、ステップS309で取得したAB像の色処理やデフォーカスマップを用いた補正処理などの現像処理を行うため、AB像用のデフォーカスマップ(DEF2)を生成する。このステップS310の撮像画像用のデフォーカスマップの生成処理の詳細は、図4を用いて後述する。
ステップS311にて、画像処理部13は、AB像に対し撮像画像用のデフォーカスマップ(DEF2)を用いて現像処理を行い、画像圧縮処理を行い、撮像画像(静止画像)を生成する。具体的には、まず、システム制御部31が、ステップS310で生成したデフォーカスマップをメモリ24から読み出す。画像処理部13は、読み出したデフォーカスマップを用いて色処理や補正処理などの現像処理を行い、また、設定したモードに応じた画像圧縮処理を行い、撮像画像を生成する。そして、システム制御部31は、記録部30へ撮像画像データの書き込みを行う記録処理を実行する。
In step S310, a defocus map (DEF2) for the AB image is generated to perform development processing such as color processing of the AB image acquired in step S309 and correction processing using the defocus map. Details of the processing for generating a defocus map for a captured image in step S310 will be described later with reference to FIG.
In step S311, the
図4は、図3のステップS310における撮像画像用のデフォーカスマップを生成する詳細な処理を示すフローチャートである。撮像画像は視点画像を取得せずに(A像、B像の各信号を取得せずに)生成されるものであり、AB像の信号しか持たない撮像画像に対応するデフォーカスマップを、ステップS305のようにA像、B像の各信号から生成することができない。撮影でA像、B像の各信号を取得しない場合にも、撮像画像に対応するデフォーカスマップを生成する処理について、図4を用いて説明する。
ステップS401にて、システム制御部31は、ステップS304にて記録した表示画像用のA+B像と、S305でA像及びB像から生成したデフォーカスマップ(深度情報。以下、DEF1という)をメモリ24から読み出す。このとき読み出す信号及びデフォーカスマップは、静止画撮影時刻より前に取得され、かつ、静止画撮影時刻に一番近い直前のものである。
ステップS402にて、システム制御部31は、ステップS309にて記録した静止画AB像をメモリ24から読み出す。
FIG. 4 is a flowchart showing detailed processing for generating a defocus map for a captured image in step S310 in FIG. The captured image is generated without acquiring the viewpoint image (without acquiring the signals of the A image and the B image), and a defocus map corresponding to the captured image having only the signal of the AB image is stepped. It cannot be generated from the A and B image signals as in S305. Processing for generating a defocus map corresponding to a captured image even when signals A and B are not acquired during shooting will be described with reference to FIG.
In step S401, the
In step S402, the
ステップS403にて、画像処理部13は、表示画像用のA+B像と撮像画像用のAB像の動きベクトルを算出する。動きベクトルは、2つの画像をブロック状に分割した複数のブロックそれぞれについて、ブロックマッチングにより差分絶対値和を算出する。差分絶対値和が小さいほど、ブロックマッチングの相関が高いことになる。ブロックマッチングにおいて差分絶対値和が最小になるシフト量を動きベクトル(Vx、Vy)とする。本実施形態では、ブロックマッチングによって動きベクトルを算出したが、オプティカルフローによる動きベクトル算出でもよい。
In step S403, the
ステップS404にて、画像処理部13は、DEF1に対して算出した動きベクトル(Vx、Vy)に基づいて補間を行い、撮像画像用のデフォーカスマップ(以下、DEF2という)を生成する。DEF2の生成は、下記の式(8)の通り、DEF1の各画素に対して、動きベクトル分画素を移動させて行えばよい。
DEF2(x, y) = DEF1(x −Vx,y −Vy) ・・・(8)
In step S404, the
DEF2 (x, y) = DEF1 (x−Vx, y−Vy) (8)
ステップS405にて、画像処理部13は、ステップS404で生成されたDEF2に対して整形処理を行う。画像処理部13は、撮像画像用のAB像を整形用画像として、デフォーカスマップにバイラテラルフィルタ処理を施し、システム制御部31は、整形したデフォーカスマップをメモリ24に記録する。バイラテラルフィルタ処理の詳細を下記に説明する。着目画素位置pのフィルタ結果をJpと記すと、これは下記の式(9)で表される。
Jp=(1/Kp)ΣI1q・f(|p−q|)・g(|I2p−I2q|)
・・・(9)
In step S405, the
Jp = (1 / Kp) ΣI1q · f (| p−q |) · g (| I2p−I2q |)
... (9)
式(9)中の各記号の意味は以下のとおりである。
q :周辺画素位置
Ω :着目画素位置pを中心とする積算対象領域
Σ :q∈Ω範囲の積算
I1q:周辺画素位置qにおけるデフォーカスマップ信号値
f(|p−q|):着目画素位置pを中心とするガウシアン関数
I2p :着目画素位置pでの整形用画像信号値
I2q :周辺画素位置qでの整形用画像信号値
g(|I2p−I2q|):整形用画像信号値I2pを中心とするガウシアン関数
Kp :正規化係数であり、f・g重みの積算値。
The meaning of each symbol in Formula (9) is as follows.
q: peripheral pixel position Ω: integration target region centered on the target pixel position p Σ: integration in the range of q∈Ω I1q: defocus map signal value at the peripheral pixel position q f (| p−q |): target pixel position Gaussian function centered on p I2p: image signal value for shaping at target pixel position p I2q: image signal value for shaping at peripheral pixel position q g (| I2p−I2q |): centering on image signal value I2p for shaping Gapsian function Kp: normalization coefficient, integrated value of f · g weights.
着目画素位置pでの信号値I2pと周辺画素位置qでの信号値I2qとの差が小さい場合、つまり整形用画像において着目画素の画素値と周辺画素の画素値が近いと、その周辺画素のf・g重み(平滑化の重み)は大きくなる。
S405の整形処理によって、デフォーカスマップでの被写体の輪郭が正しい輪郭に合うことになる。また、デフォーカスマップの整形処理は距離の信号値を正しい輪郭に合わせる作用を有するだけではなく、フレーム補間の際に生じたデフォーカスマップの歪み補正にも有効である。
When the difference between the signal value I2p at the target pixel position p and the signal value I2q at the peripheral pixel position q is small, that is, when the pixel value of the target pixel and the pixel value of the peripheral pixel are close in the shaping image, The f · g weight (smoothing weight) increases.
By the shaping process in S405, the contour of the subject in the defocus map matches the correct contour. The defocus map shaping process not only has the effect of matching the distance signal value with the correct contour, but is also effective in correcting the distortion of the defocus map that occurs during frame interpolation.
本実施形態では、撮像素子11から一対の画像であるA像とB像を読み出し、表示用画像としてA像とB像をそれぞれA/D変換した後に加算したA+B像を取得していた。しかし、本発明はこれに限られるものではなく、例えば、撮像素子11からAB像とA像を読み出し、そこからB像を取得するようにしてもよい。この場合も、AB像のみを取得する撮像画像の場合に比べて、AB像とA像の二つを読み出すためノイズ量が多くなるため、ノイズの少ない撮像画像と撮像画像に対応したデフォーカスマップを生成する本発明を適用できる。
In the present embodiment, a pair of images, A and B images, are read from the
また、本実施形態では、デフォーカスマップについて説明したが、これに限られるものではなく、視点画像から生成される様々な深度を表す情報(深度情報)であればよい。深度情報は、例えば、瞳分割画像の視差量の分布情報(視差マップ、像ズレマップ)、被写体の奥行き方向の相対的な位置関係がわかる分布情報などである。深度情報は、ステップS311で撮像画像を生成するときに行われる補正処理などで利用される。補正処理は、例えば、リフォーカス、背景ぼかし、領域判定などであるが、これに限られるものではない。 In the present embodiment, the defocus map has been described. However, the present invention is not limited to this, and any information (depth information) representing various depths generated from the viewpoint image may be used. The depth information is, for example, distribution information (parallax map, image shift map) of the amount of parallax of the pupil-divided image, distribution information that indicates the relative positional relationship of the subject in the depth direction, and the like. The depth information is used in correction processing performed when a captured image is generated in step S311. The correction process includes, for example, refocusing, background blurring, area determination, and the like, but is not limited thereto.
以上のように、本実施形態によれば、撮像画像をA像とB像を撮像素子11から読み出す前に加算したノイズの少ないAB像から生成することができる。また、撮像画像に対応するデフォーカスマップを、ライブビュー表示用のデフォーカスマップから補間し生成することができる。そのため、撮像画像にノイズの多い複数の視点画像を取得することなくデフォーカスマップを生成し、ノイズの少ない撮像画像に対してデフォーカスマップを用いた補正を行うことが可能となる。
As described above, according to the present embodiment, a captured image can be generated from an AB image with less noise that is added before an A image and a B image are read from the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
13 画像処理部
31 システム制御部
100 撮像装置
13
Claims (10)
前記複数の光電変換素子のうち一部の光電変換素子からの信号を視点画像として読み出すための第1の読み出し動作と、前記複数の光電変換素子からの信号を混合して第1の合成画像として読み出すための第2の読み出し動作を、複数の画素群に対して行う読み出し制御手段と、
前記第1の合成画像に対応する深度情報を生成する生成手段と、を有し、
前記生成手段は、前記読み出し制御手段が前記第1の読み出し動作によって読み出した視点画像を用いて前記深度情報を生成し、
前記読み出し制御手段が前記第1の読み出し動作を行わずに前記第2の読み出し動作を行って得られる第1の合成画像に対応する深度情報は、前記視点画像を用いて生成された深度情報を用いて生成されることを特徴とする撮像装置。 An image sensor including a plurality of pixel groups, each pixel of the pixel group including a plurality of photoelectric conversion elements;
A first readout operation for reading out signals from some of the plurality of photoelectric conversion elements as a viewpoint image, and mixing the signals from the plurality of photoelectric conversion elements as a first composite image A read control means for performing a second read operation for reading a plurality of pixel groups;
Generating means for generating depth information corresponding to the first composite image,
The generation means generates the depth information using the viewpoint image read by the read control means by the first read operation,
The depth information corresponding to the first composite image obtained by performing the second read operation without performing the first read operation by the read control unit is the depth information generated using the viewpoint image. An imaging apparatus characterized by being generated by using.
前記生成手段は、前記第1の合成画像と前記第2の合成画像から動きベクトルを検出し、前記視点画像と前記動きベクトルを用いて前記第1の合成画像に対応する深度情報を生成することを特徴とする請求項1または2に記載の撮像装置。 Synthesizing means for synthesizing the viewpoint images read out by the first reading operation to generate a second synthesized image;
The generation means detects a motion vector from the first composite image and the second composite image, and generates depth information corresponding to the first composite image using the viewpoint image and the motion vector. The imaging device according to claim 1, wherein:
前記合成画像に対応する深度情報を生成する生成手段と、を有し、
前記生成手段は、前記読み出し制御手段が前記第1の読み出し動作によって読み出した視点画像を用いて前記深度情報を生成し、
前記読み出し制御手段が前記第1の読み出し動作を行わずに前記第2の読み出し動作を行って得られる合成画像に対応する深度情報は、前記視点画像を用いて生成された深度情報を用いて生成されることを特徴とする画像処理装置。 A first readout operation for reading out signals from some of the plurality of photoelectric conversion elements as viewpoint images, and a second for reading out signals from the plurality of photoelectric conversion elements as a combined image. Reading control means for performing the reading operation for a plurality of pixel groups;
Generating means for generating depth information corresponding to the composite image,
The generation means generates the depth information using the viewpoint image read by the read control means by the first read operation,
Depth information corresponding to a composite image obtained by performing the second read operation without performing the first read operation by the read control unit is generated using depth information generated using the viewpoint image. An image processing apparatus.
前記複数の光電変換素子のうち一部の光電変換素子からの信号を視点画像として読み出すための第1の読み出し工程と、
前記複数の光電変換素子からの信号を混合して合成画像として読み出すための第2の読み出し工程と、
前記合成画像に対応する深度情報を生成する工程と、を有し、
前記生成する工程において、前記第1の読み出し工程において読み出した視点画像を用いて前記深度情報を生成し、
前記第1の読み出し工程を行わずに前記第2の読み出し工程を行って得られる合成画像に対応する深度情報は、前記視点画像を用いて生成された深度情報を用いて生成されることを特徴とする制御方法。 A control method for an imaging apparatus that includes a plurality of pixel groups, and each pixel of the pixel group includes an imaging element including a plurality of photoelectric conversion elements,
A first reading step for reading a signal from some of the plurality of photoelectric conversion elements as a viewpoint image;
A second readout step for mixing signals from the plurality of photoelectric conversion elements to read out as a composite image;
Generating depth information corresponding to the composite image,
In the generating step, the depth information is generated using the viewpoint image read in the first reading step,
Depth information corresponding to a composite image obtained by performing the second readout step without performing the first readout step is generated using depth information generated using the viewpoint image. Control method.
A program that causes a computer to function as each unit included in the imaging apparatus according to any one of claims 1 to 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016136059A JP2018007205A (en) | 2016-07-08 | 2016-07-08 | Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016136059A JP2018007205A (en) | 2016-07-08 | 2016-07-08 | Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018007205A true JP2018007205A (en) | 2018-01-11 |
Family
ID=60949951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016136059A Pending JP2018007205A (en) | 2016-07-08 | 2016-07-08 | Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018007205A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021027523A (en) * | 2019-08-07 | 2021-02-22 | キヤノン株式会社 | Depth information generation device, imaging apparatus, depth information generation method, image processing device, image processing method, and program |
US11721713B2 (en) | 2021-04-09 | 2023-08-08 | Samsung Electronics Co., Ltd. | Image sensors |
-
2016
- 2016-07-08 JP JP2016136059A patent/JP2018007205A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021027523A (en) * | 2019-08-07 | 2021-02-22 | キヤノン株式会社 | Depth information generation device, imaging apparatus, depth information generation method, image processing device, image processing method, and program |
US11468584B2 (en) | 2019-08-07 | 2022-10-11 | Canon Kabushiki Kaisha | Depth information generating apparatus, image capturing apparatus, depth information generating method, image processing apparatus, and image processing method |
JP7431527B2 (en) | 2019-08-07 | 2024-02-15 | キヤノン株式会社 | Depth information generation device, imaging device, depth information generation method, image processing device, image processing method, and program |
US11721713B2 (en) | 2021-04-09 | 2023-08-08 | Samsung Electronics Co., Ltd. | Image sensors |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5226600B2 (en) | Image deformation apparatus and operation control method thereof | |
JP6335434B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2012049773A (en) | Imaging apparatus and method, and program | |
JPWO2014046184A1 (en) | Apparatus and method for measuring distance of multiple subjects | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
CN104580921A (en) | Imaging apparatus and its control method | |
JP6175748B2 (en) | Imaging device | |
JP6360338B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP2014026051A (en) | Image capturing device and image processing device | |
JP6608194B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2012133194A (en) | Imaging apparatus | |
JP5149861B2 (en) | Intermediate image generation apparatus and operation control method thereof | |
JP2018007205A (en) | Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program | |
JP2008053787A (en) | Multiple-lens electronic camera and parallax correcting method of multi-lens electronic camera | |
JP2022173069A (en) | Image processing apparatus and method, and imaging apparatus and method for controlling the same, program, and storage medium | |
JP5882785B2 (en) | Imaging device | |
JP2019009694A (en) | Imaging apparatus, control method and program | |
JP7134601B2 (en) | Image processing device, image processing method, imaging device, and imaging device control method | |
JP2022117599A (en) | Image processing device, imaging device, control method, and program | |
JP2020136697A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2019208214A (en) | Image processing apparatus, image processing method, program, and imaging apparatus | |
JP6677336B2 (en) | Imaging device | |
US20220358667A1 (en) | Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium | |
JP2008147751A (en) | Imaging device | |
JP6702798B2 (en) | Image processing apparatus, control method thereof, imaging apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20170202 |