JP2017085393A - 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 - Google Patents

画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 Download PDF

Info

Publication number
JP2017085393A
JP2017085393A JP2015212650A JP2015212650A JP2017085393A JP 2017085393 A JP2017085393 A JP 2017085393A JP 2015212650 A JP2015212650 A JP 2015212650A JP 2015212650 A JP2015212650 A JP 2015212650A JP 2017085393 A JP2017085393 A JP 2017085393A
Authority
JP
Japan
Prior art keywords
image
parallax
motion vector
parallax image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015212650A
Other languages
English (en)
Other versions
JP6652294B2 (ja
Inventor
貴志 佐々木
Takashi Sasaki
貴志 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015212650A priority Critical patent/JP6652294B2/ja
Publication of JP2017085393A publication Critical patent/JP2017085393A/ja
Application granted granted Critical
Publication of JP6652294B2 publication Critical patent/JP6652294B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮像装置の動きに起因して生じる画像間の構図のずれを高精度に補正可能な画像処理装置を提供する。
【解決手段】画像処理装置(107)は、第1の視差画像、第2の視差画像、および、第1の視差画像と第2の視差画像との合算画像を取得する画像取得手段(800)と、第1の視差画像または第2の視差画像を用いて動きベクトルを算出する動きベクトル算出手段(803)と、動きベクトルに基づいて合算画像の位置合わせを行う位置合わせ手段(805)と、位置合わせ後の合算画像を合成する画像合成手段(806)とを有する。
【選択図】図8

Description

本発明は、撮像装置の動きに起因して生じる画像間の構図のずれを補正する技術に関する。
従来から、手ぶれなどに起因する撮像装置の動きによる画像の構図のずれを低減するため、電子式手ぶれ補正を行う撮像装置が知られている。電子式手ぶれ補正では、手ぶれが生じない程度の短い露光時間で撮影を繰り返し、撮影された複数の画像の位置を合わせながら合成することにより、画像ごとの構図のずれを補正しつつ露出の不足を補間する。
電子式手ぶれ補正では、人物を基準として構図のずれを補正しようとすると、人物の手足の動きに影響されるため、基準となる人物を高精度に検出することが困難である。そこで、人物の領域を避けて背景を用いて動きベクトルを算出する方法が考えられるが、絞りを開いて被写界深度を浅く設定すると、背景はボケてしまい、動きベクトルを高精度に算出することができない。
特許文献1には、人物の顔領域の重み付けを大きくして動きベクトルを求めることにより、手足の動きの影響を受けにくい動きベクトルの算出方法が開示されている。特許文献2には、複数の画素うちの一部の画素のみで構成した画像(瞳分割画像)を用いて動きベクトルを算出する撮像装置が開示されている。
特開2007−81682号公報 特開2013−175898号公報
しかしながら、特許文献1に開示された動きベクトルの算出方法では、2つの撮影画像間において人物が首をひねって顔が傾くと、顔の傾きに影響されて顔以外の領域が傾いた画像になる。このため、背景にビルなどがある場合、画像が不自然に感じる。
また、特許文献2の撮像装置は、複数の画素の全ての出力信号を用いた全開口画像よりも被写界深度の深い瞳分割画像を用いて動きベクトルを高精度に算出することができる。しかし、瞳を分割することによって入射光量も減るため、ノイズが多くなる。このため、ノイズの影響が大きい低輝度部では、動きベクトルの算出精度が低下する。
そこで本発明は、撮像装置の動きに起因して生じる画像間の構図のずれを高精度に補正可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供する。
本発明の一側面としての画像処理装置は、第1の視差画像、第2の視差画像、および、該第1の視差画像と該第2の視差画像との合算画像を取得する画像取得手段と、前記第1の視差画像または前記第2の視差画像を用いて動きベクトルを算出する動きベクトル算出手段と、前記動きベクトルに基づいて前記合算画像の位置合わせを行う位置合わせ手段と、位置合わせ後の前記合算画像を合成する画像合成手段とを有する。
本発明の他の側面としての撮像装置は、撮像光学系を介して形成された光学像を光電変換して画像データを出力する撮像素子と、前記画像データに基づいて、第1の視差画像、第2の視差画像、および、該第1の視差画像と該第2の視差画像との合算画像を取得する画像取得手段と、前記第1の視差画像または前記第2の視差画像を用いて動きベクトルを算出する動きベクトル算出手段と、前記動きベクトルに基づいて前記合算画像の位置合わせを行う位置合わせ手段と、位置合わせ後の前記合算画像を合成する画像合成手段とを有する。
本発明の他の側面としての画像処理方法は、第1の視差画像、第2の視差画像、および、該第1の視差画像と該第2の視差画像との合算画像を取得するステップと、前記第1の視差画像または前記第2の視差画像を用いて動きベクトルを算出するステップと、前記動きベクトルに基づいて前記合算画像の位置合わせを行うステップと、位置合わせ後の前記合算画像を合成するステップとを有する。
本発明の他の側面としてのプログラムは、第1の視差画像、第2の視差画像、および、該第1の視差画像と該第2の視差画像との合算画像を取得するステップと、前記第1の視差画像または前記第2の視差画像を用いて動きベクトルを算出するステップと、前記動きベクトルに基づいて前記合算画像の位置合わせを行うステップと、位置合わせ後の前記合算画像を合成するステップと、をコンピュータに実行させる。
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。
本発明の他の目的及び特徴は、以下の実施形態において説明される。
本発明によれば、撮像装置の動きに起因して生じる画像間の構図のずれを高精度に補正可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。
各実施形態における撮像装置のブロック図である。 各実施形態における撮像部の画素配列図である。 各実施形態における撮像部の像高の説明図である。 各実施形態における瞳分割の概念の説明図である。 各実施形態における撮像面の中央近傍での瞳分割画素の瞳強度分布の説明図である。 各実施形態における周辺像高での瞳分割の概念および瞳強度分布の説明図である。 各実施形態における周辺像高での瞳分割画像の明るさの説明図である。 第1の実施形態における画像処理部のブロック図である。 第1の実施形態における画像処理方法のフローチャートである。 各実施形態における瞳分割画像の説明図である。 各実施形態における全開口画像の説明図である。 各実施形態におけるシェーディング補正に用いられるゲインの説明図である。 各実施形態における動きベクトル算出の際の明るさ閾値およびゲイン閾値の説明図である。 第2の実施形態における画像処理部のブロック図である。 第2の実施形態における画像処理方法のフローチャートである。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
(第1の実施形態)
まず、図1を参照して、本発明の第1の実施形態における撮像装置について説明する。図1は、本実施形態における撮像装置100(デジタルカメラ)のブロック図である。なお本実施形態は、デジタルカメラの動き(手ぶれ)に起因して生じる撮影画像の構図のずれを補正可能な画像処理装置について説明するが、これに限定されるものではない。
撮像装置100において、システム制御部101は、例えばCPUなどのプロセッサである。システム制御部101は、撮像装置100の各ブロック(各部)の動作プログラムをROM102から読み出し、RAM103に展開して実行することにより、撮像装置100の各ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、撮像装置100の各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータなどを記憶する。またROM102は、焦点検出などで必要なレンズ情報である射出瞳距離を記憶している。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100の各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
光学系104(撮像光学系)は、被写体像を撮像部105に結像(形成)する。光学系104は絞りを含む。絞りの開口径を調節することにより、撮影時の光量調節を行うことができる。撮像部105は、CCDやCMOSセンサなどの撮像素子である。撮像部105は、光学系104を介して形成(結像)された光学像(被写体像)を光電変換して、画像データ(アナログ画像信号)をA/D変換部106に出力する。A/D変換部106は、撮像部105から出力されたアナログ画像信号に対してA/D変換処理を行い、デジタル画像信号を出力する。RAM103は、A/D変換部106から出力されたデジタル画像信号を記憶する。
画像処理部107(画像処理装置)は、RAM103に記憶されている画像データ(デジタル画像データ)に対して画像処理を行う。記録媒体108は、着脱可能なメモリカードなどである。記録媒体108は、RAM103に記憶されている画像(A/D変換部106によりA/D変換された画像や、画像処理部107で処理された画像など)を、記録画像として記録する。バス109は、各ブロック(各部)の間で信号のやり取りを行うために用いられる。
次に、図2を参照して、撮像部105(撮像素子)の画素配列について説明する。図2(a)は撮像部105の画素配列図であり、図2(b)は画素200の拡大図である。図2(b)に示されるように、画素200は、マイクロレンズ201と一対の光電変換部(瞳分割画素203A、204B)とを備えて構成されている。図2(a)に示されるように、撮像部105は、複数の画素200が二次元状に規則的に配列されて構成されている。このように撮像部105は、1つのマイクロレンズ201に関して瞳分割画素203A(第1の光電変換部)および瞳分割画素204B(第2の光電変換部)を有し、マイクロレンズ201が2次元状に配列されている。
次に、図3を参照して、撮像部105における像高について説明する。図3は、撮像部105における像高の説明図であり、撮像部105の全体像を示している。画素200は、撮像面の中央近傍(図3中の領域300)に配置された画素であるものとする。また撮像部105のいずれの画素もそれぞれ、瞳分割画素203A、204B(一対の光電変換部)を有し、瞳分割画素203A、204Bのそれぞれから独立に受光して得られた信号を出力可能である。
図2(b)における右側の瞳分割画素203Aから出力された信号をA(x,y)、左側の瞳分割画素204Bから出力された信号をB(x,y)とするとき、画素200の全開口信号g(x,y)は、以下の式(1)のように表される。
g(x,y)=A(x,y)+B(x,y) … (1)
以下、瞳分割画素203Aから出力された信号Aから形成される画像または瞳分割画素204Bから出力された信号Bから形成される画像を、それぞれ、瞳分割画像(第1の瞳分割画像、第2の瞳分割画像)という。瞳分割画像は、視差画像(第1の視差画像、第2の視差画像)ということもできる。また、全開口信号gから形成される画像を全開口画像(合算画像または加算画像)という。
次に、図4を参照して、画素200による瞳分割の概念について説明する。図4は、瞳分割の概念の説明図であり、図2(b)中の画素200のS−S断面を+y側から見た断面図と光学系104の射出瞳面とをそれぞれ示している。図4においては、射出瞳面の座標軸と対応を取るため、断面図のx軸とy軸とを図2に対して反転させている。なお、図4において、図2と共通する部分については同一の符号で示している。
撮像部105は、光学系104の結像面の近傍に配置されている。被写体からの光束は、光学系104の射出瞳400を通過し、それぞれの画素に入射する。射出瞳400の大きさは、絞りの大きさや、レンズを保持するレンズ枠などの大きさに応じて変化する。
瞳部分領域401A、402Bは、マイクロレンズ201により、2×1分割された瞳分割画素203A、204Bの受光面と略共役関係になっている。従って、瞳部分領域401A、402Bのそれぞれを通過した光束は、共役関係にある瞳分割画素203A、204Bで受光される。すなわち、瞳分割画素203A(第1の光電変換部)は、光学系104の瞳部分領域401A(第1の瞳部分領域)を通過する光束を受光する。瞳分割画素204B(第2の光電変換部)は、光学系104の瞳部分領域402B(第2の瞳部分領域)を通過する光束を受光する。そして第1の視差画像は、第1の光電変換部からの画像データに基づいて取得され、第2の視差画像は、第2の光電変換部からの画像データに基づいて取得される。
光学系104の射出瞳400は、瞳分割数をNp=M×Nとして、互いに異なる瞳部分領域にNp分割される。光学系104の絞り値をFとすると、瞳部分領域の実効絞り値は、F×√(M×N)となる。また、瞳領域403は、M×N分割された光電変換部を全て合わせた際の画素200全体で受光可能な瞳領域(全開口領域)である。本実施形態では、瞳分割数M×Nは2×1である。このため、瞳部分領域の実効絞り値は、F×√2となる。すなわち、一つの瞳分割画像は、全開口画像と比較して、一段分被写界深度が深く、暗い画像となる。
次に、図5を参照して、撮像面の中央近傍の画素における瞳分割画素203A、204Bの瞳強度分布について説明する。図5は、撮像面の中央近傍での瞳分割画素の瞳強度分布(x軸断面における受光特性)の説明図である。図5の横軸は光学系104の射出瞳面における水平座標、縦軸は瞳分割画素の受光効率をそれぞれ示す。また、縦軸は絞りの透過率分布でもあるため、瞳分割画素の光束受光効率と見なすことができる。以下、光束受光効率の分布特性を瞳強度分布という。また、図5中に示される縦の点線は、射出瞳400の幅を示している。
図4および図5に示されるように、撮像面の中央近傍の画素における瞳分割画素203A、204Bが受光する光量は互いに略等しい。瞳分割画素203Aの瞳強度分布501Aに着目すると、+x側はセンサ(撮像素子)の瞳分割性能が十分でないことによる回折ボケのため、緩やかなカーブとなっている。一方、−x側はレンズ枠のケラレにより急なカーブになる。このため、瞳強度分布501Aは、強度のピークに対して非対称になっている。一方、瞳分割画素204Bの瞳強度分布502Bは、瞳分割画素203Aの瞳強度分布501Aと同様のことがいるが、瞳強度分布501Aが左右反転した形状となっている。
次に、図6を参照して、図3中の領域301のような周辺像高における画素について説明する。図6は、周辺像高での瞳分割の概念の説明図および瞳強度分布の説明図である。図6(a)は周辺像高に配置された画素が有する瞳分割画素の投影像、および、図6(b)は図6(a)の瞳強度分布をそれぞれ示している。
図6(a)に示されるように、周辺像高における画素に関して、瞳部分領域601A、602Bおよび瞳領域603の構成は、図4と同様である。一方、射出瞳600の形状は、口径食(ケラレ)に応じて変化する。その結果、シェーディングが発生する。このため、射出瞳600の投影像の重心は、瞳部分領域601Aの中心寄りになる(すなわち、瞳部分領域601Aに近づく)。図6(b)に示されるように、瞳部分領域601Aの受光効率は、瞳部分領域602Bよりも高くなり、瞳部分領域601Aのほうが明るい画像が得られる。反対の周辺像高の画素に関しては、前述と逆の現象が生じ、瞳部分領域602Bの受光効率のほうが瞳部分領域601Aよりも高くなり、瞳部分領域602Bのほうが明るい画像が得られる。
次に、図7を参照して、周辺像高における瞳分割画素A、Bの明るさについて説明する。図7は、周辺像高での瞳分割画像の明るさの説明図であり、縦軸は輝度(明るさ)、横軸はx軸(画素の位置)をそれぞれ示している。図7は、図3中の領域301と同じ像高において、像の明るさ(輝度)のx軸方向における変化を示す図であり、実線は瞳分割画素Aを、点線は瞳分割画素Bをそれぞれ表している。図7に示されるように、−x側では、瞳分割画素Aのほうが瞳分割画素Bよりも明るい。このため、瞳分割画素Aにより形成された画像は、瞳分割画素Bにより形成された画像と比較して、被写界深度が浅く、画像のノイズ量を表す指標であるS/N比が向上する。一方、+x側ではその逆となる。
次に、本実施形態における動きベクトルの算出方法について説明する。本実施形態の電子式手ぶれ補正における動きベクトルの算出方法では、ポートレート撮影などで背景がボケてしまうと動きベクトルの精度が低下するという課題を解決するため、全開口画像よりも被写界深度が深い瞳分割画像を用いて動きベクトルを算出する。被写界深度が深い瞳分割画像を用いることにより、より明瞭なエッジで動きベクトルを算出することが可能となり、動きベクトルの精度が向上する。また、前述のように、瞳分割画像は画像領域の位置(像高)に応じて明るさが変化する。そこで本実施形態では、ノイズによる動きベクトルの算出精度の低下を抑制するため、動きベクトルの算出に用いる瞳分割画像の明るさに制限を設けることが好ましい。このような構成により、撮像装置の動きに起因して生じる画像間の構図のずれを高精度に補正することを可能となる。
次に、図8乃至図12を参照して、本実施形態における画像処理方法について説明する。図8は、画像処理部107(画像処理装置)のブロック図である。画像処理部107は、画像取得部800、シェーディング補正部801、視差量算出部802、動きベクトル算出部803、動きベクトル変換部804、構図ずれ補正部805、および、合成画像生成部806を有する。図9は、画像処理方法のフローチャートである。図9の各ステップは、システム制御部101により実行された動作プログラムに従って、主に画像処理部107の各部により実行される。
まず、ステップS900において、画像処理部107(画像取得部800)は、時系列が異なる瞳分割画像を読み込む。図10は、画像処理部107により読み込まれる画像の説明図である。図10(a−1)は、時刻T(第1の時刻)に撮影された、水平方向(x軸方向)に瞳を2分割した画素のうち瞳分割画素Aから出力された画像(第1の瞳分割画像)を示し、人物1000に合焦して撮影された画像である。図10(a−1)の画像において、背景には家1001が写っており、被写界深度が深い状態であるため、エッジが明瞭である。
図10(a−2)は、時刻Tに撮影された、他方の瞳分割画素Bから出力された画像(第2の瞳分割画像)を示している。図10(a−2)の画像において、人物1002は、図10(a−1)の画像中の人物1000と同じ位置に写っている。一方、図10(a−2)の背景1003は、水平方向に視差を有するため、図10(a−1)の家1001と比較して、−x軸方向にずれている。
図10(b−1)は、時刻T+1(第2の時刻)に撮影された瞳分割画素Aから出力された画像(第1の瞳分割画像)を示している。図10(b−1)の画像は、人物1004に合焦している画像であるが、手ぶれの影響により、その構図が、図10(a−1)と比較して−x軸方向および−y軸方向にそれぞれずれている。
図10(b−2)は、時刻T+1に撮影された、他方の瞳分割画素Bから出力された画像(第2の瞳分割画像)を示している。図10(b−2)の画像は、図10(b−1)の画像と比較して、家1007に視差を有するためずれが生じている。また図10(b−2)の画像は、手ぶれの影響により、図10(a−2)の画像と比較して、その構図が−x軸方向および−y軸方向にそれぞれずれている。
なお本実施形態は、瞳の分割方向は水平方向に2分割であるとして説明しているが、これに限定されるものではない。本実施形態において、瞳の分割方向および分割数はそれぞれ任意である。また本実施形態は、時系列の連続する2組の画像を入力画像として説明しているが、これに限定されるものではなく、ノイズ抑制効果を高めるために更に多くの組数の画像を入力してもよい。また、時系列が異なる画像であれば、連続する画像でなくてもよい。
続いて、図9のステップS901において、画像処理部107(画像取得部800)は、ステップS900にて入力された瞳分割画像(第1の瞳分割画像および第2の瞳分割画像)を、式(1)で表されるように合算(加算)し、全開口画像(合算画像)を生成する。図11は、全開口画像(合算画像)の説明図である。図11(a)は、時刻Tにて撮影された第1の瞳分割画像と第2の瞳分割画像とを合算した画像(第1の合算画像)、すなわち図10(a−1)の画像と図10(a−2)の画像とを合算した画像を示す。図11(b)は、時刻T+1にて撮影された第1の瞳分割画像と第2の瞳分割画像とを合算した画像(第2の合算画像)、すなわち図10(b−1)の画像と図10(b−2)の画像を合算した画像を示す。図11(a)に示されるように、人物1100は合焦位置の被写体であるため、第1の瞳分割画像と第2の瞳分割画像との間で視差はなく、これらの画像を合算(加算)してもボケは発生しない。一方、背景の家1101に関しては、第1の瞳分割画像と第2の瞳分割画像との間で視差を有するため、これらの画像を合算(加算)するとボケが生じる。図11(b)(時刻T+1にて撮影された第1の瞳分割画像と第2の瞳分割画像との合算画像)に関しても、図11(a)と同様である。
なお本実施形態において、画像取得部800は、一対の瞳分割画像(第1の瞳分割画像および第2の瞳分割画像)を入力して、これらを合算(加算)して全開口画像(合算画像)を生成するが、これに限定されるものではない。画像取得部800は、例えば、全開口画像と一方の瞳分割画像(第1の瞳分割画像)とを取得し、全開口画像から一方の瞳分割画像を減算することにより他方の瞳分割画像(第2の瞳分割画像)を取得(生成)するように構成してもよい。
続いて、図9のステップS902において、画像処理部107(シェーディング補正部801)は、第1の瞳分割画像および第2の瞳分割画像に発生しているシェーディングを補正する(シェーディング補正)。シェーディング補正は、各瞳分割画像に、対応するゲインを乗算することにより行われる。図12は、シェーディング補正に用いられるゲインの説明図であり、縦軸はゲイン、横軸はx軸方向の画素位置をそれぞれ示している。図12に示されるように、乗算するゲインの形状は、図7に示される輝度の逆数をとった形状に対応する。
続いて、ステップS903において、画像処理部107(視差量算出部802)は、第1の瞳分割画像と第2の瞳分割画像との間の視差量を算出する。視差量を算出する方法は、例えば特開2008−15754号公報に開示されているように、画像を小領域に分割した小ブロックごとに相関演算を行って視差量を算出する。すなわち、小ブロックにおける一対の画素データを、mをデータ数としてE(1)〜E(m)およびF(1)〜F(m)と一般化して表現する。そして、データ列E(1)〜E(m)に対してデータ列F(1)〜F(m)を相対的にずらしながら、以下の式(2)を用いて2つのデータ列間のずらし量kにおける相関量C(k)を演算する。
C(k)=Σ|E(n)−F(n+k)| … (2)
式(2)において、Σ演算はnについて行われる。Σ演算において、n、n+kの取る範囲は1〜mの範囲に限定される。また、ずらし量kは整数であり、一対の画像データの検出ピッチを単位とした相対的シフト量である。式(2)の演算結果においては、一対のデータ列の相関が高いシフト量に対する相関量C(k)が最小になる。
続いて、離散的な相関量C(k)が最小となるkをkjとすると、連続的な相関量に対する最小値C(x)を与えるシフト量xは、以下の式(3)〜(5)のように算出される。
x=kj+D/SLOP … (3)
D={C(kj−1)−C(kj+1)}/2 … (4)
SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)} … (5)
式(3)により算出されたシフト量xを一対の瞳分割画像における視差量とする。本実施形態は、図10(a−1)の瞳分割画像と図10(a−2)の瞳分割画像とから(時刻Tにて撮影された複数の瞳分割画像から)視差量を算出するものとして説明するが、これに限定されるものではない。例えば、図10(b−1)の瞳分割画像と図10(b−2)の瞳分割画像とから(時刻T+1にて撮影された複数の瞳分割画像から)視差量を算出するように構成してもよい。
続いて、図9のステップS904において、画像処理部107(動きベクトル算出部803)は、時系列の異なる視差画像間での動きベクトルを算出する。本実施形態では、図10(a−1)の画像(時刻Tにて撮影された第1の瞳分割画像)を基準画像(第1の視差画像)とし、図10(b−1)の画像(時刻T+1にて撮影された第1の瞳分割画像)を比較画像(第2の視差画像)として、動きベクトルを算出する。
動きベクトルの算出方法としては、例えば、以下のようなブロックマッチングが用いられる。まず、基準画像と比較画像とをそれぞれ小領域に分割し、基準画像の小領域を比較画像の小領域内で移動させながら相関値を小ブロックごとに求める。そして、相関値が最も小さい位置までの座標移動量をその領域の動きベクトルとする。相関値としては、例えば差分二乗和(SSD)などが用いられる。また本実施形態において、小領域に分割する際に、ステップS903にて視差量を算出する際に分割した領域と同じになるように画像を分割する。
また、公知の顔検出および人体検出技術を用い、人物と検出された小領域(人物領域)においては動きベクトルを算出しないように構成してもよい。この場合、画像処理部107は人物領域を検出する人物検出手段を有する。そして動きベクトル算出部803は、人物領域に関して、動きベクトルを算出しない。これにより、人物の局所的な動きの影響を低減することができる。
本実施形態の動きベクトル算出方法では、ブロックマッチングの精度を高めるため、入力画像を全開口画像よりも被写界深度が深く、かつエッジが明瞭な瞳分割画像が用いられる。ただし瞳分割画像は、全開口画像と比較して、被写界深度が深いが、画像が暗くS/N比が劣化しているため、ブロックマッチングの精度に影響を与える可能性がある。このため本実施形態では、撮影する感度ごとに動きベクトルの算出に用いることができる画像の明るさに閾値を設けることが好ましい。
図13は、動きベクトル算出の際の明るさ閾値およびゲイン閾値の説明図である。図13(a)に示されるように、例えば、低輝度側に明るさ閾値T1を設ける。閾値T1未満の領域では、図13(b)に示されるようにゲイン量を低下させる(ゲイン閾値T2を設ける)ことにより、S/N比の劣化を低減することができる。また本実施形態では、明るさ閾値を設定する代わりに、明るいほうの瞳分割画像を用いて動きベクトルを算出するようにしてもよい。また、瞳分割数が2分割よりも多い場合、閾値以上の明るさになるように、瞳分割画像同士を合算してもよい。その際、視差ずれが抑制(低減)されるように、分割領域が互いに近い画像同士を優先して合算するように構成することが好ましい。このように動きベクトル算出部803は、輝度(明るさ)に応じて選択された第1の視差画像または第2の視差画像を用いて動きベクトルを算出することができる。好ましくは、動きベクトル算出部803は、画像領域ごとに、輝度に応じて選択された第1の視差画像または第2の視差画像を用いて動きベクトルを算出する。
また、ボケが生じていない合焦領域では、S/N比が向上することを考慮して、動きベクトルを算出する画像をステップS901にて算出した全開口画像(図11(a)、図11(b)の画像)を用いて動きベクトルを算出するように構成してもよい。
このような構成により、瞳分割画像の明るさが像高領域に応じて変化するという特性により生じるS/N比の変化も考慮しつつ、全開口画像を用いて動きベクトルを算出するよりも、より高精度に動きベクトルを算出することができる。また、合焦面はボケが生じていないため、S/N比がよい全開口画像で動きベクトルを算出することにより、精度を更に向上させることができる。
続いて、図9のステップS905において、画像処理部107(動きベクトル変換部804)は、ステップS904にて小領域ごとに瞳分割画像を用いて算出した動きベクトルを、全開口画像用の動きベクトルに変換する。動きベクトルの変換方法は、例えば、第1の瞳分割画像の中心と第2の瞳分割画像の中心との差異の半分に相当する位置が全開口画像の中心であるという特徴を利用する。すなわち、ステップS903にて算出した視差量の半分だけ動きベクトルの開始座標を移動し、全開口画像における動きベクトルを算出する。なお、ステップS904にて合焦面領域に関して全開口画像を用いて動きベクトルを算出した場合、合焦面領域に関しては動きベクトルの変換を行わない。
なお、ステップS904、S905において、視差量算出部802(視差量算出手段)は、第1の視差画像と第2の視差画像との間の第1の視差量を算出し、第1の視差量を用いて第1または第2の視差画像と合算画像との間の第2の視差量を算出してもよい。このとき動きベクトル算出部803は、第2の視差量を用いて、合算画像の動きベクトルを算出する。
続いてステップS906において、画像処理部107(構図ずれ補正部805)は、全開口画像の位置合わせ、すなわち時刻Tにて撮影された全開口画像と時刻T+1にて撮影された全開口画像との位置合わせを行う。まず構図ずれ補正部805は、ステップS905にて算出した各小領域における動きベクトルに基づいて、手ぶれに起因する撮像装置100の動きを示す動きベクトルを選択し、射影変換のパラメータを算出する。手ぶれによる撮像装置100の動きを示す動きベクトルを選択方法は、例えば、各小領域の動きベクトルのヒストグラムを作成し、最も数が多いベクトルを、手ぶれによって構図全体が動いた際の動きベクトルとして選択する。そして構図ずれ補正部805は、算出した射影変換パラメータに基づいて、図11(b)の全開口画像に対して射影変換を施し、図11(b)の画像を図11(a)の画像と一致させる。なお、構図ずれの補正方法については、射影変換に限定されるものではない。また本実施形態では、構図ずれを補正する画像に対して一つの動きベクトルを算出しているが、小領域ごとに射影変換パラメータを算出し、構図ずれを補正するように構成してもよい。その場合、全ての小領域に関して動きベクトルが算出される。
続いてステップS907において、画像処理部107(合成画像生成部806)は、図11(a)の全開口画像を基準として、ステップS906にて構図ずれを補正した全開口画像を合成して画像(手ぶれ補正画像)を出力する。
本実施形態によれば、手ぶれなどによる撮像装置の動きに起因して生じる画像間の構図のずれを高精度に補正することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態では、動きベクトル算出用の画像として、背景などの非合焦領域に関しては瞳分割画像を用い、合焦領域ではS/N比の向上を目的として全開口画像を用いている。一方、本実施形態では、全開口画像に対してバンドパスフィルタを適用し、合焦領域の周波数帯域を有する被写体の領域を抽出する。そして、抽出された領域において動きベクトルを算出する際には、全開口画像を用いる。このような構成により、全開口画像でボケている領域に限定して瞳分割画像を用いた動きベクトルの算出を行うことができ、S/N比の劣化による動きベクトルの算出精度の低下を抑制し、より高精度に構図ずれを補正することができる。
図14および図15を参照して、本実施形態における画像処理方法について説明する。図14は、画像処理部107a(画像処理装置)のブロック図である。画像処理部107aは、画像取得部800、シェーディング補正部801、視差量算出部802、動きベクトル算出部803、動きベクトル変換部804、構図ずれ補正部805、合成画像生成部806、および、フィルタ処理部1400を有する。本実施形態の画像処理部107aは、フィルタ処理部1400を有する点で、第1の実施形態の画像処理部107とは異なる。画像処理部107aの他の構成は、画像処理部107と同様であるため、その説明については省略する。
図15は、画像処理方法のフローチャートである。図15の各ステップは、システム制御部101により実行された動作プログラムに従って、主に画像処理部107aの各部により実行される。本実施形態の画像処理方法は、所定の周波数帯域の領域を抽出するステップ(ステップS1502)を有する点で、第1の実施形態の画像処理方法とは異なる。本実施形態における他のステップS1500、S1501、S1503〜S1508は、第1の実施形態のステップS900〜S907とそれぞれ同様であるため、それらの説明については省略する。
ステップS1502において、画像処理部107a(フィルタ処理部1400)は、ステップS1501にて生成された全開口画像に対して、所定の周波数帯域を抽出するフィルタを適用し、その周波数帯域の領域を抽出する。本実施形態において、領域の抽出対象となる画像は、ステップS1508での画像合成の基準画像であることが好ましい。また、所定の周波数帯域とは、エッジが明瞭に判定可能な中高域である。このためフィルタ処理部1400は、全開口画像に対して、中高域の領域を抽出可能なバンドパスフィルタを適用する。これにより、ボケが生じている低周波数の領域が除外され、エッジが明瞭な領域のみを抽出することができる。そしてステップS1505において、動きベクトル算出部803は、ステップS1502にて抽出された領域を含む小領域に関しては、全開口画像を用いて動きベクトルを算出する。一方、動きベクトル算出部803は、ステップS1502にて抽出された領域を含まない小領域に関しては、瞳分割画像を用いて動きベクトルを算出する。
なお本実施形態は、エッジが明瞭な中高域の周波数帯域を抽出するバンドパスフィルタを用いているが、これに限定されるものではない。例えば、低周波数の領域を抽出するローパスフィルタを全開口画像に適用し、ボケが生じている領域を抽出するように構成してもよい。このとき動きベクトル算出部803は、ステップS1505において、ステップS1502にて抽出されたボケ領域を含む小領域に関しては瞳分割画像を用いて動きベクトルを算出する。一方、それ以外の領域に関しては、動きベクトル算出部803は、全開口画像を用いて動きベクトルを算出する。
本実施形態によれば、手ぶれなどによる撮像装置の動きに起因して生じる画像間の構図のずれを、S/N比を考慮してより高精度に補正することができる。
各実施形態において、画像処理装置(画像処理部107、107a)は、画像取得手段(画像取得部800)、動きベクトル算出手段(動きベクトル算出部803)、位置合わせ手段(構図ずれ補正部805)、画像合成手段(合成画像生成部806)を有する。画像取得手段は、第1の視差画像(第1の瞳分割画像)、第2の視差画像(第2の瞳分割画像)、および、第1の視差画像と第2の視差画像との合算画像(全開口画像)を取得する。動きベクトル算出手段は、第1の視差画像または第2の視差画像を用いて動きベクトルを算出する。位置合わせ手段は、動きベクトルに基づいて合算画像の位置合わせを行う。画像合成手段は、位置合わせ後の合算画像を合成する。
好ましくは、動きベクトル算出手段は、第1の視差画像または第2の視差画像として、第1の時刻(例えば時刻T1)に撮影された第1の画像と第1の時刻とは異なる第2の時刻(例えば時刻T+1)に撮影された第2の画像とを用いて、動きベクトルを算出する。画像取得手段は、合算画像として、第1の時刻に撮影された第1の視差画像と第2の視差画像とを合算して第1の合算画像(例えば図11(a)の画像)を生成する。また画像取得手段は、第2の時刻に撮影された第1の視差画像と第2の視差画像とを合算して第2の合算画像(例えば図11(b)の画像)を生成する。位置合わせ手段は、第1の合算画像と第2の合算画像との関係を修正するように位置合わせを行う。画像合成手段は、位置合わせ後の第1の合算画像と第2の合算画像とを合成する。
好ましくは、動きベクトル算出手段は、第1の領域において、合算画像を用いて動きベクトルを算出する。また動きベクトル算出手段は、第2の領域において、第1の視差画像または第2の視差画像を用いて動きベクトルを算出する。より好ましくは、第1の領域は合焦領域であり、第2の領域は非合焦領域である。また好ましくは、画像処理装置は、合算画像に対して所定の周波数帯域の領域を抽出するフィルタを適用するフィルタ処理手段(フィルタ処理部1400)を有する。このとき、第1の領域は所定の周波数帯域の領域を含み、第2の領域は所定の周波数帯域の領域を含まない。また好ましくは、画像処理装置は、合算画像に対してローパスフィルタを適用するフィルタ処理手段(フィルタ処理部1400)を有する。ローパスフィルタは、合算画像から、第1の周波数帯域よりも低い周波数帯域の領域を抽出する。このとき、第1の領域は前記周波数帯域の領域を含まず、第2の領域は前記周波数帯域の領域を含む。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施形態によれば、撮像装置の動きに起因して生じる画像間の構図のずれを高精度に補正可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
107 画像処理部(画像処理装置)
800 画像取得部(画像取得手段)
803 動きベクトル算出部(動きベクトル算出手段)
805 構図ずれ補正部(位置合わせ手段)
806 合成画像生成部(画像合成手段)

Claims (17)

  1. 第1の視差画像、第2の視差画像、および、該第1の視差画像と該第2の視差画像との合算画像を取得する画像取得手段と、
    前記第1の視差画像または前記第2の視差画像を用いて動きベクトルを算出する動きベクトル算出手段と、
    前記動きベクトルに基づいて前記合算画像の位置合わせを行う位置合わせ手段と、
    位置合わせ後の前記合算画像を合成する画像合成手段と、を有することを特徴とする画像処理装置。
  2. 前記動きベクトル算出手段は、前記第1の視差画像または前記第2の視差画像として、第1の時刻に撮影された第1の画像と該第1の時刻とは異なる第2の時刻に撮影された第2の画像とを用いて、前記動きベクトルを算出し、
    前記画像取得手段は、前記合算画像として、
    前記第1の時刻に撮影された前記第1の視差画像と前記第2の視差画像とを合算して第1の合算画像を生成し、
    前記第2の時刻に撮影された前記第1の視差画像と前記第2の視差画像とを合算して第2の合算画像を生成し、
    前記位置合わせ手段は、前記第1の合算画像と前記第2の合算画像との関係を修正するように前記位置合わせを行い、
    前記画像合成手段は、位置合わせ後の前記第1の合算画像と前記第2の合算画像とを合成する、ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像取得手段は、
    前記第1の視差画像と前記合算画像とを取得し、
    前記合算画像から前記第1の視差画像を減算することにより前記第2の視差画像を取得する、ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記動きベクトル算出手段は、
    第1の領域において、前記合算画像を用いて前記動きベクトルを算出し、
    第2の領域において、前記第1の視差画像または前記第2の視差画像を用いて動きベクトルを算出する、ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記第1の領域は、合焦領域であり、
    前記第2の領域は、非合焦領域であることを特徴とする請求項4に記載の画像処理装置。
  6. 前記合算画像に対して所定の周波数帯域の領域を抽出するフィルタを適用するフィルタ処理手段を更に有し、
    前記第1の領域は、前記所定の周波数帯域の前記領域を含み、
    前記第2の領域は、前記所定の周波数帯域の前記領域を含まない、ことを特徴とする請求項4に記載の画像処理装置。
  7. 前記合算画像に対してローパスフィルタを適用するフィルタ処理手段を更に有し、
    前記ローパスフィルタは、前記合算画像から、第1の周波数帯域よりも低い周波数帯域の領域を抽出し、
    前記第1の領域は、前記周波数帯域の前記領域を含まず、
    前記第2の領域は、前記周波数帯域の前記領域を含む、ことを特徴とする請求項4に記載の画像処理装置。
  8. 前記第1の視差画像と第2の視差画像との間の第1の視差量を算出する視差量算出手段を更に有し、
    前記視差量算出手段は、前記第1の視差量を用いて、前記第1の視差画像または前記第2の視差画像と前記合算画像との間の第2の視差量を算出し、
    前記動きベクトル算出手段は、前記第2の視差量を用いて、前記合算画像の動きベクトルを算出することを特徴とする請求項4乃至7のいずれか1項に記載の画像処理装置。
  9. 前記動きベクトル算出手段は、輝度に応じて選択された第1の視差画像または第2の視差画像を用いて前記動きベクトルを算出することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記動きベクトル算出手段は、画像領域ごとに、前記輝度に応じて選択された前記第1の視差画像または前記第2の視差画像を用いて前記動きベクトルを算出することを特徴とする請求項9に記載の画像処理装置。
  11. 人物領域を検出する人物検出手段を更に有し、
    前記動きベクトル算出手段は、前記人物領域に関して、前記動きベクトルを算出しないことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 撮像光学系を介して形成された光学像を光電変換して画像データを出力する撮像素子と、
    前記画像データに基づいて、第1の視差画像、第2の視差画像、および、該第1の視差画像と該第2の視差画像との合算画像を取得する画像取得手段と、
    前記第1の視差画像または前記第2の視差画像を用いて動きベクトルを算出する動きベクトル算出手段と、
    前記動きベクトルに基づいて前記合算画像の位置合わせを行う位置合わせ手段と、
    位置合わせ後の前記合算画像を合成する画像合成手段と、を有することを特徴とする撮像装置。
  13. 前記撮像素子は、1つのマイクロレンズに関して第1の光電変換部および第2の光電変換部を有し、該マイクロレンズが2次元状に配列されている、ことを特徴とする請求項12に記載の撮像装置。
  14. 前記第1の光電変換部は、前記撮像光学系の第1の瞳部分領域を通過する光束を受光し、
    前記第2の光電変換部は、前記撮像光学系の第2の瞳部分領域を通過する光束を受光し、
    前記第1の視差画像は、前記第1の光電変換部からの画像データに基づいて取得され、
    前記第2の視差画像は、前記第2の光電変換部からの画像データに基づいて取得される、ことを特徴とする請求項13に記載の撮像装置。
  15. 第1の視差画像、第2の視差画像、および、該第1の視差画像と該第2の視差画像との合算画像を取得するステップと、
    前記第1の視差画像または前記第2の視差画像を用いて動きベクトルを算出するステップと、
    前記動きベクトルに基づいて前記合算画像の位置合わせを行うステップと、
    位置合わせ後の前記合算画像を合成するステップと、を有することを特徴とする画像処理方法。
  16. 第1の視差画像、第2の視差画像、および、該第1の視差画像と該第2の視差画像との合算画像を取得するステップと、
    前記第1の視差画像または前記第2の視差画像を用いて動きベクトルを算出するステップと、
    前記動きベクトルに基づいて前記合算画像の位置合わせを行うステップと、
    位置合わせ後の前記合算画像を合成するステップと、をコンピュータに実行させることを特徴とするプログラム。
  17. 請求項16に記載のプログラムを記憶していることを特徴とする記憶媒体。
JP2015212650A 2015-10-29 2015-10-29 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 Active JP6652294B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015212650A JP6652294B2 (ja) 2015-10-29 2015-10-29 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015212650A JP6652294B2 (ja) 2015-10-29 2015-10-29 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Publications (2)

Publication Number Publication Date
JP2017085393A true JP2017085393A (ja) 2017-05-18
JP6652294B2 JP6652294B2 (ja) 2020-02-19

Family

ID=58713327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015212650A Active JP6652294B2 (ja) 2015-10-29 2015-10-29 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Country Status (1)

Country Link
JP (1) JP6652294B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110709920A (zh) * 2017-06-08 2020-01-17 佳能株式会社 图像处理设备及其控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088628A (ja) * 2007-09-27 2009-04-23 Canon Inc 画像処理装置
JP2013175898A (ja) * 2012-02-24 2013-09-05 Canon Inc 撮像装置
JP2014048962A (ja) * 2012-08-31 2014-03-17 Fujitsu Ltd 画像処理装置、画像処理方法及びプログラム
JP2015186247A (ja) * 2014-03-26 2015-10-22 キヤノン株式会社 画像処理装置及びその制御方法、並びに、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088628A (ja) * 2007-09-27 2009-04-23 Canon Inc 画像処理装置
JP2013175898A (ja) * 2012-02-24 2013-09-05 Canon Inc 撮像装置
JP2014048962A (ja) * 2012-08-31 2014-03-17 Fujitsu Ltd 画像処理装置、画像処理方法及びプログラム
JP2015186247A (ja) * 2014-03-26 2015-10-22 キヤノン株式会社 画像処理装置及びその制御方法、並びに、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110709920A (zh) * 2017-06-08 2020-01-17 佳能株式会社 图像处理设备及其控制方法
US11263999B2 (en) 2017-06-08 2022-03-01 Canon Kabushiki Kaisha Image processing device and control method therefor

Also Published As

Publication number Publication date
JP6652294B2 (ja) 2020-02-19

Similar Documents

Publication Publication Date Title
JP5968107B2 (ja) 画像処理方法、画像処理装置およびプログラム
KR101233013B1 (ko) 화상 촬영 장치 및 그 거리 연산 방법과 합초 화상 취득 방법
JP6489932B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US9167168B2 (en) Image processing method, image processing apparatus, non-transitory computer-readable medium, and image-pickup apparatus
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
US8947585B2 (en) Image capturing apparatus, image processing method, and storage medium
CN108886581B (zh) 图像处理装置、摄像装置及其控制方法
JP2017138198A (ja) 距離画像装置、撮像装置、および距離画像補正方法
JP6516510B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6353233B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
US20160344952A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and storage medium
JP6748477B2 (ja) 撮像装置及びその制御方法、プログラム並びに記憶媒体
US9143762B2 (en) Camera module and image recording method
JP6362070B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP6652294B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
US10062150B2 (en) Image processing apparatus, image capturing apparatus, and storage medium
JP6746738B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6570230B2 (ja) 撮像装置および撮像方法
US10200674B2 (en) Image processing apparatus, image capturing apparatus, and recording medium
JP2020136697A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US20220358667A1 (en) Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium
WO2024053522A1 (ja) 画像処理装置および画像処理方法
JP2018050245A (ja) 画像処理装置、画像処理方法及びプログラム
JP2018022984A (ja) 画像処理装置及びその制御方法、プログラム並びに撮像装置
JP6608238B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200121

R151 Written notification of patent or utility model registration

Ref document number: 6652294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151