本発明の各実施形態を説明する前に概要を説明する。図1は本発明に係る画像処理装置の基本構成の代表例を示す概念的な説明図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)等のハードウェアによって実現されてもよい。CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
入力部101は複数の視点画像のデータを取得する。制御部104は入力部101を含めた各部を制御する。第1の処理部102は、制御部104の指示にしたがって、取得された複数の視点画像に対して、後述する分布情報の取得、平滑化処理と合成部105によるシフト合成のための各視点画像の相対座標(シフト量)を決定する。第2の処理部103は、さまざまな視点からの画像を再現するための視点画像の合成処理における複数の視点画像の合成比率を決定する。また、第2の処理部103は、合成画像に生じるゴースト(不要光)を低減するために、ゴーストの量(ゴースト成分)を検出する。合成部105は、適用される画像処理の設定に応じて複数の視点画像に対する平滑化処理を行う。合成部105はさらにシフト量と合成比率に基づいて画像の合成処理を行い、合成画像から第2の処理部103で検出したゴースト成分を減算し、結果の合成画像を出力部106に送る。出力部106は、出力先の装置またはデバイスに応じて画像データを処理して出力する。第1の処理部102、第2の処理部103、合成部105が実行する画像処理については、実施形態にて具体例を挙げて詳述する。
[第1実施形態]
以下に、本発明の第1実施形態を詳細に説明する。図2は、本実施形態の画像処理装置を、撮像装置に適用した場合の構成例を示すブロック図である。本実施形態では、視点画像データを記録可能なデジタルカメラ100を例示して説明する。
撮影レンズ230は、撮像光学系を構成する複数の光学部材として、レンズおよび絞り240を備える。撮像素子110は、撮影レンズ230を通して結像される被写体の光学像を、光電変換により電気信号に変換する。A/D変換器120は、撮像素子110のアナログ信号出力をデジタル信号に変換する。本実施形態では、撮影レンズ230、撮像素子110、A/D変換器120が、図1の入力部101に含まれる。
画像処理部130は、A/D変換器120からのデータ、或いはRAM(ランダム・アクセス・メモリ)190に記録されているデータに対して所定のデモザイク処理や色変換処理等を行う。画像処理部130は、図1の第1および第2の処理部(102,103)、合成部105に含まれる。すなわち、本実施形態では、画像処理部130およびCPU(中央演算処理装置)170によって、後述するように、リフォーカス処理とシャープ/アンシャープ制御が行われる。さらに、画像に写り込むゴーストの影響を抑制するために複数の視点画像間の差分に基づいてゴーストを検出し、ゴーストの影響を低減するよう画像データに補正処理が施される。A/D変換器120の出力データは、画像処理部130、カメラ信号処理部140を介して、或いは直接的にカメラ信号処理部140を介して、RAM190に書き込まれる。
CPU170は、システム全体を制御する中枢部であり、図1の制御部104に相当する。CPU170は、ROM(リード・オンリ・メモリ)180に記憶されたプログラムを読み出して実行することにより、以下に示す各種処理を行う。操作部210は、シャッタレリーズスイッチ等の操作部材を備え、ユーザの操作指示信号をCPU170に出力する。例えば、シャッタレリーズスイッチの第1段階の操作指示により、撮像系制御部205が絞り240やレンズの駆動制御を行う。AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等が開始する。シャッタレリーズスイッチの第2段階の操作指示により、撮像素子110のアナログ出力信号をA/D変換器120がデジタル画像信号に変換し、画像処理部130、カメラ信号処理部140が処理を行う。カメラ信号処理部140は画像処理部130の出力、またはRAM190からの画像データを取得し、演算を用いた現像処理を実行する。例えばカメラ信号処理部140は、デモザイキング処理、撮像素子110固有の欠陥補正処理やシェーディング補正処理、黒レベル等の補正処理、ホワイトバランス処理、ガンマ補正処理、色変換処理、ノイズリダクション処理を行う。またカメラ信号処理部140は画像データの圧縮処理等を行い、処理済みのデータをメディアI/F(インタフェース)部150に出力する。メディアI/F部150は、記録媒体160に画像データを書き込む記録処理を実行する。
RAM190は撮影後の静止画像や動画像のデータを格納するメモリであり、所定枚数の静止画像や所定時間の動画像の格納に十分な記憶容量を有する。画像表示部220はTFT(Thin film transistor)型液晶ディスプレイ等から構成され、RAM190に書き込まれた表示用の画像データにしたがって画像表示を行う。ここで、画像表示部220が撮影された画像を逐次表示することにより、ライブビュー機能を実現できる。
図3は撮像素子110の画素配列を示す概略図であり、2次元CMOS(相補型金属酸化膜半導体)イメージセンサの画素配列を示している。図3の紙面に垂直な方向をz方向とし、左右方向をx方向とし、上下方向をy方向と定義する。撮像画素については4行4列の範囲で示し、副画素配列について4行8列の範囲で示す。図3に示す2行2列の画素群200は、画素200R、200G、200Bから成る。R(赤)の分光感度を有する画素200Rは、図3の左上に位置し、G(緑)の分光感度を有する画素200Gは右上および左下に位置し、B(青)の分光感度を有する画素200Bは右下に位置している。さらに、各画素は1行2列に配列された第1の副画素201と第2の副画素202により構成されている。
撮像素子110にて、図3に示す4行4列の撮像画素(4行8列の副画素)を撮像面上に多数配置することで、撮像画像信号および視点画像の信号を取得可能である。撮像素子110における1つの画素200Gを、その受光面側(+z方向)から見た平面図を図4(A)に示す。図4(A)にて紙面に垂直な方向をz方向とし、左右方向をx方向、上下方向をy方向と定義する。手前側を+z方向とし、右方向を+x方向、上方向を+y方向と定義する。図4(A)のa−a断面を、−y方向から見た場合の断面図を図4(B)に示す。図4(B)にて紙面に垂直な方向がy方向であり、左右方向がx方向、上下方向がz方向である。
画素200Gでは、受光面側に入射光を集光するためのマイクロレンズ305が形成されている。光電変換部300は、x方向にNH分割、y方向にNV分割される。図4の例では、NH=2、NV=1であり、2つの光電変換部301,302が形成されているが、分割数は任意に設定可能である。光電変換部301,302はそれぞれ、第1の副画素201と第2の副画素202に対応する。光電変換部301,302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオード、またはイントリンシック層を省略したpn接合フォトダイオードの構成をもつ。
各画素には、マイクロレンズ305と、光電変換部301,302との間に、カラーフィルタ306が形成される。必要に応じて、副画素ごとにカラーフィルタの分光透過率が変更されるか、あるいはカラーフィルタが省略される。画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルタ306での分光後に、光電変換部301,302がそれぞれ受光する。光電変換部301,302では受光量に応じて電子とホールが対生成され、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子外部へ排出される。光電変換部301,302のn型層に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換されて画素信号として出力される。
図5(A)は、図4に示す画素構造と瞳分割との対応関係を説明する図である。図5(A)の下側には、画素構造のa−a線での切断面を、+y方向から見た場合の断面図を示し、上側には結像光学系の射出瞳面(射出瞳410参照)を、−z方向から見た場合の図を示す。図5(A)では、射出瞳面の座標軸と対応を取るために、画素構造の断面図にてx軸とy軸を図4(B)に示す状態とは反転させて示している。
第1の副画素201に対応する第1の瞳部分領域401は、−x方向に重心が偏倚している光電変換部301の受光面に対し、マイクロレンズ305によって、概ね共役関係になっている。つまり、第1の瞳部分領域401は第1の副画素201で受光可能な瞳領域を表し、射出瞳面上で+x方向に重心が偏倚している。また、第2の副画素202に対応する第2の瞳部分領域402は、+x方向に重心が偏心している光電変換部302の受光面に対し、マイクロレンズ305によって、概ね共役関係になっている。第2の瞳部分領域402は第2の副画素202で受光可能な瞳領域を表し、射出瞳面上で、−x方向に重心が偏倚している。
図5(A)に示す領域400は、光電変換部301と光電変換部302(第1の副画素201と第2の副画素202)とを合わせた際の画素200G全体で受光可能な瞳領域である。撮像素子と瞳分割との対応関係を図6(A)の概略図に示す。第1の瞳部分領域401と第2の瞳部分領域402をそれぞれ通過した光束は、撮像素子の各画素に異なる角度で入射する。撮像面500への入射光は、NH(=2)×NV(=1)に分割された光電変換部301,302でそれぞれ受光され、各光電変換部は光を電気信号に変換する。
画像処理部130は焦点検出において、各画素部の第1の副画素201の受光信号を集めて第1の視点画像を生成し、第2の副画素202の受光信号を集めて第2の視点画像を生成する。また画像処理部130は、撮像素子の画素部ごとに、第1の副画素201の信号と第2の副画素202の信号を加算することで、所定解像度の撮像信号を生成して撮像された画像データを出力する。図6(B)を参照して、撮像時の焦点検出や本実施形態に特徴的な解像感の調整処理等のために算出される、第1の視点画像と第2の視点画像の像ずれ量とデフォーカス量との関係について説明する。
図6(B)にて、撮像面500上に撮像素子(不図示)が配置されている。結像光学系の射出瞳410は、第1の瞳部分領域401と第2の瞳部分領域402に2分割される。デフォーカス量dは、その大きさ|d|が被写体像の結像位置から撮像面500までの距離を表す。被写体像の結像位置が撮像面500よりも被写体側にある前ピン状態では、負符号(d<0)とし、これとは反対の後ピン状態では正符号(d>0)として向きを定義する。被写体像の結像位置が撮像面(合焦位置)にある合焦状態では、d=0である。図6(B)に示す被写体601の位置は、合焦状態(d=0)に対応する位置を例示し、被写体602の位置は前ピン状態(d<0)に対応する位置を例示する。以下では、前ピン状態(d<0)と後ピン状態(d>0)とを併せて、デフォーカス状態(|d|>0)という。
前ピン状態(d<0)では、被写体602からの光束のうち、第1の瞳部分領域401(または第2の瞳部分領域402)を通過した光束は、いったん集光した後、光束の重心位置G1(またはG2)を中心として幅Γ1(またはΓ2)に広がる。この場合、撮像面500上でボケた像となる。ボケ像は、撮像素子に配列された各画素を構成する第1の副画素201(または第2の副画素202)により受光され、第1の視点画像(または第2の視点画像)が生成される。よって、第1の視点画像(または第2の視点画像)は、撮像面500上の重心位置G1(またはG2)にて、幅Γ1(またはΓ2)をもった被写体像(ボケ像)として検出される。被写体像の幅Γ1(またはΓ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加する。同様に、第1の視点画像と第2の視点画像との間の被写体像の像ずれ量を「p」と記すと、その大きさ|p|はデフォーカス量dの大きさ|d|の増加に伴って増加する。例えば、像ずれ量pは光束の重心位置の差「G1−G2」として定義され、その大きさ|p|は、|d|が増加するのに伴い、概ね比例して増加する。なお、後ピン状態(d>0)では、第1の視点画像と第2の視点画像との間の被写体像の像ずれ方向が前ピン状態とは反対となるが、同様の傾向がある。本実施形態では第1の視点画像と第2の視点画像、または第1の視点画像と第2の視点画像とを加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1の視点画像と第2の視点画像との間の像ずれ量の大きさが増加する。
次に、画像処理部130が行う本実施形態に特徴的な各種の画像処理について説明する。本実施形態では、複数の視点画像を用いて画像に行う処理として、解像感を調整する処理、視点を変更した画像を生成する処理、画像に生じるゴースト(不要光)を低減する処理の一部または全部を行う。
まず、解像感を調整する処理について説明する。ここで解像感とは、画像における被写体画像の解像度、エッジ、ボケ具合等から総合的に感じる鮮明さのことを表現している。すなわち、本実施形態における解像感の調整処理とは、これらのパラメータの少なくともいずれかが調整される処理を含む。そのほか、例えば画像の輝度や彩度、色相の調整によって鮮明さが増すことも考えられ、解像感の調整処理は上記の処理に限らず、その他の処理を含んでいてもよい。
以下に、解像感を調整するために本実施形態で取得する各視点画像に必要な処理について説明する。先ず、本実施形態における撮像素子110の各画素(光電変換素子)に入射される光束によって得られる画素信号の性質について説明する。
各画素に形成されたマイクロレンズに光が入射した場合、入射光はマイクロレンズにより焦点位置に集光される。しかし、光の波動性による回折の影響のため、集光スポットの直径は回折限界Δより小さくすることはできず、有限の大きさとなる。光電変換部の受光面サイズは約1〜2μmであり、これに対してマイクロレンズの集光スポットが約1μmである。そのため、光電変換部の受光面とマイクロレンズを介して共役の関係にある、第1および第2の瞳部分領域401、402は回折ボケによって明瞭には瞳分割されず、光の入射角に依存した受光率分布(瞳強度分布)となる。
図5(B)に、光の入射角に依存した受光率分布(瞳強度分布)例を示す。横軸は瞳座標を表し、縦軸は受光率を表す。図5(B)に実線で示すグラフ線L1は、図5(B)の第1瞳部分領域401のx軸に沿った瞳強度分布を表す。グラフ線L1で示す受光率は、左端から急峻に上昇してピークに到達した後で徐々に低下してから変化率が緩やかになって右端へと至る。また、図5(B)に破線で示すグラフ線L2は、第2瞳部分領域402のx軸に沿った瞳強度分布を表す。グラフ線L2で示す受光率は、グラフ線L1とは反対(左右対称的)に、右端から急峻に上昇してピークに到達した後で徐々に低下してから変化率が緩やかになって左端へと至る。図示のように、緩やかに瞳分割されることがわかる。この緩やかな瞳分割が行われている状態で得られた複数の視点画像は、視点画像間を相対的にシフトして、シフト後の画像を合成するシフト合成(リフォーカス)処理を行っても、元々くっきりとした瞳分割が行われていないため効果が薄い。そこで本実施形態では、解像感を調整する処理のために、複数の視点画像間の瞳分割(瞳分離)を強調するためのクロストーク補正(平滑化)処理を行う。
[リフォーカス処理とシャープ/アンシャープ制御]
本実施形態では、第1視点画像と第2視点画像のデフォーカス量と像ずれ量の関係性を用いて、撮像画像に対して、撮影後に、フォーカス位置を再修正するリフォーカス処理を行う。本実施形態では、リフォーカス処理として以下の2つを組み合わせた処理を行う。1つは、第1視点画像と第2視点画像を用いたシフト合成処理によるリフォーカス処理である。もう1つは、像ずれ差分量分布に応じた先鋭化と平滑化によって先鋭度の高い領域とボケ度合いの高い領域を適応的に制御するシャープ/アンシャープ制御である。しかし、実施形態としてはこれに限らず、上記のリフォーカス処理とシャープ/アンシャープ制御のうちで、いずれか一方のみを画像に行ってもよい。いずれか一方を行う場合には、いずれか一方の処理にのみ係るステップを省略すればよい。
図7は、リフォーカス処理及びシャープ/アンシャープ制御の流れの概要を示すフローチャートである。図7の処理は、本実施形態の画像処理手段であるCPU170と画像処理部130によって実行される。
[多視点画像と撮像画像]
図7のステップS1で、本実施形態の撮像素子により取得されたLFデータ(入力画像)から、結像光学系の異なる瞳部分領域ごとに、複数の視点画像が生成される。各画像処理のパラメータの設定等のために表示する画像用に、結像光学系の異なる瞳部分領域を合成した瞳領域に応じた撮像画像(合成画像)を生成する処理が行われる。ステップS1では撮像素子により取得されたLFデータ(入力画像)が入力されるが、予め撮像素子により撮影されて記録媒体に保存されているLFデータ(入力画像)を読み出して用いてもよい。
ステップS1において、次に、結像光学系の異なる瞳部分領域毎に、第1視点画像と第2視点画像(第1視点画像から第NLF視点画像)が生成される。LFデータ(入力画像)をLFとする。また、LFの各画素信号内での列方向iS(1≦iS≦Nx)番目、行方向jS(1≦jS≦Ny)番目の副画素信号を、k=Nx(jS−1)+iS(1≦k≦NLF)として、第k副画素信号とする。結像光学系の第k瞳部分領域に対応した、列方向i番目、行方向j番目の第k視点画像Ik(j、i)は、式(1)により生成される。
本実施形態では、Nx=2、Ny=1、NLF=2のx軸方向2分割を例示する。図3に例示した画素配列に対応したLFデータ(入力画像)から、画素ごとに、x軸方向2分割された第1副画素201と第2副画素202(Nx×Ny分割された第1副画素から第NLF副画素)の中から特定の副画素の信号を選択する処理が実行される。結像光学系の第1瞳部分領域401と第2瞳部分領域402(第NLF瞳部分領域)の中の特定の瞳部分領域に対応した、画素数Nの解像度を有するベイヤー配列のRGB信号である第1視点画像と第2視点画像(第NLF視点画像)が生成される。
ここで、第1視点画像と第2視点画像(第1視点画像から第NLF視点画像)の瞳ずれによるシェーディングについて説明する。図8に、撮像素子の周辺像高における第1光電変換部301が受光する第1瞳部分領域401、第2光電変換部302が受光する第2瞳部分領域402、および結像光学系の射出瞳410の関係を示す。尚、図4と同じ部分は同じ符号を付して示す。第1光電変換部301と第2光電変換部302(第1光電変換部から第NLF光電変換部)が、それぞれ、第1副画素201と第2副画素202(第1副画素から第NLF副画素)に対応する。
図8(A)は、結像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsが同じ場合である。この場合は、第1瞳部分領域401と第2瞳部分領域402により、結像光学系の射出瞳410が、概ね、均等に瞳分割される。これに対して、図8(B)に示した結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより短い場合、撮像素子の周辺像高では、結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳410が、不均一に瞳分割されてしまう。同様に、図8(C)に示した結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより長い場合も、撮像素子の周辺像高で結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳410が、不均一に瞳分割されてしまう。周辺像高で瞳分割が不均一になるのに伴い、第1視点画像と第2視点画像の強度も不均一になり、第1視点画像と第2視点画像のいずれか一方の強度が大きくなり、他方の強度が小さくなるシェーディングが、RGBごとに生じる。
必要に応じて、各視点画像のシェーディングを改善するために、第1視点画像と第2視点画像(第1視点画像から第NLF視点画像)に、それぞれ、RGBごとシェーディング補正処理(光学補正処理)を行ってもよい。また必要に応じて、キズ補正処理や、飽和処理、デモザイキング処理等を行ってもよい。
図7のステップS1において、次に、結像光学系の異なる瞳部分領域を合成した瞳領域に応じた撮像画像(合成画像)を生成する処理が行われる。列方向にi番目で行方向にj番目の撮像画像I(j、i)は、式(2)により生成される。
本実施形態では、Nx=2、Ny=1、NLF=2のx軸方向2分割を例示する。図3に例示した画素配列に対応した入力画像から、画素ごとにx軸方向2分割された第1副画素201と第2副画素202の信号を全て合成し、画素数Nの解像度を有するベイヤー配列のRGB信号である撮像画像を生成する処理が行われる。必要に応じて、シェーディング補正処理、キズ補正処理、飽和処理、デモザイキング処理等を行ってもよい。図9に、本実施形態のデモザイキング処理された撮像画像を例示する。中央に主被写体である人形が配置され、左側に細かい市松模様の平板が手前から奥に渡って傾斜して配置されている。
以上のように本実施形態では、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の光電変換部が設けられた画素を複数配列した撮像素子により取得される入力画像から、異なる瞳部分領域ごとに、複数の視点画像を生成する。そして、異なる瞳部分領域を合成した瞳領域に応じた撮像画像が生成される。しかしこれに限らず、本実施形態も他の実施形態でも、公知の技術により複数の視点画像及びそれらの合成画像を取得できるものであれば適用出来る。例えば特許文献3のように、複数の視点の異なるカメラをまとめて撮像素子110とみなす構成でもよい。また、図2や図3の光学系と異なり、物体平面と撮像素子が共役の関係にあるように、マイクロレンズアレイ上で撮影光学系からの光束を結像させ、その結像面に撮像素子を設ける構成でもよい。さらには、マイクロレンズアレイ上で撮影光学系からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子を設けるような構成でもよい。また、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。
[コントラスト分布]
次に、シャープ/アンシャープ制御に用いるコントラスト分布の算出処理について説明する。図7のステップS2では、本実施形態の撮像画像(合成画像)と複数の視点画像から、それぞれ、空間周波数の高周波帯域成分を領域ごとに抽出して、コントラスト分布が生成される。本実施形態のコントラスト分布は、視点画像間の差に応じた調整が行われる。
図7のステップS2において、まず、ベイヤー配列のRGB信号である撮像画像I(j、i)から、位置(j,i)ごとに、各色RGBの色重心を一致させて、撮像輝度信号Yが式(3A)により生成される。同様に、ベイヤー配列のRGB信号である第k視点画像Ik(k=1〜NLF)から、第k視点輝度信号Ykが式(3B)により生成される。
ステップS2において、次に、空間周波数の高周波成分を抽出する2次元バンドパスフィルタを用いて、撮像輝度信号Y(j,i)から、撮像高周波信号dY(j,i)が式(4A)より生成される。2次元バンドパスフィルタを{FBPF(jBPF、iBPF)|−nBPF≦jBPF≦nBPF、−mBPF≦iBPF≦mBPF}とする。同様に、第k視点輝度信号Yk(j,i)(k=1〜NLF)から、第k視点高周波信号dYk(j,i)が式(4B)より生成さる。
本実施形態では、Nx=2、Ny=1、NLF=2のx軸方向2分割を例示する。x軸方向(瞳分割方向)の1次元フィルタFx(iBPF)と、y軸方向(瞳分割方向と直交する方向)の1次元フィルタFy(jBPF)との直積により、2次元バンドパスフィルタを構成する例を示す。すなわち、2次元バンドパスフィルタをFBPF(jBPF、iBPF)=Fy(jBPF)×Fx(iBPF)とする。x軸方向の1次元フィルタFx(iBPF)には、x軸方向の空間周波数の高周波成分を抽出するため、例えば、0.5×[1、2、0、−2、−1]+1.5×[1、0、−2、0、1]等の1次元バンドパスフィルタを用いることができる。
ここで、1次微分型フィルタ[1、2、0、−2、−1]と2次微分型フィルタ[1、0、−2、0、1]を組み合わせた混合型フィルタとしている。一般的に、微分型フィルタ処理を行うと、フィルタ処理後の信号において、正符号から負符号に変化する部分に0点が存在する。このため、絶対値演算と組み合わせることにより、空間周波数の高周波成分が含まれる領域に節が生じてしまう場合がある。節が発生する位置は、微分型フィルタの微分の次数により異なる。よって、本実施形態では、1次微分型フィルタと2次微分型フィルタ(一般には、異なる次数の微分型フィルタ)を組み合わせた混合型フィルタを用いることで、節の発生を抑制している。
必要に応じて、[1、2、0、−2、−1]等の1次微分型フィルタ、[1、0、−2、0、1]等の2次微分型フィルタ、高次微分型フィルタや、より一般的な1次元バンドパスフィルタを用いてもよい。瞳分割方向と直交するy軸方向の1次元フィルタFy(jBPF)には、y軸方向の高周波ノイズを抑制するため、例えば、[1、1、1、1、1]や[1、4、6、4、1]等の高周波カット(ローパス)フィルタを用いることができる。必要に応じて、x軸方向とy軸方向のいずれの方向に対しても、空間周波数の高周波成分を抽出するバンドパスフィルタ処理を行ってもよい。本実施形態では、2つの1次元フィルタの直積で構成される2次元バンドパスフィルタを例示したが、これに限定されず、一般的な2次元バンドパスフィルタを用いることができる。
図7のステップS2において、次に、Y0>0として、撮像高周波信号dY(j,i)を、撮像輝度信号Y(j,i)により規格化した、規格化撮像高周波信号dZ(j,i)が式(5A)により生成される。同様に、第k視点高周波信号dYk(j,i)(k=1〜NLF)を、第k視点輝度信号Yk(j,i)により規格化した、規格化第k視点高周波信号dZk(j,i)が式(5B)により生成される。分母における高周波信号とY0との最大値判定は、0による除算を防止するためである。必要に応じて、式(5A)、式(5B)での規格化前に、撮像輝度信号Y(j,i)、第k視点輝度信号Yk(j,i)に対して、高周波カット(ローパス)フィルタ処理を行い、高周波ノイズを抑制してもよい。
ステップS2において、次に、低輝度閾値Ymin、コントラスト最大閾値Cmax、指数γとして、撮像コントラスト分布C(j,i)が式(6A)により生成される。式(6A)の1行目で、撮像輝度信号Y(j,i)が、低輝度閾値Yminより小さい場合、撮像コントラスト分布C(j,i)の値が0に設定される。式(6A)の3行目で、規格化撮像高周波信号dZ(j,i)が、コントラスト最大閾値Cmaxより大きい場合、撮像コントラスト分布C(j,i)の値が1に設定される。それ以外の場合は、式(6A)の2行目で、撮像コントラスト分布C(j,i)は、規格化撮像高周波信号dZ(j,i)をコントラスト最大閾値Cmaxで規格化してγ乗した値に設定される。同様に、第k視点コントラスト分布Ck(j,i)(k=1〜NLF)は式(6B)により生成される。
以上のように、撮像コントラスト分布C(j,i)は、[0,1](0以上1以下)の範囲内の値をとる。C(j,i)の値が、0に近いとコントラストが低く、1に近いとコントラストが高いことを示す。撮像コントラスト分布C(j,i)の0から1までのトーンカーブを調整するために、規格化された高周波信号とコントラスト最大閾値との比値のγ乗が算出される。低コントラスト側での変化を緩やかに、高コントラスト側での変化を急峻にするために、指数γは1.5以上2.5以下が望ましい。必要に応じて、定義域[0,1]から値域[0,1]への関数F:[0,1]→[0,1]を用いて、合成関数F(C(j,i))を撮像コントラスト分布としてもよい。
本実施形態の撮像コントラスト分布C(j,i)の分布例を図10に示す。また第1視点コントラスト分布C1(j,i)の分布例を図11に示し、第2視点コントラスト分布C2(j,i)の分布例を図12に示す。図10から図12に示す分布例では、右側の[0、1]の範囲のグレースケール表示にてコントラストの高低の指標を表している。1近傍の白い部分はx軸方向の空間周波数の高周波成分が多い高コントラスト領域を示す。また、0近傍の黒い部分はx軸方向の空間周波数の高周波成分が少ない低コントラスト領域を示している。
本実施形態における複数の視点画像として、第1視点画像と第2視点画像との間の視差と、遠近競合やオクルージョンとの関係を、図13を用いて説明する。図13において、撮像面600に本実施形態の撮像素子(不図示)が配置され、結像光学系の射出瞳が、瞳部分領域401と瞳部分領域402に2分割される。
図13(A)は、被写体q1の合焦像p1に、手前の被写体q2のボケ像Γ1+Γ2が重なって撮影され、撮影画像において遠近競合が生じている例である。この例について、結像光学系の瞳部分領域401を通過する光束と、瞳部分領域402を通過する光束に、それぞれ、分けたものを、図13(B)、図13(C)に示す。
図13(B)では、被写体q1からの光束は、瞳部分領域401を通過して、合焦状態で像p1に結像し、手前の被写体q2からの光束は、瞳部分領域401を通過して、デフォーカス状態でボケ像Γ1に広がり、撮像素子の各画素の副画素201で受光される。副画素201の受光信号から、第1視点画像が生成される。第1視点画像では、被写体q1の像p1と手前の被写体q2のボケ像Γ1が重ならずに、異なる位置で撮影される。第1視点画像において、複数の被写体(被写体q1と被写体q2)の間で、遠近競合やオクルージョンが生じていない例である。
一方、図13(C)では、被写体q1からの光束は、瞳部分領域402を通過し、合焦状態で像p1に結像する。そして、手前の被写体q2からの光束は、瞳部分領域402を通過し、デフォーカス状態でボケ像Γ2に広がり、撮像素子の各画素の副画素202で受光される。副画素202の受光信号から、第2視点画像が生成される。第2視点画像では、被写体q1の像p1と手前の被写体q2のボケ像Γ2が重なって撮影される。第2視点画像において、複数の被写体(被写体q1と被写体q2)の間で、遠近競合やオクルージョンが生じている例である。
図13の例は、撮影画像において遠近競合やオクルージョンが生じている領域近傍では、撮影画像を構成する第1視点画像と第2視点画像とで遠近競合やオクルージョンが生じている状態が異なる。すなわち、第1視点画像と第2視点画像との間の差が大きくなる可能性が高いことを示している。したがって、複数の視点画像間の差が大きい領域を検出することにより、遠近競合やオクルージョンが発生している可能性が高い領域を推定することができる。
本実施形態の第1視点コントラスト分布C1(j,i)と第2視点コントラスト分布C2(j,i)の差分量分布C1(j,i)−C2(j,i)を図14に例示する。図14に示す分布例では、右側の[−1、1]の範囲のグレースケール表示にて、第1視点画像のコントラストと第2視点画像のコントラストとの差についての大小の指標を表している。このコントラスト差は、第1視点コントラスト分布と第2視点コントラスト分布との差分量に相当する。0近傍の黒い部分は、第1視点画像と第2視点画像との間のコントラスト差が小さい領域を示している。一方、±1近傍の白い部分は、第1視点画像と第2視点画像との間のコントラスト差が大きい領域を示している。
図14においては、第1視点画像と第2視点画像とのコントラスト差が大きい白い領域として、中央下部で、主被写体(人形)の胴体と、市松模様の平板とで、遠近競合やオクルージョンを生じている領域が、検出されている。また、遠近競合やオクルージョンを生じている領域以外に、第1視点画像と第2視点画像とで、空間周波数の高周波帯域成分が大きく変化している領域が検出されている。例えば、デフォーカス状態の被写体エッジ部のように、高いコントラストが保たれたまま像ずれ量が大きい領域等、第1視点画像と第2視点画像とで、空間周波数の高周波帯域成分が大きく変化している領域が検出される。これらの検出領域では、第1視点画像と第2視点画像とで、空間周波数成分が大きく異なる被写体像が、それぞれ撮影される。そのため、第1視点画像と第2視点画像を合わせた撮像画像では、これらの検出領域は、空間周波数成分が大きく異なる複数の被写体像が混成している領域である。
これらの空間周波数成分が異なる複数被写体像の混成領域に、先鋭化や平滑化等の画像処理を強く行うと、画質品位が低下する場合がある。したがって、本実施形態では、第1視点コントラスト分布と第2視点コントラスト分布との差分量分布の絶対値|C1(j,i)−C2(j,i)|を用いて、空間周波数成分が異なる複数被写体像の混成領域を検出する。そして、検出された混成領域では先鋭化や平滑化等の画像処理が抑制して行われる。これにより、画質品位を良好に保持して、先鋭化や平滑化の画像処理を行うことができる。
本実施形態では、図7のステップS2において、次に、空間周波数成分が異なる複数被写体像の混成領域を検出するために、コントラスト差分量分布を生成する。詳細には、第1視点コントラスト分布C1(j,i)と第2視点コントラスト分布C2(j,i)から、式(7A)により、コントラスト差分量分布CDIFF(j,i)が生成される。次に、式(7B)により、撮像コントラスト分布C(j,i)に、コントラスト差分量分布CDIFF(j,i)を、乗算する演算処理が行われる。これにより、空間周波数成分が異なる複数被写体像の混成領域での値を0近傍に抑制したコントラスト分布MCON(j,i)が生成される。
コントラスト差分量分布CDIFF(j,i)は、[0、1]の範囲の分布であり、視点画像間のコントラスト差が大きく、空間周波数成分が異なる被写体像の混成が多い領域では0の値に近づく。またCDIFF(j,i)は、視点画像間のコントラスト差が小さく、空間周波数成分が異なる被写体像の混成が少ない領域では1の値に近づく分布である。コントラスト分布MCON(j,i)は、撮像コントラスト分布C(j,i)に、コントラスト差分量分布CDIFF(j,i)を、かけ合わせた分布である。よって当該分布は、空間周波数成分が異なる複数の被写体像の混成領域での値を0近傍に抑制した分布である。
本実施形態のコントラスト分布MCON(j,i)の分布例を図15に例示する。図15に示す分布例では、右側の[0、1]の範囲のグレースケール表示にてコントラストの高低の指標を表している。1近傍の白い部分はx軸方向の空間周波数の高周波成分が多い高コントラスト領域を示す。0近傍の黒い部分はx軸方向の空間周波数の高周波成分が少ない低コントラスト領域を示している。図10に示す撮像コントラスト分布C(j,i)に対して、第1視点および第2視点の各コントラスト分布C1(j,i)とC2(j,i)の差分量分布の絶対値|C1(j,i)−C2(j,i)|が大きい領域でのコントラスト値が抑制される。
本実施形態では、コントラスト差分量分布CDIFF(j,i)として、第1視点コントラスト分布と第2視点コントラスト分布の差分量分布の絶対値|C1(j,i)−C2(j,i)|に対して単調減少な線形関数を用いた。しかしこれに限られるものではなく、必要に応じて、より一般的な関数を用いてもよい。
以上のように本実施形態では、撮像画像と複数の視点画像から、視点画像毎のコントラストの差に応じて、コントラスト分布MCON(j,i)が合成コントラスト分布として生成される。本実施形態のコントラスト分布は、視点画像ごとのコントラスト間の差が大きい領域より、コントラスト間の差が小さい領域の方が大きい。また、本実施形態のコントラスト分布は、所定の空間周波数帯域における撮像画像の空間周波数成分が少ない領域より、空間周波数成分が多い領域の方が大きい。また、本実施形態のコントラスト分布は、撮像画像の輝度が低い領域より、輝度が高い領域の方が大きい。
2回目以降の処理では、コントラスト分布MCON(j,i)の生成を省略し、処理時間を短縮するために、例えば分布データの記録処理が実行される。すなわち、生成されたコントラスト分布MCON(j,i)を、記録される画像データと関連付けてフラッシュメモリ等の記録媒体に記録する処理が行われ、必要に応じて分布データが参照される。
[像ずれ量分布]
図7のステップS3にて、コントラスト分布MCON(j,i)の値が所定値以上である各位置(j,i)で、第1視点画像と第2視点画像(複数の視点画像)から、2つの視点画像の相関(信号の一致度)に基づき像ずれ量分布を生成される。なお、これに限らず、コントラスト分布MCON(j,i)の値に関係なく各視点画像に基づき像ずれ量分布を生成してもよい。
ステップS3では、まず、ベイヤー配列のRGB信号である第1視点画像I1から、式(3B)により生成された第1視点輝度信号Y1に対して、瞳分割方向(列方向)に、1次元バンドパスフィルタ処理が行われる。これにより第1焦点検出信号dYAが生成される。また、第2視点画像I2から、式(3B)により生成された第2視点輝度信号Y2に対して、瞳分割方向(列方向)に、1次元バンドパスフィルタ処理が行われる。これにより第2焦点検出信号dYBが生成される。1次元バンドパスフィルタとしては、例えば、1次微分型フィルタ[1、5、8、8、8、8、5、1、−1、−5、−8、−8、−8、−8、−5、−1]等を用いることができる。必要に応じて、1次元バンドパスフィルタの通過帯域を調整してもよい。
ステップS3では、次に、コントラスト分布MCON(j,i)の値が所定値(例えば、0.2)以上の各位置(j,i)において相関量が算出される。第1焦点検出信号dYAと第2焦点検出信号dYBを相対的に瞳分割方向(列方向)にシフトさせ、信号の一致度を表す相関量を算出する処理が実行される。そして、相関量に基づいて像ずれ量分布MDIS(j,i)が生成される。一方、コントラスト分布MCON(j,i)の値が所定値(例えば、0.2)未満である各位置(j,i)は、像ずれ量の算出から除外される。像ずれ量の検出を、高コントラストで、かつ、遠近競合やオクルージョンが生じていない領域に限定することにより、像ずれ量の検出精度を高精度化し、処理を高速化することができる。
位置(j,i)を中心として行方向j2(−n2≦j2≦n2)番目、瞳分割方向である列方向i2(−m2≦i2≦m2)番目の第1焦点検出信号をdYA(j+j2、i+i2)、第2焦点検出信号をdYB(j+j2、i+i2)と表記する。シフト量をs(−ns≦s≦ns)として、各位置(j,i)での相関量をCOREVEN(j,i、s)、相関量CORODD(j,i、s)と表記する。相関量COREVEN(j,i、s)は式(8A)により算出され、相関量CORODD(j,i、s)は式(8B)により算出される。
相関量CORODD(j,i、s)は、相関量COREVEN(j,i、s)に対して、第1焦点検出信号dYAと第2焦点検出信号dYBのシフト量を半位相−1シフトずらした相関量である。
相関量COREVEN(j,i、s)と相関量CORODD(j,i、s)から、それぞれ、サブピクセル演算により、相関量が最小値となる実数値のシフト量を算出して平均値が算出され、像ずれ量分布MDIS(j,i)が生成される。コントラスト分布MCON(j,i)の値が所定値(例えば、0.2)未満であり、像ずれ量の算出から除外された領域については、例えばMDIS(j,i)=0とする。必要に応じて、0以外の値を設定してもよい。
本実施形態の像ずれ量分布MDIS(j,i)の分布例を図16に例示する。右側に[−6、6]の範囲のグレースケール表示を示す。図16では、コントラスト分布MCON(j,i)の値が所定値0.2以上で像ずれ量が算出されている領域では、グレースケール表示にて、第1視点画像と第2視点画像との間の像ずれ量を1ピクセル単位で表している。マイナス(−)符号の黒側の部分は、前ピン状態の領域を示し、0付近の部分は合焦近傍の領域を示す。プラス(+)符号の白側の部分は、後ピン状態の領域を示している。また、図16の分布例の表示では、コントラスト分布MCON(j,i)の値が所定値0.2未満で、像ずれ量の算出から除外される。つまり、MDIS(j,i)=0と設定された領域に関しては、黒色で表示している。
以上のように本実施形態では、複数の視点画像から、像ずれ量分布MDIS(j,i)を生成する。2回目以降の処理で、像ずれ量分布MDIS(j,i)の生成を省略し、処理時間を短縮するために、生成された像ずれ量分布MDIS(j,i)の記録処理が実行される。つまり像ずれ量分布データは、記録される画像データと関連付けてフラッシュメモリ等の記録媒体等に記録される。必要に応じて、像ずれ量分布MDIS(j,i)に、位置(j,i)と撮像レンズ(結像光学系)の絞り値、射出瞳距離等に応じた変換係数をかけて、視点画像内の被写体のデフォーカス量の分布を示すデフォーカス量分布に変換してもよい。
[像ずれ差分量分布]
図7のステップS4で、像ずれ量分布MDIS(j,i)と所定像ずれ量から、像ずれ差分量分布MDIFF(j,i)を生成する処理が実行される。ステップS4において、まず、本実施形態のリフォーカス処理により修正を行いたい像ずれ量が所定像ずれ量pとして設定される。例えば、図16の像ずれ量分布MDISの例では、目近傍の領域での像ずれ量は約2.5である。リフォーカス処理により、主被写体(人形)の目近傍の領域での像ずれ量を、概ね、0に微修正したい場合、所定像ずれ量はp=2.5と設定される。
ステップS4において、次に、σp>0として、像ずれ量分布MDIS(j,i)、所定像ずれ量p、コントラスト分布MCON(j,i)から、像ずれ差分量分布MDIFF(j,i)が式(9)により算出される。
像ずれ差分量分布MDIFF(j,i)は、像ずれ量分布MDIS(j,i)と所定像ずれ量pの差分の絶対値|MDIS(j,i)−p|に対して単調減少する線形関数と、コントラスト分布MCON(j,i)とを、かけ合わせた分布である。像ずれ差分量分布MDIFF(j,i)は、|MDIS(j,i)−p|<σpで正、|MDIS(j,i)−p|=σpで0、|MDIS(j,i)−p|>σpで負となる。
コントラスト分布MCON(j,i)の値が所定値(例えば、0.2)未満であり、像ずれ量の算出から除外された領域は、MDIFF(j,i)=(1−|p|/σp)×MCON(j,i)とする。必要に応じて、他の値を設定してもよい。
本実施形態の像ずれ差分量分布MDIFF(j,i)の分布例を図17に例示する。右側の[−1、1]の範囲のグレースケール表示を示す。コントラスト分布MCONの値が所定値0.2以上で、像ずれ量が算出されている領域では、グレースケール表示にて、像ずれ差分量を示している。プラス(+)符号の白側の部分は、像ずれ量分布MDIS(j,i)と所定像ずれ量pの差分の絶対値|MDIS(j,i)−p|が小さく、かつ、コントラストが高い領域を示している。マイナス(−)符号の黒側の部分は、像ずれ量分布MDIS(j,i)と所定像ずれ量pの差分の絶対値|MDIS(j,i)−p|が大きく、かつ、コントラストが高い領域を示している。また、図17の分布例の表示では、コントラスト分布MCON(j,i)の値が所定値0.2未満で、像ずれ量の算出から除外される。つまり、MDIFF(j,i)=(1−|p|/σp)×MCON(j,i)と設定された領域に関しては、黒色で表示している。
[修正視点画像]
図7のステップS5で、第1視点画像と第2視点画像(第1視点画像から第NLF視点画像)に対して、像ずれ差分量分布MDIFF(j,i)に応じて、第1の先鋭化および第1の平滑化の処理が行われる。そして、第1修正視点画像と第2修正視点画像(第1修正視点画像から第NLF修正視点画像)が生成される。
本実施形態にて、第1視点画像と第2視点画像(複数の視点画像)に対して、像ずれ差分量分布が0以上(MDIFF(j,i)≧0)の領域では、視点画像間の差を拡大して視差を先鋭化する(クロストーク補正、第1の先鋭化)処理が行われる。一方、像ずれ差分量分布が0未満(MDIFF(j,i)<0)の領域では、視点画像間の差を縮小して視差を平滑化する(クロストーク、第1の平滑化)処理が行われる。上記処理によって、第1修正視点画像と第2修正視点画像(複数の修正視点画像)が生成される。
図7のステップS5において、まず、第1視点画像と第2視点画像(複数の視点画像)に対して、視点画像間の差を拡大して視差を先鋭化する(クロストーク補正、第1の先鋭化)処理の強さが設定される。本処理の強さを指定する第1の強度パラメータをkctと表記し、kct≧0とする。または第1の強度パラメータとして、視点画像間の差を縮小して視差を平滑化する(クロストーク、第1の平滑化)処理の強さを指定する強度パラメータkct≧0が設定される。
ステップS5において、次に、第1の強度パラメータ分布Kct(j,i)が式(10)により設定される。第1の強度パラメータ分布Kct(j,i)は、kctを比例係数として、像ずれ差分量分布MDIFF(j,i)に比例する。
ステップS5において、次に、第1視点画像I1(j,i)と第2視点画像I2(j,i)(第1視点画像から第NLF視点画像)に対して、式(11A)、および式(11B)の演算処理が行われる。そして、第1修正視点画像MI1(j,i)と第2修正視点画像MI2(j,i)(第1修正視点画像から第NLF修正視点画像)が生成される。
式(11A)の処理は、第1の強度パラメータ分布(像ずれ差分量分布)が0以上(Kct(j,i)=kct×MDIFF(j,i)≧0)の領域で、第1視点画像と第2視点画像間の差を拡大して視差を先鋭化する処理である。一方、式(11B)の処理は、第1の強度パラメータ分布(像ずれ差分量分布)が0未満(Kct(j,i)=kct×MDIFF(j,i)<0)の領域で、第1視点画像と第2視点画像間の差を縮小して視差を平滑化する処理である。
図18は、第1視点画像と第2視点画像(複数の視点画像)間の差を拡大して視差を先鋭化する(クロストーク補正、第1の先鋭化)処理例をグラフで示す。横軸は画素位置を表し、縦軸は画素値(信号レベル)を表す。図18では、クロストーク補正および第1の先鋭化処理前の第1視点画像(修正前A)と第2視点画像(修正前B)の例を、破線のグラフで示す。また、式(11A)による、クロストーク補正および第1の先鋭化処理後の第1修正視点画像(修正後A)と第2修正視点画像(修正後B)の例を、実線のグラフで示す。視点画像間の差を拡大して視差を先鋭化する(クロストーク補正、第1の先鋭化)処理により、処理前に視点画像間の差が大きい部分は、より拡大されるが、処理前に視点画像間の差が小さい部分はあまり変化しない。このように、視点画像間の視差が先鋭化されることがわかる。
一方、式(11B)による平滑化処理(クロストーク、第1の平滑化)では、第1視点画像と第2視点画像(複数の視点画像)間の差が縮小され、視点画像間の視差が平滑化される。
以上のように本実施形態では、複数の視点画像に、コントラスト分布および像ずれ量分布に応じた先鋭化および平滑化の画像処理が行われる。コントラスト分布および像ずれ量分布に応じた画像処理については、必要に応じて、先鋭化の処理、平滑化の処理、または、これらの組み合わせ処理のいずれでもよい。
本実施形態では、式(7A)、式(7B)、式(9)、式(10)、式(11A)、式(11B)の演算処理が行われる。視点画像ごとのコントラスト間の差が大きい領域よりコントラスト間の差が小さい領域の方が、各視点画像への先鋭化や平滑化等の画像処理が強く行われる。また、コントラスト分布の小さい領域よりも大きい領域の方が、各視点画像への先鋭化や平滑化等の画像処理が強く行われる。
本実施形態では、式(9)、式(10)、式(11A)および式(11B)により、像ずれ量分布の所定シフト量(基準)からの差が小さい領域は先鋭化の処理が行われ、差が大きい領域は平滑化の処理が行われる。式(9)、式(10)、式(11A)により、像ずれ量分布の所定シフト量からの差が大きい領域より、差が小さい領域の方が、先鋭化の処理が強く行われる。また式(9)、式(10)、式(11B)により、像ずれ量分布の所定シフト量からの差が小さい領域より、差が大きい領域の方が、平滑化の処理が強く行われる。
また本実施形態では、式(11A)および式(11B)により、複数の視点画像の画素毎に、複数の視点画像間の差を拡大して視差を先鋭化、または、複数の視点画像間の差を縮小して視差を平滑化する処理を行い、複数の修正視点画像を生成する。式(11A)の第1の先鋭化の処理および式(11B)の第2の平滑化の処理は、第1視点画像I1(j,i)と第2視点画像I2(j,i)間の演算処理である。第1視点画像I1(j,i)の信号は各位置(j,i)の画素に含まれる第1光電変換部の出力信号であり、第2視点画像I2(j,i)の信号は、各位置(j,i)の画素に含まれる第2光電変換部の出力信号である。
[重み係数]
図7のステップS6で、所定領域において被写界深度を微修正するために、第1修正視点画像と第2修正視点画像(第1修正視点画像から第NLF修正視点画像)ごとの重み係数が設定される。
ステップS6において、まず、被写界深度の再修正を行いたい所定領域R=[j1、j2]×[i1、i2]、および、所定領域の境界幅σが設定される。式(12)により、所定領域Rと所定領域の境界幅σに応じたテーブル関数T(j、i)が算出される。
式(12)中のtanhは双曲線正接関数を表す。テーブル関数T(j、i)は、所定領域Rの内側で1、所定領域Rの外側で0となり、所定領域Rの境界幅σで、概ね、1から0に連続的に変化する。必要に応じて、所定領域は、円形や、その他の任意の形状としてもよい。また、必要に応じて、複数の所定領域、および、境界幅を設定してもよい。
ステップS6において、次に、実係数w(−1≦w≦1)として、第1修正視点画像MI1(j、i)の第1重み係数分布W1(j、i)が式(13A)により算出される。また、第2修正視点画像MI2(j、i)の第2重み係数分布W2(j、i)が式(13B)により算出される。
所定領域において、第1修正視点画像MI1(j、i)の加算比率を上げて、被写界深度を修正する場合には、−1≦w<0の範囲での設定とする。また第2修正視点画像MI2(j、i)の加算比率を上げて、被写界深度を修正する場合は、0<w≦1の範囲での設定とする。必要に応じて、w=0として、W1≡W2≡1とし、被写界深度を修正しなくてもよい。
[シフト合成処理によるリフォーカス]
図7のステップS7で、第1修正視点画像と第2修正視点画像(第1修正視点画像から第NLF修正視点画像)ごとに重み係数をかけて、瞳分割方向(x軸方向)に相対的にシフトして加算する処理(シフト合成処理)が行われる。そして、複数の視点画像による合成画像である中間画像が生成される。
図19は、第1修正視点画像MI1(j,i)と第2修正視点画像MI2(j,i)(複数の修正視点画像)による瞳分割方向(x軸方向)のシフト合成処理によるリフォーカスについて概要を示す説明図である。図19では、紙面の上下方向にx軸を設定して下方をx軸の正方向と定義し、紙面に垂直な方向をy軸に設定して手前側をy軸の正方向と定義し、紙面の左右方向にz軸を設定して左方をz軸の正方向と定義する。図19の撮像面600は、図13に示した撮像面600に対応している。
図19では、第1修正視点画像MI1(j,i)と第2修正視点画像MI2(j,i)を模式的に表している。第1修正視点画像MI1(j,i)の信号は、図13の第1瞳部分領域401に対応した主光線角度θ1で位置(j,i)の第1光電変換部301に入射した光束の受光信号である。第2修正視点画像MI2(j,i)の信号は、図13の第2瞳部分領域402に対応した主光線角度θ2で位置(j,i)の第2光電変換部302に入射した光束の受光信号である。第1光電変換部301と第2光電変換部302(第1光電変換部から第NLF光電変換部)が、それぞれ、第1副画素201と第2副画素202(第1副画素から第NLF副画素)に対応する。
第1修正視点画像MI1(j,i)と第2修正視点画像MI2(j,i)(複数の修正視点画像)は、光強度分布情報だけでなく、入射角度情報も有している。したがって、以下の平行移動および加算処理で仮想結像面610でのリフォーカス画像を生成できる。第1に、第1修正視点画像MI1(j,i)を主光線角度θ1に沿って仮想結像面610まで平行移動させ、第2修正視点画像MI2(j,i)を主光線角度θ2に沿って仮想結像面610まで平行移動させる処理。第2に、それぞれ平行移動させた第1修正視点画像MI1(j,i)と第2修正視点画像MI2(j,i)を加算する処理である。
第1修正視点画像MI1(j,i)を主光線角度θ1に沿って仮想結像面610まで平行移動させることは、列方向への−1画素分のシフトに対応する。また、第2修正視点画像MI2(j,i)を主光線角度θ2に沿って仮想結像面610まで平行移動させることは、列方向への+1画素分のシフトに対応する。したがって、第1修正視点画像MI1(j,i)と第2修正視点画像MI2(j,i)を相対的に+2画素分シフトさせ、MI1(j,i)とMI2(j,i+2)を対応させて加算することで、仮想結像面610でのリフォーカス信号を生成できる。
図7のステップS7において、第1修正視点画像MI1(j,i)と第2修正視点画像MI2(j,i)(複数の修正視点画像)から、式(14)により、シフト合成画像IS(j,i)を生成する処理が行われる。すなわち、仮想結像面でのリフォーカス画像であるシフト合成画像IS(j,i)が生成される。所定像ずれ量pに最も近い偶数をpeと表記する。ここで、所定像ずれ量pに最も近い偶数peは、ROUNDを四捨五入の関数として、pe=2×ROUND(p/2))により算出される。
式(14)では、シフト加算と同時に、式(13A)の第1重み係数分布W1(j、i)を第1修正視点画像MI1(j、i)が乗算され、式(13B)の第2重み係数分布W2(j、i)を第2修正視点画像MI2(j、i)に乗算される。これにより、所定領域での被写界深度を修正することができる。必要に応じて、W1≡W2≡1とし、被写界深度を修正しなくてもよい。複数の視点画像ごとに重み係数をかけてシフト合成処理が行われ、複数の視点画像による合成画像である中間画像が生成される。
第1修正視点画像MI1(j,i)と第2修正視点画像MI2(j,i)(複数の修正視点画像)のシフト合成処理は、偶数シフトや加算処理に限定されず、必要に応じて、実数シフトや、より一般的な合成処理を用いてもよい。また、必要に応じて、後述する図7のステップS8の処理を省略し、式(14)により、複数の修正視点画像をシフト加算して生成されるシフト合成画像IS(j,i)を出力画像としてもよい。
本実施形態では、式(14)により生成されるシフト合成画像IS(j,i)の画素数を、撮像画像の画素数Nと同数に保つこととする。そのために、予め、第2修正視点画像MI2(j,i)の瞳分割方向(x軸方向)の終端部分に対して、データ長を拡大する終端処理が行われる。pe>0の場合、最小列番号をiminとして、終端の列番号ie(imin≦ie≦imin+pe−1)に対して、式(15A)により、終端処理が実行される。pe<0の場合、最大列番号をimaxとして、終端の列番号ie(imax+pe+1≦ie≦imax)に対して、式(15B)により、終端処理が実行される。本実施形態では、複数の修正視点画像の画像サイズを拡張する処理を行う。
[リフォーカス可能範囲]
図20の概略図を参照して、本実施形態でのシフト合成処理によるリフォーカス可能範囲について説明する。撮像面600には撮像素子(不図示)が配置され、図13の場合と同様に、結像光学系の射出瞳が、第1瞳部分領域401と第2瞳部分領域402に2×1分割される。
許容錯乱円径をδとし、結像光学系の絞り値をFとすると、絞り値Fでの被写界深度は、±F×δである。これに対して、Nx×Ny(例えば、2×1)に分割されて狭くなった瞳部分領域401(または502)の瞳分割方向(x軸方向)の実効絞り値F01(またはF02)は、F01=Nx×F(またはF02=Nx×F)となって暗くなる。第1修正視点画像(または第2修正視点画像)ごとの実効的な被写界深度は、±Nx×F×δで、Nx倍深くなり、合焦範囲がNx倍に広がる。実効的な被写界深度「±Nx×F×δ」の範囲内では、第1修正視点画像(または第2修正視点画像)ごとに合焦した被写体像が取得されている。よって、図19に示した主光線角度θ1(またはθ2)に沿って第1修正視点画像(または第2修正視点画像)を平行移動させて加算する処理により、撮影後に、合焦位置をリフォーカスすることができる。
撮影後に合焦位置をリフォーカス可能な撮像面600からのデフォーカス量dは限定される。デフォーカス量dのリフォーカス可能範囲は、概ね、式(16)の範囲である。許容錯乱円径δは、δ=2・ΔX(画素周期ΔXのナイキスト周波数1/(2・ΔX)の逆数)等で規定される。
しかしながら、図5(B)の瞳強度分布例に示したように、画素部ごとに形成される直径数umのマイクロレンズと複数に分割された光電変換部による瞳分割では、光の波動性による回折ボケのために、緩やかな瞳分割となる。そのため、第1視点画像と第2視点画像(複数の視点画像)の瞳分割方向(x軸方向)の焦点深度が十分に深くならず、第1視点画像と第2視点画像(複数の視点画像)を用いてリフォーカス画像を生成しても、リフォーカス効果が十分に得られない場合がある。
したがって、本実施形態では、シフト合成処理によるリフォーカスにおいて、第1視点画像と第2視点画像(複数の視点画像)に対し、以下の処理を行う。第1の強度パラメータ分布(像ずれ差分量分布)が0以上(Kct(j,i)=kct×MDIFF(j,i)≧0)の画素ごとに、式(11A)により第1視点画像と第2視点画像間の差を拡大して視差を先鋭化する処理が行われる。そして第1修正視点画像と第2修正視点画像(複数の修正視点画像)が生成される。これにより、第1修正視点画像と第2修正視点画像の瞳分割方向(x軸方向)の実効的な絞り値Fを大きく、焦点深度を深く修正することができ、リフォーカス効果を向上させることができる。
以下、図21を参照して、シフト合成処理によるリフォーカスにおける、第1視点画像と第2視点画像(複数の視点画像)を先鋭化する(クロストーク補正、第1の先鋭化)処理の効果を説明する。図21(A)は、従来例における先鋭化(クロストーク補正、第1の先鋭化)前の第1視点画像と第2視点画像とのシフト合成処理によるリフォーカス画像の例を示す。
瞳分割が緩やかで、第1視点画像と第2視点画像(複数の視点画像)の瞳分割方向(x軸方向)の焦点深度が十分に深くない例である。主被写体(人形)の右目よりも、後ろに焦点が合った後ピン状態の撮像画像に対し、シフト合成処理によるリフォーカスを行っているが、主被写体(人形)の右目や、まつ毛、髪の毛等が小ボケ状態のままで、十分なリフォーカス効果が得られていない。
一方、図21(B)は、本実施形態における先鋭化(クロストーク補正、第1の先鋭化)後の第1修正視点画像と第2修正視点画像とのシフト合成処理によるリフォーカス画像の例を示す。第1視点画像と第2視点画像間の差を拡大して視差を先鋭化する処理により、第1修正視点画像と第2修正視点画像(複数の修正視点画像)の瞳分割方向(x軸方向)の実効的な絞り値Fが大きく、焦点深度が深く修正された例である。シフト合成処理によるリフォーカスにより、撮影後に、主被写体(人形)の右目や、まつ毛、髪の毛等に合わせてフォーカス位置が再修正され、リフォーカス効果が向上している。
また、Nx=2、Ny=1、NLF=2の瞳分割方向(x軸方向)2分割の本実施形態のように、瞳分割数が少なく、視点画像数が少ない場合、以下のことが起こる場合がある。すなわち、シフト合成処理によるリフォーカスにおいて、ボケ量(像ずれ量)を増加させる領域で、人工的な2線ボケが生じて被写体の境界が2重となり、画像品位が低下する場合がある。
したがって、本実施形態では、シフト合成処理によるリフォーカスにおいて、第1視点画像と第2視点画像(複数の視点画像)に対し、以下の処理を行う。第1の強度パラメータ分布(像ずれ差分量分布)が0未満(Kct(j,i)=kct×MDIFF(j,i)<0)の画素ごとに、式(11B)により、第1視点画像と第2視点画像間の差を縮小して視差を平滑化する処理(第1の平滑化処理)が行われる。そして、第1修正視点画像と第2修正視点画像(複数の修正視点画像)が生成される。これにより、ボケ量(像ずれ量)を増加させる領域で、人工的な2線ボケの発生を抑制し、画質品位を良好に保持して、シフト合成処理によるリフォーカスを行うことができる。
[シャープ/アンシャープ制御]
図7のステップS8では第2の先鋭化および第2の平滑化の処理が実行される。第1修正視点画像と第2修正視点画像(第1修正視点画像から第NLF修正視点画像)より生成されたシフト合成画像(中間画像)に対し、像ずれ差分量分布MDIFF(j,i)に応じた先鋭化および平滑化の処理が行われる。この処理によって、撮影後に、先鋭度の高い領域とボケ度合いの高い領域を適応的に制御するシャープ/アンシャープ制御された出力画像を生成することができる。
本実施形態では、シフト合成画像IS(j,i)に対して、像ずれ差分量分布が0以上(MDIFF(j,i)≧0)の領域で第2の先鋭化処理が行われる。一方、像ずれ差分量分布が0未満(MDIFF(j,i)<0)の領域では第2の平滑化処理が行われる。そして、出力画像が生成される。
図7のステップS8において、まず、シフト合成画像IS(j,i)に対して、第2の先鋭化処理、または第2の平滑化処理の強さを指定する第2の強度パラメータkUSM≧0が設定される。次に、2次元ローパスフィルタ{FLPF(jLPF、iLPF)|−nLPF≦jLPF≦nLPF、−mLPF≦iLPF≦mLPF}を、シフト合成画像IS(j,i)に作用させる処理が実行される。式(17)により、アンシャープマスクIUSM(j,i)が算出される。2次元ローパスフィルタFLPF(jLPF、iLPF)には、例えば、t[1、0、2、0、1]×[1、0、2、0、1]等の2次元フィルタを用いることができる。必要に応じて、2次元ガウシアン分布等を用いてもよい。
ステップS8において、最後に、第2の先鋭化、または第2の平滑化処理が行われる。シフト合成画像IS(j,i)に対して、式(18)により、像ずれ差分量分布MDIFF(j,i)に応じて、アンシャープマスクIUSM(j,i)を作用させ、出力画像であるリフォーカス画像IRF(j,i)が生成される。
式(18)は、像ずれ差分量分布が0以上(MDIFF(j,i)≧0)の領域では、以下の処理を表す。すなわち、正係数kUSM×MDIFF(j,i)が乗算されたアンシャープマスクIUSM(j,i)により、シフト合成画像IS(j,i)を、像ずれ差分量分布MDIFF(j,i)の大きさに応じて先鋭化する(第2の先鋭化)処理である。
一方、式(18)は、像ずれ差分量分布が0未満(MDIFF(j,i)<0)の領域では、以下の処理を表す。すなわち、負係数kUSM×MDIFF(j,i)が乗算されたアンシャープマスクIUSM(j,i)により、シフト合成画像IS(j,i)を、像ずれ差分量分布MDIFF(j,i)の大きさに応じて平滑化する(第2の平滑化)処理である。
シフト合成処理によるリフォーカスでは、LFデータを用いて光学的な原理に基づいたリフォーカスを行うことができる。シフト合成処理によるリフォーカスは、像ずれ差分量分布を検出できない領域に対しても、処理を行えるという利点がある。しかしながら、本実施形態(Nx=2、Ny=1、NLF=2)の瞳分割のように、瞳分割方向がx軸方向(y軸方向)の1方向のみであるときには、以下の場合がある。すなわち、瞳分割方向のx軸方向(y軸方向)にはリフォーカス効果が得られるが、瞳分割方向と直交するy軸方向(x軸方向)には、リフォーカス効果が十分に得られない場合がある。一方、像ずれ差分量分布に応じた先鋭化と平滑化によるボケの制御では、瞳分割方向に関係なくリフォーカス効果を得ることができる。したがって、本実施形態では、シフト合成処理によるリフォーカスと、像ずれ差分量分布に応じた先鋭化と平滑化によるボケの制御と、を組み合わせたリフォーカス処理を行う。これにより、瞳分割方向と直交する方向に対しても、リフォーカス効果を得ることができる。
以上のように本実施形態では、複数の修正視点画像の合成画像IS(j,i)に、コントラスト分布および像ずれ量分布に応じた先鋭化および平滑化の画像処理を行い、出力画像を生成する。必要に応じて、シフト合成処理によるリフォーカスである図7のステップS5〜S7の処理を省略し、撮像画像I(j、i)に、コントラスト分布および像ずれ量分布に応じた先鋭化および平滑化の画像処理を行い、出力画像を生成してもよい。コントラスト分布および像ずれ量分布に応じた画像処理は必要に応じて、先鋭化の処理、平滑化の処理、または、これらの組み合わせ処理のいずれでもよい。
本実施形態では、式(7A)、式(7B)、式(9)、式(17)、式(18)より、以下の領域に対して画像処理が強く行われる。すなわち、視点画像ごとのコントラスト間の差が大きい領域より、コントラスト間の差が小さい領域の方が、複数の修正視点画像の合成画像(または撮像画像)への先鋭化や平滑化等の画像処理が強く行われる。また、コントラスト分布が小さい領域よりも大きい領域の方が、複数の修正視点画像の合成画像(または撮像画像)への先鋭化や平滑化等の画像処理が強く行われる。
本実施形態では、式(9)、式(17)、および式(18)より、像ずれ量分布の所定シフト量(基準)からの差が小さい領域に対して先鋭化の処理を行い、差が大きい領域に対して平滑化の処理を行う。式(9)、式(17)、および式(18)より、像ずれ量分布の所定シフト量からの差が大きい領域より、差が小さい領域の方が、先鋭化の処理が強く行われる。式(9)、式(17)、および式(18)より、像ずれ量分布の所定シフト量からの差が小さい領域より、差が大きい領域の方が、平滑化の処理が強く行われる。
[視点変更、ボケ被り補正の画像処理]
次に、本実施形態における第2の処理部103で行われる第2の処理について説明する。第2の処理部103は、視点画像の合成による仮想視点の画像生成と、合成画像に生じるゴースト(不要光)を低減するために、ゴーストの量(ゴースト成分)を検出する。第2の処理では、複数の視点画像に対する処理のうち、合成比率の変更によって行う画像補正を想定する。例えば、視点変更処理、画像のボケ補正等の処理がある。以下では、前ボケ被りを補正してその度合いを低減する処理を例示して具体的に説明する。前ボケ被りとは、主被写体(第1被写体)の手前に位置する前景(第2被写体)のボケが大きい場合に主被写体が隠れてしまう現象である。例えば、撮影者は、複数の被写体のうち、主被写体に焦点を合わせるとともに、前景や背景を意図的に暈すことにより、主被写体を効果的に際立たせる撮影を行う場合がある。図22は、前景を暈すことによって撮影者の意に反して主被写体に前ボケがかかっている画像を例示する。図22の領域800において、主被写体(鳥)の手前(至近側)に位置する前景(花びら)はボケが大きい。このため、主被写体が隠れる前ボケ被りが生じている。撮影画像の品位低下を防止するために、前ボケ被りの低減処理にてCPU170は、前ボケがユーザの意図した被写体の画像に被らないように、複数の視点画像を合成する際の合成比率を決定する。
主被写体への前ボケ被りの度合いを低減する画像処理は、CPU170の指令にしたがって画像処理部130により実行される。画像処理部130は、撮像素子110により取得される複数の視点画像を取得して以下に説明する処理を行う。jとiを整数の変数として、第1および第2の視点画像における行方向のj番目、列方向のi番目の位置を(j,i)と表記する。第1の視点画像Aにおける位置(j,i)の画素をA(j,i)と表記し、第2の視点画像Bにおける位置(j,i)の画素をB(j,i)と表記する。
第1ステップは、主被写体への前ボケ被りの度合いを低減する所定領域(Rと記す)およびその境界幅(σと記す)の設定と、テーブル関数(T(j,i)と記す)の算出処理である。CPU170は、所定領域R=[j1,j2]×[i1,i2]として、所定領域Rの境界幅σを設定する。CPU170は前記式(12)により、所定領域Rおよびその境界幅σに応じたテーブル関数T(j,i)を算出する。
第2ステップは、第1および第2の視点画像に対する重み付け係数の算出処理である。CPU170は実係数w(−1≦w≦1)として、式(19A)により、画素A(j,i)の第1重み付け係数Wa(j,i)を算出する。同様に、CPU170は式(19B)により、画素B(j,i)の第2重み付け係数Wb(j、i)を算出する。
第3ステップは、重み付け係数を用いた画像生成処理である。画像処理部130は、画素A(j,i)およびB(j,i)と、重み付け係数Wa(j,i)およびWb(j、i)から、式(20)により出力画像I(j,i)を生成する。
必要に応じて画像処理部130は、シフト量sによるリフォーカス処理と組み合わせて、式(21A)または(21B)により、出力画像Is(j,i)を生成する。また、前述の式(14)の表記に合わせれば下記A(j,i)、B(j,i)はそれぞれMI1(j,i)、MI2(j,i)に対応する。
次に、図13を参照して、主被写体への前ボケ被りの度合いを低減する画像処理の原理について説明する。撮像素子110は撮像面600上に配置されており、結像光学系の射出瞳が瞳部分領域401、402に2分割される。図13(A)は、主被写体への前ボケ被り画像の例を示す光路図である。図13(A)は主被写体q1の像p1(合焦像)に対し、手前の被写体q2のボケ像(Γ1+Γ2)が重なって撮影される状態を示している。図13(B)、(C)は、図13(A)に示す状態に関し、瞳部分領域401を通過する光束と、瞳部分領域402を通過する光束とにそれぞれ分離した光路図である。撮像素子110の各画素において、第1光電変換部301の受光信号から第1の視点画像が生成され、第2光電変換部302の受光信号から第2の視点画像が生成される。
図13(B)にて、主被写体q1からの光束は瞳部分領域401を通過して合焦状態で像p1に結像し、手前の被写体q2からの光束は、瞳部分領域401を通過してデフォーカス状態でボケ像Γ1に広がり、撮像素子110の各画素の光電変換部で受光される。第1の視点画像では、像p1とボケ像Γ1とが互いに重なることなく撮影される。この場合、所定領域(被写体q1の像p1近傍)において、第1および第2の視点画像の中で、至近側の被写体(被写体q2のボケ像Γ1)が最も狭い範囲で撮影されている。また、所定領域(被写体q1の像p1近傍)において、第1および第2の視点画像の中で、被写体q2のボケ像Γ1の写りが少なく、コントラスト評価値が最も大きい。
一方、図13(C)では、主被写体q1からの光束は瞳部分領域402を通過して合焦状態で像p1に結像する。手前の被写体q2からの光束は瞳部分領域402を通過してデフォーカス状態でボケ像Γ2に広がり、撮像素子110の各画素の光電変換部で受光される。第2の視点画像では、像p1とボケ像Γ2が互いに重なって撮影される。所定領域(被写体q1の像p1近傍)において、第1および第2の視点画像の中で、至近側の被写体(被写体q2のボケ像Γ2)が最も広い範囲で撮影されている。また、所定領域(被写体q1の像p1近傍)において、第1および第2の視点画像の中で、被写体q2のボケ像Γ2の写りが多く、コントラスト評価値が最も小さい。
所定領域(像p1近傍)において、像p1とボケ像Γ1との重なりが少ない第1の視点画像に対する第1重み付け係数Waは、像p1とボケ像Γ2との重なりが多い第2の視点画像に対する第2重み付け係数Wbよりも大きく設定される。例えば出力画像の所定領域において、複数の視点画像の中で、至近側の被写体が最も広い範囲で撮影されている視点画像の重み付け係数値が最も小さいか、または、至近側の被写体が最も狭い範囲で撮影されている視点画像の重み付け係数値が最も大きい。また、出力画像の所定領域において、複数の視点画像の中で、コントラスト評価値が最も小さい視点画像の重み付け係数値が最も小さいか、または、コントラスト評価値が最も大きい視点画像の重み付け係数値が最も大きい。
重み付け係数を用いて合成した出力画像を生成することにより、主被写体への前ボケ被りが低減された画像を生成できる。図23を参照して、ボケ調整処理による前ボケ被りの低減効果について説明する。図23(A)はボケ調整処理前の画像例を示す。所定領域1000における第1被写体(鳥)への第2被写体(花びら)の前ボケ被りが発生している。図23(B)はボケ調整処理後の画像例を示す。図23(A)の画像では破線の円形枠内の所定領域1000に示すように、鳥のくちばしや目、羽にかけて、花びらの前ボケで白く覆われている。一方、図23(B)の画像では、このような前ボケが低減されている。必要に応じて、ボケ調整処理を行わない所定領域以外では、ボケ形状を変化させないために、複数の視点画像ごとの重み付け係数値を概ね均等にして加算し、出力画像が生成される。
次に、第2の処理部103および合成部105で行われるゴースト低減処理について説明する。第2の処理部103は、ゴースト(不要光)の決定処理およびゴーストを低減または除去するゴースト低減処理を行う。
本実施形態では、各視点画像における不要成分を算出し、出力画像の視点画像の合成処理に合わせて、同様の処理で各視点画像の不要成分の合成処理を行い、合成画像から不要成分として減算する。
図24に本実施形態における不要成分(ゴースト成分)の決定処理のフローチャートを示す。以下の各ステップは、主に、CPU170または画像処理部130により、コンピュータプログラムとしての画像処理プログラムに従って実行あるいは実行の指示が各部に出力される。以下の処理は、例えば、撮像素子110によって画像が撮像されたとき(例えば順次撮像されデジタル信号が出力されるモード時や撮像直後の記録時)や、メモリから画像データを画像処理部130内の一時記憶領域に読み出したときに開始する。
まずステップS2401において、CPU170は、撮影レンズ230および撮像素子110、A/D変換器120により構成される撮像部(撮像系)を制御して被写体の撮像を行い、入力画像(撮像画像)を取得する。あるいは、あらかじめ撮像され、画像記録媒体107に記録された画像データを画像処理部130内の一時記憶領域に読み出すことで入力画像が取得される。本実施形態では、入力画像として撮像素子110内で撮影レンズ230の異なる瞳領域を通過した光束に対応する複数の視点画像をあらかじめ合成した合成画像と、合成される前の一部の瞳領域に対応する視点画像とを入力画像として画像取得する。入力画像としてはこれに限らず、複数の視点画像をそれぞれ取得してもよい。
ステップS2402において、CPU170は画像処理部130を制御し、合成画像と視点画像から一対の視点画像を生成させる。具体的には差分をとることで複数の視点画像を算出することができる。ここで、画像処理部130は、視点画像の生成にあたって、前述したような各種画像処理の一部を実施してもよい。ステップS2401にて複数の視点画像の形で入力画像を取得している場合は、本ステップでは各種画像処理の一部を行うのみでもよい。
続いてステップS2403において、画像処理部130は、視点画像間の差分を取ることで一対の視点画像の相対差分情報を求める。ここで本実施形態は、後述の不要成分低減処理の簡易化のため、相対差分情報における負の値を切り捨てて0値とする処理を実施する。このため、不要成分のみが正の値として検出される。
また、近距離被写体を含む画像において相対差分情報を求める際に視点の違いによる被写体視差成分を除去するため、一対の視点画像の位置合わせを行う処理を実施してもよい。具体的には、一対の視点画像のうち一方の画像に対して他方の画像の位置を相対的にシフトしながら画像間の相関が最大となるシフト位置を決定することにより、画像の位置合わせを行うことができる。また、視点画像間の差分の2乗和が最小化するシフト位置を決定することで画像の位置合わせを行ってもよい。また、視点画像中の合焦領域を位置合わせのためのシフト位置の決定の対象としてもよい。
また、予めそれぞれの視点画像においてエッジ検出を行い、検出されたエッジを示す画像を用いて位置合わせのためのシフト位置を決定してもよい。この方法によれば、合焦領域についてはコントラストの高いエッジが検出され、背景等の非合焦領域についてはコントラストが低く、エッジとして検出されにくい。このため、必然的に合焦領域が重視されたシフト位置の決定が行われる。また、相対差分画像を生成する際に、ノイズ等の影響を除去するために閾値処理等のステップを加えても構わない。
続いてステップS2404において、ステップS2403にて生成された相対差分画像中に残存した成分を不要成分として決定する処理が実行される。ステップS2405において、画像処理部130は、ステップS2404にて決定された各視点画像の不要成分を合算処理する(不要成分の合成値が算出される)。
続いてステップS2406において、画像処理部130は、不要成分からノイズ成分を低減または除去する補正処理を行う。具体的には、ステップS2405にて算出された不要成分の合成値から各視点画像の不要成分に含まれるノイズを減算する処理が実行される。
ここで、ステップS2406における、ゴースト成分からノイズ成分を低減または除去する補正処理の手順について説明する。まず、記憶部に記憶される、予め計測しておいた撮像素子110のノイズ成分(ノイズ情報)による標準偏差に基づいてノイズ成分が算出される。ここで、ノイズ成分の予測値は、撮像素子110によって、予め均一な輝度の被写体を撮像した結果から計測され、ノイズに影響の大きいISO感度ごとに得られ、テーブル化されている。複数の視点画像ごとに本計測を行うと手間がかかってしまう上に、視点画像ごとのシェーディングの影響を受けてしまう。そこで、本実施形態では、光学系の異なる瞳領域からの光束に対応する複数の視点画像を合成した上記合成画像にて計測されたデータからノイズ成分を決定する。また、ノイズ成分としては計測値に基づいてISOごとに全画素一律のノイズ成分を持っていてもよいし、像高ごと、画素ごとに一律に持っていてもよい。算出された不要成分の合成値から、算出されたノイズ成分を減算する処理が行われる。このとき、各視点画像の不要成分に含まれるノイズ成分は、ステップS2405にて算出された不要成分の合算処理毎に上乗せされるため、ノイズ成分を減算する処理を視点画像の枚数−1回分を行う必要がある。ノイズ成分の引き方としてはこれに限らず、例えば各視点画像のノイズ成分による標準偏差を画像から算出してもよい。このとき、具体的には画像を10×10の局所領域に分割し、各領域内の画素値の標準偏差を算出し、各領域でノイズ成分を減算する処理が行われる。
続いてステップS2407において、画像処理部130は、出力すべき画像から不要成分を低減または除去する補正処理を行う。具体的には、ステップS2401で取得した合成画像から、ステップS2405で算出された不要成分を差し引く処理が行われる。ここで、ステップS2401にて複数の視点画像のみを取得して合成画像を取得していない実施形態である場合には、複数の視点画像を合成して生成した合成画像からステップS2405で算出した不要成分を差し引いて補正画像が生成される。ステップS2408で画像処理部130は補正画像に通常の処理を施し、記録媒体160や画像表示部220に出力されるような出力画像を生成する。このとき、通常のホワイトバランス処理やガンマ補正等の現像処理に加えて、補正画像に対して公知のノイズリダクション処理も行われる。この処理で、補正画像そのものに乗ったノイズを低減させることができる。
最後に、ステップS2409にてCPU170は、不要成分が除去または低減された出力画像を、記録媒体160に記録する制御を行う。または、併せて出力画像を画像表示部220に表示して処理が終了する。
以上の通り、複数の視点画像に基づく画像から不要光等に起因する不要成分を低減する画像処理装置において、不要成分からノイズ成分を低減または除去することで、画像からの良好な不要成分の低減処理を実現することができる。
本実施形態では、ゴースト低減処理の対象画像を複数の視点画像に基づく画像として、撮像センサからの出力時にすでにセンサ内でアナログ合成されている合成画像や複数の視点画像を合成して得られる合成画像を例示した。しかし処理の対象画像としてはこれに限らず、例えば、いずれかの視点画像等から対応する不要成分を算出し、低減処理を行ってもよい。
図25に、本実施形態における画像処理装置の動作を説明するフローチャートを示す。以下の処理はCPU170、あるいはCPU170の指示によって各部で実行される。本実施形態では、複数の視点画像を用いた特徴的な複数の画像処理が画像に適用可能な画像処理装置を実現する。
ステップS2501では、撮像素子110の各画素の第1および第2の光電変換部にて受光して光電変換した信号から複数の視点画像のデータを取得する。複数の視点画像の入力については撮像直後の画像に限らず、画像ファイルをメモリーカードやネットワーク経由で取得することも可能である。また調整値については、ユーザインタフェース(UI)部を用いてユーザ操作により指定する方法と、画像処理装置があらかじめ保持している設定値を適用する方法がある。
ステップS2502では、CPU170は視点画像に対する解像感の調整処理、視点変更処理あるいはボケ被り補正処理、ゴースト低減処理の少なくともいずれかの、前述した調整値を取得する。CPU170は、ユーザによって操作部210から入力された解像感の調整処理の適用の有無、第1の先鋭化および平滑化処理および第2の先鋭化および平滑化処理の強さの調整値、シフト合成のためのシフト量の調整値を取得する。またCPU170は、ユーザによって操作部210から入力された視点変更処理の適用の有無、視点を変更する画像内の領域の位置情報、視点の調整位置を示す調整値を取得する。またCPU170は、ユーザによって操作部210から入力されたゴースト低減処理の適用の有無、適用する領域の位置情報、処理の強さに関する調整値を取得する。
本実施形態では、撮像素子110から得られる複数の視点画像の合成画像(撮像画像)を対象に、画像処理装置が提供するアプリケーション上で画像および画像処理の種類、調整値を設定する。これにより、合成画像に解像感の調整処理、視点変更処理、ゴースト低減処理を施すことが可能となる。さらに本実施形態では、これらの画像処理を同一画像に対して適用可能とする。
ここで、前述したように本実施形態のような瞳分割領域にそれぞれ対応する複数の視点画像である場合、緩やかな瞳分割となる。このため、解像感の調整処理に用いる視点画像には、その調整処理の効果をより高くするために第1の先鋭化および平滑化処理を適用することが望ましい。しかし、ゴースト低減処理や視点変更の処理にとっては、緩やかな瞳分割で滑らかな視点変更になっていた方が、つなぎ目が見えにくくきれいな合成結果が得られる。そこで本実施形態では、解像感の調整処理を適用する際に行う第1の先鋭化および平滑化処理の強さを、他の処理が適用される場合、適用されない場合に比べて弱く設定することで、第1の先鋭化および平滑化処理による他の処理の影響を低減する。弱く設定する場合にはもちろん第1の先鋭化および平滑化処理を施さない場合も含まれる。
また、ゴースト低減処理は、各視点画像から算出されるゴースト成分を合成画像から減算する手法を取っているので、他の処理を終えた最後に適用するのがより好ましい。以上のことを鑑みて、各画像処理は以下の流れで行われる。
ステップS2503では、解像感の調整処理が設定されている場合、第1の先鋭化および平滑化処理が行われる。CPU170は操作部210への操作入力に基づいて取得した第1の先鋭化および平滑化処理の強さの調整値に基づいて第1の先鋭化および平滑化処理を複数の視点画像に施す。
ステップS2504では、解像感の調整処理にかかる複数の視点画像の相対的なシフトと、視点変更の処理にかかる合成比率の設定に基づいて複数の視点画像の合成処理が行われる。第1の先鋭化および平滑化処理が視点画像に施された場合には、適用後の複数の視点画像を、式(21A)または式(21B)のように、調整値に基づいたシフトと適用される領域の位置情報と視点の調整値の情報に基づく合成比率に基づいて合成処理が行われる。なお、後にゴースト低減処理を行う場合には、メモリ上に合成直前の各視点画像を記憶しておくものとする。
ステップS2505では、合成後の画像について解像感の調整処理にかかる第2の先鋭化および平滑化処理が行われる。ここで、メモリ上に記憶した合成直前の視点画像についても対応する第2の先鋭化および平滑化処理が施される。ステップS2506では、第2の先鋭化および平滑化処理後の合成画像、各視点画像を用いて、前述したゴースト低減処理が行われる。
ステップS2507では合成結果の表示処理や記録処理が行われる。S2506までの処理の結果得られた合成画像は、画像表示部220等の表示デバイスに表示され、および/又は記録媒体160等の記録部に記録されて、一連の動作を終了する。表示された画像処理後の合成画像をユーザが見て再度画像処理(調整値)を変更した場合は、本フローチャートの処理が再び初めから実行される。また、ステップS2507における合成画像の出力形態には画像表示の他、画像ファイルとしてメモリーカード等の記録媒体に記録する形態がある。また、記録媒体に保存した画像ファイルを、ネットワーク等を介して外部装置に送信する形態等がある。
以上の通り、本実施形態によれば、複数の視点画像を用いた特徴的な複数の合成処理を適切に施すことができる画像処理装置を実現する。また異なる複数の画像処理を選択的に画像データに適用可能であり、視点画像に対する調整項目について決定された複数の調整値を同時に適用することができる。
[第2実施形態]
次に、本発明の第2実施形態を説明する。図1〜図25にかかる画像処理装置の構成や各画像処理の説明は第1実施形態と同様とする。本実施形態にて第1実施形態の場合と同様の構成については既に使用した符号を用いることで、それらの詳細な説明を省略し、主に相違点を説明する。このような説明の省略については後述の実施形態でも同じである。
図1の制御部104は複数の制御モードを有し、第1の制御モードでは第1の条件を満たす場合に第1の処理のみを実行する。つまり、特定の条件に合致した場合に限り、第1の処理部102のみが処理を実行する。あるいは、装置の実装によっては第2の処理部103を含んでいない場合に第1の処理部102の処理のみが実行される。第1の条件とは、例えば下記のとおりである。
・ゴースト低減処理の効果が低い場合。
ゴースト低減処理は、視点画像を用いて、特定の条件下で発生するゴーストを低減する処理である。カメラやレンズの特定の組み合わせによっては、ゴースト低減効果が低い場合がある。そのような効果の低い組み合わせがあらかじめ判明している場合、CPU170は第2の処理が実行されないように制御する。すなわち、ゴースト低減効果の低い条件で撮影された画像が入力された場合には、第2の処理に関する調整値を一切受け付けないように制御が行われる。CPU170は、ユーザに対して調整が不要であることを画像表示部220の表示画面上に明確に示すことで注意を喚起する。
・本実施形態に係るプログラムを組み込む画像処理装置がリフォーカス機能に特化されている場合。
この場合には、第1の処理のみが実行され、ユーザはリフォーカスの調整のみ可能である。本実施形態では、第1の条件下にて第1の処理のみを有効として適用し、第2の処理を適用しないことで、処理負荷や消費電力を低減可能である。
[第3実施形態]
次に、本発明の第3実施形態を説明する。図1〜図25にかかる画像処理装置の構成や各画像処理の説明は第1実施形態と同様とする。図1の制御部104は複数の制御モードを有し、第2の制御モードでは第2の条件を満たす場合に第2の処理のみを実行する。つまり、特定の条件に合致した場合に限り、第2の処理部103のみが処理を実行する。あるいは、装置の実装によっては第1の処理部102を含んでいない場合に第2の処理部103の処理のみが実行される。第2の条件とは、例えば下記のとおりである。
・リフォーカス処理を必要としない(効果が低い)場合。
解像感の調整処理の中でも仮想的にピントを変化させるシフト合成処理は、撮影条件によっては焦点ずれの問題がなく、その適用の必要がない(効果が低い)場合がある。そのため、顔認識等による被写体情報等と組み合わせることで、撮影時の状態によってリフォーカス処理自体を不要とみなすことができる。
・本実施形態に係るプログラムを組み込む画像処理装置がゴースト低減機能に特化されている場合。
この場合に第1の処理を行う余地はなく、写り込んだゴーストの除去または低減のみが可能である。本実施形態では、第2の条件下にて第2の処理のみを有効として適用し、第1の処理を適用しないことで、処理負荷や消費電力を低減可能である。
第2実施形態で説明した第1の条件および第3実施形態で説明した第2の条件のいずれも満たしておらず、図1の制御部104が、第1および第2の処理を実行しない制御を行う場合もある。例えば、ユーザが撮影時の絞りを絞った場合には被写界深度が深くなるため、視差の効果が低くなることがある。極端な場合には、視差の効果が無くなってしまい、視差を用いたリフォーカス処理やゴースト低減処理等の効果が失われてしまう。そのような撮影条件で撮影された場合、制御部104は視点画像の処理を適用しないように、ユーザにメッセージ表示等を提示し、調整を行わない。また、絞り以外にも、ISO感度が上がることでノイズが増大する場合がある。ある一定以上のISO感度である場合に制御部104は、絞りの場合と同様に調整を行わない。このように、特定の条件に合致した場合に制御部104は、第1および第2の処理を無効化して敢えて適用しない。これにより、操作上の分かり易さと画質等の担保との両立を図ることが可能である。
[第4実施形態]
次に、本発明の第4実施形態を説明する。図1〜図25にかかる画像処理装置の構成や各画像処理の説明は第1実施形態と同様とする。第1実施形態で説明した複数の視点画像を用いた各画像処理が相互に少なからず影響を及ぼすことから、排他的に制御を行うことを特徴とする。本実施形態では、図2の操作部210によって複数の視点画像を用いた複数の画像処理を排他的に選択可能とし、図25のステップS2502にてどの画像処理が設定されたかの情報と、その調整値の情報を取得する。ステップS2503〜ステップS2506では、選択された画像処理および調整値に関連する処理のみが行われ、他の処理、ステップは無視される。
ここで、排他的の制御とする利点についてさらに補足的に考えられるところを説明する。第1の処理にてリフォーカス演算が行われている場合、CPU170は第2の処理における前ボケ被り補正を行わない。画像処理部130は、式(4A)または(4B)により出力画像Is(j,i)を生成する場合にシフト量sを必要とする。このため、シフト量sが決定されるまで出力画像Is(j,i)の生成が所定時間以上かかって待たされたのでは処理の遅滞を招く可能性がある。このような場合、CPU170によって、第1の処理と第2の処理が排他的に制御される。また、第2の処理にて前ボケ被り補正が行われている場合にシフト量sが既に決定されている。この場合、第1の処理を実行しないことで画像処理部130の処理負荷を低減可能である。本実施形態では、第1の処理と第2の処理とを排他的に制御することにより、複数の視点画像に対して複数種類の画像処理を適切なタイミングで施すことができる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。