JP6918485B2 - 画像処理装置および画像処理方法、プログラム、記憶媒体 - Google Patents

画像処理装置および画像処理方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP6918485B2
JP6918485B2 JP2016252688A JP2016252688A JP6918485B2 JP 6918485 B2 JP6918485 B2 JP 6918485B2 JP 2016252688 A JP2016252688 A JP 2016252688A JP 2016252688 A JP2016252688 A JP 2016252688A JP 6918485 B2 JP6918485 B2 JP 6918485B2
Authority
JP
Japan
Prior art keywords
image
image processing
region
viewpoint
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016252688A
Other languages
English (en)
Other versions
JP2018107654A (ja
Inventor
英之 浜野
英之 浜野
暁彦 上田
暁彦 上田
嘉人 玉木
嘉人 玉木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016252688A priority Critical patent/JP6918485B2/ja
Priority to US15/850,102 priority patent/US10582129B2/en
Publication of JP2018107654A publication Critical patent/JP2018107654A/ja
Application granted granted Critical
Publication of JP6918485B2 publication Critical patent/JP6918485B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Description

本発明は、視点画像を用いた画像処理技術に関するものである。
撮像面位相差方式は、撮像素子の焦点検出画素により取得される複数の信号間の位相差を検出する焦点検出方式である。特許文献1に開示された撮像装置が備える2次元撮像素子は、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている。複数に分割された光電変換部は、1つのマイクロレンズを介して撮影レンズの射出瞳の異なる領域を受光し、瞳分割が行われる。複数の光電変換部が受光した信号から視点の異なる画像信号(視点画像信号)を生成し、視点画像信号間の視差から像ずれ量を算出してデフォーカス量に換算することで、位相差方式の焦点検出が行われる。特許文献2では、複数に分割された光電変換部による複数の視点画像信号を加算することで、撮像信号を生成することが開示されている。
米国特許第4410804号明細書 特開2001−083407号公報
カメラによる撮影では、ユーザが所望の主被写体に焦点を合わせ、主被写体の前景や背景を大きく暈すことで、主被写体を効果的に際立たせる撮影表現が用いられる。撮影シーンにより、合焦近傍の被写体領域の画像を明瞭化し、暈した前景や背景と対比させることで、被写体画像を際立たせる画像処理効果を得ることができる。画像処理効果に関して、ユーザが撮影後に調整できることが望ましい。
一方で、ユーザが上述の画像処理効果を確認する際に、画像処理効果の程度をユーザに提示する技術が重要である。例えば、表示装置の画面の大きさや解像度、周囲の明るさ等の環境条件によっては、画像処理効果を確認しにくいことが起こり得る。そこで、画像処理効果の確認を容易にするために表示画面上で画像の拡大表示等を行う方法がある。しかし、効果の大きい領域を拡大領域として選択することが困難である場合や、画像処理における設定を変更した場合の効果の差をユーザが視認しにくい場合がある。また、画像処理における設定の変更に対応した領域の選択が困難である場合にユーザが仮に画像内の領域の選択を行ったとしても、どのように設定を変更すれば、効果的な画像処理を行えるかが分かりにくいという課題があった。
本発明の目的は、画像内における効果が大きい領域を認識しやすくし、画像処理の設定を容易に選択可能な画像処理装置および画像処理方法を実現することである。
本発明の一実施形態の画像処理装置は、視点の異なる複数の視点画像を取得する取得手段と、前記複数の視点画像から視差に関連する関連情報を算出する算出手段と、前記複数の視点画像に基づく画像データに深度を修正する画像処理を施して出力画像を生成する画像処理手段と、前記画像処理手段による画像処理の設定を行う設定手段と、前記関連情報を取得して前記出力画像における領域ごとの前記画像処理の効果を判定して判定結果を出力する判定手段と、画像データと、前記判定手段による判定結果とを表示手段に表示させる制御を行う表示制御手段と、を有し、前記画像処理手段は、前記複数の視点画像および前記関連情報を用いて、深度を修正する中心となる奥行きを示すパラメータの設定を行い、前記出力画像を生成して前記表示手段に出力し、前記表示制御手段は、異なる複数の前記パラメータに対応する判定結果を区別して前記表示手段に表示させる制御を行うことを特徴とする。
本発明の画像処理装置によれば、画像内における効果が大きい領域を認識しやすくし、画像処理の設定を容易に選択可能な画像処理装置および画像処理方法を実現することができる。
本実施形態の画像処理装置の概略構成図である。 本実施形態における画素配列の概略図である。 本実施形態における画素の概略平面図と概略断面図である。 本実施形態における画素と瞳分割の概略説明図である。 本実施形態における画素内部の光強度分布例を示す図である。 本実施形態における瞳強度分布を例示する図である。 本実施形態における撮像素子と瞳分割の概略説明図である。 複数の視点画像のデフォーカス量と、像ずれ量の概略関係図である。 像ずれ量分布に基づく深度修正処理を例示するフローチャートである。 複数の視点画像の瞳ずれによるシェーディングを説明する図である。 本実施形態における撮像画像を例示する図である。 撮像画像の撮像コントラスト分布を例示する図である。 第1視点画像の第1視点コントラスト分布例を示す図である。 第2視点画像の第2視点コントラスト分布例を示す図である。 視点画像間の視差と遠近競合の概略関係図である。 コントラスト差分量分布例を示す図である。 コントラスト分布例を示す図である。 第1視点画像と第2視点画像の像ずれ量分布を例示する図である。 所定シフト量からの像ずれ差分量分布を例示する図である。 本実施形態の先鋭化処理を例示する図である。 本実施形態の合成処理による深度修正可能範囲の概略説明図である。 本実施形態の画像処理内容の設定を説明するフローチャートである。 本実施形態の表示処理の概略説明図である。 本実施形態の画像処理内容の決定後の表示を示す概略説明図である。 本実施形態の領域抽出処理のフローチャートである。 本実施形態の画像処理効果が大きい領域の概略説明図である。
以下、本発明の例示的な実施形態を、図面に基づいて詳細に説明する。以下の実施形態では、デジタルカメラ等の画像処理装置に適用した場合の実施例を説明するが、本発明に係る画像処理方法を実行する撮像装置や情報処理装置、電子機器等に幅広く適用可能である。
本発明の実施形態に係る画像処理装置を適用した撮像装置を例示して、以下に説明する。図1は撮像部を有する画像処理装置の構成例を示すブロック図である。本実施形態では、視点画像データを記録可能なデジタルカメラを例示して説明する。なお、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
第1レンズ群101は撮像光学系(結像光学系)の先端に配置され、レンズ鏡筒にて光軸方向に進退可能に保持される。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量調節を行う他、静止画撮影時には露光秒時調節用シャッタとしての機能をもつ。第2レンズ群103は絞り兼用シャッタ102と一体となって光軸方向に進退する。第2レンズ群103は、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)を有する。第3レンズ群105は、光軸方向に進退して焦点調節を行うフォーカスレンズである。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。撮像素子107は、撮像光学系を通過して結像した被写体の光像を光電変換して電気信号を出力する。撮像素子107は、例えば2次元CMOS(相補型金属酸化膜半導体)フォトセンサと周辺回路からなり、撮像光学系の結像面に配置される。
ズームアクチュエータ111は、不図示のカム筒を回動することで、第1レンズ群101および第2レンズ群103を光軸方向に移動させて変倍動作を行う。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行う。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に移動させて焦点調節動作を行う。
被写体照明用の電子フラッシュ115は撮影時に使用され、キセノン管を用いた閃光照明装置または連続発光するLED(発光ダイオード)を備えた照明装置が用いられる。AF(オートフォーカス)補助光源116は、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影する。これにより、低輝度の被写体または低コントラストの被写体に対する焦点検出能力が向上する。
CPU(中央演算処理装置)121はシステム全体を制御する中枢部であり、カメラ本体部の制御部を構成する。CPU121は、演算部、ROM(リード・オンリー・メモリ)、RAM(ランダム・アクセス・メモリ)、A(アナログ)/D(デジタル)コンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。CPU121はROMに記憶された所定のプログラムに従って、カメラ内の各種回路を駆動し、AF制御、撮像処理、画像処理、記録処理等の一連の動作を実行する。
電子フラッシュ制御回路122はCPU121の制御指令に従い、撮影動作に同期して電子フラッシュ115を点灯制御する。補助光源駆動回路123はCPU121の制御指令に従い、焦点検出動作に同期してAF補助光源116を点灯制御する。撮像素子駆動回路124は撮像素子107の撮像動作を制御するとともに、取得した撮像信号をA/D変換してCPU121に送信する。画像処理回路125はCPU121の制御指令に従い、撮像素子107により取得した画像のガンマ変換、カラー補間、JPEG(Joint Photographic Experts Group)圧縮等の処理を行う。
フォーカス駆動回路126はCPU121の制御指令に従い、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動し、第3レンズ群105を光軸方向に移動させて焦点調節を行う。絞りシャッタ駆動回路128はCPU121の制御指令に従い、絞りシャッタアクチュエータ112を駆動し、絞り兼用シャッタ102の開口径を制御する。ズーム駆動回路129はCPU121の制御指令に従い、ユーザのズーム操作指示に応じてズームアクチュエータ111を駆動する。
表示部131はLCD(液晶表示装置)等の表示デバイスを有し、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を画面に表示する。操作部132は操作スイッチとして、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等を備え、操作指示信号をCPU121に出力する。フラッシュメモリ133はカメラ本体部に着脱可能な記録媒体であり、撮影済み画像データ等を記録する。
図2は、撮像素子107の画素配列を示す概略図であり、2次元CMOSイメージセンサの画素配列を示している。図2の紙面に垂直な方向をz方向とし、左右方向をx方向とし、上下方向をy方向と定義する。撮像画素については4行4列の範囲で示し、副画素配列について4行8列の範囲で示す。図2(A)に示す2行2列の画素群200は、画素200R、200G、200Bから成る。R(赤)の分光感度を有する画素200Rは、図2の左上に位置し、G(緑)の分光感度を有する画素200Gは右上および左下に位置し、B(青)の分光感度を有する画素200Bは右下に位置している。さらに、各画素は1行2列に配列された第1の副画素201と第2の副画素202により構成されている。つまり、x方向における分割数をNxと表記し、y方向における分割数をNyと表記し、分割数をNLFと表記すると、図2(A)はNx=2、Ny=1、NLF=Nx×Ny=2の例を示している。第1の副画素201は、1つのマイクロレンズに対応する第1の光電変換部により構成され、第2の副画素202は、当該マイクロレンズに対応する第2の光電変換部により構成される。
図2(A)に示す例では、4列×4行の画素(8列×4行の副画素)を平面上に多数配置することで、撮像画像と、瞳分割された複数の視点画像とを取得可能である。撮像画像は1つの画素部(200R、2個の200G、200Rの組)から取得される画像である。複数の視点画像は視点の異なる画像であり、互いに視差を有する。撮像素子107により、分割数NLFに対応する複数の視点画像を生成するための入力画像を取得可能である。
撮像素子107における1つの画素200Gを、その受光面側(+z方向)から見た場合の平面図を図3(A)に示す。図3(A)にて紙面に垂直な方向をz方向とし、左右方向をx方向、上下方向をy方向と定義する。手前側を+z方向とし、右方向を+x方向、上方向を+y方向と定義する。図3(A)にてa−a切断線に沿って、−y側から見た場合の断面図を図3(B)に示す。図3(B)にて紙面に垂直な方向がy方向であり、左右方向がx方向、上下方向がz方向である。
画素200Gは、各画素の受光面側に入射光を集光するためのマイクロレンズ305が形成されている。カラーフィルタ306は、マイクロレンズ305よりも受光面側に形成される。必要に応じて、画素ごとに、または光電変換部ごとにカラーフィルタ306の分光透過率を変えてもよいし、カラーフィルタを省略しても構わない。
第1の光電変換部301と、第2の光電変換部302はそれぞれ、第1の副画素201と、第2の副画素202に対応する。第1の光電変換部301と第2の光電変換部302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオード、またはイントリンシック層を省略したpn接合フォトダイオードの構成をもつ。
画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルタ306での分光後に、第1の光電変換部301と第2の光電変換部302がそれぞれ受光する。光電変換部301,302では受光量に応じて電子とホール(正孔)が対生成され、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子の外部へ排出される。光電変換部301,302のn型層に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換されて画素信号として出力される。
光電変換部の分割数については2に限定されない。図2(B)、図3(C)、図3(D)には、Nx=2、Ny=2、NLF=4、つまり4分割の例を示す。画素配列に対応した入力画像から複数の視点画像を取得可能である。この場合、4分割された第1乃至第4の光電変換部301〜304からそれぞれ画素信号が出力される。第1乃至第4の光電変換部301〜304は、結像光学系の第1乃至第4の瞳部分領域にそれぞれ対応する。瞳部分領域は結像光学系の射出瞳領域を構成する部分領域である、第1乃至第NLF瞳部分領域のうちの、特定の瞳部分領域に対応した、所定の解像度をもつ第1視点画像乃至第NLF視点画像を生成することが可能である。
図4は、図3(A)および(B)に示す画素構造と瞳分割との対応関係を説明する概略図である。図4の下側には、画素構造のa−a線での切断面を、+y方向から見た場合の断面図を示し、上側には結像光学系の射出瞳面(射出瞳400参照)を、−z方向から見た場合の図を示す。Z方向は光軸方向であり、X方向およびY方向はZ方向にそれぞれ直交する方向である。図4では、射出瞳面の座標軸と対応を取るために、画素構造の断面図にてx軸とy軸を図3に示す状態とは反転させて示している。撮像素子は、撮影レンズ(結像光学系)の結像面近傍に配置され、被写体からの光束は、結像光学系の射出瞳400を通過して、それぞれの画素に入射する。撮像素子が配置された面を撮像面とする。図4では、2分割された第1瞳部分領域501と第2瞳部分領域502を例示する。
第1瞳部分領域501は、−x方向に重心が偏倚している第1の光電変換部301の受光面に対し、マイクロレンズ305によって、概ね共役関係になっている。つまり、第1瞳部分領域501は第1の光電変換部301で受光可能な瞳領域を表し、射出瞳面上で+X方向(図4の左方向)に重心が偏倚している。また、第2瞳部分領域502は、+x方向に重心が偏心している第2の光電変換部302の受光面に対し、マイクロレンズ305によって、概ね共役関係になっている。第2瞳部分領域502は第2の光電変換部302で受光可能な瞳領域を表し、射出瞳面上で、−X方向(図4の右方向)に重心が偏倚している。
瞳領域500は、第1の光電変換部301と第2の光電変換部302を全て合わせた受光面と、マイクロレンズ305によって、概ね共役な関係になっている。この領域は光電変換部301と光電変換部302とを合わせた画素200G全体での受光可能な瞳領域である。
図5に、各画素に形成されたマイクロレンズに光が入射した場合の光強度分布を例示する。図5(A)はマイクロレンズの光軸に平行な断面での光強度分布を示す。図5(B)はマイクロレンズの焦点位置において、マイクロレンズの光軸に垂直な断面での光強度分布を示す。入射光は、マイクロレンズにより、焦点位置に集光される。しかし、光の波動性による回折の影響のため、集光スポットの直径は回折限界Δより小さくすることはできず、有限の大きさとなる。光電変換部の受光面サイズは約1〜2μm程度であり、これに対してマイクロレンズの集光スポットが約1μm程度である。そのため、各光電変換部の受光面とマイクロレンズを介して共役の関係にある、図4の第1瞳部分領域501と第2瞳部分領域502は、回折ボケによって明瞭に瞳分割されず、光の入射角に依存した受光率分布(瞳強度分布)となる。
図6に、光の入射角に依存した受光率分布(瞳強度分布)例を示す。横軸は瞳座標を表し、縦軸は受光率を表す。図6に実線で示すグラフ線L1は、図4の第1瞳部分領域501のX軸に沿った瞳強度分布を表す。グラフ線L1で示す受光率は、左端から急峻に上昇してピークに到達した後で徐々に低下してから変化率が緩やかになって右端へと至る。また、図6に破線で示すグラフ線L2は、第2瞳部分領域502のX軸に沿った瞳強度分布を表す。グラフ線L2で示す受光率は、グラフ線L1とは反対(左右対称的)に、右端から急峻に上昇してピークに到達した後で徐々に低下してから変化率が緩やかになって左端へと至る。図示のように、緩やかに瞳分割されることがわかる。
図7は、撮像素子と瞳分割との対応関係を示す概略図である。第1の光電変換部301と第2の光電変換部302はそれぞれ、第1の副画素201と第2の副画素202に対応し、撮像素子の各画素において、第1瞳部分領域501と第2瞳部分領域502を通過した光束をそれぞれ受光する。各副画素で受光された信号から、光強度の空間分布および角度分布を示すライトフィールドデータ(以下、LFデータという)が、入力画像データとして取得される。LFデータから、画素ごとに特定の光電変換部の出力信号を選択することで、結像光学系の異なる瞳部分領域ごとに視点画像を生成することができる。例えば、画素ごとに、第1の副画素201の信号を選択することで、結像光学系の第1瞳部分領域501に対応した所定の解像度を有する視点画像(以下、第1視点画像という)を生成できる。一方、画素ごとに、第2の副画素201の信号を選択することで、結像光学系の第2瞳部分領域502に対応した所定の解像度を有する視点画像(以下、第2視点画像という)を生成できる。また、LFデータから、画素ごとに、分割された光電変換部の出力信号を全て合成することで、所定の解像度を有する撮像画像を生成できる。
以上のように本実施形態の撮像素子は、結像光学系の異なる瞳部分領域を通過する光束をそれぞれ受光する複数の光電変換部が設けられた画素部を複数配列させた構造を有し、LFデータを取得することができる。
図8を参照して、撮像素子により取得されるLFデータから生成される第1視点画像と第2視点画像のデフォーカス量と、像ずれ量との関係について説明する。図8は、第1視点画像と第2視点画像のデフォーカス量と、第1視点画像と第2視点画像との間の像ずれ量について概略的に示す関係図である。撮像面600には撮像素子が配置され、図4、図7と同様に、結像光学系の射出瞳が、第1瞳部分領域501と第2瞳部分領域502に2分割されるものとする。
図8のデフォーカス量dは、その大きさ|d|が被写体像の結像位置から撮像面600までの距離を表す。被写体像の結像位置が撮像面600よりも被写体側にある前ピン状態では、負符号(d<0)とし、これとは反対の後ピン状態では正符号(d>0)として向きを定義する。被写体像の結像位置が撮像面(合焦位置)にある合焦状態では、d=0である。図8に示す被写体801の位置は、合焦状態(d=0)に対応する位置を示す。被写体802の位置は前ピン状態(d<0)に対応する位置を例示する。以下では、前ピン状態(d<0)と後ピン状態(d>0)とを併せて、デフォーカス状態(|d|>0)という。
前ピン状態(d<0)では、被写体802からの光束のうち、第1瞳部分領域501(または第2瞳部分領域502)を通過した光束は、いったん集光した後、光束の重心位置G1(またはG2)を中心として幅Γ1(またはΓ2)に広がる。この場合、撮像面600上でボケ像となる。ボケ像は、撮像素子に配列された各画素部を構成する第1副画素201(または第2副画素202)により受光され、第1視点画像(または第2視点画像)が生成される。よって、第1視点画像(または第2視点画像)は、撮像面600上の重心位置G1(またはG2)にて、幅Γ1(またはΓ2)をもった被写体像(ボケ像)の画像データとしてメモリに記憶される。被写体像の幅Γ1(またはΓ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加する。同様に、第1視点画像と第2視点画像との間の被写体像の像ずれ量を「p」と表記すると、その大きさ|p|はデフォーカス量dの大きさ|d|の増加に伴って増加する。例えば、像ずれ量pは光束の重心位置の差「G1−G2」として定義され、その大きさ|p|は、|d|が増加するのに伴い、概ね比例して増加する。なお、後ピン状態(d>0)では、第1視点画像と第2視点画像との間の被写体像の像ずれ方向が前ピン状態とは反対となるが、同様の傾向がある。
したがって、本実施形態では、第1視点画像と第2視点画像、または、第1視点画像と第2視点画像を加算した撮像画像のデフォーカス量が増減するのに伴い、第1視点画像と第2視点画像との間の像ずれ量の大きさが増加する。
本実施形態では、複数の視点画像(第1視点画像から第NLF視点画像)のデフォーカス量と像ずれ量との関係性を用いて、撮像画像に対して、撮影後に、像ずれ量分布に基づき被写体の深度を修正する深度修正処理を行う。撮像素子により取得されたLFデータから、撮影後に、像ずれ量分布に基づいて、合焦近傍の被写体領域の深度が修正された画像を、深度修正画像という。
図9のフローチャートを参照して、深度修正画像を生成する画像処理方法について説明する。図9の処理は、CPU121および画像処理回路125によって実行される。
[多視点画像と撮像画像]
図9のステップS1では、撮像素子により取得されたLFデータから、結像光学系の異なる瞳部分領域ごとに、複数の視点画像の生成処理が行われ、結像光学系の異なる瞳部分領域を合成した瞳領域に応じた撮像画像の生成処理が行われる。
ステップS1において、まず、撮像素子107によりLFデータが取得されるか、または、予め撮像素子107により撮像されて記録媒体に保存されているLFデータが読み出される。次に、結像光学系の異なる瞳部分領域ごとに、第1視点画像から第NLF視点画像が生成される。入力画像データであるLFデータをLFと表記する。また、LFの各画素信号内での列方向i(1≦i≦Nx)番目、行方向j(1≦j≦Ny)番目の副画素信号を、k=Nx(j−1)+i(1≦k≦NLF)として、第k副画素信号とする。結像光学系の第k瞳部分領域に対応した、列方向i番目、行方向j番目の第k視点画像Ik(j,i)は、式(1)により生成される。
Figure 0006918485
例えば、Nx=2、Ny=1、NLF=2の場合、図2(A)に例示した画素配列に対応したLFデータから、画素ごとに、x方向にて2分割された第1副画素201と第2副画素202から特定の副画素の信号が選択される。結像光学系の第1瞳部分領域501と第2瞳部分領域502のうち、特定の瞳部分領域に対応した、所定の解像度を有するベイヤー配列のRGB信号である第1視点画像と第2視点画像を生成することができる。
ここで、第1視点画像と第2視点画像(第1視点画像から第NLF視点画像)の瞳ずれによるシェーディングについて説明する。図10に、撮像素子の周辺像高における第1光電変換部301が受光する第1瞳部分領域501、第2光電変換部302が受光する第2瞳部分領域502、および結像光学系の射出瞳400の関係を示す。尚、図4と同じ部分は同じ符号を付して示す。第1光電変換部301と第2光電変換部302(第1光電変換部から第NLF光電変換部)が、それぞれ、第1副画素201と第2副画素202(第1副画素から第NLF副画素)に対応する。
図10(A)は、結像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsが同じ場合を示す。この場合には、第1瞳部分領域501と第2瞳部分領域502により、結像光学系の射出瞳400が、概ね、均等に瞳分割される。これに対して、図10(B)は、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより短い場合を示す。この場合、撮像素子の周辺像高では、結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳400が、不均一に瞳分割されてしまう。図10(C)は、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより長い場合を示す。この場合も、撮像素子の周辺像高で結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳400が、不均一に瞳分割されてしまう。周辺像高で瞳分割が不均一になるのに伴い、第1視点画像と第2視点画像の強度も不均一になり、第1視点画像と第2視点画像のいずれか一方の強度が大きくなり、他方の強度が小さくなるシェーディングが、RGB信号成分ごとに生じる。
必要に応じて、各視点画像のシェーディングを改善するために、第1視点画像と第2視点画像(第1視点画像から第NLF視点画像)に、それぞれ、RGB信号成分ごとに、シェーディング補正処理(光学補正処理)を行ってもよい。また、必要に応じて、キズ補正処理や、飽和処理、デモザイキング処理等を行ってもよい。
図9のステップS1において、次に、結像光学系の異なる瞳部分領域を合成した瞳領域に応じた撮像画像(合成画像)を生成する処理が行われる。列方向にi番目で行方向にj番目の撮像画像I(j,i)は、式(2)により生成される。
Figure 0006918485
本実施形態では、Nx=2、Ny=1、NLF=2のx軸方向2分割を例示する。図2(A)に例示した画素配列に対応したLFデータから、画素ごとに、x方向にて2分割された第1副画素201と第2副画素202の信号が全て合成され、所定の解像度を有するベイヤー配列のRGB信号である撮像画像信号が生成される。必要に応じて、シェーディング補正処理、キズ補正処理、飽和処理、デモザイキング処理等を行ってもよい。図11に、本実施形態のデモザイキング処理された撮像画像を例示する。中央に被写体(人形)が配置され、左側に細かい市松模様の平板が手前から奥に渡って傾斜して配置されている。
以上のように本実施形態では、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の光電変換部が設けられた画素を複数配列した撮像素子により取得される入力画像から、異なる瞳部分領域ごとに、複数の視点画像を生成する。そして、異なる瞳部分領域を合成した瞳領域に応じた撮像画像が生成される。これに限らず、本実施形態も他の実施形態でも、公知の技術により複数の視点画像及びそれらの合成画像を取得できるものであれば適用可能である。例えば、複数の視点の異なるカメラを用いる方法では、複数のカメラを撮像素子107とみなすことができる。また、図2や図3の光学系と異なり、物体平面と撮像素子が共役の関係にあるように、マイクロレンズアレイ上で撮影光学系からの光束を結像させ、その結像面に撮像素子を設ける構成でもよい。さらには、マイクロレンズアレイ上で撮影光学系からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子を設けるような構成でもよい。また、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。
[コントラスト分布]
次に、コントラスト分布の算出処理について説明する。図9のステップS2では、本実施形態の撮像画像と複数の視点画像から、それぞれ、空間周波数の高周波帯域成分を領域ごとに抽出して、コントラスト分布を生成する処理が実行される。本実施形態のコントラスト分布に対して、視点画像間の差に応じた調整が行われる。
図9のステップS2において、まず、ベイヤー配列のRGB信号である撮像画像I(j,i)から、位置(j,i)ごとに、各色RGBの色重心を一致させて、撮像輝度信号Yが式(3A)により生成される。同様に、ベイヤー配列のRGB信号である第k視点画像Ik(k=1〜NLF)から、第k視点輝度信号Ykが式(3B)により生成される。
Figure 0006918485
ステップS2において、次に、空間周波数の高周波成分を抽出する2次元バンドパスフィルタを用いて、撮像輝度信号Y(j,i)から、撮像高周波信号dY(j,i)が式(4A)より生成される。2次元バンドパスフィルタを{FBPF(jBPF,iBPF)|−nBPF≦jBPF≦nBPF、−mBPF≦iBPF≦mBPF}とする。同様に、第k視点輝度信号Yk(j,i)(k=1〜NLF)から、第k視点高周波信号dYk(j,i)が式(4B)より生成すされる。
Figure 0006918485
本実施形態では、Nx=2、Ny=1、NLF=2のx方向2分割を例示する。x方向(瞳分割方向)の1次元フィルタFx(iBPF)と、y方向(瞳分割方向と直交する方向)の1次元フィルタFy(jBPF)との直積により、2次元バンドパスフィルタを構成する例を示す。すなわち、2次元バンドパスフィルタをFBPF(jBPF、iBPF)=Fy(jBPF)×Fx(iBPF)とする。瞳分割方向であるx方向の1次元フィルタFx(iBPF)には、x方向の空間周波数の高周波成分を抽出するため、例えば、0.5×[1、2、0、−2、−1]+1.5×[1、0、−2、0、1]等の1次元バンドパスフィルタを用いることができる。
ここで、1次微分型フィルタ[1、2、0、−2、−1]と2次微分型フィルタ[1、0、−2、0、1]を組み合わせた混合型フィルタとしている。一般的に、微分型フィルタ処理を行うと、フィルタ処理後の信号において、正符号から負符号に変化する部分にゼロ点が存在する。このため、絶対値演算と組み合わせることにより、空間周波数の高周波成分が含まれる領域に節が生じてしまう場合がある。節が発生する位置は、微分型フィルタの微分の次数により異なる。よって、本実施形態では、1次微分型フィルタと2次微分型フィルタ(一般には、異なる次数の微分型フィルタ)を組み合わせた混合型フィルタを用いることで、節の発生を抑制している。
必要に応じて、[1、2、0、−2、−1]等の1次微分型フィルタ、[1、0、−2、0、1]等の2次微分型フィルタ、高次微分型フィルタや、より一般的な1次元バンドパスフィルタを用いてもよい。瞳分割方向と直交する方向であるy方向の1次元フィルタFy(jBPF)には、y方向の高周波ノイズを抑制するため、例えば、[1、1、1、1、1]や[1、4、6、4、1]等の高周波カット(ローパス)フィルタを用いることができる。必要に応じて、x方向とy方向のいずれの方向に対しても、空間周波数の高周波成分を抽出するバンドパスフィルタ処理を行ってもよい。本実施形態では、2つの1次元フィルタの直積で構成される2次元バンドパスフィルタを例示したが、これに限定されず、一般的な2次元バンドパスフィルタを用いることができる。
図9のステップS2において、次に、Y>0として、撮像高周波信号dY(j,i)を、撮像輝度信号Y(j,i)により規格化した、規格化撮像高周波信号dZ(j,i)が式(5A)により生成される。同様に、第k視点高周波信号dYk(j,i)(k=1〜NLF)を、第k視点輝度信号Yk(j,i)により規格化した、規格化第k視点高周波信号dZk(j,i)が式(5B)により生成される。分母のY>0との最大値判定は、0による除算を防止するためである。必要に応じて、式(5A)、式(5B)での規格化前に、撮像輝度信号Y(j,i)、第k視点輝度信号Yk(j,i)に対して、高周波カット(ローパス)フィルタ処理を行い、高周波ノイズを抑制してもよい。
Figure 0006918485
ステップS2において、次に、低輝度閾値Ymin、コントラスト最大閾値Cmax、指数γとして、撮像コントラスト分布C(j,i)が式(6A)により生成する。式(6A)の1行目で、撮像輝度信号Y(j,i)が、低輝度閾値Yminより小さい場合、撮像コントラスト分布C(j,i)の値が0に設定される。式(6A)の3行目で、規格化撮像高周波信号dZ(j,i)が、コントラスト最大閾値Cmaxより大きい場合、撮像コントラスト分布C(j,i)の値が1に設定される。それ以外の場合には、式(6A)の2行目で、撮像コントラスト分布C(j,i)は、規格化撮像高周波信号dZ(j,i)をコントラスト最大閾値Cmaxで規格化してγ乗した値に設定される。同様に、第k視点コントラスト分布Ck(j,i)(k=1〜NLF)が式(6B)により生成される。
Figure 0006918485
以上のように、撮像コントラスト分布C(j,i)は、[0,1](0以上1以下)の範囲内の値をとる。C(j,i)の値については、0に近いとコントラストが低く、1に近いとコントラストが高いことを示す。撮像コントラスト分布C(j,i)の0から1までのトーンカーブを調整するためにγ乗されている。低コントラスト側での変化を緩やかに、高コントラスト側での変化を急峻にするために、指数γは1.5以上2.5以下の値である。必要に応じて、定義域[0,1]から値域[0,1]への関数F:[0,1]→[0,1]を用いて、合成関数F(C(j,i))を撮像コントラスト分布としてもよい。
本実施形態の撮像コントラスト分布C(j,i)の分布例を図12に示す。また第1視点コントラスト分布C(j,i)の分布例を図13に示し、第2視点コントラスト分布C(j,i)の分布例を図14に示す。図12から図14に示す分布例では、右側の[0,1]の範囲のグレースケール表示にてコントラストの高低の指標を表している。1近傍の白い部分はx方向の空間周波数の高周波成分が多く、高コントラスト領域を示す。また、0近傍の黒い部分はx方向の空間周波数の高周波成分が少なく、低コントラスト領域を示している。
本実施形態における複数の視点画像として、第1視点画像と第2視点画像との間の視差と、遠近競合やオクルージョンとの関係について、図15を用いて説明する。図15において、撮像面600に本実施形態の撮像素子(不図示)が配置され、図4、図7、図8と同様に、結像光学系の射出瞳が、瞳部分領域501と瞳部分領域502に2分割される。
図15(A)は、被写体q1の合焦像p1に、手前の被写体q2のボケ像Γ1+Γ2が重なって撮影され、撮影画像において遠近競合が生じている例である。この例を、結像光学系の瞳部分領域501を通過する光束と、結像光学系の瞳部分領域502を通過する光束に、それぞれ分けたものを、図15(B)、図15(C)に示す。
図15(B)では、被写体q1からの光束は、瞳部分領域501を通過して、合焦状態で像p1に結像する。手前(撮像面600側)の被写体q2からの光束は、瞳部分領域501を通過して、デフォーカス状態でボケ像Γ1に広がり、撮像素子の各画素の第1副画素201で受光される。第1副画素201の受光信号から、第1視点画像が生成される。第1視点画像では、被写体q1の像p1と手前の被写体q2のボケ像Γ1が重ならずに、異なる位置で撮影される。第1視点画像において、複数の被写体(被写体q1と被写体q2)の間で、遠近競合やオクルージョンが生じていない例である。
一方、図15(C)では、被写体q1からの光束は、瞳部分領域502を通過して、合焦状態で像p1に結像する。手前の被写体q2からの光束は、瞳部分領域502を通過して、デフォーカス状態でボケ像Γ2に広がり、撮像素子の各画素の第2副画素202で受光される。第2副画素202の受光信号から、第2視点画像が生成される。第2視点画像では、被写体q1の像p1と手前の被写体q2のボケ像Γ2が重なって撮影される。第2視点画像において、複数の被写体(被写体q1と被写体q2)の間で、遠近競合やオクルージョンが生じている例である。
図15の例にて、撮影画像において遠近競合やオクルージョンが生じている領域近傍では、撮影画像を構成する第1視点画像と第2視点画像とで遠近競合やオクルージョンが生じている状態が異なる。すなわち、第1視点画像と第2視点画像との間の差が大きくなる可能性が高いことを示している。したがって、複数の視点画像間の差が大きい領域を検出することにより、遠近競合やオクルージョンが発生している可能性が高い領域を推定することができる。
本実施形態の第1視点コントラスト分布C(j,i)と第2視点コントラスト分布C(j,i)との差分量分布C(j,i)−C(j,i)を図16に例示する。図16に示す分布例では、右側の[−1、1]の範囲のグレースケール表示にて、第1視点画像のコントラストと第2視点画像のコントラストとの差についての大小の指標を表している。このコントラスト差は、第1視点コントラスト分布と第2視点コントラスト分布との差分量に相当する。0近傍の黒い部分は、第1視点画像のコントラストと第2視点画像のコントラストとの間のコントラスト差が小さい領域を示している。一方、±1近傍の白い部分は、第1視点画像のコントラストと第2視点画像のコントラストとの間のコントラスト差が大きい領域を示している。
図16において、第1視点画像と第2視点画像とのコントラスト差が大きい白い領域として、中央下部で、主被写体(人形)の胴体と、市松模様の平板とで、遠近競合やオクルージョンを生じている領域が検出されている。また、遠近競合やオクルージョンを生じている領域以外に、第1視点画像と第2視点画像とで、空間周波数の高周波帯域成分が大きく変化している領域が検出されている。例えば、デフォーカス状態の被写体エッジ部のように、高いコントラストが保たれたまま像ずれ量が大きい領域等、第1視点画像と第2視点画像とで、空間周波数の高周波帯域成分が大きく変化している領域が検出される。これらの検出領域では、第1視点画像と第2視点画像とで、空間周波数成分が大きく異なる被写体像が、それぞれ撮影されている。そのため、第1視点画像と第2視点画像を合わせた撮像画像では、これらの検出領域は、空間周波数成分が大きく異なる複数の被写体像が混成している領域である。
これらの空間周波数成分が異なる複数の被写体像の混成領域に、先鋭化や平滑化等の画像処理を強く行うと、画質品位が低下する場合がある。したがって、本実施形態では、第1視点コントラスト分布と第2視点コントラスト分布との差分量分布の絶対値|C(j,i)−C(j,i)|を用いて、空間周波数成分が異なる複数の被写体像の混成領域の検出を行う。そして、検出された混成領域では先鋭化や平滑化等の画像処理が抑制して行われる。これにより、画質品位を良好に維持しつつ、先鋭化や平滑化の画像処理を行うことができる。
本実施形態では、図9のステップS2において、次に、空間周波数成分が異なる複数の被写体像の混成領域を検出するために、コントラスト差分量分布を生成する。詳細には、第1視点コントラスト分布C(j,i)と第2視点コントラスト分布C(j,i)から、式(7A)により、コントラスト差分量分布CDIFF(j,i)が生成される。次に、式(7B)により、撮像コントラスト分布C(j,i)に、コントラスト差分量分布CDIFF(j,i)を乗算する演算処理が行われる。これにより、空間周波数成分が異なる複数の被写体像の混成領域での値を0近傍に抑制したコントラスト分布MCON(j,i)が生成される。
Figure 0006918485
コントラスト差分量分布CDIFF(j,i)は、[0、1]の範囲の分布であり、視点画像間のコントラスト差が大きく、空間周波数成分が異なる複数の被写体像の混成が多い領域では0の値に近づく。またコントラスト差分量分布CDIFF(j,i)は、視点画像間のコントラスト差が小さく、空間周波数成分が異なる複数の被写体像の混成が少ない領域では1の値に近づく分布である。コントラスト分布MCON(j,i)は、撮像コントラスト分布C(j,i)に、コントラスト差分量分布CDIFF(j,i)を、かけ合わせた分布である。よって当該分布は、空間周波数成分が異なる複数の被写体像の混成領域での値を0近傍に抑制した分布である。
本実施形態のコントラスト分布MCON(j,i)の分布例を図17に示す。図17に示す分布例では、右側の[0,1]の範囲のグレースケール表示にてコントラストの高低の指標を表している。1近傍の白い部分は、x方向の空間周波数の高周波成分が多い高コントラスト領域を示している。0近傍の黒い部分は、x方向の空間周波数の高周波成分が少ない低コントラスト領域を示している。図12に示す撮像コントラスト分布C(j,i)に対して、第1視点コントラスト分布C(j,i)と第2視点コントラスト分布C(j,i)との差分量分布の絶対値|C(j,i)−C(j,i)|が大きい領域でのコントラスト値が抑制される。
本実施形態では、コントラスト差分量分布CDIFF(j,i)として、第1視点コントラスト分布と第2視点コントラスト分布との差分量分布の絶対値|C(j,i)−C(j,i)|に対して単調減少な線形関数を用いた。しかしこれに限られるものではなく、必要に応じて、より一般的な関数を用いてもよい。
以上のように本実施形態では、撮像画像と複数の視点画像から、視点画像ごとのコントラスト差に応じて、コントラスト分布MCON(j,i)が生成される。本実施形態のコントラスト分布は、視点画像ごとのコントラスト差が大きい領域より、コントラスト差が小さい領域の方が大きい。また、本実施形態のコントラスト分布は、所定の空間周波数帯域における撮像画像の空間周波数成分が少ない領域より、空間周波数成分が多い領域の方が大きい。また、本実施形態のコントラスト分布は、撮像画像の輝度が低い領域より、輝度が高い領域の方が大きい。
2回目以降の処理では、コントラスト分布MCON(j,i)の生成を省略し、処理時間を短縮するために、例えば分布データの記録処理が実行される。すなわち、生成されたコントラスト分布MCON(j,i)を、記録される画像データと関連付けてフラッシュメモリ等の記録媒体に記録する処理が行われ、必要に応じて分布データが参照される。
[像ずれ量分布]
図9のステップS3において、コントラスト分布MCON(j,i)の値が所定値以上である各位置(j,i)において第1視点画像と第2視点画像との相関(信号の一致度)に基づき、像ずれ量分布が生成される。
ステップS3では、まず、ベイヤー配列のRGB信号である第1視点画像Iから、式(3B)により生成された第1視点輝度信号Yに対して、瞳分割方向(列方向)に、1次元バンドパスフィルタ処理が行われる。これにより、第1焦点検出信号dYAが生成される。また、第2視点画像Iから、式(3B)により生成された第2視点輝度信号Yに対して、瞳分割方向(列方向)に、1次元バンドパスフィルタ処理が行われる。これにより、第2焦点検出信号dYBが生成される。1次元バンドパスフィルタとしては、例えば、1次微分型フィルタ[1、5、8、8、8、8、5、1、−1、−5、−8、−8、−8、−8、−5、−1]等を用いることができる。必要に応じて、1次元バンドパスフィルタの通過帯域を調整してもよい。
ステップS3では、次に、コントラスト分布MCON(j,i)の値が所定値(例えば、0.2)以上である各位置(j,i)において相関量が算出される。第1焦点検出信号dYAと第2焦点検出信号dYBを、相対的に瞳分割方向(列方向)にシフトさせて、信号の一致度を表す相関量を算出する処理が実行される。そして、相関量に基づいて像ずれ量分布MDIS(j,i)が生成される。一方、コントラスト分布MCON(j,i)の値が所定値(例えば、0,2)未満である各位置(j,i)は、像ずれ量の算出から除外される。像ずれ量の検出を、高コントラストで、かつ、遠近競合やオクルージョンが生じていない領域に限定することにより、像ずれ量の検出精度を高精度化し、処理を高速化することができる。
位置(j,i)を中心として行方向j(−n≦j≦n)番目、瞳分割方向である列方向i(−m≦i≦m)番目の第1焦点検出信号をdYA(j+j,i+i)、第2焦点検出信号をdYB(j+j,i+i)と表記する。
シフト量をs(−n≦s≦n)として、各位置(j,i)での相関量をCOREVEN(j,i,s)、相関量CORODD(j,i,s)と表記する。相関量COREVEN(j,i,s)は式(8A)により算出され、相関量CORODD(j,i,s)は式(8B)により算出される。
Figure 0006918485
相関量CORODD(j,i,s)は、相関量COREVEN(j,i,s)に対して、第1焦点検出信号dYAと第2焦点検出信号dYBのシフト量を半位相−1シフトずらした相関量である。相関量COREVEN(j,i,s)と相関量CORODD(j,i,s)から、それぞれ、サブピクセル演算により、相関量が最小値となる実数値のシフト量を算出して平均値が算出され、像ずれ量分布MDIS(j,i)が生成される。コントラスト分布MCON(j,i)の値が所定値(例えば、0.2)未満であり、像ずれ量の算出から除外された領域については、例えばMDIS(j,i)=0とする。必要に応じて、0以外の値を設定してもよい。
本実施形態の像ずれ量分布MDIS(j,i)の分布例を図18に示す。右側に[−6,6]の範囲のグレースケール表示を示す。図18に示す分布例では、コントラスト分布MCON(j,i)の値が所定値0.2以上で、像ずれ量が算出されている領域は、グレースケール表示にて、第1視点画像と第2視点画像との間の像ずれ量を1ピクセル(1画素)単位で表している。マイナス(−)符号の黒側の部分は、前ピン状態の領域を示す、0付近の部分は合焦近傍の領域を示す。プラス(+)符号の白側の部分は、後ピン状態の領域を示している。また、図18の分布例の表示では、コントラスト分布MCON(j,i)の値が所定値0.2未満で、像ずれ量の算出から除外される。つまり、MDIS(j,i)=0と設定された領域に関しては、黒色で表示している。
以上のように本実施形態では、複数の視点画像から、像ずれ量分布MDIS(j,i)が生成される。2回目以降の処理で、像ずれ量分布MDIS(j,i)の生成を省略し、処理時間を短縮するために、生成された像ずれ量分布MDIS(j,i)の記録処理が実行される。つまり像ずれ量分布データは、記録される画像データと関連付けてフラッシュメモリ等の記録媒体等に記録される。必要に応じて、像ずれ量分布MDIS(j,i)に、位置(j,i)と撮像レンズ(結像光学系)の絞り値、射出瞳距離等に応じた変換係数をかけて、視点画像内の被写体のデフォーカス量の分布を示すデフォーカス量分布に変換してもよい。
[像ずれ差分量分布]
図9のステップS4では、像ずれ量分布MDIS(j,i)と所定像ずれ量から、像ずれ差分量分布MDIFF(j,i)を生成する処理が実行される。ステップS4において、まず、深度修正処理を行いたい所定像ずれ量pが設定される。例えば、図18の像ずれ量分布MDIS(j,i)の例では、主被写体(人形)の目近傍の領域における像ずれ量は約2.5である。目近傍の領域を深度修正処理したい場合、所定像ずれ量p=2.5に設定される。
ステップS4において、次に、σ>0として、像ずれ量分布MDIS(j,i)、所定像ずれ量p、コントラスト分布MCON(j,i)から、像ずれ差分量分布MDIFF(j,i)が式(9)により算出される。
Figure 0006918485
像ずれ差分量分布MDIFF(j,i)は、像ずれ量分布MDIS(j,i)と所定像ずれ量pの差分の絶対値|MDIS(j,i)−p|に対して単調減少する線形関数と、コントラスト分布MCON(j,i)とを、かけ合わせた分布である。像ずれ差分量分布MDIFF(j,i)は、|MDIS(j,i)−p|<σで正、|MDIS(j,i)−p|=σで0、|MDIS(j,i)−p|>σで負となる。
コントラスト分布MCON(j,i)の値が所定値(例えば、0.2)未満であり、像ずれ量の算出から除外された領域は、MDIFF(j,i)=(1−|p|/σ)×MCON(j,i)とする。必要に応じて、他の値を設定してもよい。
本実施形態の像ずれ差分量分布MDIFF(j,i)の分布例を図19に示す。右側に[−1,1]の範囲のグレースケール表示を示す。コントラスト分布MCONの値が所定値0.2以上で、像ずれ量が算出されている領域では、グレースケール表示にて、像ずれ差分量を示している。プラス(+)符号の白側の部分は、像ずれ量分布MDIS(j,i)と所定像ずれ量pの差分の絶対値|MDIS(j,i)−p|が小さく、かつ、コントラストが高い領域を示している。マイナス(−)符号の黒側の部分は、像ずれ量分布MDIS(j,i)と所定像ずれ量pの差分の絶対値|MDIS(j,i)−p|が大きく、かつ、コントラストが高い領域を示している。また、図19の分布例の表示では、コントラスト分布MCON(j,i)の値が所定値0.2未満で、像ずれ量の算出から除外される。つまり、MDIFF(j,i)=(1−|p|/σ)×MCON(j,i)と設定された領域に関しては、黒色で表示している。
[修正視点画像]
図9のステップS5では、複数の視点画像に対して、像ずれ差分量分布MDIFF(j,i)に応じて、先鋭化および平滑化の処理が行われる。視点画像に対して、先鋭化および平滑化の処理が行われた画像を、修正視点画像という。第1視点画像から第NLF視点画像に対し、第1修正視点画像から第NLF修正視点画像がそれぞれ生成される。以下では2分割の例を説明する。
本実施形態にて、第1視点画像と第2視点画像に対して、像ずれ差分量分布が0以上(MDIFF(j,i)≧0)の領域では、視点画像間の差を拡大して視差を先鋭化する(クロストーク補正および先鋭化)処理が行われる。一方、像ずれ差分量分布が0未満(MDIFF(j,i)<0)の領域では、視点画像間の差を縮小して視差を平滑化する(クロストーク補正および平滑化)処理を行う。上記処理によって、第1修正視点画像と第2修正視点画像が生成される。
図9のステップS5において、まず、第1視点画像と第2視点画像に対して、処理の強さを指定する強度パラメータkct≧0が設定される。強度パラメータkctは、視点画像間の差を拡大して視差を先鋭化する(クロストーク補正および先鋭化)処理の強さ、もしくは、視点画像間の差を縮小して視差を平滑化する(クロストーク補正および平滑化)処理の強さを指定するパラメータである。
ステップS5において、次に、強度パラメータ分布Kct(j,i)が式(10)により設定される。強度パラメータ分布Kct(j,i)は、kctを比例係数として、像ずれ差分量分布MDIFF(j,i)に比例する。
Figure 0006918485
ステップS5において、次に、第1視点画像I(j,i)と第2視点画像I(j,i)(第1視点画像から第NLF視点画像)に対して、式(11A)、および、式(11B)の演算処理が行われる。第1修正視点画像MI(j,i)と第2修正視点画像MI(j,i)が生成される。
Figure 0006918485
式(11A)の処理は、強度パラメータ分布(像ずれ差分量分布)が0以上(Kct(j,i)=kct×MDIFF(j,i)≧0)の領域で、第1視点画像と第2視点画像との間の差を拡大して視差を先鋭化する処理である。つまり式(11A)を用いて、クロストーク補正および先鋭化の処理が実行される。
一方、式(11B)の処理は、強度パラメータ分布(像ずれ差分量分布)が0未満(Kct(j,i)=kct×MDIFF(j,i)<0)の領域で、第1視点画像と第2視点画像との間の差を縮小して視差を平滑化する処理である。つまり、式(11B)を用いてクロストーク補正および平滑化処理が実行される。
図20は、第1視点画像と第2視点画像との間の差を拡大して視差を先鋭化する(クロストーク補正および先鋭化)処理例をグラフで示した図である。横軸は画素位置を表し、縦軸は画素値(信号レベル)を表す。図20では、クロストーク補正および先鋭化の処理が行われる前の第1視点画像(修正前A)と第2視点画像(修正前B)の例を、破線のグラフで示す。また、式(11A)により、クロストーク補正および先鋭化の処理が行われた後の第1修正視点画像(修正後A)と第2修正視点画像(修正後B)の例を、実線のグラフで示す。複数の視点画像間の差を拡大して視差を先鋭化する処理により、処理前に視点画像間の差が大きい部分は、より拡大されるが、処理前に複数の視点画像間の差が小さい部分はあまり変化しない。このように、複数の視点画像間の視差が先鋭化されることがわかる。
一方、式(11B)を用いて平滑化する(クロストーク補正および平滑化)処理では、第1視点画像と第2視点画像との間の差が縮小され、複数の視点画像間の視差が平滑化される。
以上のように本実施形態では、複数の視点画像に対して、コントラスト分布および像ずれ量分布に応じた先鋭化および平滑化の画像処理を行う。コントラスト分布および像ずれ量分布に応じた画像処理は、必要に応じて、先鋭化の処理、平滑化の処理、または、これらの組み合わせ処理のいずれでもよい。
本実施形態では、式(7A)、式(7B)、式(9)、式(10)、式(11A)および式(11B)より演算処理が行われる。視点画像ごとのコントラスト差が大きい領域より、コントラスト差が小さい領域の方が、各視差画像への先鋭化や平滑化等の画像処理が強く行われる。また、コントラスト分布の小さい領域より大きい領域の方が、各視差画像への先鋭化や平滑化等の画像処理が強く行われる。
本実施形態では、式(9)、式(10)、式(11A)および式(11B)より、像ずれ量分布の所定シフト量からの差が小さい領域には、先鋭化の処理を行い、差が大きい領域には、平滑化の処理を行う。本実施形態では、式(9)、式(10)、式(11A)より、像ずれ量分布の所定シフト量からの差が大きい領域に比べて、差が小さい領域の方が、先鋭化の処理がより強く行われる。本実施形態では、式(9)、式(10)、式(11B)より、像ずれ量分布の所定シフト量からの差が小さい領域に比べて、差が大きい領域の方が、平滑化の処理がより強く行われる。
また本実施形態では、式(11A)および式(11B)より、複数の視点画像の画素ごとに、複数の視点画像間の差を拡大して視差を先鋭化しまたは、複数の視点画像間の差を縮小して視差を平滑化する処理を行い、複数の修正視点画像を生成する。式(11A)の先鋭化の処理、および、式(11B)の平滑化の処理は、各(j,i)画素に含まれる第1光電変換部の出力信号である第1視点画像I(j,i)と、第2光電変換部の出力信号である第2視点画像I(j,i)間の演算処理である。
[重み係数]
図9のステップS6では、像ずれ量分布MDIS(j,i)の値が所定像ずれ量p近傍である領域において被写界深度を微修正するために、重み係数を設定する処理が行われる。像ずれ差分量分布MDIFF(j,i)に基づいて、第1修正視点画像と第2修正視点画像ごとに重み係数が設定される。
ステップS6において、像ずれ差分量分布MDIFF(j,i)から、第1修正視点画像MI(j,i)の第1重み係数分布W(j,i)は、式(13A)により算出される。第2修正視点画像MI(j,i)の第2重み係数分布W(j,i)は、式(13B)により算出される。
Figure 0006918485
第1重み係数分布W(j,i)と第2重み係数分布W(j,i)との差は、|W(j,i)−W(j,i)|=max(MDIFF(j,i),0)となる。したがって、本実施形態では、像ずれ量分布の所定シフト量からの差が大きい領域よりも、差が小さい領域の方が、重み係数間の差|W(j,i)−W(j,i)|は大きい。必要に応じて、第1重み係数分布W(j,i)と第2重み係数分布W(j,i)に対して、高周波カット(ローパス)フィルタ処理を行い、平滑化してもよい。
[合成処理]
図9のステップS7では、第1修正視点画像と第2修正視点画像ごとに重み係数をかけて、式(14)により加算する処理(合成処理)が行われる。像ずれ量分布MDIS(j,i)に基づき深度修正された出力画像IS(j,i)が生成される。
Figure 0006918485
式(13A)の第1重み係数分布W(j,i)は第1修正視点画像MI(j,i)に乗算され、式(13B)の第2重み係数分布W(j,i)は第2修正視点画像MI(j,i)に乗算される。これにより、像ずれ量分布MDIS(j,i)の値が所定像ずれ量p近傍である領域での被写界深度を修正することができる。
本実施形態では、複数の視点画像から像ずれ量分布を生成し、像ずれ差分量分布に基づいて、複数の視点画像ごとに重み係数をかけて合成することにより、出力画像が生成される。
[深度修正可能範囲]
図21の概略図を参照して、本実施形態での合成処理による深度修正可能範囲について説明する。撮像面600には撮像素子(不図示)が配置され、図4、図7、図8の場合と同様に、結像光学系の射出瞳が、第1瞳部分領域501と第2瞳部分領域502に2分割される。
許容錯乱円径をδとし、結像光学系の絞り値をFとすると、絞り値Fでの焦点深度は、±F×δである。これに対して、Nx×Ny(例えば、2×1)に分割されて狭くなった瞳部分領域501(または502)の瞳分割方向(x方向)の実効絞り値F01(またはF02)は、F01=Nx×F(またはF02=Nx×F)となって暗くなる。第1修正視点画像(または第2修正視点画像)ごとの実効的な焦点深度は、±Nx×F×δであり、Nx倍深くなり、合焦範囲がNx倍に広がる。実効的な焦点深度「±Nx×F×δ」の範囲内では、第1修正視点画像(または第2修正視点画像)ごとに合焦した被写体像が取得されている。したがって、1つの修正視点画像の重み係数を1とし、他の修正視点画像の係数を0とすることにより、瞳分割方向の焦点深度を、概ね、Nx倍に深くすることができる。
しかしながら、図6の瞳強度分布例に示したように、画素部ごとに形成される、直径が数マイクロメートルのマイクロレンズと、複数に分割された光電変換部による瞳分割では、光の波動性による回折ボケのために、緩やかな瞳分割となる。そのため、第1視点画像と第2視点画像の瞳分割方向(x方向)の焦点深度が十分に深くならず、第1視点画像と第2視点画像を用いて深度修正処理をしても、深度修正効果が十分に得られない場合があり得る。
本実施形態では、合成処理による深度修正にて、複数の視点画像に対して、強度パラメータ分布(像ずれ差分量分布)が0以上(Kct(j,i)=kct×MDIFF(j,i)≧0)の画素ごとに、式(11A)を用いて処理を行う。すなわち、第1視点画像と第2視点画像との間の差を拡大して視差を先鋭化する(クロストーク補正および先鋭化)処理を行うことで、第1修正視点画像と第2修正視点画像が生成される。これにより、複数の修正視点画像の瞳分割方向(x方向)の実効的な絞り値Fを大きくし、焦点深度を深く修正することができ、深度修正効果を向上させることができる。
次に、図22のフローチャートを参照して、得られた深度修正画像の表示、および、深度修正画像に対して施す画像処理の内容を設定する方法について説明する。なお、図22に示す処理は、CPU121と画像処理回路125によって実行される。
図22のステップS101では、撮像装置のフラッシュメモリ133に記録された画像の中から、処理対象である画像が選択される。1枚または複数の画像が表示部131の画面上に表示され、ユーザは任意の画像を選択可能である。
次に、ステップS102で、図9で説明した深度修正画像(出力画像)の生成処理が実行される。ステップS102の時点では、撮影画像に施す画像処理の強弱および領域等に関して、ユーザが意図する設定が完了していない。そのため、ステップS102では、ユーザが設定しうる複数の条件について、深度修正画像の生成処理が行われる。本実施形態では、図9のステップS4で設定された所定像ずれ量pに関して、複数の条件で深度修正画像が生成されるものとする。例えば、所定像ずれ量pを、−3から+3まで、1刻みとする場合、7種類の深度修正画像が生成される。その際、上述の深度修正画像を生成する際の各種閾値や、σ、kct等の画像処理を行う領域、強弱を決定するパラメータとしては、初期設定値を用いる。これらのパラメータは、画像処理の強弱をユーザが決定する際に、変更すればよい。
次に、ステップS103では、生成された複数の深度修正画像に関して、画像処理効果が判定される。判定結果に基づき、画像処理効果が比較的大きく得られる領域が特徴領域として抽出される。本実施形態の深度修正処理は、上述の深度修正可能範囲で述べたとおり、焦点深度を分割数(Nx)倍程度に拡大するものである。一方で、撮像装置の表示部131は、撮像装置の携帯性等から画面の大きさに限界があるため、ユーザが深度修正を行うべき領域を設定したり、深度修正の効果を確認したりするのは困難であった。本実施形態では、CPU121と画像処理回路125は、ステップS103で、画像処理により効果が得られやすい領域(以下、効果大領域ともいう)について抽出を行う。処理の詳細は後述する。
次に、ステップS104で表示部131は、ステップS101で選択された処理画像を画面に表示する。その際には、ステップS103で抽出された効果大領域の表示も行われる。図23を参照して、効果大領域の表示について説明する。
図23は、ステップS101で選択された画像に対して、4つの枠701から704が重畳して表示されている例を示す。表示される枠の線の種類は、所定像ずれ量pと対応している。例えば、所定像ずれ量p=1の時に、画像処理の効果が大きい効果大領域は、実線で示すように被写体(人形)の目の周辺に配置された2つの枠(701,702)で示される。一方で、所定像ずれ量p=−2の時に、効果大領域は1点鎖線で示された枠(703)として表示される。また、所定像ずれ量p=2の時に効果大きい領域は、破線で示された枠(704)として表示される。また、所定像ずれ量によっては、画像処理効果が大きく得られる領域が存在しない場合もある。その場合、所定像ずれ量に対応した枠は表示されない。所定像ずれ量がどの値であっても効果大領域が存在しない場合には、その旨をユーザに通知し、他の処理画像の選択や再撮影を促がす処理が行われる。
本実施形態では、所定像ずれ量をパラメータとして、画像処理効果が大きい領域を区別して表示する構成を説明した、表示の区別に用いるパラメータは、これに限らない。例えば、所定像ずれ量を画像処理装置が決定し、他の画像処理を行う上でのパラメータとして、例えばシャープネスの強弱ごとに区別する表示を行ってもよい。これにより、ユーザは画像処理装置が推奨するシャープネスの強度等を、領域ごとに区別して認識しやすくなる。同様に、深度修正画像を生成する際の各種閾値や、σ、kct等の画像処理を行う領域、強弱を決定するパラメータごとに、それらを区別する表示を行ってもよい。
このように本実施形態では、ユーザが設定しうる処理内容を事前に想定し、複数の所定像ずれ量において、深度修正の画像処理効果が大きく得られる領域が表示される。ユーザは画像処理を行う前に、どの領域に着目して画像処理を行うべきかを容易に判断できる。また、所定像ずれ量ごとに表示枠を区別することにより、ユーザは、どの領域が同じような深度修正の効果が得られるかを容易に判別できる。
次のステップS105でCPU121は、ユーザの操作による拡大表示の指示があるか否かを判定する。拡大表示の指示がない場合には、ステップS107に進む。拡大表示の指示を受け付けた場合には、ステップS106に進む。拡大表示の指示については、例えば、ユーザが表示されている枠を表示部の画面上で、触れることにより行う。
ステップS106では、ステップS102で算出されている複数の所定像ずれ量に対応した画像の中から、表示する画像が選択される。拡大表示の際に選択される枠で、深度修正処理の効果が大きく得られる所定像ずれ量に対応した画像を選択し、選択された枠の領域近傍を拡大表示する処理が行われる。拡大表示の際、拡大率は5倍、10倍等所定の拡大率や被写体サイズに合わせた拡大率が設定され、あるいは、深度修正処理の効果が得られる領域の大きさに応じた拡大率が設定される。その際には、深度修正処理の効果が得られる領域が表示領域に含まれるように拡大処理が実行される。
また、深度修正処理の効果を確認できる拡大率に設定してもよい。深度修正領域の被写体パターンが高周波成分を多く含む場合には、より大きな拡大率にして、深度修正の効果を確認する必要がある。上述のコントラスト分布や他の方法を用いて、高周波成分の信号量が取得され、拡大率が設定される。また施されている画像処理の先鋭化や平滑化の強弱に応じて拡大率を設定してもよい。より強く先鋭化がなされている場合には、小さい拡大率でも、ユーザは画像処理効果を確認可能である。
画像表示の際には、画像処理効果の認識を容易にするため、処理前後の画像を交互表示してもよい。交互表示を行う際には、処理後の画像と画像処理領域を画素単位でハイライト表示等により強調した画像を用いてもよい。ハイライト表示では、画像処理領域の周囲の色に対して目立つ色が選択される。
交互表示等の表示方法は、画像処理効果がある領域をユーザに認識しやすくする一方で、施された画像処理効果そのものを認識しにくくなる場合がある。そのため、画像処理後の画像を表示している状態と、交互表示等の画像処理効果がある領域の強調表示の状態を、操作部材等により切り替えてもよい。例えば、ユーザが所定の操作部材を押している間のみ、強調表示が行われる。
このように、拡大の前後で、特徴領域としての効果大領域に対応する枠を表示する方法と、ハイライト表示等で、画素単位で特徴領域を表示する方法とを切り替えることで、表示形態に応じて、画像処理効果を認識しやすい表示方法を実現できる。
次に、ステップS107では画像処理内容の設定処理が行われる。例えば、第1修正視点画像MI(j,i)と第2修正視点画像MI(j,i)を生成する際の強度パラメータ(kct)が、ユーザの指示に従って設定される。設定内容に応じた画像処理が行われて、処理後の画像が表示される。ユーザによる画像処理内容としては、その他に、シャープネスの調整やガンマ補正等を行ってもよい。また、デフォルトの表示画像としては、深度修正効果が大きくなるように、所定像ずれ量が設定された状態の画像を表示しているが、ユーザの意図に応じて、所定像ずれ量を変更してもよい。
画像処理内容の設定後、拡大表示を中断し、全画面表示に変更される。その際には、画像処理効果がある領域に絞り込み、効果が得られる領域が表示される。図24は、画像処理の設定を終えた後の表示例を示す。画像処理効果の確認を、枠702内の画像を拡大して行った後の表示状態を示している。枠702の所定像ずれ量と等しい所定像ずれ量である枠701が表示される。枠702の所定像ずれ量と等しくない、その他の像ずれ量と対応する枠(703,704)については、非表示となる。このようにCPU121は、画像処理内容の決定処理にて、画像処理効果がある領域を決定する前後で、表示する特徴領域の絞り込みを行う。これは、ユーザの希望する深度修正領域が枠702であるとCPU121が判断したためであり、より画像処理効果のある領域が、わかりやすく表示される。またユーザは、拡大表示をしながら確認した領域以外に効果が得られる領域が存在することを容易に識別することができる。
次に、ステップS108に進み、画像処理の完了が検出されると、処理画像(処理済みの画像)の記録処理が実行される。CPU121は処理前の画像データに加えて、処理画像の画像データを記録媒体に記録する制御を行い、画像処理内容の設定を完了する。
図25のフローチャートを参照して、図22のステップS103に示した効果大領域の抽出に関するサブルーチンについて説明する。図25の処理はCPU121と画像処理回路125によって実行される。
図25のステップS201では、選択された画像の撮影条件の取得処理が行われる。撮影条件とは、撮影光学系のF値やISO感度の設定値に関する条件である。次に、ステップS202で、設定像ずれ量ごとの像ずれ差分量分布が取得される。その後、ステップS203へ進み、深度修正の効果が大きい領域の判定処理が行われ、画像全体および部分領域ごとの判定結果が取得される。まず、CPU121はステップS201で取得された撮影条件から、画像全体として、深度修正効果が得られるか否かを判定する。F値が小さく小絞りの場合には、デフォーカス量に対する像ずれ量が小さいため、像ずれ差分量分布が全体的に小さい値になりやすい。そのため、深度修正効果が、画像全体で得られにくい。また、ISO感度の設定値が大きい場合の画像では、画像信号のS/N比(信号対ノイズ比)が小さく、ノイズが信号に対して大きいため、信頼性のある像ずれ量を得にくい。また、深度修正効果も、画像信号に含まれるノイズの影響により、認識しにくい。
次にCPU121は、画像内の部分領域ごとの効果の大小を判定する。まず、被写体の奥行きと被写体距離を用いて、特徴領域として効果が大きい領域(効果大領域)を抽出する処理が行われる。撮影距離が所定距離の範囲外であって、近すぎる場合には、単位像ずれ量と対応する被写体空間(被写界にて被写体が占める空間)での深度修正が行われる奥行き方向の範囲が狭い。そのため、被写体の奥行きに対して、深度修正可能な画面内の領域が狭くなりがちとなる。同様に、撮影距離が所定距離の範囲外であって、遠すぎる場合には、単位像ずれ量と対応する被写体空間での深度修正が行われる奥行き方向の範囲が広い。そのため、被写体の奥行きに対して、深度修正可能な画面内の領域は広くなりがちとなる。言い換えると、適切に深度修正効果を得るためには、深度修正を行いたい被写体の奥行き方向の範囲と被写体の距離が、適切であることが必要である。
本実施形態では、被写体の奥行きに対して、深度修正可能な範囲が狭いことを、像ずれ差分量分布において、画像内の部分領域内の正値となっている画素の数で検出する処理が行われる。像ずれ差分量が正値となっている領域が小さい場合にCPU121は、先鋭化処理が行われる領域が狭く、効果が小さいと判定する。同様にCPU121は、被写体の奥行きに対して、深度修正可能な範囲が広いことを判定する。像ずれ差分量が正値となっている領域が大きい場合に、先鋭化処理が行われる領域が広いため、先鋭化と平滑化のメリハリのある効果が視認しづらく、効果が小さいと判定される。
また、像ずれ差分量分布の絶対値の大きさが、画像の領域のコントラストの大きさも示していることを利用して、CPU121は画像内の部分領域ごとの効果の大小を判定する。像ずれ差分量分布の値が正値であって、かつ値が所定の閾値より大きい領域が、一定以上の大きさがある場合には、効果大領域と判定される。また、像ずれ差分量分布にて正値の領域の周囲に負値の領域が存在する場合には、先鋭化処理と平滑化処理のメリハリにより、効果を大きく感じられるため、効果大領域と判定される。
効果大領域の判定の際には、深度修正により先鋭化される領域と平滑化される領域を分けて検出してもよい。つまり、先鋭化される領域と平滑化される領域とを、区別して表示することによって、ユーザは画像処理を行いたい領域の選択を容易に行える。
効果大領域の判定には、視差関連情報として、像ずれ差分量分布を用いたが、他の情報を用いてもよい。例えば、コントラスト分布、コントラスト差分量分布等が利用可能である。コントラスト分布からは、画像信号の高周波成分の大小が領域ごとに判断できる。高周波成分が多い領域の方が深度修正の効果が得られやすいことが判断される。また、コントラスト差分量分布では、異なる視点画像間のコントラストの差が大きい領域は、上述のとおり画像修正には不適切な場合がある。そのため、コントラスト差分量の値が大きい領域は、深度修正の効果が得られにくいと判断される。
また、像ずれ差分量分布は、像ずれ量分布とコントラスト分布から算出されるが、像ずれ量分布と所定像ずれ量pとの差を、視差関連情報として用いてもよい。所定像ずれ量pに対して、像ずれ量が大きい領域は、深度修正範囲外であると判断できる。
深度修正による効果が大きい領域の判定処理は、所定像ずれ量ごとに行われて、所定像ずれ量pと対応づけて、効果が大きい領域(効果大領域)をメモリに記憶する処理が実行される。この際、F値やISO感度の条件等によっては、所定像ずれ量や画面内の領域によらず、効果大領域が存在しない場合もある。この場合には、効果大領域が存在しないことがメモリに記憶される。ステップS203の終了後に、効果大領域の抽出のサブルーチンを完了する。
図26の具体例を用いて、効果大領域について説明する。図26は、図19の像ずれ差分量分布の一部(顔周辺の領域)を拡大した図である。領域1801は、像ずれ差分量分布の値が正値であって、大きい値を示している領域が所定の範囲以上に亘って存在する領域である。そのため、この領域は効果大領域と判定される。一方で、領域1803は、領域内でのコントラスト分布MCON(j,i)の値が所定値(例えば、0.2)未満であり、像ずれ量の算出から除外された領域であるため、先鋭化の効果や平滑化の効果が表れない領域である。そのため、領域1803は効果が小さい領域と判定される。領域1802は、被写体の目の領域より遠い側でコントラストを有するが、像ずれ差分量が0に近くないために、平滑化処理が行われる領域を示している。このような領域については平滑化による画像修正が行われるが、効果大領域として表示してもよい。
またCPU121は、効果大領域の抽出のために、被写体の顔や目等を検出し、被写体検出領域と効果大領域を合わせて、表示すべき領域を決定する。例えば、画像修正の効果が大きい領域として被写体の顔と衣服の両方が検出された場合に、被写体検出情報から、被写体の顔に絞り込むことができるので、ユーザは画像処理の対象領域の選択を容易に行える。
本実施形態では、ユーザが、深度修正の効果の大きい領域候補から、深度修正を確認する領域を選択し、画像修正を行う構成例を説明した。画像修正内容の決定方法はこれに限らない。例えば、深度修正の効果が大きい領域候補から、自動的に画像処理装置が領域を選択し、その領域に応じた画像修正を行ってもよい。その際には、公知の被写体検出情報を活用し、例えば、被写体の顔領域を優先的に修正する処理が行われる。
本実施形態によれば、合焦近傍の被写体領域を、暈け状態の前景や背景との対比により際立たせる効果を、撮影後に調整する処理において、画像内における効果が大きい領域を認識しやすくすることができる。よって、適切な画像処理の設定を容易に選択可能な画像処理装置を実現できる。
以上の説明では、撮像素子にて1つのマイクロレンズに対応する2つの光電変換部により取得される第1および第2視点画像を主に例示して画像処理を説明した。図2(B)、図3(C)、図3(D)に示す4分割の光電変換部を有する撮像素子の実施形態では4つの視点画像が生成される。つまり、結像光学系の第1乃至第4瞳部分領域の中の特定の瞳部分領域に対応した、所定の解像度を有するベイヤー配列のRGB信号である第1視点画像から第4視点画像(第1視点画像から第NLF視点画像)が生成される。画素ごとに、第1副画素201から第4副画素204の信号を全て合成することで、所定の解像度を有するベイヤー配列のRGB信号である撮像画像が生成される。撮像素子の各画素部における光電変換部については、分割数をさらに多くして、例えば、Nx=3、Ny=3、NLF=9や、Nx=4、Ny=4、NLF=16等の実施形態が可能である。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
107 撮像素子
121 CPU
125 画像処理回路
131 表示部

Claims (19)

  1. 視点の異なる複数の視点画像を取得する取得手段と、
    前記複数の視点画像から視差に関連する関連情報を算出する算出手段と、
    前記複数の視点画像に基づく画像データに深度を修正する画像処理を施して出力画像を生成する画像処理手段と、
    前記画像処理手段による画像処理の設定を行う設定手段と、
    前記関連情報を取得して前記出力画像における領域ごとの前記画像処理の効果を判定して判定結果を出力する判定手段と、
    画像データと、前記判定手段による判定結果とを表示手段に表示させる制御を行う表示制御手段と、を有し、
    前記画像処理手段は、前記複数の視点画像および前記関連情報を用いて、深度を修正する中心となる奥行きを示すパラメータの設定を行い、前記出力画像を生成して前記表示手段に出力し、
    前記表示制御手段は、異なる複数の前記パラメータに対応する判定結果を区別して前記表示手段に表示させる制御を行う
    ことを特徴とする画像処理装置。
  2. 前記画像処理手段は、前記複数の視点画像を合成して前記出力画像を生成する処理を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記関連情報は、前記複数の視点画像の間の像ずれ量分布、前記複数の視点画像に係る予め定められた空間周波数帯域の信号量、前記複数の視点画像のコントラストのうちの1つ以上を用いて算出される情報である
    ことを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記判定手段は、前記像ずれ量分布にて所定像ずれ量に対して像ずれ量が小さい領域、またはコントラスト分布の値が所定値より大きい領域を、前記画像処理の効果が大きい領域であると判定する
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記判定手段は、前記画像処理の設定に用いる、前記複数の視点画像に対して処理の強さを指定する強度パラメータを参照して前記画像処理の効果を判定する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記判定手段により、前記画像処理の効果が大きいと判定された特徴領域の画像、または当該特徴領域の画像および前記出力画像を表示する表示手段を有する
    ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記特徴領域から前記出力画像を決定する決定手段を有する
    ことを特徴とする請求項6に記載の画像処理装置。
  8. 前記画像処理手段は、前記複数の視点画像および前記関連情報を用いてパラメータの設定を行い、前記出力画像を生成して前記表示手段に出力し、
    前記表示手段は、前記パラメータに対応する画像処理の効果の程度ごと、または、前記パラメータの設定値ごとに、前記特徴領域を区別して表示する
    ことを特徴とする請求項6に記載の画像処理装置。
  9. 前記出力画像における被写体領域を検出する検出手段と、
    前記被写体領域および前記特徴領域から前記出力画像の領域を決定する決定手段と、を有し、
    前記表示手段は、前記決定手段により決定された領域を表示する
    ことを特徴とする請求項8に記載の画像処理装置。
  10. 前記表示手段は、前記特徴領域に対応する枠を表示する方法と、前記出力画像の画素単位で前記領域を表示する方法とを切り替える
    ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記表示手段は、前記特徴領域が得られない出力画像に対して、前記特徴領域が得られないことを通知する表示を行う
    ことを特徴とする請求項10に記載の画像処理装置。
  12. 前記設定手段により前記画像処理の内容が設定される前に、前記表示制御手段は、前記画像処理の効果が大きいと判定された画像を、前記表示手段に表示させる制御を行う
    ことを特徴とする請求項9に記載の画像処理装置。
  13. 前記画像処理手段は、前記画像処理の前に前記複数の視点画像に先鋭化または平滑化の処理を施す
    ことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記取得手段は、結像光学系の異なる瞳部分領域をそれぞれ通過した光を、複数の光電変換部により光電変換して得られた画素信号から生成される前記複数の視点画像を取得する
    ことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 請求項1乃至14のいずれか1項に記載の画像処理装置と、
    被写体を撮像する撮像素子と、を備える
    ことを特徴とする撮像装置。
  16. 前記撮像素子は、複数のマイクロレンズと、複数の光電変換部を有し、各マイクロレンズがそれぞれ前記複数の光電変換部に対応しており、
    前記各マイクロレンズに対応する前記複数の光電変換部より出力される信号から前記複数の視点画像の信号が生成されることを特徴とする請求項15に記載の撮像装置。
  17. 視点の異なる複数の視点画像を取得する工程と、
    画像処理手段による画像処理の設定を行う工程と、
    前記複数の視点画像から視差に関連する関連情報を算出する工程と、
    前記複数の視点画像に基づく画像データに対して、前記画像処理手段が深度を修正する画像処理を施して出力画像を生成する工程と、
    前記関連情報を取得して前記出力画像における領域ごとの前記画像処理の効果を判定して判定結果を出力する工程と、
    画像データと、前記判定結果とを表示制御手段が表示手段に表示させる制御を行う工程と、を有し、
    前記画像処理手段により、前記複数の視点画像および前記関連情報を用いて、深度を修正する中心となる奥行きを示すパラメータの設定が行われ、生成された前記出力画像が前記表示手段に出力され、
    前記表示制御手段により、異なる複数の前記パラメータに対応する判定結果を区別して前記表示手段に表示させる制御が行われる
    ことを特徴とする画像処理方法。
  18. 請求項17に記載の各工程を画像処理装置のコンピュータに実行させるためのプログラム。
  19. コンピュータに、請求項17に記載の各工程を実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。
JP2016252688A 2016-12-27 2016-12-27 画像処理装置および画像処理方法、プログラム、記憶媒体 Active JP6918485B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016252688A JP6918485B2 (ja) 2016-12-27 2016-12-27 画像処理装置および画像処理方法、プログラム、記憶媒体
US15/850,102 US10582129B2 (en) 2016-12-27 2017-12-21 Image processing apparatus, image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016252688A JP6918485B2 (ja) 2016-12-27 2016-12-27 画像処理装置および画像処理方法、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2018107654A JP2018107654A (ja) 2018-07-05
JP6918485B2 true JP6918485B2 (ja) 2021-08-11

Family

ID=62630810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016252688A Active JP6918485B2 (ja) 2016-12-27 2016-12-27 画像処理装置および画像処理方法、プログラム、記憶媒体

Country Status (2)

Country Link
US (1) US10582129B2 (ja)
JP (1) JP6918485B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10776992B2 (en) * 2017-07-05 2020-09-15 Qualcomm Incorporated Asynchronous time warp with depth data
CN107980219B (zh) * 2017-10-20 2021-08-20 深圳市汇顶科技股份有限公司 像素传感模块及图像撷取装置
KR102648198B1 (ko) * 2019-01-14 2024-03-19 삼성디스플레이 주식회사 잔상 보상부 및 이를 포함하는 표시 장치
JP7337562B2 (ja) * 2019-06-25 2023-09-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
JP7319840B2 (ja) * 2019-06-25 2023-08-02 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP7446080B2 (ja) 2019-10-15 2024-03-08 キヤノン株式会社 画像処理装置、撮像装置、制御方法、プログラム及び撮像システム
US20210264153A1 (en) * 2020-02-21 2021-08-26 CACI, Inc.- Federal Machine learning method and apparatus for detection and continuous feature comparison
KR102280184B1 (ko) * 2020-04-24 2021-07-29 (주)하이비젼시스템 위상 오토포커스 픽셀을 이용한 렌즈 모듈 액티브 얼라인 시스템
US20220239840A1 (en) * 2021-01-22 2022-07-28 Omnivision Technologies, Inc. Color cmos image sensor with diffractive microlenses over subpixel photodiode arrays adapted for autofocus
GB2608496B (en) * 2021-05-07 2024-04-24 Canon Kk Image processing apparatus and method, and image capturing apparatus and control method thereof, program, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4410804A (en) 1981-07-13 1983-10-18 Honeywell Inc. Two dimensional image panel with range measurement capability
JP3774597B2 (ja) 1999-09-13 2006-05-17 キヤノン株式会社 撮像装置
US7053953B2 (en) * 2001-12-21 2006-05-30 Eastman Kodak Company Method and camera system for blurring portions of a verification image to show out of focus areas in a captured archival image
US9124875B2 (en) * 2012-05-23 2015-09-01 Fujifilm Corporation Stereoscopic imaging apparatus

Also Published As

Publication number Publication date
JP2018107654A (ja) 2018-07-05
US20180184013A1 (en) 2018-06-28
US10582129B2 (en) 2020-03-03

Similar Documents

Publication Publication Date Title
JP6918485B2 (ja) 画像処理装置および画像処理方法、プログラム、記憶媒体
US10325356B2 (en) Image processing device, image processing method, imaging device, and recording medium for exclusively performing adjustment processing or viewpoint change processing
JP6972266B2 (ja) 画像処理方法、画像処理装置、および、撮像装置
US9531960B2 (en) Imaging apparatus for generating HDR image from images captured at different viewpoints and method for controlling imaging apparatus
JP6239855B2 (ja) 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置
JP6239857B2 (ja) 撮像装置およびその制御方法
JP2015215371A (ja) 焦点調節装置およびその制御方法
JP6381266B2 (ja) 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
JP2017184217A (ja) 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
JP2016038414A (ja) 焦点検出装置およびその制御方法、並びに撮像装置
JP2020191651A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP6370348B2 (ja) 画像処理装置および画像処理方法、撮像装置、プログラム、記憶媒体
US11032465B2 (en) Image processing apparatus, image processing method, imaging apparatus, and recording medium
US20220137328A1 (en) Image processing method, image processing device, and image pickup apparatus
JP2015145970A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6800648B2 (ja) 画像処理装置及びその制御方法、プログラム並びに撮像装置
JP7319840B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2020038319A (ja) 撮像装置及びその制御方法
JP2016009024A (ja) 焦点検出装置およびその制御方法、並びに撮像装置
JP2021135725A (ja) 画像処理装置及びその制御方法並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210721

R151 Written notification of patent or utility model registration

Ref document number: 6918485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151