JP2019047365A - 画像処理装置、画像処理装置の制御方法、撮像装置、プログラム - Google Patents
画像処理装置、画像処理装置の制御方法、撮像装置、プログラム Download PDFInfo
- Publication number
- JP2019047365A JP2019047365A JP2017169283A JP2017169283A JP2019047365A JP 2019047365 A JP2019047365 A JP 2019047365A JP 2017169283 A JP2017169283 A JP 2017169283A JP 2017169283 A JP2017169283 A JP 2017169283A JP 2019047365 A JP2019047365 A JP 2019047365A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- unit
- processing
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】適応的にダイナミックレンジ拡張された画像を出力すること。【解決手段】撮像装置は、撮像光学系の射出瞳における異なる瞳部分領域からの光を受光する複数の光電変換部により、視差を有する視差画像データを取得する。画像処理部24は視差画像データを用いてダイナミックレンジ(DR)拡張処理を行う。入力部1200には視差画像データが入力され、判定部1203は画像の明るさ情報と被写体の顔情報と画像に関連する距離情報に基づき、シーンに応じて露出合成処理またはトーンマッピング処理を選択する。判定部1203の判定結果にしたがって、合成HDR部1201は露出合成処理によるDR拡張を行い、トーンマッピングHDR部1202はトーンマッピング処理によるDR拡張を行う。【選択図】 図14
Description
本発明は、画像のダイナミックレンジ拡張処理の技術に関する。
瞳分割型撮像素子等により取得される瞳分割画像は、複数の視点で撮影された画像と等価であるため、多視点画像として扱うことで、より多くの情報を得ることができる。一方で、ダイナミックレンジ(以下、DRとも記す)拡張と呼ばれる技術では、同一被写体を複数の露出状態で撮影した画像が用いられる。例えば、基準となる適正露出と、基準よりも明るい露出や、基準よりも暗い露出等で取得される画像のデータを合成することで、撮像素子のダイナミックレンジでは表現できない画像を生成できる。
特許文献1や特許文献2には、瞳分割画像を低露出の画像としてDR拡張処理に利用する方法が開示されている。複数の撮像装置を用いることなく、また撮影条件を変更して複数回の撮影を行う必要がなく、1回の撮影で瞳分割画像を取得して簡単にDR拡張を行うことができる。
しかしながら、特許文献1および2に記載の技術では、シーンに応じてDR拡張の処理方法を選択することができない。その結果、適切な処理方法を選択することができない場合に不自然な画像が出力される可能性がある。
本発明は、適応的にダイナミックレンジ拡張された画像を出力することを目的とする。
本発明は、適応的にダイナミックレンジ拡張された画像を出力することを目的とする。
本発明の実施形態の装置は、視差を有する複数の画像データを取得する取得手段と、露出合成処理を行う第1の画像処理手段と、トーンマッピング処理を行う第2の画像処理手段と、取得された前記画像データに対して、前記第1および第2の画像処理手段のうち、どちらによってダイナミックレンジ拡張処理を行うかを決定する決定手段と、前記第1または第2の画像処理手段により処理された画像データを出力する出力手段と、を備える。
本発明によれば、適応的にダイナミックレンジ拡張された画像を出力することができる。
以下に、本発明の実施形態について、添付図面を参照して詳細に説明する。本実施形態の画像処理装置は、シーンに応じて適切なDR拡張の処理方法を選択する。DR拡張処理において、出力のダイナミックレンジとしてDR拡張後の広いレンジを利用できる場合には拡張されたダイナミックレンジがそのまま出力される。しかし、出力のダイナミックレンジは、実際のファイルフォーマットやディスプレイの規格等の制約を受けるため、拡張されたダイナミックレンジよりも狭くなる。つまり、DR拡張を行う過程で、出力のレンジに収まるようにDR処理を行う必要がある。本実施形態では、出力DRを限られた範囲に収めるために、2種類のDR拡張処理方法を用いる例を説明する。
第1の処理方法は、ローカルトーンマッピングまたは露出合成等と呼ばれる方法である。これは、基準となる画像で表現しきれない領域、例えば黒つぶれした領域や、白飛びした領域を中心に、これらの画像領域のデータを部分的に他の露出の画像のデータで置き換える方法である。画像を部分的に調整するために、画像全体のコントラストや印象を大きく変えることなく合成できるが、この方法は部分的に画像を変化させてしまうために、画像内の総体的な露出の関係が崩れる可能性がある。被写体の顔等のオブジェクト全体が暗いか、または明るい場合には自然な画像に合成できる反面、顔等のオブジェクトの部分的な領域のみについて合成処理を行うと、不自然な画像が出力される可能性がある。
第2の処理方法はトーンマッピングと呼ばれる方法である。まず露出の異なる複数の画像を、広いダイナミックレンジで合成する処理が行われ、処理結果の画像に対して出力の狭いレンジに収まるように全体を圧縮する処理が行われる。画像全体に亘って広いダイナミックレンジの画像が一度生成されるため、領域ごとの露出の相対関係が崩れることはない反面、DR圧縮によって画像全体のコントラストが低下する可能性がある。
以下では、本発明の好適な実施形態として、画像処理装置を撮像装置に適用した例を説明するが、DR拡張処理を行う各種装置に適用可能である。各種装置とは、パーソナルコンピュータやPDA等の情報処理装置、携帯電話端末や画像ビューワ等の携帯型電子機器、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー等である。
撮像装置の一例としてのデジタルカメラ(以下、単にカメラという)100の外観図を図1に示す。図1(A)はカメラ100の前面斜視図であり、図1(B)はカメラ100の背面斜視図である。
表示部28はカメラ本体部の背面に設けられ、撮影画像や各種情報を表示する。ファインダ16は、ユーザがフォーカシングスクリーンを観察することで、レンズ装置を通して得た被写体の光学像の焦点や構図の確認を行うために設けられた、覗き込み型の接眼ファインダである。ファインダ外液晶表示部43はカメラ本体部の上面に設けられ、シャッタ速度や絞り値等の様々な設定値を表示する。
モード切替スイッチ60は各種モードを切り替えるための操作部材であり、シャッタボタン61は撮影指示を行うための操作部材である。メイン電子ダイヤル71は回転操作部材であり、ユーザは回転操作により、シャッタ速度や絞り値等の設定値を変更できる。電源スイッチ72はカメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、選択枠の移動や画像送り等を行う際に使用される。十字キー74は4方向キーを有し、押された部分に応じた操作が可能である。その他にSETボタン75、ライブビュー(LV)ボタン76、画像拡大ボタン77、画像縮小ボタン78がある。再生ボタン79は撮影モードと再生モードとを切り替える操作ボタンであり、再生モードに移行すると、後述の記録媒体に記録された画像のうちで最新の画像が表示部28の画面に表示される。
端子カバー40は、外部機器との接続ケーブルをカメラ100と接続するコネクタ(不図示)を保護する部材である。ミラー12はクイックリターンミラーであり、不図示のアクチュエータによりアップダウン動作が行われる。通信端子10はカメラ本体部にレンズ装置が装着された状態にて両者の間で通信を行うための端子である。蓋202は記録媒体を格納するスロット部の開閉蓋である。グリップ部90は、ユーザがカメラ100を構える際に右手で握りやすい形状の保持部である。
図2は、カメラ100の構成例を示すブロック図である。レンズユニット150をカメラ本体部に装着して使用する形態を例示する。レンズユニット150による撮像光学系は複数枚のレンズから構成されるが、図には一枚のレンズ103のみ示す。通信端子6はレンズユニット150がカメラ本体部と通信するための端子であり、通信端子10はカメラ本体部がレンズユニット150と通信するための端子である。レンズユニット150は、通信端子6,10を介してシステム制御部50と通信する。レンズシステム制御回路4は、絞り駆動回路2を介して絞り1の制御を行い、AF(オートフォーカス)駆動回路3を介して、レンズ103を移動させて焦点調節の制御を行う。
ミラー12は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50からの指令にしたがってアップダウン動作する。ミラー12によって、レンズユニット150を通過した光束をファインダ16側と撮像部22側とに切り替えることができる。ミラー12は通常時にファインダ16へ光束を導く位置に配されるが、撮影が行われる場合やライブビュー表示の場合には、撮像部22へと光束を導くように跳ね上がって待避する。またミラー12は、その中央部が光の一部を透過するハーフミラーとなっており、光束の一部が焦点検出部11に入射する。焦点検出部11は焦点検出処理を行ってデフォーカス量情報をシステム制御部50に出力する。システム制御部50はデフォーカス量情報に基づいて位相差AF処理を行い、レンズユニット150の焦点調節を制御する。
ダウン状態のミラー12で反射された光は、フォーカシングスクリーン13、ペンタプリズム14、ファインダ16へ導かれる。撮影者は、ペンタプリズム14とファインダ16を介して、フォーカシングスクリーン13を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図を確認できる。AE(自動露出)センサ17は、2次元配列された光電変換素子で構成され、レンズユニット150を通して被写体の輝度を測定する。例えばAEセンサ17はBayer配列のR(IR)GB画素を有し、測色や被写体検出、測距等を行う。
シャッタ101は、システム制御部50の制御指令にしたがって、撮像部22の露光時間を制御可能なフォーカルプレーンシャッタである。撮像部22は撮像素子を備え、結像された光学像を電気信号に変換する。撮像素子はCCD(電荷結合素子)やCMOS(相補型金属酸化膜半導体)素子等を用いたイメージセンサである。例えば、撮像素子は、複数のマイクロレンズと、各マイクロレンズに対応する複数の光電変換部を有する画素構成の瞳分割型撮像素子である。各マイクロレンズ下の複数の光電変換部は、レンズ103を含む撮像光学系の射出瞳における異なる瞳部分領域からの光束をそれぞれ受光する。これにより各光電変換部により取得される信号は互いに視差を有する、異なる視点で撮像された信号となる。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換する。
画像処理部24は、システム制御部50の制御指令にしたがって所定の処理を行う。所定の処理とは、A/D変換器23からのデータ、または、メモリ制御部15からのデータに対する、各種の補正処理、現像処理、色変換処理、符号化および圧縮処理等である。本実施形態の現像処理はデモザイキング処理、WB(ホワイトバランス)補正処理、ガンマ補正処理等の少なくとも一部を含む処理である。現像処理が行われていない画像データをRAWデータとする。また、画像処理部24は、撮像素子の光電変換部から得られた視点の異なる複数の画像(視点画像)のデータを用いて画像処理を行う。画像処理部24は、複数の視点画像の視差情報を利用したリフォーカス処理、視点変更処理、明るさの違いを利用したハイダイナミックレンジ(以下、HDRと略記する)処理を行う。
さらに、画像処理部24は複数の視点画像間の位相差に基づいて像ずれ量を算出する。算出された像ずれ量は画像内の被写体の、奥行き方向の相対的な位置関係を示す深度情報に相当する。必要に応じて像ずれ量に対し、撮像素子やレンズ103に起因する係数(K値)を用いてデフォーカス量、さらには被写体距離等の深度情報に換算することができる。画像処理部24が利用する深度情報としてはこれに限らず、別の手段で生成または取得された深度情報を用いて各種画像処理を行ってもよい。
また、画像処理部24は、撮像された画像データを用いて所定の演算処理を行う。得られた演算結果に基づいてシステム制御部50が露光制御や測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF処理、AE処理、EF(フラッシュプリ発光)、AWB(オートホワイトバランス)処理が行われる。
メモリ制御部15は、A/D変換器23からの出力データ、または画像処理部24が処理したデータをメモリ32に記憶する処理を行う。メモリ32は、A/D変換器23によるデジタルデータや、表示部28に表示するための画像データを格納する。メモリ32は画像表示用のビデオメモリを兼ねている。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を有する。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に出力する。メモリ32に書き込まれた表示用の画像データはメモリ制御部15によって読み出され、D/A変換器19を介して表示部28の画面に表示される。表示部28は、液晶表示パネル等の表示デバイスを備え、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換されてメモリ32に蓄積されたデジタル信号をD/A変換器19がアナログ信号へ変換し、表示部28に逐次転送して表示することで、電子ビューファインダ機能が実現され、スルー画像表示(ライブビュー表示)が行われる。
ファインダ内液晶表示部41は、フォーカシングスクリーン13とペンタプリズム14との間に配置され、ファインダ内表示部駆動回路42により、AF枠(焦点検出枠)やカメラの設定状態を表すアイコン等を表示する。ファインダ外液晶表示部43には、ファインダ外表示部駆動回路44を介して、シャッタ速度や絞り等の設定値が表示される。
不揮発性メモリ56は、電気的に消去および記憶可能なメモリであり、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。プログラムとは、本実施形態にて後述する各種フローチャートの処理を実行するためのプログラムのことである。
システム制御部50はCPU(中央演算処理装置)を備え、カメラシステム全体を制御する。CPUは不揮発性メモリ56に記憶されたプログラムを実行することで、本実施形態の各処理を実現する。システムメモリ52にはRAM(Random Access Memory)が用いられる。システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等がシステムメモリ52に展開される。システムタイマ53は各種制御に用いる時間を計測する計時部である
ユーザは各種の操作部材を用いてシステム制御部50への指示が可能であり、図2ではモード切替スイッチ60、シャッタボタン61、第1シャッタスイッチ62および第2シャッタスイッチ64を示す。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等に切り替えるためのスイッチである。第1シャッタスイッチ62は、シャッタボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり、第1シャッタスイッチ信号SW1を発生する。SW1により、AF処理、AE処理、AWB処理、EF処理等が開始する。第2シャッタスイッチ64は、シャッタボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタスイッチ信号SW2を発生する。SW2により、一連の撮影動作が開始する。つまりシステム制御部50は、撮像部22の信号を読み出して記録媒体に画像データを書き込むまでの一連の撮影処理を開始する。
操作部70は、表示部28に表示される種々の機能アイコンや操作オブジェクト等を含む。例えば、メニュー画面が表示部28に表示され、ユーザは表示部28に表示されたメニュー画面を見ながら、十字キー74の4方向キーとSETボタン75を用いて各種設定を行うことができる。電源スイッチ72は、ユーザがカメラ電源のオン・オフ操作に使用する。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池装着の有無、電池の種類、電池の残量を検出する。電源部30は、一次電池または二次電池、ACアダプタ等からなる。電源制御部80はシステム制御部50からの指令にしたがってDC−DCコンバータを制御し、記録媒体200を含む各部へ電源供給を行う。
記録媒体I/F部18は、メモリカードやハードディスク等の記録媒体200とのインタフェース部である。撮影された画像データ等は記録媒体I/F部18を介して記録媒体200に記録される。また記録媒体200に記録されたデータは、記録媒体I/F部18を介してメモリ32に格納される。
通信部54は、無線通信または有線ケーブルによって映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットと接続可能である。通信部54は撮像部22による撮像画像データや、記録媒体200に記録された画像データを送信可能であり、また、外部機器から画像データ等の各種情報を受信可能である。
姿勢検知部55は加速度センサやジャイロセンサ等を有し、重力方向に対するカメラ100の姿勢を検知する。システム制御部50は姿勢検知部55により検知された姿勢に基づいて、ユーザがカメラを横に構えて撮影したのか、またはカメラを縦に構えて撮影したのかを判別する。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を画像ファイルに付加し、あるいは画像を回転して記録する処理を行う。
図3は、瞳分割型撮像素子における画素の配置例を模式的に示す図である。図3の紙面に垂直な方向をz方向とし、z方向に直交する横方向(左右方向)をx方向とし、x方向およびz方向に直交する縦方向(上下方向)をy方向と定義する。図3では、画素がx方向に4画素でy方向に4画素配列された領域を代表的に示している。
瞳分割型撮像素子は、撮影光学系の瞳領域を瞳分割方向に分割して、異なる瞳部分領域をそれぞれ通過した光束に基づく信号から複数の画像信号を生成可能である。具体的には、各画素の光電変換部が水平方向(瞳分割方向)に2分割されており、各光電変換部が副画素部として機能する。図3は、副画素部がx方向に8画素でy方向に4画素配列された領域を例示する。
図3の左上の2行2列の画素群210は、撮像素子に設けられた原色ベイヤー配列のカラーフィルタの繰り返し単位に対応している。従って、R(赤)の分光感度を有する画素210Rが左上に、G(緑)の分光感度を有する画素210Gが右上と左下に、B(青)の分光感度を有する画素210Bが右下に配置されている。また図3の右上の画素に代表的に示すように、各画素は、x方向にて2つに等分割された光電変換部を有する。左半分の光電変換部を第1副画素部211、右半分の光電変換部を第2副画素部212として利用可能である。
第1副画素部211から取得される画像と、第2副画素部212から取得される画像とが、1組の視点画像を構成する。したがって、1回の撮影によって2つの視点画像データを生成することができる。また、各画素の第1副画素部211と第2副画素部212で得られる信号を加算することで、加算信号を瞳分割がなされていない1つの通常画素の画素信号として利用することができる。
本実施形態では、各マイクロレンズに対応する各画素の回路が、瞳分割された複数の光電変換部で共通の電荷蓄積部(フローティングデフュージョン部:FD部)を有する。FD部への電荷の転送と、FD部の電荷のリセットを制御することにより、各副画素部からの電荷に基づく画素信号および各副画素部からの電荷が混合されて出力された画素信号が出力可能である。各副画素部に入射される異なる瞳部分領域を通過した光束に基づく光学像をA像、B像と呼び、各光学像に基づく信号(電荷)をA像信号、B像信号という。また各副画素部からの信号が混合された信号を(A+B)像信号という。(A+B)像は分割されていない光電変換部によって取得される画像に相当する。
本実施形態では、通常の撮影モードにて、撮像時に(A+B)像信号のみを読み出す。多視点撮影モードでは、(A+B)像信号に加えてA像信号が読み出される。各撮影モードでの記録処理では、読み出された各画像信号に対応する画像データが記録されるものとする。なお、各画素における光電変換部については2分割に限らず、4分割、9分割等、任意の分割が可能である。
次に図4および図5を参照して、カメラ100の撮影動作について、画像処理部24の動作を中心に説明する。図4は画像処理部24の構成を示すブロック図である。画像処理部24は、可逆圧縮処理部241、非可逆圧縮処理部242、現像処理部243、アンダー露出画像入力部244、適正露出画像入力部245、シェーディング補正部246、DR拡張部247を備える。図5に示す処理は、システム制御部50が撮影開始指示(例えば第2シャッタスイッチ64のオン)を検知したことによって開始される。システム制御部50は撮影準備処理で決定した露出条件に従って、絞り1およびシャッタ101の動作を制御し、撮像部22の露光が行われる。
図5のS101で画像処理部24は、システム制御部50を通じて撮像部22から(A+B)像とA像のデータを取得する。次のS110と、S120およびS121と、S130の各処理は並列処理として実行される。尚、メモリ32の空き状況や、画像処理部24の処理速度等に応じて、少なくとも一部を順序処理してもよい。
S110で可逆圧縮処理部241は、(A+B)像に対して可逆圧縮処理を行って可逆圧縮画像データを生成する。可逆圧縮画像データはメモリ制御部15を介してメモリ32に記憶される。また、S120で現像処理部243は、(A+B)像に対して現像処理を行い、現像処理されたデータはメモリ制御部15を介してメモリ32に記憶される。
S121で非可逆圧縮処理部242は、S120でメモリ32に記憶された現像処理後の(A+B)像に対して非可逆圧縮処理を行う。非可逆圧縮画像データが生成されるとともに、非可逆圧縮画像を縮小したサムネイル画像のデータが生成される。ここでは、非可逆圧縮画像を表示用画像とする。非可逆圧縮画像(表示用画像)とサムネイル画像の各データはメモリ制御部15を介してメモリ32に記憶される。
S130で可逆圧縮処理部241は、A像に対して可逆圧縮処理を行い、可逆圧縮画像データを生成する。生成されたデータはメモリ制御部15を介してメモリ32に記憶される。S110、S121、S130の処理が完了すると、S140に処理を進めて、画像処理部24は画像ファイルを生成する。画像処理部24は、(A+B)像とA像の可逆圧縮画像、表示用画像、サムネイル画像の各データをメモリ32から読み出して画像ファイルを生成する。次のS141で画像処理部24は、生成された画像ファイルを記録媒体200に保存し、撮影処理を終了する。
図6を参照して、画像ファイルの構成を説明する。図6(A)は画像ファイル1000の概念図である。1つのファイルに複数ページの画像データを格納したマルチページファイルに対応したファイルフォーマットの一例としてのTIFF(Tagged Image File Format)形式に準拠した画像ファイルの構造例を示す。画像ファイル1000は、TIFFヘッダ部1001、複数のIFD(Image File Directory)部1002〜1005、複数の画像データ部1006〜1009で構成される。
TIFFヘッダ部1001は、TIFF形式のファイル構造であることを識別するためのデータや、最初のIFD部へのオフセット等を格納する領域である。IFD部1002〜1005は、各画像データ部1006〜1009に格納される画像データに関連する付帯情報を格納する領域である。付帯情報とは、撮影情報やパラメータ等のメタデータA〜Dと、画像データ部1006〜1009までのオフセット値E〜H、次のIFD部へのオフセット等である。最後のIFD部には、次のIFD部が存在しないことを示す特定のオフセット値が格納される。メタデータA〜Dは、対応する画像データ部に格納されている画像データのサイズ(縦横の画素数)と、縮小画像であるかどうかの情報と、画像データがA像、B像、(A+B)像のうちのどの光学像に基づく画像信号に対応するかの情報を含む。従って、画像ファイル1000を用いた処理を行う装置は、IFD部1002〜1005を参照することで、画像データ群から用途に応じた適切な画像データを読み出すことができる。
変数X=0〜Nとして、XthIFD部はXth画像データ部に対応する。例えば、0thIFD部1002は、0th画像データ部1006に対応した領域である。IFD部1002〜1005のオフセット値E〜Hにより画像ファイル1000内の各画像データの開始位置が特定される。
図6(B)は、画像処理部24が生成する画像ファイル1100の構造例を示す図である。撮影時に生成された非可逆圧縮画像(表示用画像)、サムネイル画像、(A+B)像の可逆圧縮画像、A像の可逆圧縮画像を格納する画像ファイルを、TIFF形式で生成した場合の構造例を示す。
画像ファイル1100はTIFFヘッダ部1101、0thIFD部1102〜3rdIFD部1105、表示用画像部1106、サムネイル画像部1107、(A+B)像部1108、A像部1109で構成される。TIFFヘッダ部1101はTIFFファイル構造であることを識別するためのデータを格納する領域である。
0thIFD部1102は、表示用画像部1106に関連するメタデータAと表示用画像部1106までのオフセット値Eを格納する領域である。1stIFD部1103は、サムネイル画像部1107に関連するメタデータBとサムネイル画像部1107までのオフセット値Fを格納する領域である。2ndIFD部1104は、(A+B)像部1108に関連するメタデータCと(A+B)像部1108までのオフセット値Gを格納する領域である。3rdIFD部1105は、A像部1109に関連するメタデータDとA像部1109までのオフセット値Hを格納する領域である。これらオフセット値E〜Hにより、画像ファイル内の各画像データの開始位置を特定できる。
表示用画像部1106は、表示部28に画像を表示するために、画像処理部24により生成された表示用画像データを格納する領域である。例えば、表示用画像の形式はJPEG(Joint Photographic Experts Group)形式である。サムネイル画像部1107は、表示部28にて画像一覧画面等のインデックス表示を行う際等に使用するサムネイル画像データを格納する領域である。表示用画像に対応する縮小画像のデータを使用可能である。
(A+B)像部1108は、A像とB像を加算または合成した画像であって、現像処理前のいわゆるRAW形式の(A+B)像データを格納する領域である。A像部1109は、RAW形式のA像データを格納する領域である。(A+B)像信号からA像信号を減算することでB像信号を生成できる。A像信号とB像信号を用いてリフォーカス処理や視点変更処理、立体視画像生成処理等を行うことができる。
サムネイル画像や表示用画像といった汎用的な表示処理に用いられる現像処理後の画像データは、現像処理が必要な(A+B)像データや、視差画像を取り扱わないアプリケーションでは使用しないA像データよりも前に配置される。これにより、使用される可能性の高い画像データの読み出し開始までに要する時間を短縮することができる。なお、(A+B)像およびA像をRAW形式で格納する構成を説明したが、画像処理部24で可逆圧縮された画像データを格納する構成としてもよい。このような構成とすることで、画像ファイルのサイズを削減可能である。また(A+B)像とA像の各データを画像ファイルに格納する構成について説明したが、A像の代わりにB像のデータを記録する構成でもよい。この場合、多視点撮影モードにおいて読み出す画像信号を(A+B)像信号とB像信号とすればよい。
次に、2種類のDR拡張方法を例示して説明する。具体的には露出合成による処理方法とトーンマッピングによる処理方法である。ここでは露出合成処理を説明し、トーンマッピング処理については後述する。
図7〜図10を参照して、瞳分割画像ごとに瞳強度分布が異なること、およびそれに基づくシェーディング特性について説明する。図7は、センサ瞳面における瞳強度分布と撮像素子(センサ)の像面における入射角感度特性を説明するための図である。左側に瞳強度分布例を示し、中央に撮像光学系の模式図を示し、右側に入射角感度の特性例を示す。中央図において左側から順にセンサ瞳面J107、マイクロレンズアレイJ108、画素アレイJ109が配置される。撮像素子を構成する主画素J111は、副画素J110aと副画素J110bから構成されている。図9は画素位置とこれに対応する画素値との関係をグラフで示す図である。主画素J111から生成される画像が(A+B)像(図9の401ab)、副画素J110aの瞳分割画像がA像(図9のJ201a)、副画素J110bの瞳分割画像がB像(図9のJ201b)である。A像、B像の各データは、主画素J111を2つに瞳分割した副画素J110aまたは副画素J110bから生成されるため、(A+B)像に対して1段(1EV)アンダーの露出となる。
図7の瞳強度分布にて、X軸は画素位置を表し、瞳のケラレにより副画素J110aの瞳強度分布は実線に示すグラフ線J101aとなり、副画素J110bの瞳強度分布は点線で示すグラフ線J101bとなる。瞳強度分布を示すグラフ線J101a、J101bにそれぞれ対応する像面中央での入射角感度特性を、グラフ線J103a、J103bで示す。入射角感度特性は角度軸に対する感度を表す特性である。グラフ線J103aは副画素J110aの入射角感度特性を示し、グラフ線J103bは副画素J110bの入射角感度特性を示す。範囲J112は絞り等で制限される入射光の角度範囲である。像面中央では、副画素J110a、J110bに入射する光量は等しい。
また瞳強度分布を示すグラフ線J101a、J101bにそれぞれ対応する像面端での入射角感度特性を、グラフ線J105a、J105bで示す。グラフ線J105aは副画素J110aの入射角感度特性を示し、グラフ線J105bは副画素J110bの入射角感度特性を示す。像面端と像面中央とで結像位置が異なるので、像面端の入射角感度特性は像面中央に対して偏心したプロファイルとなる。このため像面端では、図7の場合、副画素J110aに入射する光量よりも副画素J110bに入射する光量の方が多くなる。
図8は、像面上の画素位置と画素値との関係を表すシェーディング特性のグラフを例示する。横軸Xは像面上の画素位置を表し、縦軸は画素値を表す。図8において、グラフ線J201aは副画素J110aのシェーディング特性を示し、グラフ線J201bは副画素J110bのシェーディング特性を示す。図7の像面中央の位置は、図8にてX=0に対応し、図7の像面端の位置は、図8にてX=500に対応する。各画像データに対し、図8のシェーディング特性の逆特性を表わすシェーディング補正係数を乗算することでシェーディング補正が行われる。図10はシェーディング補正係数のグラフを例示する。横軸Xは画素位置を表し、縦軸はシェーディング補正係数値を表す。グラフ線J401aはA像(図9のJ201a)に適用され、グラフ線J401bはB像(図9のJ201b)に適用される。
最終的に、(A+B)像を適正露出画像(図9のグラフ線402)とし、A像をアンダー露出画像(図9のグラフ線403)とし、このアンダー露出画像をシェーディング補正した補正後アンダー露出画像(図9のグラフ線404)が取得される。そして、適正露出画像と補正後アンダー露出画像において、像面の全面で1段分(1EV分)の露出差を得ることができるため、画像合成によりダイナミックレンジを拡張することができる。
最終的に、(A+B)像を適正露出画像(図9のグラフ線402)とし、A像をアンダー露出画像(図9のグラフ線403)とし、このアンダー露出画像をシェーディング補正した補正後アンダー露出画像(図9のグラフ線404)が取得される。そして、適正露出画像と補正後アンダー露出画像において、像面の全面で1段分(1EV分)の露出差を得ることができるため、画像合成によりダイナミックレンジを拡張することができる。
続いて図4、図9、図10、図11を参照し、露出合成処理における図2の画像処理部24の構成と動作を説明する。図10は画素位置とこれに対応するシェーディング補正係数との関係をグラフで示す図である。図4のシェーディング補正部246は、図9のアンダー露出画像(グラフ線403)のデータに対して、図10のシェーディング補正係数(J401a)を乗算することで、シェーディング補正を行う。分割瞳のケラレ量ムラによる明暗ムラが補正される。シェーディング補正に用いるシェーディング補正係数は図2の不揮発性メモリ56から読み出される。アンダー露出画像入力部244は、副画素J110a、J110bのうち一方の画素からアンダー露出画像のデータを取得する。適正露出画像入力部245は、副画素J110aから得られる画像データおよび副画素J110bから得られる画像データを加算した適正露出画像を取得する。
DR拡張部247は、補正後アンダー露出画像(図9のグラフ線404)と適正露出画像(図9のグラフ線402)とを画像合成してダイナミックレンジ拡張処理を行う。被写体の明るさに応じて、補正後アンダー露出画像(詳細には、後述のゲインアップ後アンダー露出画像)と適正露出画像との合成により、階調表現レンジの拡張された合成画像が生成される。
図11は、DR拡張部247の動作の説明図である。縦軸は画素値、横軸は被写体の明るさを表す。被写体の明るさ情報は、例えばシェーディング補正後のアンダー露出画像の画素値を参照することで取得できる。グラフ線301は補正後アンダー露出画像を表し、グラフ線303は適正露出画像を表す。TH2は画素の飽和レベルに相当する。撮像素子によって明るい被写体を適正露出で撮像した場合、画素値は飽和レベルでクリップされる。TH1は、適正露出の飽和レベルに対応する被写体の明るさを示す。点線で示すグラフ線302は補正後アンダー露出画像(グラフ線301)を1段ゲインアップした後のアンダー露出画像を表す。補正後アンダー露出画像は適正露出より1段アンダーの画像であり、1段のゲインアップによって、適正露出画像(グラフ線303)と明るさを合わせることができる。
DR拡張部247は、補正後アンダー露出画像と適正露出画像を比較し、領域ごとに輝度に基づいて差分絶対値和等を利用して最も類似している位置からシフト量を算出する。位置補正部247a(図4)はシフト量を用いて位置合わせを行う。そして判定部247bは、所定の画素位置における被写体の明るさが閾値TH1以上であるか否かを判定する。判定部247bの判定結果に応じて選択部247cは、補正後アンダー露出画像(グラフ線301)または適正露出画像(グラフ線303)のいずれかを選択する。選択部247cは、被写体の明るさが閾値未満である場合に適正露出画像(グラフ線303)を選択し、被写体の明るさが閾値以上である場合に補正後アンダー露出画像(グラフ線301)を選択する。DR拡張部247は、選択部247cにより補正後アンダー露出画像(グラフ線301)が選択された場合、補正後アンダー露出画像のデータのゲインアップを行う。被写体の明るさがTH1未満の画素位置では適正露出画像を出力し、それ以外の画素位置ではゲインアップ後のアンダー露出画像(グラフ線302)を出力することで、DR拡張された画像を出力することができる。
本法の動作手順について説明する。以下の手順に示す各処理はシステム制御部50によって制御され、不揮発性メモリ56内のプログラムをメモリ32に展開してCPUが実行することにより実現される。
[手順1]:DR拡張部247は、シェーディング補正部246から補正後アンダー露出画像(グラフ線301)を取得する。
[手順2]:DR拡張部247は、適正露出画像入力部245を介して適正露出画像(グラフ線303)を取得する。
[手順3]:位置補正部247aは、所定の画素位置における補正後アンダー露出画像(グラフ線301)と適正露出画像(グラフ線303)に対して位置合わせを行う。
[手順4]:判定部247bは、所定の画素位置における被写体の明るさが閾値(TH1)以上であるか否かを判定する。被写体の明るさが閾値以上である場合、次の[手順5]に進み、被写体の明るさが閾値未満である場合、[手順6]に進む。
[手順5]:選択部247cは、取得された補正後アンダー露出画像および適正露出画像のうち、補正後アンダー露出画像(グラフ線301)を選択する。
[手順6]:選択部247cは、取得された補正後アンダー露出画像および適正露出画像のうち、適正露出画像(グラフ線303)を選択する。
[手順7]:DR拡張部247は、[手順5]または[手順6]で選択された画像データに基づいて合成画像を生成する。このとき、被写体の明るさが閾値以上の画素位置では(すなわち、選択部247cにより補正後アンダー露出画像(グラフ線301)が選択された場合)、補正後アンダー露出画像のゲインアップ処理が行われる。ゲインアップ後のアンダー露出画像(グラフ線302)が生成される。
[手順1]:DR拡張部247は、シェーディング補正部246から補正後アンダー露出画像(グラフ線301)を取得する。
[手順2]:DR拡張部247は、適正露出画像入力部245を介して適正露出画像(グラフ線303)を取得する。
[手順3]:位置補正部247aは、所定の画素位置における補正後アンダー露出画像(グラフ線301)と適正露出画像(グラフ線303)に対して位置合わせを行う。
[手順4]:判定部247bは、所定の画素位置における被写体の明るさが閾値(TH1)以上であるか否かを判定する。被写体の明るさが閾値以上である場合、次の[手順5]に進み、被写体の明るさが閾値未満である場合、[手順6]に進む。
[手順5]:選択部247cは、取得された補正後アンダー露出画像および適正露出画像のうち、補正後アンダー露出画像(グラフ線301)を選択する。
[手順6]:選択部247cは、取得された補正後アンダー露出画像および適正露出画像のうち、適正露出画像(グラフ線303)を選択する。
[手順7]:DR拡張部247は、[手順5]または[手順6]で選択された画像データに基づいて合成画像を生成する。このとき、被写体の明るさが閾値以上の画素位置では(すなわち、選択部247cにより補正後アンダー露出画像(グラフ線301)が選択された場合)、補正後アンダー露出画像のゲインアップ処理が行われる。ゲインアップ後のアンダー露出画像(グラフ線302)が生成される。
次に図12を参照して、DR拡張用のUI(ユーザ・インタフェース)画面について説明する。図12は、図6(B)で説明した画像データが読み込まれた後に表示部28に表示されるUI画面4000の例を示す。操作者はUI画面4000を見ながら操作部70を操作し、解像感調整、ボケシフト、ゴースト低減、シャープネス、ガンマ調整に関する指示を行える。
図12の領域4001には、読み込んだ画像の現像結果が表示される。UI画面4000上でユーザが各種画像処理の操作を行った場合に、その処理結果が表示される。チェックボックス4002は、ユーザが解像感補正を行うかどうかを指示するための設定用オブジェクトである。解像感補正は、瞳分割による視差を利用して行う処理でピント位置をずらす(奥から手前)ことで行われる。スライダ4003は、ピント位置をずらす(奥から手前)量をユーザが調整するための操作用オブジェクトである。スライダ4004は、解像感補正の強さをユーザが設定するための操作用オブジェクトである。解像感補正の強さは、視差画像から取得された距離マップを考慮してデータに乗算するシャープネス処理の強さである。
チェックボックス4005は、ユーザがボケシフト処理を行うかどうかを指示するための設定用オブジェクトである。A像信号とB像信号は異なる光路を通るためボケの現れ方が異なる。(A+B)像信号を生成する際に、より好ましいボケとなるようにA像信号とB像信号との割合を調整する処理が行われる。選択ボタン4006は、領域を選択するモードに遷移するときのボケシフト領域選択用のボタンオブジェクトである。ボケシフト処理を行う領域については、画面全体が予め設定されているが、任意の領域に対して設定することもできる。そのための領域をユーザが設定する時に選択ボタン4006が使用される。チェックボックス4007は、ボケシフト処理が行われる領域を境界線で表示する機能の設定用オブジェクトである。これがチェック済みの場合、ボケシフトの範囲の境界線が領域4001上に表示される。スライダ4008は、ボケシフト処理でA像信号とB像信号のどちら側を使用するかを調整するための操作用オブジェクトである。スライダ4008を左右に動かすことで、A像信号とB像信号の使用割合の設定が行われる。
チェックボックス4009は、ユーザがゴースト低減処理を行うかどうかを指定するための設定用オブジェクトである。ゴースト低減処理は、A像信号とB像信号が異なる光路を通った信号であることを利用して、A像信号とB像信号の差分からゴースト成分を検出して除去する処理である。選択ボタン4010は、領域を選択するモードに遷移するときのゴースト低減領域選択用のオブジェクトである。ゴースト低減領域については画面全体が予め設定されているが、任意の領域に対して設定することもできる。チェックボックス4011は、ゴースト低減処理が行われる範囲を境界線で表示する機能の設定用オブジェクトである。設定されたゴースト低減範囲の境界線が領域4001上に表示される。
チェックボックス4012は、ユーザがシャープネス処理を行うかどうかを指定するための設定用オブジェクトである。スライダ4013は、シャープネスの強さを調整するための操作用オブジェクトである。ユーザはスライダ4013を操作して、画面全体のシャープネス調整を行うことができる。
チェックボックス4014は、ユーザがガンマ調整処理を行うかどうかを指定するための設定用オブジェクトである。ガンマ調整処理は、現像処理で行われるホワイトバランス調整にて入力画像のビット数を超えてしまうビットを現像後の画像に反映する時の調整量を設定する処理である。領域4015は、ガンマ調整処理に係る調整エリアである。
領域4015には、ヒストグラム4016とホワイトポイント4017が表示される。ヒストグラム4016は、(A+B)像信号の画素信号をホワイトバランス(WB)調整した結果として表示される。または副画素信号をWB調整した結果によって表示する例もある。ヒストグラム4016のホワイトポイント4017が表示される。ホワイトポイントとは、(A+B)像信号のWB調整結果であるRとGとBの値を、RAW画像のビット数と同じビットでクリップするポイントである。または副画素信号をWB調整した結果のRとGとBの値を、RAW画像のビット数と同じビットでクリップする例もある。ホワイトポイントを右に動かす操作によって、現像時にRAW画像のビット数を超えているデータを、画像に反映させる高輝度改善処理が行われる。
図13のフローチャートを参照して、UI画面4000を表示部28に表示する処理例を説明する。図13に示す処理は、操作者が操作部70を操作して図6(B)で説明した画像データを読み込むことで開始する。
S4010でシステム制御部50はUI表示の制御を行う。図12の画面4000、4002から4015までの各設定UIの表示処理が実行される。領域4001とヒストグラム4016とホワイトポイント4017は、後述する処理で表示される。S4020でシステム制御部50は(A+B)像信号の画素信号のWB調整を行う。S4030でシステム制御部50は、S4020でWB調整された信号からR,G,Bの各出力値を取得する。S4040でシステム制御部50は、副画素信号のWB調整を行う。S4050でシステム制御部50は、S4040でWB調整された信号からR,G,Bの各出力値を取得する。
S4060でシステム制御部50は、ヒストグラム4016の作成および表示処理を実行する。ヒストグラム4016は、S4030で取得された(A+B)像信号のWB調整後のデータ、または、S4050で取得された副画素信号のWB調整後のデータを使用して生成することができる。あるいは、2つの処理で算出されるデータの最大値を表示する方法でもよい。副画素信号から生成されるヒストグラムは、(A+B)像信号の場合と比べて開口率が異なるので、開口率を考慮してゲインアップ処理が行われる。
S4070でシステム制御部50は、現像された画像の表示に対応したホワイトポイント4017の位置を算出して描画処理を行う。S4080でシステム制御部50は、現像後の画像を領域4001内に表示させる処理を行う。
[第1実施例]
図14から図17を参照して、本発明の第1実施例を説明する。本実施例では、画像の明るさ情報と顔領域の情報を用いてDR拡張処理の選択を行う例を詳述する。尚、明るさや顔領域の検出方法は周知であるため、それらの説明を省略する。
図14から図17を参照して、本発明の第1実施例を説明する。本実施例では、画像の明るさ情報と顔領域の情報を用いてDR拡張処理の選択を行う例を詳述する。尚、明るさや顔領域の検出方法は周知であるため、それらの説明を省略する。
図14は本実施例における代表的な画像処理装置の構成図である。入力部1200は、DR拡張処理に必要な画像データを取得する。本実施例では、(A+B)像とA像の画像データが入力される。一般的なHDR合成処理では、複数の露出条件で撮影された画像を用いる事が多い。そのため、分割数が3以上の場合、例えば4分割された光電変換部を有する撮像素子であっても、基本的な原理は同様である。また入力部1200には、画像データとともに撮影時に取得したメタデータも入力される。特に、複数の露出条件で撮影された画像を扱う場合、各画像の露出が、基準となる画像の露出とどのくらい異なるのかを示す情報が合成に必要である。後述する判定処理に用いる明るさ情報や顔情報等について本実施例では、画像データから抽出する構成である。これらの情報を撮像時に撮像装置で検出しておき、メタデータとして読み込むことで、判定処理の高速化や効率化を図ることができる。
合成HDR部1201は、露出合成処理によりHDR処理を行い、トーンマッピングHDR部1202は、トーンマッピング処理によりHDR処理を行う。どちらの処理を適用するかを判定部1203が判定結果にしたがって決定する。出力部1204はいずれかのHDR処理が施された画像データを出力する。
図15のフローチャートを参照して、合成HDR部1201が行う露出合成処理について説明する。まずS5001では露出合成を行うために画像データが入力され、S5002でHDR処理に必要な前処理が行われる。次のS5003では画像を複数の領域に分割する処理が行われる。分割された領域ごとにS5004からS5007の処理が行われる。つまり、各領域に対する処理が終了しない場合、S5004の処理へ進み、すべての領域に対する処理が完了した場合にはS5008の処理に進む。
S5004では、領域ごとの明るさ情報が取得された後、次のS5005では画像内における被写体の顔領域の情報が取得される。S5006で合成HDR部1201は、現在注目している領域に処理対象となる画素が存在するか否かを判断する。判断結果として、処理対象の画素に、例えば白飛びのような、あらかじめ決められた閾値を超える画素等が存在する場合、S5007の処理へ進む。そのような画素が存在しない場合にはS5003へ処理を戻す。S5007で合成HDR部1201は、対象画素およびその周辺画素に対してローカルトーンマッピング処理を適用する。そしてS5003へ戻って、次の領域に対する処理が続行される。全ての領域に対して処理が行われた後、S5008に進み、必要なHDRの後処理が実行されて、一連の処理を終了する。
次に図16を参照して、トーンマッピングHDR部1202が行う処理について説明する。S5101では、トーンマッピング処理を行うために画像データが入力され、次のS5102でHDRの前処理が行われる。そしてS5103に進み、画像全体に対してトーンマッピング処理が適用される。入力画像データから、一度広いダイナミックレンジをもつ画像の生成処理が行われ、生成後の画像データに対して、あらかじめ定められたガンマ等の方法を用いてトーンマッピング処理が行われる。その結果、入力画像データと同じダイナミックレンジに圧縮されたデータが取得される。トーンマッピング処理でレンジを圧縮する際には、ガンマ以外の処理として、例えば彩度を変える処理等のように、既にいくつもバリエーションが提案されている。本実施例において処理方法の如何は問わない。S5103の処理後、S5104に進み、HDRの後処理が実行されて、一連の処理を終了する。
図17を参照して、判定部1203によって行われるDR拡張の判定および選択処理について説明する。まずS5301で処理対象となる画像データが入力される。S5302では画像の明るさ情報が取得される。明るさ情報については、白飛びや黒つぶれ等の箇所が判定される。この判定は、あらかじめ決められた閾値を用いて行われる。対象の画素値が閾値以上であるか否かによって白飛びや黒つぶれ等の該当箇所の存否が判定される。尚、既に別の処理等で算出されている判定結果が存在する場合には、当該判定結果を読み込んで流用してもよい。S5303では被写体の顔領域の情報が取得される。顔領域の情報についても、明るさ情報と同様に、既に算出されている判定結果を読み込むか、または新たに画像中の顔領域の判定処理が行われる。
S5304で判定部1203は、入力情報にしたがって処理方法の判定を行う。本実施例では最も簡易な判定例を示す。例えば、顔領域の中に白飛びがあり、かつDR拡張によって処理すべき領域であると判定された場合(S5304でYes)、S5305の処理に進む。他方、顔領域の中に白飛びがないか、またはDR拡張によって処理すべき領域でないと判定された場合(S5304でNo)、S5306の処理に進む。
S5305では、トーンマッピング処理を適用することが決定され、トーンマッピングHDR部1202が処理を実行する。またS5306では、露出合成処理を適用することが決定され、合成HDR部1201が処理を実行する。DR拡張処理を適用した後の画像データに対し、出力部1204は出力処理を行う。出力先についてはシステムの構成や、その時の設定等によって異なる。例えば、その他に適用すべき処理がない場合には直接メモリ上のファイルとしてデータが出力され、あるいはディスプレイ等の出力機器に対してデータが出力される。通常、DR拡張処理以外にも適用すべき画像処理は存在する。処理の順序にもよるが、各種処理が適用され、例えば、ノイズ除去や明るさ調整、覆い焼き効果のような明示的な部分補正や、周辺光量低下の補正のようなレンズ収差補正等がある。
本実施例によれば、画像の明るさ情報と被写体の顔情報に基づいてDR拡張処理を選択することで、適切にDR拡張された画像を出力することができる。
本実施例によれば、画像の明るさ情報と被写体の顔情報に基づいてDR拡張処理を選択することで、適切にDR拡張された画像を出力することができる。
[第2実施例]
次に本発明の第2実施例を説明する。本実施例では、第1実施例の判定処理に加えて、多視点画像に基づき、画像中の各領域における距離情報を利用した判定処理について説明する。尚、本実施例にて第1実施例と同様の構成や動作については既に使用した符号を用いることにより、それらの詳細な説明を省略し、主に相違点を説明する。
次に本発明の第2実施例を説明する。本実施例では、第1実施例の判定処理に加えて、多視点画像に基づき、画像中の各領域における距離情報を利用した判定処理について説明する。尚、本実施例にて第1実施例と同様の構成や動作については既に使用した符号を用いることにより、それらの詳細な説明を省略し、主に相違点を説明する。
図18は、本実施例の判定部1203が行う判定および選択処理の概要を示すフローチャートである。S5401からS5403はそれぞれ、図17のS5301からS5303と同じであるため、それらの詳細な説明を省略する。本実施例では、S5404で距離情報を取得し、明るさ情報、顔領域と併せて距離情報を加味して判定を行う。
S5404の距離情報は、撮像画像の奥行き方向の深度情報に相当し、多視点画像の情報から画像中の距離情報として取得される。距離マップと呼ばれる距離情報の取得方法はすでにいくつか提案されている。例えば、複数の視差画像中のエッジのズレを用いて、画像中の距離を推定する方法がある。
S5405では、画像中の距離情報に基づき、距離分布に応じて画像を複数の領域に分割する処理が行われる。例えば、カメラから遠い被写体(天空等)の領域と、カメラの近くに立っている人物等の被写体の領域を、画像中から判別する処理が実行される。判別結果に基づいて画像の分割処理が行われる。
S5406では、DR拡張処理を選択するための判定処理が行われる。判定条件は、例えば、明るさ情報から補正対象の画素が選定された後に、その対象画素が顔領域内であるか、またはS5405で分割した領域の一部に含まれていることである。この判定条件を満たす場合、S5407に進み、トーンマッピング処理の実行が決定され、判定条件を満たさない場合にはS5408に進み、露出合成処理の実行が決定される。
本実施例によれば、画像の明るさ情報や被写体の顔情報に加え、画像に関連する距離情報に基づいてDR拡張処理を選択することで、適切にDR拡張された画像を出力することができる。
本実施例によれば、画像の明るさ情報や被写体の顔情報に加え、画像に関連する距離情報に基づいてDR拡張処理を選択することで、適切にDR拡張された画像を出力することができる。
本発明の実施形態によれば、シーンに応じてHDR処理を適応的に選択することが可能となり、不自然な画像が出力されることを抑制できる。尚、本実施形態にて画像処理装置が行う上述の各種制御は、1つのハードウェアで行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
24 画像処理部
247 ダイナミックレンジ拡張部
1200 入力部
1201 合成HDR部
1202 トーンマッピングHDR部
1203 判定部
1204 出力部
247 ダイナミックレンジ拡張部
1200 入力部
1201 合成HDR部
1202 トーンマッピングHDR部
1203 判定部
1204 出力部
Claims (11)
- 視差を有する複数の画像データを取得する取得手段と、
露出合成処理を行う第1の画像処理手段と、
トーンマッピング処理を行う第2の画像処理手段と、
取得された前記画像データに対して、前記第1および第2の画像処理手段のうち、どちらによってダイナミックレンジ拡張処理を行うかを決定する決定手段と、
前記第1または第2の画像処理手段により処理された画像データを出力する出力手段と、を備える
ことを特徴とする画像処理装置。 - 前記決定手段は、画像の明るさ情報、被写体の顔領域の情報、画像に関連する距離情報のうち、1つ以上の情報を用いて、ダイナミックレンジ拡張を行う画像処理手段を決定する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記決定手段は、前記明るさ情報および前記顔領域の情報を取得し、前記顔領域にて明るさが閾値以上である領域または明るさが閾値より小さい領域が存在する場合、前記第2の画像処理手段によってダイナミックレンジ拡張を行うことを決定する
ことを特徴とする請求項2に記載の画像処理装置。 - 前記距離情報を用いて画像を複数の領域に分割する分割手段をさらに備え、
前記決定手段は、前記明るさ情報から設定される対象画素が前記顔領域または分割された領域に存在する場合、前記第2の画像処理手段によってダイナミックレンジ拡張を行うことを決定する
ことを特徴とする請求項2に記載の画像処理装置。 - 前記取得手段は、撮像光学系の異なる瞳部分領域を通過した光をそれぞれ受光する複数の光電変換部によって前記視差を有する複数の画像データを取得する
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 - 前記視差を有する複数の画像データは、前記複数の光電変換部のうちのいずれかにより得られる第1の画像データと、前記複数の光電変換部から得られる第2の画像データである
ことを特徴とする請求項5に記載の画像処理装置。 - 前記第1の画像処理手段は、被写体の明るさが閾値より小さい画素位置にて適正露出画像の画素値を出力し、被写体の明るさが閾値以上である画素位置にてゲインアップされたアンダー露出画像の画素値を出力する
ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。 - 請求項1から7のいずれか1項に記載の画像処理装置と、
撮像素子と、を備える撮像装置。 - 前記撮像素子は、複数のマイクロレンズと、各マイクロレンズに対応する複数の光電変換部を備え、
前記取得手段は、前記複数の光電変換部から前記視差を有する複数の画像データを取得する
ことを特徴とする請求項8に記載の撮像装置。 - 視差を有する複数の画像データを処理する画像処理装置にて実行される制御方法であって、
前記複数の画像データを取得する工程と、
取得された前記画像データに対して、第1の画像処理手段が行う露出合成処理、または第2の画像処理手段が行うトーンマッピング処理のうち、どちらによってダイナミックレンジ拡張処理を行うかを決定する工程と、
前記第1または第2の画像処理手段により処理された画像データを出力する工程と、を有する
ことを特徴とする画像処理装置の制御方法。 - 請求項10に記載の各工程を画像処理装置のコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017169283A JP2019047365A (ja) | 2017-09-04 | 2017-09-04 | 画像処理装置、画像処理装置の制御方法、撮像装置、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017169283A JP2019047365A (ja) | 2017-09-04 | 2017-09-04 | 画像処理装置、画像処理装置の制御方法、撮像装置、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019047365A true JP2019047365A (ja) | 2019-03-22 |
Family
ID=65814799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017169283A Pending JP2019047365A (ja) | 2017-09-04 | 2017-09-04 | 画像処理装置、画像処理装置の制御方法、撮像装置、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019047365A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110033418A (zh) * | 2019-04-15 | 2019-07-19 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
WO2021157917A1 (ko) * | 2020-02-06 | 2021-08-12 | 삼성전자 주식회사 | 깊이 정보에 기반한 이미지 보정 방법 및 장치 |
CN115914801A (zh) * | 2023-02-21 | 2023-04-04 | 哈尔滨学院 | 一种多光延时摄影控制系统 |
-
2017
- 2017-09-04 JP JP2017169283A patent/JP2019047365A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110033418A (zh) * | 2019-04-15 | 2019-07-19 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110033418B (zh) * | 2019-04-15 | 2023-03-24 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
WO2021157917A1 (ko) * | 2020-02-06 | 2021-08-12 | 삼성전자 주식회사 | 깊이 정보에 기반한 이미지 보정 방법 및 장치 |
CN115914801A (zh) * | 2023-02-21 | 2023-04-04 | 哈尔滨学院 | 一种多光延时摄影控制系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6873688B2 (ja) | 画像処理装置および画像処理方法、撮像装置、プログラム | |
US10009540B2 (en) | Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data | |
US9473698B2 (en) | Imaging device and imaging method | |
EP1689164B1 (en) | Method and device for creating enhanced picture by means of several consecutive exposures | |
US9258545B2 (en) | Stereoscopic imaging apparatus | |
CN108462830A (zh) | 摄像装置及摄像装置的控制方法 | |
CN104702824A (zh) | 摄像装置及摄像装置的控制方法 | |
JP2012049773A (ja) | 撮像装置および方法、並びにプログラム | |
JP5859061B2 (ja) | 撮像装置、画像処理装置、および、これらの制御方法 | |
JP2019047365A (ja) | 画像処理装置、画像処理装置の制御方法、撮像装置、プログラム | |
JP6608194B2 (ja) | 画像処理装置およびその制御方法ならびにプログラム | |
JP2011035643A (ja) | 多眼撮影方法および装置、並びにプログラム | |
JP2008301371A (ja) | 撮像装置および画像処理プログラム | |
JP5832353B2 (ja) | 撮像装置 | |
JP2004289383A (ja) | 撮像装置、画像データ生成方法、画像データ処理装置および画像データ処理プログラム | |
JP2015204470A (ja) | 撮像装置およびその制御方法ならびにプログラム | |
JP6706167B2 (ja) | 撮像装置、画像合成方法、およびプログラム | |
JP2010141609A (ja) | 撮像装置 | |
JP2019029778A (ja) | 撮像装置、および画像処理装置、画像処理方法 | |
JP5457240B2 (ja) | 立体撮像装置 | |
JP5747595B2 (ja) | 露出制御装置及びカメラ | |
JP5901780B2 (ja) | 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム | |
JP2019068342A (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 | |
US20180084201A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium | |
JP2019047380A (ja) | 画像処理装置、撮像装置および制御方法 |