JP2019068342A - 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 - Google Patents

画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 Download PDF

Info

Publication number
JP2019068342A
JP2019068342A JP2017194030A JP2017194030A JP2019068342A JP 2019068342 A JP2019068342 A JP 2019068342A JP 2017194030 A JP2017194030 A JP 2017194030A JP 2017194030 A JP2017194030 A JP 2017194030A JP 2019068342 A JP2019068342 A JP 2019068342A
Authority
JP
Japan
Prior art keywords
image
image data
pixel
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017194030A
Other languages
English (en)
Inventor
水野 高志
Takashi Mizuno
高志 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017194030A priority Critical patent/JP2019068342A/ja
Publication of JP2019068342A publication Critical patent/JP2019068342A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】表示機器の表示能力に基づいてHDR画像を生成することが可能な画像処理装置を提供する。【解決手段】画像処理装置(24)は、1つのマイクロレンズを共有して光学系の互いに異なる瞳領域を通過した光を受光する第1画素および第2画素のうち一方の画素から第1画像データを取得する第1取得手段(244)と、第1画素から得られる画像データおよび第2画素から得られる画像データを加算した第2画像データを取得する第2取得手段(245)と、表示機器の表示能力に基づいて、第1画像データと第2画像データとを合成した第1画像または第2画像データに基づく第2画像を生成する生成手段(243、247)とを有する。【選択図】図14

Description

本発明は、表示機器の表示能力に応じてHDR画像を作成することが可能な画像処理装置に関する。
従来、露出の異なる複数の画像を合成してHDR(High Dynamic Range)画像を作成する技術がある。特許文献1には、1つのマイクロレンズに複数の画素が割り当てられた瞳分割による複数の視点の画像を撮影し、その複数の視点の画像をHDR画像に合成する方法が開示されている。特許文献2には、複数の瞳分割画像に対してシェーディング補正を行ってHDR画像を作成する方法が開示されている。HDR画像の主なフォーマットとしては、Radilance、OpenEXR、JPEG−HDR等がある。
ところで、従来の表示機器で表示可能な画像は、RGBそれぞれ8ビットのJPEG等の標準画像である。しかし近年、表示機器の最大輝度が高くなり、8ビットを超えるビット数を持つ画像データであるHDR画像を表示可能な表示機器が登場している。HDR画像を表示可能な表示機器は、最大輝度が従来の表示機器の100nitsを超え、10ビット、12ビットの画像を扱うことができる。ただし、現在のところ、HDR画像を表示可能な機器と表示することができない機器とが混在している。
特開2015−144416号公報 特開2016−58993号公報
しかしながら、特許文献1や特許文献2に開示されている方法では、表示機器の表示能力に応じてHDR画像を作成することができない。
そこで本発明は、表示機器の表示能力に基づいてHDR画像を生成することが可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することを目的とする。
本発明の一側面としての画像処理装置は、1つのマイクロレンズを共有して光学系の互いに異なる瞳領域を通過した光を受光する第1画素および第2画素のうち一方の画素から第1画像データを取得する第1取得手段と、前記第1画素から得られる画像データおよび前記第2画素から得られる画像データを加算した第2画像データを取得する第2取得手段と、表示機器の表示能力に基づいて、前記第1画像データと前記第2画像データとを合成した第1画像または前記第2画像データに基づく第2画像を生成する生成手段とを有する。
本発明の他の側面としての撮像装置は、1つのマイクロレンズを共有して光学系の互いに異なる瞳領域を通過した光を受光する第1画素および第2画素を有する撮像素子と、前記画像処理装置とを有する。
本発明の他の側面としての画像処理方法は、1つのマイクロレンズを共有して光学系の互いに異なる瞳領域を通過した光を受光する第1画素および第2画素のうち一方の画素から第1画像データを取得するステップと、前記第1画素から得られる画像データおよび前記第2画素から得られる画像データを加算した第2画像データを取得するステップと、表示機器の表示能力に基づいて、前記第1画像データと前記第2画像データとを合成した第1画像または前記第2画像データに基づく第2画像を生成するステップとを有する。
本発明の他の側面としてのプログラムは、コンピュータに、前記画像処理方法を実行させる。
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。
本発明の他の目的及び特徴は、以下の実施形態において説明される。
本発明によれば、表示機器の表示能力に基づいてHDR画像を生成することが可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。
各実施形態における撮像装置の外観図である。 各実施形態における撮像装置のブロック図である。 各実施形態における画素配列図である。 各実施形態における画像処理部のブロック図である。 各実施形態における撮像装置の動作を示すフローチャートである。 各実施形態における画像ファイルの構造の説明図である。 各実施形態におけるセンサ瞳面における瞳強度分布と撮像素子(センサ)の像面における入射角感度特性の説明図である。 各実施形態におけるシェーディング特性の説明図である。 各実施形態における画像処理部の動作の説明図である。 各実施形態におけるシェーディング補正係数の説明図である。 各実施形態におけるダイナミックレンジ拡張部の動作の説明図である。 各実施形態における画像処理の操作画面である。 各実施形態における画像処理の操作画面を表示するフローチャートである。 第1の実施形態における画像処理方法のフローチャートである。 第2の実施形態における画像処理方法のフローチャートである。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
(第1の実施形態)
まず、第1の実施形態について説明する。本実施形態では、表示機器の表示能力に応じて、画像処理装置に記録されている瞳分割による複数の視点の画像を合成する例について説明する。
まず、図1を参照して、本実施形態における撮像装置100(デジタルカメラ)の外観構成について説明する。図1は、撮像装置100の外観図であり、図1(a)は撮像装置100の前面斜視図、図1(b)は撮像装置100の背面斜視図をそれぞれ示している。図1において、表示部28は、撮像装置100の背面に設けられており、画像や各種情報を表示する。ファインダ外表示部43は、撮像装置100の上面に設けられた表示部であり、シャッター速度や絞り等の撮像装置100の様々な設定値を表示する。シャッターボタン61は、撮影指示を行うための操作部である。モード切替スイッチ60は、各種モードを切り替えるための操作部である。端子カバー40は、外部機器と撮像装置100とを接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。
メイン電子ダイヤル71は、操作部70に含まれる回転操作部材である。メイン電子ダイヤル71を回すことにより、シャッター速度や絞り等の設定値の変更等を行うことができる。電源スイッチ72は、撮像装置100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は、操作部70に含まれる回転操作部材であり、選択枠の移動や画像送り等を行う。十字キー74は、操作部70に含まれ、上、下、左、右部分をそれぞれ押し込み可能な十字キー(4方向キー)である。十字キー74の押した部分に応じた操作が可能である。SETボタン75は、操作部70に含まれる押しボタンであり、主に選択項目の決定などに用いられる。LVボタン76は、操作部70に含まれ、メニューボタンにおいてライブビュー(LV)のONとOFFを切り替えるボタンである。動画撮影モードにおいては、動画撮影(記録)の開始、停止の指示に用いられる。拡大ボタン77は、操作部70に含まれ、撮影モードのライブビュー表示において拡大モードのONとOFF、および、拡大モード中の拡大率の変更を行うための操作ボタンである。再生モードにおいては、再生画像を拡大し、拡大率を増加させるための拡大ボタンとして機能する。縮小ボタン78は、操作部70に含まれ、拡大された再生画像の拡大率を小さくし、表示画像を縮小させるためのボタンである。再生ボタン79は、操作部70に含まれ、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。
クイックリターンミラー12は、システム制御部50からの指示に従って、不図示のアクチュエータによりアップ/ダウンされる。通信端子10は、撮像装置100がレンズ側(着脱可能)と通信を行うための通信端子である。接眼ファインダ16は、フォーカシングスクリーン13を観察することにより、レンズユニット150を介して取得した被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。蓋202は、記録媒体200を格納するスロットの蓋である。グリップ部90は、ユーザが撮像装置100を構えた際に右手で握りやすい形状を有する保持部である。
図2は、撮像装置100のブロック図である。図2において、レンズユニット150は、交換可能なレンズ103(撮像光学系)を有する。レンズ103は、通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150が撮像装置100側と通信を行うための通信端子である。通信端子10は、撮像装置100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、通信端子6、10を介してシステム制御部50と通信し、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1を制御し、また、AF駆動回路3を介してレンズ103の位置を変位させることで焦点を調節する。
AEセンサ17は、2次元状に配列された複数の光電変換素子を備えて構成され、レンズユニット150を通した被写体の輝度を測光する。本実施形態において、AEセンサ17はBayer配列を有するR(IR)GB画素の画素配列であり、測色、被写体検出、焦点検出等を行うこともできる。本実施形態において、AEセンサ17の画素数は、撮像部22の撮像素子の画素数よりも少ないため、撮像素子から得られる信号に基づく画像解析よりも解像度の低い解析結果となる。
焦点検出部11は、システム制御部50にデフォーカス量に関する情報を出力する。システム制御部50は、その情報に基づいてレンズユニット150を制御し、位相差AFを行う。クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50からの指示に従って、不図示のアクチュエータによりアップ/ダウンされる。ミラー12は、レンズ103から入射した光束をファインダ16側と撮像部22側とに切替えるためのミラーである。ミラー12は、通常時において、ファインダ16へ光束を導くよう反射させるように配されている。一方、ミラー12は、撮影が行われる場合やライブビュー表示の場合、撮像部22へ光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12は、その中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。ユーザは、ペンタプリズム14とファインダ16とを介して、フォーカシングスクリーン13を観察することにより、レンズユニット150を介して得られた被写体の光学像の焦点や構図の確認が可能となる。
シャッター101は、システム制御部50の制御により撮像部22の露光時間を自由に制御することが可能なフォーカルプレーンシャッターである。撮像部22は、レンズ103(撮像光学系)を介して形成された光学像を電気信号(アナログ信号)に変換するCCDセンサやCMOSセンサ等で構成される撮像素子110を有する。撮像素子110は、1つのマイクロレンズを共有して撮像光学系の互いに異なる瞳領域を通過した光を受光する第1画素および第2画素を有する。すなわち撮像素子110は、複数のマイクロレンズを有し、各マイクロレンズには複数の光電変換素子が割り当てられることで、各マイクロレンズ下の各光電変換素子にはレンズ103を含む撮像光学系の射出瞳における異なる瞳領域からの光束がそれぞれ入射される。これにより、各マイクロレンズ下の各光電変換素子から得られる信号は互いに視差を有する、異なる視点からの信号となる。A/D変換器23は、撮像部22から出力されたアナログ信号をデジタル信号に変換する。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対して、各種の画像処理を行う。具体的には、画像処理部24は、撮像装置100に起因する画素欠陥等の補正処理や、デモザイキング処理、ホワイトバランス補正処理、および、ガンマ補正処理等を含む現像処理、色変換処理、符号化・圧縮処理等を行う。本実施形態では、現像処理は上記の処理の少なくとも一部を含む処理を指し、これらの現像処理が行われていない画像のためのデータをRAWデータとする。本実施形態において、画像処理部24は、撮像素子110から得られた複数の視点の画像の画像データを用いて、それらの画像データの視差情報を利用したリフォーカス処理や視点変更処理等の画像処理を行う。また画像処理部24は、複数の視点の画像の画像データを用いて、明るさの違いを利用したHDR(ハイダイナミックレンジ)処理を行う。また画像処理部24は、撮像素子110からの複数の視点の画像間の位相差に基づく像ずれ量を算出する。算出された像ずれ量は、画像内の被写体の、奥行き方向の相対的な位置関係を示す深度情報である。深度情報は、必要に応じて、撮像素子110やレンズ103に起因する係数(K値)を用いてデフォーカス量、さらには被写体距離の深度情報に換算される。ただし、画像処理部24が利用する深度情報はこれに限定されるものではなく、別の手段で生成および取得された深度情報を用いて各種画像処理を行ってもよい。
また画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、得られた演算結果に基づいて露光制御および焦点検出制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行うことができる。また画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器23からの出力データは、画像処理部24およびメモリ制御部15を介して、または、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22により得られてA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。またメモリ32は、画像表示用のメモリ(ビデオメモリ)を兼ねている。
D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。これにより、メモリ32に書き込まれた表示用の画像データは、D/A変換器19を介して表示部28に表示される。表示部28は、LCD等の表示器上に、D/A変換器19からのアナログ信号に応じた表示を行う。このようにD/A変換器19は、A/D変換器23により一度A/D変換されてメモリ32に蓄積されたデジタル信号をアナログ変換し、表示部28に逐次転送する。これにより表示部28は、電子ビューファインダとして機能し、スルー画像表示(ライブビュー表示)を行うことができる。
ファインダ内表示部41は、駆動回路42を介して、現在オートフォーカスが行われている焦点検出点を示す枠(AF枠)や、撮像装置100の設定状態を表すアイコン等を表示する。ファインダ外表示部43は、駆動回路44を介して、シャッター速度や絞り等の撮像装置100の様々な設定値を表示する。不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等である。不揮発性メモリ56は、システム制御部50の動作用の定数や、後述する各種フローチャートを実行するためのプログラム等を記憶している。
システム制御部50は、少なくとも1つのプロセッサを有する制御部であり、撮像装置100の全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することにより、後述する本実施形態の各処理を実現する。システムメモリ52は、RAMであり、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。またシステム制御部50は、メモリ32、D/A変換器19、表示部28等を制御することにより表示制御を行う。
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。モード切替スイッチ60、第1シャッタースイッチ62、第2シャッタースイッチ64、および、操作部70は、システム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判定モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60の操作により、これらのモードのいずれかに直接切り替えることができる。または、モード切替スイッチ60の操作により撮影モードの一覧画面に一旦切り換えた後、表示された複数のモードのいずれかを選択し、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
第1シャッタースイッチ62は、撮像装置100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり、第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。操作部70は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部70は、シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75、LVボタン76、拡大ボタン77、縮小ボタン78、再生ボタン79等を含むが、これらに限定されるものではない。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(スルー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は、重力方向に対する撮像装置100の姿勢を検知する。システム制御部50は、姿勢検知部55により検知された姿勢に基づいて、撮像部22で撮影された画像が、撮像装置100を横に構えて撮影された画像であるか、縦に構えて撮影された画像なのかを判定可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加し、また、画像を回転して記録することが可能である。姿勢検知部55としては、加速度センサやジャイロセンサ等を用いることができる。
次に、図3を参照して、撮像素子110の画素配列について説明する。図3は、撮像素子110の画素配列図であり、横4画素×縦4画素配列された領域を代表的に示している。撮像素子110は、撮影光学系101の瞳領域を瞳分割方向に分割して、異なる瞳部分領域を通過した光束に基づく信号から複数の画像信号を生成可能に構成されている。具体的には、各画素の光電変換領域が水平方向(瞳分割方向)に2分割されており、各光電変換領域が副画素として機能する。従って、図3は、副画素が横8画素×縦4画素配列された領域とも言うことができる。
本実施形態において、図3の左上の2×2の画素群210は、撮像素子110に設けられた原色ベイヤー配列のカラーフィルタの繰り返し単位に対応している。従って、R(赤)の分光感度を有する画素210Rが左上に、G(緑)の分光感度を有する画素210Gが右上と左下に、B(青)の分光感度を有する画素210Bが右下に配置されている。また、図3の右上の画素に代表的に示すように、各画素は、横2×縦1に等分割された光電変換部を有しており、左半分の光電変換部が第1副画素(第1画素)211、右半分の光電変換部が第2副画素(第2画素)212として利用可能である。第1副画素211の出力を取得して得られる1つの画像と、第2副画素212の出力を取得して得られる1つの画像とが、1組の視点画像を構成する。したがって、撮像装置100は1回の撮影によって2つの視点画像を生成することができる。また、各画素の第1副画素211と第2副画素212で得られる信号を加算することで、瞳分割がなされていない1つの通常画素の画素信号として利用することができる。
本実施形態では、各マイクロレンズに対応する各画素の回路が、瞳分割された複数の光電変換部で共通の電化蓄積部(フローティングデフュージョン部:FD部)を有して構成されている。このため、FD部への電荷の転送と、FD部の電荷のリセットを制御することにより、各副画素からの電荷に基づく画素信号および各副画素からの電荷が混合されて出力された画素信号とが出力可能になっている。ここで各副画素に入射される異なる瞳部分領域を通過した光束に基づく光学像をA像、B像、各光学像に基づく信号(電荷)をA像信号、B像信号、各副画素からの信号が混合された信号を(A+B)像信号と便宜上呼ぶ。本実施形態では、通常の撮影モードとして、撮像時に(A+B)像信号のみを読み出し、多視点撮影モードとして(A+B)像信号に加えてA像信号を読み出し、各撮影モードでの記録では、読み出された各画像信号に対応する画像データを記録する。
次に、図4および図5を参照して、撮像装置100の撮影動作について、画像処理部24の動作を中心に説明する。図4は、画像処理部24のブロック図である。画像処理部24は、可逆圧縮処理部241、非可逆圧縮処理部242、現像処理部243、アンダー露出画像入力部244、適正露出画像入力部245、シェーディング補正部246、および、ダイナミックレンジ拡張部247を有する。ダイナミックレンジ拡張部247は、位置補正部247a、判定部247b、および、選択部247cを有する。
図5は、撮影動作(多視点撮影モードの動作)のフローチャートである。図5の各ステップは、主にシステム制御部50の指令に基づいて、画像処理部24の各部により実行される。図5の処理は、システム制御部50が撮影開始指示(例えば第2シャッタースイッチ64のオン)を検知したことにより開始する。システム制御部50は、撮影準備処理において決定した露出条件に従って絞り1およびシャッター101の動作を制御し、撮像部22を露光する。
まずステップS101において、画像処理部24は、システム制御部50を通じて、撮像部22から(A+B)像とA像とを取得する(読み出す)。続くステップS110と、ステップS120、S121と、ステップS130とは並列処理が可能であるが、メモリ32の空き状況や、画像処理部24の処理スピード等に応じて、少なくとも一部を順序処理してもよい。
ステップS110において、可逆圧縮処理部241は、(A+B)像に対して可逆圧縮処理を適用して可逆圧縮画像を生成し、メモリ制御部15を介してメモリ32に保存する。
ステップS120において、現像処理部243は、(A+B)像に対して現像処理を適用し、メモリ制御部15を介してメモリ32に保存する。続いてステップS121において、非可逆圧縮処理部242は、ステップS120でメモリ32に保存された現像処理後の(A+B)像に対して非可逆圧縮処理を適用して非可逆圧縮画像を生成するとともに、非可逆圧縮画像を縮小してサムネイル画像を生成する。ここでは、非可逆圧縮画像を表示用画像とする。画像処理部24は、非可逆圧縮画像(表示用画像)とサムネイル画像とを、メモリ制御部15を介してメモリ32に保存する。
ステップS130において、可逆圧縮処理部241は、A像に対して可逆圧縮処理を適用して可逆圧縮画像(A)を生成し、メモリ制御部15を介してメモリ32に保存する。
ステップS110、S121、S130の各処理が完了すると、ステップS140に進む。ステップS140において、画像処理部24は画像ファイルを生成する。すなわち画像処理部24は、可逆圧縮画像、可逆圧縮画像(A)、表示用画像、および、サムネイル画像をメモリ32から読み出して画像ファイルを生成する。なお、ステップS140にて実行される画像ファイルの生成処理および画像ファイル構成の詳細については後述する。続いてステップS141において、画像処理部24は、ステップS140にて生成した画像ファイルを、記録媒体200に保存し、撮影処理を終了する。
<画像ファイル構成>
次に、図6を参照して、画像ファイルの構成について説明する。図6(a)は、画像ファイル1000の概念図である。画像ファイル1000は、1つのファイルに複数ページの画像データを格納したマルチページファイルに対応したファイルフォーマットの一例としてのTIFF(Tagged Image File Format)形式に準拠した画像ファイルの構造を持つ。画像ファイル1000は、TIFFヘッダ部1001、複数のIFD(Image File Directory)部1002〜1005、複数の画像データ部1006〜1009で構成されている。
TIFFヘッダ部1001は、TIFF形式のファイル構造であることを識別するためのデータや、最初のIFD部へのオフセットなどを格納する領域である。IFD部1002〜1005はそれぞれ、画像データ部1006〜1009に格納される画像データに関連する撮影情報やパラメータ等のメタデータA〜D、画像データ部1006〜1009までのオフセット値E〜H、次のIFD部へのオフセットを格納する。最後のIFD部には、次のIFD部が存在しないことを示す特定のオフセット値が格納される。また、IFD部1002〜1005のそれぞれは、以下の情報をメタデータA〜Dに含んでいる。
・対応する画像データ部に格納されている画像データのサイズ(縦横の画素数)
・縮小画像であるかどうかの情報
・画像データがA像、B像、(A+B)像のうちのどの光学像に基づいた画像信号に対応するかの情報
従って、撮像装置100(画像処理部24)は、IFD部1002〜1005を参照することで、複数の画像データの中から用途に応じた適切な画像データを読み出すことができる。
0thIFD部1002は、0th画像データ部1006に対応した領域である。1つのIFD部は1つの画像データ部に対応しており、IFD部1002〜1005のオフセット値E〜Hにより画像ファイル1000内の各画像データの開始位置が特定される。
図6(b)は、撮像装置100(画像処理部24)が生成する画像ファイル1100の構造例を示す図である。ここでは、撮影時に生成した非可逆圧縮画像(表示用画像)、サムネイル画像、可逆圧縮画像((A+B)像)、可逆圧縮画像(A像)を格納する画像ファイルをTIFF形式で生成した場合の構造例を示している。
画像ファイル1100は、TIFFヘッダ部1101、0thIFD部1102〜3rdIFD部1105、サムネイル画像部1107、表示用画像部1106、(A+B)像部1108、A像部1109で構成されている。TIFFヘッダ部1101はTIFFファイル構造であることを識別するためのデータを格納する。0thIFD部1102は、表示用画像部1106に関連する撮影情報やパラメータなどのメタデータAと表示用画像部1106までのオフセット値Eを格納する。1stIFD部1103は、サムネイル画像部1107に関連する撮影情報やパラメータなどのメタデータBとサムネイル画像部1107までのオフセット値Fを格納する。2ndIFD部1104は、(A+B)像部1108に関連する撮影情報やパラメータなどのメタデータCと(A+B)像部1108までのオフセット値Gを格納する。3rdIFD部1105は、A像部1109に関連する撮影情報やパラメータなどのメタデータDとA像部1109までのオフセット値Hを格納する。これらオフセット値E〜Hにより、画像ファイル内の各画像データの開始位置を特定することができる。
表示用画像部1106は、表示部28等に表示するために画像処理部24で生成された表示用画像を格納する領域である。本実施形態において、表示用画像はJPEG形式である。サムネイル画像部1107は、表示部28等にメモリ32の画像一覧画面などのインデックス表示を行う際等に利用するためのサムネイル画像を格納する領域であり、表示用画像を間引くなどして縮小した画像である。(A+B)像部1108は、A像とB像を加算または合成した画像であって、現像処理前のいわゆるRAW形式の(A+B)像を格納する領域である。A像部1109は、RAW形式のA像を格納する領域である。(A+B)像からA像を減算することでB像に相当する画像を生成することができる。A像とB像とから、リフォーカス処理や視点変更処理、立体画像生成処理等を行うことができる。
サムネイル画像や表示用画像等の汎用的な表示処理に用いられる現像処理後の画像のデータを、現像処理が必要な(A+B)像や、複数の視点の画像を取り扱わないアプリケーションでは使用しないA像よりも前に配置している。このため、使用される可能性の高い画像データの読み出し開始までに要する時間を短縮することができる。なお本実施形態において、(A+B)像およびA像をRAW形式で格納する構成としたが、画像処理部24で可逆圧縮した画像データを格納する構成としてもよい。このような構成により、画像ファイルのサイズを削減することが可能である。また本実施形態において、(A+B)像とA像を画像ファイルに格納する構成について説明したが、A像の代わりにB像を記録する構成としてもよい。この場合、多視点撮影モードにおいて読み出す画像信号を(A+B)像信号とB像信号とすればよい。
<ダイナミックレンジ拡張手法>
次に、本実施形態におけるダイナミックレンジ拡張処理の手法を詳述する。まず、図7乃至図10を参照して、複数の副画素から得られる瞳分割画像ごとに瞳強度分布が異なること、および、それに基づくシェーディング特性について、従来例を交えて説明する。図7は、センサ瞳面における瞳強度分布と撮像素子(センサ)の像面における入射角感度特性の説明図である。
J107はセンサ瞳面である。J108はマイクロレンズアレイ、J109は画素アレイであり、撮像素子110を構成している。J111は主画素であり、副画素(第1画素)J110aと副画素(第2画素)J110bとから構成されている。主画素J111から生成される画像が(A+B)像(図9の401ab)、副画素J110aの瞳分割画像がA像(図9のJ201a)、副画素J110bの瞳分割画像がB像(図9のJ201b)である。A像およびB像は、主画素J111を2つに瞳分割した副画素J110a、J110bからそれぞれ生成されるため、(A+B)像に対して1段(1EV)アンダーな露出となる。
図7に示されるように、瞳のケラレにより、副画素J110aの瞳強度分布はJ101a、副画素J110bの瞳強度分布はJ101bのようになる。瞳強度分布J101a、J101bに対応する像面中央での入射角感度特性はJ103a、J103bのようになる。副画素J110aの入射角感度特性はJ103a、副画素J110bの入射角感度特性はJ103bである。J112は、絞り等で制限される入射光の角度範囲である。像面中央において、副画素J110a、J110bに入射する光量は等しい。
瞳強度分布J101a、J101bに対応する像面端での入射角感度特性は、J105a、J105bのようになる。副画素J110aの入射角感度特性はJ105a、副画素J110bの入射角感度特性はJ105bである。像面端と像面中央で結像位置が異なるため、像面端の入射角感度特性は像面中央に対して偏心したプロファイルとなる。このため、像面端では、図7の場合、副画素J110aに入射する光量よりも副画素J110bに入射する光量のほうが多くなる。
上記のことから、像面上の画素位置(X)と画素値の関係を表すシェーディング特性は、図8のようになる。図8は、シェーディング特性の説明図であり、横軸は位置(X座標)、縦軸は画素値をそれぞれ示す。図8のJ201aは図7の副画素J110aのシェーディング特性、J201bは図7の副画素J110bのシェーディング特性をそれぞれ示している。図7の像面中央は図8のX=0、像面端はX=500、に対応する。
それぞれの画像に図8のシェーディング特性の逆特性をシェーディング補正係数として乗算することにより、シェーディング補正を行うことができる。図10は、シェーディング補正係数の説明図であり、横軸は位置(X座標)、縦軸はシェーディング補正係数をそれぞれ示す。シェーディング補正係数J401aはA像J201a、シェーディング補正係数J401bはB像J201bに適用される。
最終的に、図9に示されるように、(A+B)像401abを適正露出画像402、A像J201aをアンダー露出画像403とし、アンダー露出画像403をシェーディング補正した補正後アンダー露出画像404が取得される。図9は、画像処理部24の動作の説明図であり、横軸は位置(X座標)、縦軸は画素値をそれぞれ示す。そして、適正露出画像402と補正後アンダー露出画像404において、像面の全面で1段分(1EV分)の露出差を得ることができるため、画像合成してダイナミックレンジを拡大することができる。
次に、図4、図9、図10、および、図11を参照して、画像処理部24の構成および動作を説明する。シェーディング補正部246は、図9のアンダー露出画像403に対して、図10のシェーディング補正係数J401aを乗算することで、シェーディング補正を行う(分割瞳のケラレ量のムラによる明暗ムラを補正する)。シェーディング補正に用いるシェーディング補正係数は、不揮発性メモリ56から読み出される。アンダー露出画像入力部(第1取得手段)244は、副画素(第1画素)J110aおよび副画素(第2画素)J110bのうち一方の画素からアンダー露出画像(第1画像データ)を取得する。
ダイナミックレンジ拡張部247は、図9の補正後アンダー露出画像404と適正露出画像402を画像合成してダイナミックレンジを拡大する(すなわち、階調表現レンジの拡張された合成画像を生成する)。適正露出画像入力部(第2取得手段)245は、副画素J110aから得られる画像データおよび副画素J110bから得られる画像データを加算した適正露出画像(第2画像データ)を取得する。ダイナミックレンジ拡張部(生成手段)247は、被写体の明るさに応じて、補正後アンダー露出画像404(詳細には、後述のゲインアップ後アンダー露出画像)と適正露出画像402とを合成して合成画像を生成する。
図11は、ダイナミックレンジ拡張部247の動作の説明図である。図11において、縦軸は画素値、横軸は被写体の明るさをそれぞれ示す。被写体の明るさは、例えば補正後アンダー露出画像の画素値を参照すればよい。301は補正後アンダー露出画像、303は適正露出画像である。TH2は画素の飽和レベルであり、明るい被写体を適正露出で撮像した場合、画素値は飽和レベルTH2でクリップされる。TH1は適正露出の飽和レベルに対応する被写体明るさである。302は、補正後アンダー露出画像301を1段ゲインアップしたゲインアップ後アンダー露出画像である。補正後アンダー露出画像301は、適正露出より1段アンダーであるため、1段ゲインアップすることで適正露出画像303と明るさを合わせることができる。
ダイナミックレンジ拡張部247の位置補正部247aは、補正後アンダー露出画像301と適正露出画像303とを比較して、領域ごとに輝度を基づいて差分絶対値和等を利用して最も類似している位置からシフト量を算出し、シフト量を用いて位置合わせを行う。ダイナミックレンジ拡張部247の判定部247bは、所定の画素位置における被写体の明るさが閾値(TH1)以上であるか否かを判定する。ダイナミックレンジ拡張部247の選択部247cは、判定部247bの判定結果に応じて、補正後アンダー露出画像301または適正露出画像303のいずれかを選択する。
本実施形態において、選択部247cは、被写体の明るさが閾値未満である場合、適正露出画像303を選択する。一方、被写体の明るさが閾値以上である場合、補正後アンダー露出画像301を選択する。そしてダイナミックレンジ拡張部247は、選択部247cにより補正後アンダー露出画像301が選択された場合、補正後アンダー露出画像301をゲインアップする(例えば、画素値を2倍にする)。被写体明るさがTH1未満の画素位置では適正露出画像303を、それ以外の画素位置ではゲインアップ後アンダー露出画像302を出力することにより、ダイナミックレンジ拡大された画像を出力することができる。
最後に、本手法の動作手順について説明する。本手法は、システム制御部50によって制御され、不揮発性メモリ56に格納されているプログラムをメモリ32に展開し、システム制御部50のCPUが実行することにより実現される。まず、ダイナミックレンジ拡張部247は、シェーディング補正部246から補正後アンダー露出画像301を取得する(手順1)。続いて、ダイナミックレンジ拡張部247は、適正露出画像入力部245を介して、適正露出画像303を取得する(手順2)。続いて、位置補正部247aは、所定の画素位置における補正後アンダー露出画像301と適正露出画像303に対して位置合わせを行う(手順3)。続いて、判定部247bは、所定の画素位置における被写体の明るさが閾値(TH1)以上であるか否かを判定する(手順4)。被写体の明るさが閾値以上である場合、手順5に進む。一方、被写体の明るさが閾値未満である場合、手順6に進む。
手順5において、選択部247cは、取得した補正後アンダー露出画像301および適正露出画像303のうち、補正後アンダー露出画像301を選択する。手順6において、選択部247cは、取得した補正後アンダー露出画像301および適正露出画像303のうち、適正露出画像303を選択する。そしてダイナミックレンジ拡張部247は、手順5または手順6で選択された画像データに基づいて合成画像を生成する。このとき、被写体の明るさが閾値以上の画素位置では(すなわち、選択部247cにより補正後アンダー露出画像301が選択された場合)、補正後アンダー露出画像301をゲインアップして、ゲインアップ後アンダー露出画像302を生成する。
<ダイナミックレンジ拡張を行うためのUI>
次に、図12を参照して、本実施形態における画像処理の操作画面について説明する。図12は、画像処理の操作画面であり、図6(b)の画像を読み込んだ後に表示部28に表示されるUI画面4000を示している。ユーザは、UI画面4000を表示した状態で操作部70を操作し、解像感調整、ボケシフト、ゴースト低減、シャープネス、ガンマ調整の画像処理を行う。
4001は、読み込んだ現像画像である。UI画面上の各種画像処理を行った場合には、その結果が表示される。4002は、解像感補正を行うか否かのチェックボックスである。解像感補正は、瞳分割の視差を利用して行う処理でピント位置をずらす(奥から手前)ことで補正を行う。4003は、ピント位置をずらす(奥から手前)量を調整するスライダである。4004は、解像感補正の強さを設定するスライダである。解像感補正の強さは、複数の視点の画像から取得した距離マップを考慮したて掛けるシャープネス処理の強さである。
4005は、ボケシフト処理を行うか否かのチェックボックスである。A像信号、B像信号は互いに異なる光路を通るため、ボケの現れ方が変化する。(A+B)像信号を作る際により好ましいボケになるように、A像信号とB像信号との割合を調整する。4006は、領域を選択するモードに遷移するときのボケシフト領域選択ボタンである。ボケシフトを行う領域は、画面全体が設定されているが、任意の領域に対して掛けることもできる。ボケシフト領域選択ボタン4006は、その領域を設定する際に用いられる。4007は、ボケシフトの動作する領域を境界線で表示する機能である。設定したボケシフトの範囲の境界線が現像画像4001上に表示される。4008は、ボケシフトで水平方向に分割しているA像信号とB像信号のいずれを利用するかを調整するスライダである。スライダ4008を左右に動かすことにより、A像信号とB像信号の利用割合の設定が行われる。
4009は、ゴースト低減処理を行うか否かのチェックボックスである。ゴースト低減処理は、A像信号とB像信号のでは異なる光路を通った信号であることを利用して、A像信号とB像信号との差分に基づいてゴーストの成分を検出し除去する。4010は、領域を選択するモードに遷移するときのゴースト低減領域選択ボタンである。ゴースト低減を行う領域は、画面全体が設定されているが、任意の領域に対して掛けることもできる。ゴースト低減領域設定ボタン4010は、その領域を設定する際に用いられる。4011は、ゴースト低減の動作する領域を境界線で表示する機能である。設定したゴースト低減の範囲の境界線が現像画像4001上に表示される。4012は、シャープネス処理を行うか否かのチェックボックスである。4013は、シャープネスの強さを調整するスライダである。スライダ4013により画面全体のシャープネス調整を行う。
4014は、ガンマ調整処理を行うか否かのチェックボックスである。ガンマ調整は、現像処理で行われるホワイトバランス調整で、入力画像のビット数を超えてしまうビットを現像後の画像に反映する時の調整量を設定する処理である。4015は、ガンマ調整の調整エリアである。調整エリア4015には、後述するヒストグラム4016とホワイトポイント4017が表示される。4016は、現像画像4001のヒストグラムである。ヒストグラム4016は、(A+B)像信号の画素信号をホワイトバランス調整した結果で表示する。ヒストグラム4016は、例えば、副画素信号をホワイトバランス調整した結果として表示される。4017は、ヒストグラム4016のホワイトポイントである。ホワイトポイントとは、(A+B)像信号の画素信号をホワイトバランス調整した結果のRとGとBの値がRAW画像のビット数と同じビットでクリップするポイントである。副画素信号をホワイトバランス調整した結果のRとGとBの値がRAW画像のビット数と同じビットでクリップするポイントとなどがある。ホワイトポイントを右に動かすことで、現像時にRAW画像のビット数を超えてあふれているデータを画像に反映する高輝度改善処理が行われる。
次に、図13を参照して、本実施形態のUI画面4000を表示部28上に表示する例を説明する。図13は、画像処理の操作画面を表示するフローチャートである。図13の処理は、ユーザが操作部70を操作して図6(b)の画像を読み込むことにより開始する。
まずステップS4010において、システム制御部50は、UI表示を行う。すなわちシステム制御部50は、図12のUI画面4000、チェックボックス4002から調整エリア4015までの各設定UIを表示する。なお、現像画像4001、ヒストグラム4016、および、ホワイトポイント4017は、後述する処理で表示される。
続いてステップS4020において、システム制御部50は、(A+B)像信号の画素信号のホワイトバランス調整を行う。続いてステップS4030において、システム制御部50は、ステップS4020にてホワイトバランス調整した結果のR、G、Bの出力値を取得する。続いてステップS4040において、システム制御部50は、副画素信号のホワイトバランス調整を行う。続いてステップS4050において、システム制御部50は、ステップS4040にてホワイトバランス調整した結果のR、G、Bの出力値を取得する。
続いてステップS4060において、システム制御部50は、ヒストグラム4016を作成して表示する。ヒストグラム4016は、ステップS4030にて取得した(A+B)像信号のホワイトバランス調整後に得られた結果、または、ステップS4050にて取得した副画素信号のホワイトバランス調整後に得られた結果のいずれを利用して作成してもよい。また、両方の手法の最大値で表示するような表示方法を採用することもできる。副画素信号に基づいて作成されたヒストグラムは、(A+B)像信号と比べて開口率が異なるため、開口率を考慮してゲインアップしてもよい。続いてステップS4070において、システム制御部50は、現像画像4001の表示に対応するホワイトポイント4017の位置を算出して表示(描画)する。続いてステップS4080において、システム制御部50は、現像画像4001を表示する。
<HDR画像を作成する処理>
次に、図14を参照して、表示機器の表示能力情報を取得して、その表示能力情報に応じて画像を作成する処理の流れについて説明する。図14は、表示機器の表示能力情報に応じて画像を作成する処理(画像処理方法)のフローチャートである。
まずステップS1401において、ダイナミックレンジ拡張部247は、シェーディング補正部246から補正後アンダー露出画像301を取得する。続いてステップS1402において、ダイナミックレンジ拡張部247は、適正露出画像入力部245を介して、適正露出画像303を取得する。続いてステップS1403において、撮像装置100(システム制御部50)は、表示機器から表示能力情報を取得する。表示能力情報とは、扱うことのできる画像のビット数や最大輝度等であるが、これらに限定されるものではない。
続いてステップS1404において、システム制御部(判定手段)50は、表示機器がHDR表示に対応しているか否かを判定する。ステップS1404にて表示機器がHDR表示に対応していると判定された場合、ステップS1405に進む。一方、表示機器がHDR表示に対応していないと判定された場合、ステップS1412に進む。表示機器がHDR表示に対応しているか否かは、ビット数が8ビットを超えるか否か、または、最大輝度が100nitsを超えるか否か等により判定される。
ステップS1405において、位置補正部247aは、所定の画素位置における補正後アンダー露出画像301と適正露出画像303との位置合わせを行う。続いてステップS1406において、判定部247bは、所定の画素位置における被写体の明るさが閾値(TH1)以上であるか否かを判定する。ステップS1406にて被写体の明るさが閾値以上であると判定された場合、ステップS1407に進む。一方、被写体の明るさが閾値未満であると判定された場合、ステップS1408に進む。
ステップS1407において、選択部247cは、取得した補正後アンダー露出画像301および適正露出画像303のうち、補正後アンダー露出画像301を選択する。ステップS1408において、選択部247cは、取得した補正後アンダー露出画像301および適正露出画像303のうち、適正露出画像303を選択する。
続いてステップS1409において、ダイナミックレンジ拡張部247は、ステップS1407またはステップS1408にて選択された画像データ(補正後アンダー露出画像301または適正露出画像303)に基づいて合成画像を生成する。このとき、被写体の明るさが閾値以上の画素位置では(すなわち、選択部247cにより補正後アンダー露出画像301が選択された場合)、補正後アンダー露出画像301をゲインアップして、ゲインアップ後アンダー露出画像302を生成する。
続いてステップS1410において、システム制御部50は、画像内の全ての画素を調べたか否かを判定する。ステップS1410にて画像内の全ての画素を調べていないと判定された場合、ステップS1411に進む。ステップS1411において、システム制御部50は、注目画素を次の画素に設定し、ステップS1406に戻る。一方、ステップS1410にて画像内の全ての画素を調べたと判定された場合、本フローを終了する。
ステップS1412において、選択部247cは、取得した補正後アンダー露出画像301および適正露出画像303のうち、適正露出画像303を選択する。続いてステップS1413において、現像処理部(生成手段)243は、適正露出画像303を現像して、本フローを終了する。このような処理により、標準画像を得ることができる。標準画像の形式はJPEG等があるが、これに限定されるものではない。
なお、図14に示される処理において、表示機器の表示能力情報をHDR画像の作成タイミングで取得するが、HDR画像を作成する処理を行う前に事前に表示する表示機器の表示能力情報を取得してもよい。また、図14のステップS1404にて、表示機器の表示能力情報に応じて画像の作成する処理を切り替えている。表示機器がHDR表示に対応している場合にはHDR画像を合成し、表示機器がHDR表示に対応していない場合、標準画像を作成する。
このように本実施形態において、画像処理装置(画像処理部24)は、画像を生成する生成手段(ダイナミックレンジ拡張部247および現像処理部243)を有する。生成手段は、表示機器の表示能力に基づいて、第1画像データと第2画像データとを合成した第1画像(合成画像)または第2画像データに基づく第2画像(標準画像)を生成する。好ましくは、生成手段は、表示機器がHDR表示に対応している場合、第1画像を生成する。一方、生成手段は、表示機器がHDR表示に対応していない場合、第2画像を生成する(S1409、S1413)。より好ましくは、生成手段は、被写体の明るさが所定の閾値(閾値TH1)よりも大きい場合には第1画像データを用い、被写体の明るさが所定の閾値よりも小さい場合には第2画像データを用いて、第1画像を生成する(SS1406〜S1409)。より好ましくは、生成手段は、画素ごとに、被写体の明るさと所定の閾値とを比較して第1画像データと第2画像データとの一方を選択することにより、合成画像としての第1画像を生成する(S1406)。また好ましくは、生成手段は、第1画像データを用いて第1画像を生成する際に、第1画像データの画素値を2倍にする(ゲインアップする)。
また本実施形態において、アンダー露出画像入力部244(第1取得手段)は、第1画素および第2画素のうち他方の画素から第3画像データ(例えば、副画素J110bから得られる画像データ)を取得してもよい。このとき生成手段は、被写体の明るさが所定の閾値よりも大きい場合には第1画像データおよび第3画像データを用い、被写体の明るさが所定の閾値よりも小さい場合には第2画像データを用いて、第1画像を生成する。より好ましくは、生成手段は、第1画像データおよび第3画像データを用いて第1画像を生成する際に、第1画像データと第3画像データとを加算する。
本実施形態によれば、表示機器の表示能力に応じて、HDR画像を合成することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態では、撮像装置と表示機器とを接続しておき、表示機器の表示能力に応じて撮像装置の撮影モードを切り替えて撮影する例について説明する。
図15を参照して、表示機器の表示能力情報に応じて撮影モードを切り替えて撮影して画像を作成する処理(画像処理方法)について説明する。図15は、本実施形態における画像処理方法のフローチャートである。
まずステップS1501において、システム制御部(判定手段)50は、表示機器がHDR表示に対応しているか否かを判定する。ステップS1501にて表示機器がHDR表示に対応していると判定された場合、ステップS1502に進む。一方、表示機器がHDR表示に対応していないと判定された場合、ステップS1511に進む。
ステップS1502において、システム制御部(モード設定手段)50は、撮影モードを多視点撮影モードに設定する。多視点撮影モードとは、(A+B)像信号に加えてA像信号を記録するモードである。続いてステップS1503において、画像処理部24は、システム制御部50を通じて撮像部22から(A+B)像とA像とを取得する。(A+B)像は適正露出画像303、A像は補正後アンダー露出画像301にそれぞれ相当する。続くステップS1504〜S1510は、図14のステップS1405〜S1411とそれぞれ同様であるため、それらの説明を省略する。
続いてステップS1511において、システム制御部(モード設定手段)50は、撮影モードを通常モード(通常撮影モード)に設定する。通常モードとは、多視点撮影モード以外の静止画撮影モードであり、適正露出画像である(A+B)像信号のみを記録するモードである。すなわち通常モードは、第2画像としてRAW画像を取得するモードである。また通常撮影モードは、第2画像として、HDR処理を行わない標準画像を取得するモードである。続いてステップS1512において、システム制御部50は、撮影を行って適正露出画像303を記録する。続いてステップS1513において、現像処理部243は、適正露出画像303を現像して、本フローを終了する。
このように本実施形態では、ステップS1501において、表示機器の表示能力情報に応じて撮影モードを切り替える。表示機器がHDR表示に対応している場合、多視点撮影モードで撮影する。一方、表示機器がHDR表示に対応していない場合、通常モードで撮影する。すなわちモード設定手段(システム制御部50)は、表示機器がHDR表示に対応している場合、多視点撮影モードに設定する。一方、モード設定手段は、表示機器がHDR表示に対応していない場合、通常撮影モードに設定する。本実施形態によれば、表示機器の表示能力情報に応じて、撮影モードを切り替えてHDR画像を作成することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施形態によれば、表示機器の表示能力に基づいてHDR画像を生成することが可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
システム制御部50(フローチャートの動作主)が行うものとして説明した上述の各種制御は1つのハードウエアが行ってもよいし、複数のハードウエア(例えば、複数のプロセッサや回路)が処理を分担することで、装置全体の制御を行ってもよい。また、上述した実施形態においては、本発明を撮像装置に適用した場合を例にして説明したが、これに限定されるものではなく、撮影画像に対する画像処理を行うことができる画像処理装置に広く適用可能である。例えば本発明は、デジタルカメラ、カメラ機能を持つパーソナルコンピュータ、カメラ付き携帯電話端末、または、スマートフォン等に適用可能である。
24 画像処理部(画像処理装置)
243 現像処理部(生成手段)
244 アンダー露出画像入力部(第1取得手段)
245 適正露出画像入力部(第2取得手段)
247 ダイナミックレンジ拡張部(生成手段)

Claims (15)

  1. 1つのマイクロレンズを共有して光学系の互いに異なる瞳領域を通過した光を受光する第1画素および第2画素のうち一方の画素から第1画像データを取得する第1取得手段と、
    前記第1画素から得られる画像データおよび前記第2画素から得られる画像データを加算した第2画像データを取得する第2取得手段と、
    表示機器の表示能力に基づいて、前記第1画像データと前記第2画像データとを合成した第1画像または前記第2画像データに基づく第2画像を生成する生成手段と、を有することを特徴とする画像処理装置。
  2. 前記表示機器がHDR表示に対応しているか否かを判定する判定手段を更に有し、
    前記生成手段は、
    前記表示機器が前記HDR表示に対応している場合、前記第1画像を生成し、
    前記表示機器が前記HDR表示に対応していない場合、前記第2画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記生成手段は、被写体の明るさが所定の閾値よりも大きい場合には前記第1画像データを用い、前記被写体の明るさが前記所定の閾値よりも小さい場合には前記第2画像データを用いて、前記第1画像を生成することを特徴とする請求項2に記載の画像処理装置。
  4. 前記生成手段は、画素ごとに、前記被写体の明るさと前記所定の閾値とを比較して前記第1画像データと前記第2画像データとの一方を選択することにより、合成画像としての前記第1画像を生成することを特徴とする請求項3に記載の画像処理装置。
  5. 前記生成手段は、前記第1画像データを用いて前記第1画像を生成する際に、前記第1画像データの画素値を2倍にすることを特徴とする請求項3または4に記載の画像処理装置。
  6. 前記第1取得手段は、前記第1画素および前記第2画素のうち他方の画素から第3画像データを取得し、
    前記生成手段は、被写体の明るさが所定の閾値よりも大きい場合には前記第1画像データおよび前記第3画像データを用い、前記被写体の明るさが前記所定の閾値よりも小さい場合には前記第2画像データを用いて、前記第1画像を生成することを特徴とする請求項2に記載の画像処理装置。
  7. 前記生成手段は、前記第1画像データおよび前記第3画像データを用いて前記第1画像を生成する際に、前記第1画像データと前記第3画像データとを加算することを特徴とする請求項6に記載の画像処理装置。
  8. 前記生成手段は、前記第2の画像に対して現像処理を行うことにより前記第2の画像を生成することを特徴とする請求項2乃至7のいずれか1項に記載の画像処理装置。
  9. 撮影モードを設定するモード設定手段を更に有し、
    前記モード設定手段は、
    前記表示機器が前記HDR表示に対応している場合、多視点撮影モードに設定し、
    前記表示機器が前記HDR表示に対応していない場合、通常撮影モードに設定することを特徴とする請求項2乃至8のいずれか1項に記載の画像処理装置。
  10. 前記通常撮影モードは、前記第2画像としてRAW画像を取得するモードであることを特徴とする請求項9に記載の画像処理装置。
  11. 前記通常撮影モードは、前記第2画像として、HDR処理を行わない標準画像を取得するモードであることを特徴とする請求項9に記載の画像処理装置。
  12. 1つのマイクロレンズを共有して光学系の互いに異なる瞳領域を通過した光を受光する第1画素および第2画素を有する撮像素子と、
    前記第1画素および前記第2画素のうち一方の画素から第1画像データを取得する第1取得手段と、
    前記第1画素から得られる画像データおよび前記第2画素から得られる画像データを加算した第2画像データを取得する第2取得手段と、
    表示機器の表示能力に基づいて、前記第1画像データと前記第2画像データとを合成した第1画像または前記第2画像データに基づく第2画像を生成する生成手段と、を有することを特徴とする撮像装置。
  13. 1つのマイクロレンズを共有して光学系の互いに異なる瞳領域を通過した光を受光する第1画素および第2画素のうち一方の画素から第1画像データを取得するステップと、
    前記第1画素から得られる画像データおよび前記第2画素から得られる画像データを加算した第2画像データを取得するステップと、
    表示機器の表示能力に基づいて、前記第1画像データと前記第2画像データとを合成した第1画像または前記第2画像データに基づく第2画像を生成するステップと、を有することを特徴とする画像処理方法。
  14. コンピュータに、請求項13に記載の画像処理方法を実行させることを特徴とするプログラム。
  15. 請求項14に記載のプログラムを記憶していることを特徴とする記憶媒体。
JP2017194030A 2017-10-04 2017-10-04 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 Pending JP2019068342A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017194030A JP2019068342A (ja) 2017-10-04 2017-10-04 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017194030A JP2019068342A (ja) 2017-10-04 2017-10-04 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Publications (1)

Publication Number Publication Date
JP2019068342A true JP2019068342A (ja) 2019-04-25

Family

ID=66339901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017194030A Pending JP2019068342A (ja) 2017-10-04 2017-10-04 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Country Status (1)

Country Link
JP (1) JP2019068342A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113805304A (zh) * 2021-11-16 2021-12-17 浙江双元科技股份有限公司 一种用于线阵相机的自动调焦系统及方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113805304A (zh) * 2021-11-16 2021-12-17 浙江双元科技股份有限公司 一种用于线阵相机的自动调焦系统及方法

Similar Documents

Publication Publication Date Title
JP4904108B2 (ja) 撮影装置及び画像表示制御方法
JP4158592B2 (ja) オートホワイトバランス調整方法及びこの方法が適用されたカメラ
JP4662071B2 (ja) 画像再生方法
JP6346793B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP3395770B2 (ja) デジタルスチルカメラ
JP4730553B2 (ja) 撮影装置及び露出制御方法
JP4697606B2 (ja) 撮影装置及び合焦制御方法
JP2018107727A (ja) 画像処理装置および画像処理方法、撮像装置、プログラム
JP2007232793A (ja) 撮像装置
US8786728B2 (en) Image processing apparatus, image processing method, and storage medium storing image processing program
JP2001211362A (ja) デジタルカメラの構図補助フレーム選択方法及びデジタルカメラ
JP2011075675A (ja) 複眼撮像装置
JP2007053499A (ja) ホワイトバランス制御装置及び撮像装置
JP2012074951A (ja) 撮像装置および画像処理方法
JP2009047912A (ja) 立体画像撮影装置
JP2009048136A (ja) 焦点調節装置及び焦点調節方法
JP2008109485A (ja) 撮像装置及び撮像制御方法
JP6741881B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP2010074635A (ja) 撮像装置及び撮像方法
JP2019047365A (ja) 画像処理装置、画像処理装置の制御方法、撮像装置、プログラム
JP2010141609A (ja) 撮像装置
JP2008310187A (ja) 画像処理装置及び画像処理方法
JP3601500B2 (ja) デジタルカメラ
JP2019029778A (ja) 撮像装置、および画像処理装置、画像処理方法
JP2019068342A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体