JP6343200B2 - 撮像装置およびその制御方法ならびにプログラム - Google Patents

撮像装置およびその制御方法ならびにプログラム Download PDF

Info

Publication number
JP6343200B2
JP6343200B2 JP2014157046A JP2014157046A JP6343200B2 JP 6343200 B2 JP6343200 B2 JP 6343200B2 JP 2014157046 A JP2014157046 A JP 2014157046A JP 2014157046 A JP2014157046 A JP 2014157046A JP 6343200 B2 JP6343200 B2 JP 6343200B2
Authority
JP
Japan
Prior art keywords
image
images
frame
imaging
development
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014157046A
Other languages
English (en)
Other versions
JP2016034109A (ja
Inventor
洋明 梨澤
洋明 梨澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014157046A priority Critical patent/JP6343200B2/ja
Priority to US14/809,462 priority patent/US9712757B2/en
Priority to CN201510463584.0A priority patent/CN105323474B/zh
Publication of JP2016034109A publication Critical patent/JP2016034109A/ja
Application granted granted Critical
Publication of JP6343200B2 publication Critical patent/JP6343200B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像装置およびその制御方法ならびにプログラムに関し、特にハイダイナミックレンジ画像の生成技術に関する。
異なる露出(アンダー露出、オーバー露出)で撮影された複数枚の画像を合成して、画像のダイナミックレンジを拡大するハイダイナミックレンジ(HDR)合成といわれる技術が知られている。この技術では、各画像の適正露出部分を合成することで、白とびや黒つぶれを抑制し、暗部から明部まで良好な階調性を有する画像を得ることができる。
HDR合成技術は、静止画を撮影する場合のみならず、動画の撮影を行う場合にも適用可能な技術である。動画の撮影時にHDR合成(動画HDR撮影)を行う構成には、例えば動画の各フレームに異なる露出(アンダー露出、オーバー露出)を交互に適用して撮影する構成が知られている。
特許文献1には、動画の各フレームに対してホワイトバランス制御を適用し、ホワイトバランス制御の行われた画像を用いてHDR合成する技術が開示されている。また、特許文献2には、露出を変更して連続的に撮影し、時間的に隣り合う複数枚の画像を用いてHDR合成を行う技術が開示されている。HDR合成に係る処理では、時間的に隣り合う画像の処理をそれぞれオーバーラップさせ、最初に処理した画像における処理結果を次のHDR合成のために再利用して処理の効率化を図っている。
特開2012−049600号公報 特許2009−278524号公報
特許文献1に開示された技術では、ホワイトバランス制御に必要な色情報の抽出や光源情報の推定、ホワイトバランスゲインの設定等の処理を各フレームについて完了するまで、HDR合成処理を遅延させる。このため、露出の異なる2フレームの画像を用いてHDR合成を行う場合、フレームレートが半分に低下する。一方、特許文献2に開示された技術では、時間的に隣り合う画像の一方に対する処理を再利用するため実質的にフレームレートを維持することが可能である。しかし、1つの画像における画像処理結果を再利用してHDR合成を行うため、色や輝度が時間経過とともに変化するシーンでは、適切な画像処理を適用できずに、例えばトーンジャンプなどの色や輝度の画質劣化が発生することが想定される。
本発明は、上述の従来技術の問題点に鑑みてなされ、動画によるHDR撮影において色や輝度が変化するシーンであっても生成画像の画質劣化を低減させることが可能な撮像装置およびその制御方法ならびプログラムを提供することを目的とする。
この課題を解決するため、例えば本発明の撮像装置は以下の構成を備える。すなわち、撮像手段と、露出の異なるフレームの画像を繰り返し撮像するように撮像手段を制御する撮像制御手段と、撮像されたフレームの画像のそれぞれに現像処理を施す現像手段と、現像手段により現像された時間的に連続する画像を合成して合成画像を生成する合成手段と、を有し、現像手段は、1つの撮像されたフレームの画像から現像パラメータの異なる第1および第2の画像を生成し、合成手段は、時間的に連続する撮像されたフレームの画像のそれぞれから生成された第1および第2の画像のいずれかを合成して第1の合成画像を生成し、第1の合成画像に続く第2の合成画像を生成する際には、前フレームの画像から生成された第1の画像と第2の画像のうち第1の合成画像の生成に用いたものとは異なる画像を用いる、ことを特徴とする。
本発明によれば、動画によるHDR撮影において色や輝度変化のあるシーンであっても生成画像の画質劣化を低減させることが可能になる。
本発明の実施形態に係る撮像装置の一例としてのデジタルカメラ100の断面図(a)および機能構成例を示すブロック図(b) 実施形態1に係る動画HDR撮影処理の一連の動作を示すフローチャート 実施形態1に係る測光用の信号取得と領域分割を示す図 実施形態1に係る動画HDR撮影処理において露出条件を決定するために用いるプログラム線図 撮像のフレームレートが半分になる動画HDRの様子を説明する図 撮像のフレームレートを維持する動画HDRの様子を説明する図 現像結果を次のHDR合成に用いるフレームとして再利用する様子を説明する図 実施形態1に係る現像処理および合成処理のための機能構成例を示すブロック図 実施形態1に係る、パターンを変更したホワイトバランス係数により現像を行ってHDR合成する様子を説明する図 HDR合成処理における2つの画像の合成割合の一例を示す図 実施形態2に係る動画HDR撮影処理の一連の動作を示すフローチャート 実施形態2に係る現像処理および合成処理のための機能構成例を示すブロック図 実施形態2に係る階調補正に用いるルックアップテーブルを生成する方法を示す図 実施形態2に係る色輝度調整におけるルックアップテーブルを用いて現像を行ってHDR合成する様子を示す図 実施形態3に係る動画HDR撮影処理の一連の動作を示すフローチャート 実施形態3に係る移動体を多重描写にしてHDR合成する例を示す図 実施形態3に係る移動体対策処理ための機能構成例を示すブロック図 実施形態3に係る合成比率と基準輝度との関係を示す図 実施形態3に係る合成比率に応じてノイズ低減処理の強度を変更する例を示す図 実施形態3に係る現像処理および合成処理のための機能構成例を示すブロック図 実施形態3に係るノイズ低減処理のための機能構成例を示すブロック図 実施形態3に係るノイズ低減処理後の画像割合と合成比率との関係を示した図
(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では撮像装置の一例として、露出を変更して動画を取得可能な撮像機能を備えるデジタルカメラに本発明を適用した例を説明する。しかし、本発明でいう撮像装置は、デジタルカメラに限らず、このような撮像機能を備える任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。
(1 デジタルカメラの構成)
図1(a)は、実施形態の撮像装置の一例としてのデジタルカメラ100の、主として光学部材やセンサ等の配置を示す断面図である。デジタルカメラ100は、レンズ交換可能ないわゆるデジタル一眼レフカメラであり、カメラ本体1と交換レンズ2を有している。
カメラ本体1における撮像素子10は、例えばCMOSイメージセンサやCCDイメージセンサであり、複数の画素(蓄積型光電変換素子)が配列されている。また、受光部に配置される画素以外に、画素信号の増幅回路や信号処理用の周辺回路などが形成されている。撮像素子10は、画素に対する電荷の蓄積時間や電荷の読み出しを調節することで、撮像素子による露出制御が可能な電子シャッター機能を実現する。交換レンズ2の備える撮影光学系により結像された被写体光学像を各画素で光電変換し、画素単位の画像信号を出力する。
撮像素子10の前方近傍に設けられていたメカニカルシャッター11は、撮像素子10の露出タイミングおよび露出時間を調節する。半透過性の主ミラー3と、主ミラー3の背面に配置された第1の反射ミラー7は、撮影時には上部に跳ね上がる。第2の反射ミラー8は、第1の反射ミラー7が反射した光束をさらに反射し、AFセンサ9に入射させる。AFセンサ9は、例えば画素数が撮像素子10よりも少ない撮像素子であってよい。第1の反射ミラー7、第2の反射ミラー8およびAFセンサ9は、撮影画面内の任意の位置での位相差検出方式で焦点検出を行うための構成である。なお、ライブビュー表示および動画記録時には常時主ミラー3が上部に跳ね上がった状態となるため、露出制御や焦点調節制御は撮像面の画像情報を使用して行うこととなる。
AEセンサ6は、測光用センサであり、ペンタプリズム4および第3の反射ミラー5で反射された被写体の光束を受光して測光を行う。AEセンサ6は受光部を複数の領域に分割し、領域ごとに被写体の輝度情報を出力できる。
ペンタプリズム4によってファインダー光学系が構成される。ペンタプリズム4で反射された被写体光学像は図示しないアイピースから観察可能である。またペンタプリズム4で反射された光束のうち、主ミラー3によって反射されてピント板12によって拡散された光線の光軸外の一部は、AEセンサ6に入射する。
交換レンズ2は、取り外し可能なレンズであり、カメラ本体1に設けられたレンズマウントの接点を通じて、必要に応じてカメラ本体1と通信を行う。
図1(b)は、図1(a)に示したデジタルカメラ100のカメラ本体1とその交換レンズ2の機能構成例を示すブロック図である。なお、図1(b)に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
制御部21は、例えば内部にALU(Arithmetic and Logic Unit)33、ROM34、RAM35やA/Dコンバータ31、タイマー32、シリアル通信ポート(SPI)36等を内蔵したワンチップマイクロコンピュータである。制御部21は、例えばROM34に記憶されたプログラムを実行することにより、カメラ本体1および交換レンズ2の動作を制御する。例えば、制御部21は後述する動画HDR撮影に係る処理を実行するためカメラ本体1の各部を制御する。制御部21のA/Dコンバータ31には、AFセンサ9およびAEセンサ6の出力信号が入力される。
信号処理部25は、制御部21の指示に従って撮像素子10を制御し、撮像素子10によって出力された信号にA/D変換および信号処理を適用して画像信号を得る。信号処理部25は、得られた画像信号を記録する場合には、予め定められた形式で画像信号を圧縮し、記憶部26に出力する。また、後述する動画HDR撮影に必要な現像処理や合成処理を行う。
メモリ28は、DRAM等により構成される記憶装置である。メモリ28は、信号処理部25が種々の信号処理を行う際のワーク用メモリとして使用されるほか、後述する表示部27に画像を表示する際のVRAMとして使用される。
表示部27は、液晶ディスプレイパネル等で構成され、カメラの設定値やメッセージ、メニュー画面等の情報や撮像した画像を表示する。表示部27は制御部21からの指示により制御される。記憶部26は例えばフラッシュメモリ等の不揮発性メモリであり、撮像された画像信号が信号処理部25から入力される。
モータ22は、制御部21の制御に従い、主ミラー3および第1の反射ミラー7のアップ・ダウンやメカニカルシャッター11のチャージを行う。
操作部23は、ユーザがカメラを操作するために用いるスイッチなどの入力デバイス群である。操作部23には撮影準備動作の開始および撮影開始を指示するためのレリーズスイッチや、撮影モードを選択するための撮影モード選択スイッチ、方向キー、決定キー等が含まれる。
接点部29は、交換レンズ2と通信を行うための接点であり、制御部21のシリアル通信ポートの入出力信号が接続される。シャッター駆動部24は制御部21の出力端子に接続されてメカニカルシャッター11を駆動する。
交換レンズ2には、接点部29と対をなす接点部50が設けられている。接点部50には、制御部21と同様のワンチップマイクロコンピュータであるレンズ制御部51が接続され、制御部21との通信が可能である。レンズ制御部51は、例えばROMに記憶されたプログラムを実行し、制御部21からの指示に基づいて交換レンズ2の動作を制御する。また、交換レンズ2の状態などの情報を制御部21に通知する。
フォーカスレンズ駆動部52は、レンズ制御部51の指示に基づいてフォーカスレンズを駆動し、ズーム駆動部53は、レンズ制御部51の指示に基づいて交換レンズの画角を変更する。
絞り駆動部54は、レンズ制御部51の指示に基づいて絞りの開口量を調整し、撮像素子10に入射する光量を調整する。
交換レンズ2がカメラ本体1に装着されると、レンズ制御部51および制御部21とは接点部29および50を介してデータ通信が可能になる。例えば、制御部21が焦点検出や露出演算を行うために必要なレンズ固有の光学的な情報や距離エンコーダに基づいた被写体距離に関する情報等が、レンズ制御部51から制御部21へデータ通信によって出力される。また、制御部21が焦点検出や露出演算により得られた焦点や絞りの制御情報をレンズへ送信すると、レンズ制御部51は、受信した制御情報に従って絞り等を制御する。また、接点部29は、レンズ側の接点部50を介して、交換レンズ2に備えられた図示しないモータやアクチュエータに対して電力を供給する。
(2.動画HDR撮影に係る一連の動作)
次に、図2を参照して、動画HDR撮影に係る一連の動作を説明する。なお、本処理は、制御部21がROM34に記憶されたプログラムをRAM35の作業用領域に展開し、実行することにより実現される。
S11において制御部21は、たとえば操作部23に含まれる電源スイッチがオンされるなどにより動作が可能になると、交換レンズ2のレンズ制御部51と通信を行なって、焦点検出や測光に必要な各種レンズの情報を得るなどの初期化処理を行う。
S12において制御部21は、操作部23に含まれる動画モード切り替えスイッチがオンされたことを検出すると、メモリ28の配置処理などを動画モードへと切り替えて、撮像を開始する。
S13において制御部21は、操作部23に含まれるスイッチにおいて動画HDR撮影に切り替えられたことを検出すると、撮影モードを動画HDR撮影モードに切り替える。S14において制御部21は、初期化処理を行う。初期化処理の具体的な内容についてはS17〜S21の処理において後述する。
S15において制御部21は、適正露出条件を設定する。動画HDR撮影モードでは、予め設定された露出、例えば適正露出に対して+1EVのオーバー露出および−1EVのアンダー露出の設定で撮像を交互に繰り返す撮像制御を行う。本実施形態では、各露出を設定するための適正露出を算出する。適正露出の算出は、一度適正露出の算出を行って適正露出に制御した後であっても、シーンが変わった場合などに対応するために撮像中に定期的に実行される。その後、オーバー露出を設定した撮像(オーバー撮像)とアンダー露出を設定した撮像(アンダー撮像)を行うために露出制御をそれぞれ行う。
以下に、本ステップにおける適正露出の算出処理について、より詳細に説明する。S12において開始された動画モードでは、制御部21は、いわゆるライブビュー画像(またはスルー画像)と呼ばれる、表示部27を電子ビューファインダとして機能させる動画撮影を実行する。この撮影はいわゆる電子シャッターによる撮影を連続的に実行することで行われる。この状態ではミラーアップしている状態となるため、AEセンサ6によって測光することができない。
制御部21は、ライブビュー画像の撮影中に定期的に撮像素子10による測光用の信号取得を行って測光を行う。例えばライブビュー画像の1フレームを測光用の画像信号として取得すればよい。制御部21は、画像信号を撮像素子10から読み出し、A/D変換を行ってRAMに格納する。制御部21は、取得した画素信号を、図3に示すように、画素領域を例えば9×7個のブロックに分割して、各ブロックに含まれる画素信号を用いてブロックごとに輝度情報を算出する。各ブロックの輝度情報は、例えばブロック内の全画素の輝度を平均することにより算出する。なお、輝度の演算は、例えばAPEX(Additive System of Photographic Exposure )表現におけるBv値(適正露出における被写体の輝度)に換算して行う。これらの輝度情報に基づいてY1〜Y7およびX1〜X9の射影データを算出する。一般にm行×n列といった2次元配列のデータから行方向や列方向に加算或いは加算平均した1次元配列のデータに変換する手法のことを2次元から1次元への投影又は射影という。また、列方向や行方向に加算した結果得られた1次元配列のデータのことを射影像或いは射影データと呼ぶ。本実施形態においては射影データY1〜Y7およびX1〜X9を以下のように算出する。
(数式1)
X1=Σ(x1)÷7 但し、x=1〜7
X2=Σ(x2)÷7 但し、x=1〜7
X3=Σ(x3)÷7 但し、x=1〜7
X4=Σ(x4)÷7 但し、x=1〜7
X5=Σ(x5)÷7 但し、x=1〜7
X6=Σ(x6)÷7 但し、x=1〜7
X7=Σ(x7)÷7 但し、x=1〜7
X8=Σ(x8)÷7 但し、x=1〜7
X9=Σ(x9)÷7 但し、x=1〜7
Y1=Σ(1y)÷9 但し、y=1〜9
Y2=Σ(2y)÷9 但し、y=1〜9
Y3=Σ(3y)÷9 但し、y=1〜9
Y4=Σ(4y)÷9 但し、y=1〜9
Y5=Σ(5y)÷9 但し、y=1〜9
Y6=Σ(6y)÷9 但し、y=1〜9
Y7=Σ(7y)÷9 但し、y=1〜9
制御部21は、算出された射影データY1〜Y7およびX1〜X9の中の最大値Emaxを求め、求めた最大値Emaxに基づいて露出補正値γを算出する。具体的には、Emaxの値がBv値で10を超える場合に下記の式により算出する。
γ=(Emax−10)×0.25
ここで、露出補正値γは、Bv値で10を超えるような高輝度被写体は明るく写った方が好ましい場合が多いという経験則に従い露出補正を行うものである。係数0.25はあくまで例であって、高輝度被写体をどの程度明るく写るようにするかで最適値を決めれば良い。また画像信号全体の平均Bv(AVEBv)を下記の式により算出する
(数式2)
AVEBv=Σ(Xx+Yy)÷(7×9)
但し、x=1〜7、y=1〜9

これによりBv値に対する制御値は、数式3より
(数式3)
適正露出:AVEBv+γ
となる。
制御部21は、このBv値に対する制御値に基づいて予め設定したプログラム線図を参照して露出条件を決定する。図4は、本動画HDR撮影において使用するプログラム線図の例を示している。実線は適正露出を、破線はオーバー露出を、二点鎖線はアンダー露出をそれぞれ示している。右側縦軸は絞り値Avを、左側縦軸および上部横軸はBv値を示している。また、下部横軸はTv(シャッタースピード)を示しているが、図4に示す線図では、1/30秒以上の場合についてはISO感度を用いて表示している。これは、動画撮影においてはフレームレートに応じてTv値の限界があるためである。例えば図4において適正露出が30/fpsである場合、オーバー側の最長秒設定も1/30秒となるため、これよりも露出が増大する側はISO感度を上げることで実現することを示している。制御部21は、上述したBv値に対する制御値をもとに、プログラム線図に対応したデータテーブルを参照して露出条件(ISO感度、絞り、秒時)を決定し、当該条件に合わせて露出制御を行う。引き続きオーバー露出、アンダー露出の露出条件を決定するが以下のようにBv値に対する制御値を修正してからプログラム線図を参照すればよい。
(数式4)
オーバー:AVEBv+γ+α 但し、αは適正露出に対する露出差
(数式5)
アンダー:AVEBv+γ―β 但し、βは適正露出に対する露出差

制御部21は、数式4または数式5により決定した露出条件になるように、オーバーとアンダーの露出を制御する。S16において制御部21は、焦点検出処理および求めた焦点位置にレンズを駆動させる。制御部21は、撮像素子10で焦点検出用の信号蓄積を行なわせる。なお、AFセンサ9を用いた焦点検出を行わないのは、動画記録を行うために、ミラーアップして連続的な撮影を行っているためである。従って、撮像素子10で得られる画像信号から、コントラスト検出方式の焦点検出を行う。蓄積が終了すると蓄積された信号を読み出しながらA/D変換を行い、焦点検出用の画像信号としてRAM35に格納する。さらにS11で得ているレンズ情報と焦点検出用の画像信号とから、撮影画面の各部の焦点状態を演算し、合焦させる焦点検出領域を決定する。なお、焦点検出領域の位置の決定は他の方法によってもよく、例えば予め操作部23を通じてユーザから指定されている焦点検出領域に決定してもよいし、顔検出などの画像認識技術を用いて人物の顔に焦点検出領域を設定してもよい。制御部21は、決定した焦点検出領域における焦点状態とレンズ情報とに従って、焦点検出領域に合焦させるためのレンズ移動量を算出し、レンズ制御部51を通じてフォーカスレンズ駆動部52を制御する。これにより、交換レンズ2は焦点検出領域内の被写体に対して合焦状態となる。フォーカスレンズを駆動すると距離エンコーダの情報が変化するので、制御部21は交換レンズ2内の各種レンズ情報の更新も行う。
以下に説明するS17〜S27の処理では、オーバー撮像とアンダー撮像を交互に繰り返し、時間的に隣り合う2つのフレームでHDR合成画像を順次生成していく処理を行う。ここで時間的に連続する2つのフレームでHDR合成画像を生成することのメリットについて、図5〜7を参照して説明する。なお、以降の説明において、オーバー撮像により得られる画像信号をオーバー画像、アンダー撮像により得られる画像信号をアンダー画像という。
まず、図5に示すように、一般的にはHDR合成に用いるフレームは、以下のように、撮像した2つのフレームを1組として1つのHDR合成画像を生成する。
(数式6)
この方法では、各組で撮像された画像は、1つのHDR合成画像の生成にのみ用いられるため、HDR合成画像のフレームレートは撮像するフレームレートに対して半分になる。
一方、図6に示すようにHDR合成に用いられるフレームのうちの1つを以下のように再利用することができる。本実施形態では、図6に示すようにフレームの1つを再利用する方法により動画HDR合成を行う。
(数式7)
この方法をとることで、撮像時のフレームレートに対してHDR合成後のフレームレートが落ちないというメリットが得られる。一方で、フレームの再利用に留まらず、現像処理を含む画像処理結果を再利用すると、例えば時間経過とともに色や輝度が変化するシーンでは、色や輝度の画質劣化(例えばトーンジャンプ)などが発生することが想定される。
この点の詳細について、図7を参照してさらに説明する。図7では、上方から下方へ時間が経過しており、オーバー撮像とアンダー撮像を繰り返している。また、図7に示す1〜4のフレームでは、時間とともにシーンが変化しており、シーンの変化に伴って4つのパターンのホワイトバランス係数(WB係数)がWB係数1〜WB係数4へと変化していく例を示している。1フレーム目のオーバー撮像により得られたオーバー画像に対してWB係数1を用いてホワイトバランス処理を行い、現像した結果が現像画像の1フレーム目となる。同様に2フレーム目のアンダー画像に対してWB係数2を用いてホワイトバランス処理を行い、現像した結果が現像画像の2フレーム目となる。WB係数3およびWB係数4についても同様である。次に1フレーム目の現像画像と2フレーム目の現像画像を用いてHDR合成画像の1フレーム目を生成する。同様に2フレーム目の現像画像と3フレーム目の現像画像を元にHDR合成画像の2フレーム目を生成する。HDR合成画像の3フレーム目も同様の手順で生成する。
HDR合成処理については後述するが、結果としてHDR合成画像には異なるWB係数でホワイトバランス処理されたオーバー画像とアンダー画像が混在することになる。例えば3フレーム目の現像画像に着目して、画面下部左側が低輝度部、右側が高輝度部であるとする。HDR合成処理では、低輝度部はオーバー画像を積極的に使用し、高輝度部はアンダー画像を積極的に使用する。このため、画面下部左側と右側とで異なる色味となり、オーバー画像を使用した部分とアンダー画像を使用した部分との境界でトーンジャンプが発生することが想定される。なお、図7に示す基準フレームは、HDR合成に用いる2つのフレームのうち時間的に最も早いフレームを、非基準フレームはそれ以外を指し、以降の説明でも同様とする。
図2を再び参照して、S17以降の処理について説明する。なお、S14において制御部21は、以下に示す初期化処理を行っている。具体的には、フレームナンバーiを1フレーム目に初期化し、また後述するホワイトバランスの目標値を定期的に更新するためのカウンタkを0に初期化する。また、HDR合成に用いる画像のうち、何番目を基準フレームとするかもこのタイミングで決定する。
S17において制御部21は、処理対象のフレームが最初の1フレーム目かを判定する。制御部21は、フレームナンバーのiが1と等しい場合には基準フレームの撮像を行うためにS18に処理を進め、その他の場合にはS19に処理を進める。
S18において撮像素子10は、制御部21の指示に従って基準フレームの撮像を行う。撮像素子10は撮像した画像をRAM35に格納する。
S19において制御部21は、処理対象のフレームがαフレーム周期の先頭かを判定する。制御部21は、処理対象のフレームがαフレーム周期の先頭である場合、S20に処理を進め、αフレーム周期の先頭でない場合は処理をS22に処理を進める。
S20において制御部21は、ホワイトバランス処理用のパラメータとなるホワイトバランス係数(WB係数)を算出する。本実施形態では、制御部21は、処理負荷軽減のためにWB係数の算出を例えばαフレームごとに行い、一回の演算でαフレーム先の係数まで一括で算出する。
上述したトーンジャンプの発生を低下させるために、本実施形態では、図6に示すような、1つの現像画像を第2回目のHDR合成に再利用するのではなく、図9に示すような、1つの撮像画像に対して、現像パラメータを変更して複数回の現像を行う。
本実施形態に係る現像処理の概要について説明する。1フレーム目がWB係数の算出タイミングである、図2のフローチャート内で示すα周期の1枚目とする。ここで後述するホワイトバランス係数算出方法により算出したαフレーム先の目標ホワイトバランス係数は、
(数式8)
となる。
現在のフレームにおけるホワイトバランス係数を
(数式9)
とすると、αフレームをかけてホワイトバランス係数を線形に変化させていくと任意のフレームiにおけるホワイトバランス係数は
(数式10)
となる。
以上の方法により、制御部21は、図9の1フレーム〜6フレームまでの6パターンのWB係数(WB係数1〜WB係数6まで)を算出する。算出したWB係数は、図9に示すように各撮像画像に適用されてHDR合成画像が生成される。HDR合成画像に使用されるオーバー画像とアンダー画像のホワイトバランス係数を合わせるために、1つの撮像画像に対してWB係数を変更して2回現像する。変更するホワイトバランスの基準としては常に基準フレームのホワイトバランス係数を使用する。例えばHDR合成画像の1フレーム目に用いられる現像画像1−2フレームは、WB係数1で現像され、現像画像2−1フレームは非基準フレームであるため基準フレームのWB係数1で現像する。現像画像2−1に用いられる撮像画像の2フレーム目は、HDR合成画像の2フレーム目用に再利用されるが、現像画像2−2は基準フレームとなるためWB係数2を用いて現像される。
制御部21は、WB係数の算出を行うと算出したWB係数をメモリ28に格納すると、図2に示すS22に処理を進めてカウンタkを1だけインクリメントする。
S22〜S23において実行される現像パラメータの生成と現像処理について、図8を参照して説明する。各機能ブロックの処理は、オーバーフレームとアンダーフレームのそれぞれの撮像画像に対して行われる。
被写体像は、結像光学系(レンズ)によって撮像素子10の撮像素子上に結像されて光電変換される。撮像素子10は、例えば、一般的な原色カラーフィルタを備える単板カラー撮像素子である。原色カラーフィルタは、各々650nm、550nm、450nm近傍に透過主波長帯を持つ3種類の色フィルタからなり、各々R(赤)、G(緑)、B(青)の各バンドに対応する色プレーンを撮影する。単板カラー撮像素子では、この色フィルタは画素ごとに空間的に配列され、各画素は各々単一の色プレーンにおける光の強度を得ることしかできない。このため撮像素子からは色モザイク画像が出力される(801および807)。ホワイトバランス部802では、白を白くする処理がなされる。具体的には、撮像画像を構成する各画素のRGBデータを、例えばxy色空間等の所定の色空間にプロットし、その結果その色空間上で光源色の可能性が高い黒体輻射軌跡付近にプロットされたデータのR、G、Bを積分する。そして、得られた積分値からR及びB成分のWB係数G/R及びG/Bを算出する。なお、WB係数を算出する方法としては、上記の方法に限らず、任意の公知な方法やさらに複雑な方法等を適用することができる。
S22において信号処理部25は、制御部21の指示に応じて基準フレームi用の現像パラメータを生成するとともにメモリ28に保存したホワイトバランス係数8021を読み出す。
S23において信号処理部25は、基準フレームの現像処理を行う。色補間部803では、色モザイク画像を補間することによって、全ての画素においてR、G、Bの色情報が揃ったカラー画像を生成する。生成されたカラー画像は、マトリクス変換部804およびガンマ変換部805を経て基本的なカラー画像が生成される。
ハイダイナミックレンジ合成に先だって、異なる露出で撮影したオーバーフレームとアンダーフレームの各々の輝度レベルを揃えておく必要がある。ガンマ変換部805において適用されるゲインは、白飛びや黒潰れをしないように設定する必要があるため一律なゲインではなくガンマ曲線を用いて行う。これらのガンマ曲線の設計に関しては、例えば2EVの露出差によるゲイン、即ちアンダーに対して2倍のゲインやオーバーに対して1/2のゲインをかけたときに、ガンマ曲線と特性が同じになるように設計する。こうすることで、輝度域に応じて複数枚の画像を切り換えた際に、境界を滑らかにすることができる。色輝度調整部806で画像の見栄えを改善するための処理がカラー画像に対し行われ、例えば、逆光補正や夕景検出して彩度強調といった画像補正がシーンに応じて行われる。色輝度調整部806による処理が終わると現像処理が完了する。制御部21は、基準フレームiの現像処理が終わると、続いて非基準フレームi+1に処理を進めるため、S24に処理を進める。
S24において制御部21は、上述の基準フレームに対する処理と同様に、非基準フレームi+1(アンダーフレーム)の撮像を行い、さらにS25における現像パラメータの生成、S26において現像処理を行う。
S27において信号処理部25は、制御部21の指示に応じてHDR合成部813によりHDR合成処理を行う。静止画のHDR合成の場合は、合成前にさらに、一方の画像を基準として、手振れ等により生じた画像上の動きに対して空間的な位置合わせがなされることが一般的である。しかし、動画HDR合成の場合は、オーバーとアンダーの撮影間隔が静止画撮影と比較して格段に短く、位置合わせを行うとフレームレートが低下したような描写になること、処理の計算量などの理由により位置合わせ処理を行わないことが一般的である。信号処理部25は、オーバー現像の処理を完了すると処理をS28に進める。
HDR合成処理について図10を参照して説明する。横軸は基準輝度を、縦軸は各画像を加算合成する際の合成比率を表す。合成する際の基準輝度の閾値Y1より暗い領域はオーバー現像画像のみを使用し、基準輝度の閾値Y2より明るい領域ではアンダー現像画像のみを用いる。また、基準輝度の閾値付近の境界Y1〜Y2の中間領域では、合成比率を徐々に変化させることで画像の切り替えを滑らかにすることができる。基準輝度として用いるのは、本実施形態ではアンダーフレームとする。以上の処理により信号処理部は、HDR画像を生成して生成したHDR画像をメモリ28に格納する。
S28において制御部21は、操作部23を介してREC釦等の押下による撮像終了の指示があったかを判定する。撮像終了の指示がないと判定した場合は、再び処理をS14に戻してS15〜S27までの処理を繰り返す。一方、撮像終了の指示があったと判定した場合は、生成したHDR動画を圧縮するためにS29に処理を進める。
S29において信号処理部25は、制御部21の指示に応じてメモリに格納していたHDR動画を所定の形式で圧縮したうえで、S30においてメモリなどの記憶部26に記録して一連の動作を終了する。
なお、本実施形態では、オーバーフレームとアンダーフレームの2枚の現像画像を用いてHDR合成処理を行う例を説明したが、3枚以上のフレームを繰り返し取得する場合についても適用可能である。例えば3枚のフレームのHDR合成する場合、各フレームに対して現像画像を3枚生成し、同一のWB係数を適用した3枚のフレームをHDR合成すればよい。
以上説明したように本実施形態では、露出の異なる2つのフレームを繰り返し撮像する構成において、1つの撮像画像に対してWB係数を変更した現像処理を複数行って、前フレームに対するHDR合成で用いた現像画像を用いないようにした。さらに、HDR合成に用いる現像画像のWB係数が同一になるようにした。このようにすることで、動画によるHDR撮影において色や輝度変化のあるシーンであっても生成画像の画質劣化を低減させることが可能になる。即ち、同一のWB係数が適用された現像画像同士を合成することで、色や輝度変化のあるシーンであってもトーンジャンプの発生を抑えて画質劣化を低減させることができる。さらに、本実施形態では、1枚の撮像画像が、処理対象のフレームにおけるHDR合成処理と次のフレームにおけるHDR合成処理のいずれにも用いられるようにした。このようにすることで、撮像画像の得られるフレームレートに対応した数のHDR合成画像を生成することができ、フレームレートを低下させることなく動画HDR撮影を行うことができる。
(実施形態2)
次に実施形態2について説明する。実施形態1では、値を変更した2つのホワイトバランス係数(WB係数)を用いて1つの撮像画像から2つの現像画像を生成し、ホワイトバランス係数の同一な2つの現像画像を用いてHDR合成を行った。これに対して、本実施形態では、色または輝度調整用のルックアップテーブルを変更して1つの撮像画像から2つの現像画像を生成する。なお、本実施形態のデジタルカメラ100の構成は実施形態1と同一でよい。このため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
具体的な色または輝度調整の方法について、図11〜図13を用いて説明する。図12(a)に示す色輝度調整部1202は、図12(b)に示す各機能ブロックから構成される。詳細は後述するが、色輝度調整部1202は、ヒストグラム検出部9062、補正量算出部9063、LUT読み出し部9064、階調補正部9065から構成されている。
まず、図11のS110における、色輝度調整LUTを生成する処理について詳細に説明する。なお、本処理は、S19において制御部21が、色輝度調整LUT更新のフレームになったと判定した場合に実行される。
色輝度調整部1202のヒストグラム検出部9062は、ガンマ変換部805の出力画像の輝度ヒストグラムの検出を行う。画像の全画素に対して検出を行うことが望ましいが、処理時間やメモリ量の節約のために、間引き処理やローパスフィルタ処理等によって画像を縮小した上で行っても良い。なお、画像の端の部分は、一般に重要でないことが多く、また撮像レンズによっては周辺光量の低下の影響を受ける部分であるため、周縁部の画素を除いてヒストグラムを作成してもよい。その後、ヒストグラム検出部9062は、ヒストグラム特徴量を検出する。ヒストグラム特徴量は、例えばヒストグラムで暗部側から累積度数が10%である画素が属するレベル(SD)等であってよい。
補正量算出部9063は、ヒストグラム検出部9062の出力したヒストグラム特徴量に基づいて入力輝度に対する補正量を算出する。補正量算出部9063は、ヒストグラムの代表輝度値ごとに、いくつかの入力輝度値に対する目標輝度を求め、目標輝度と画像の輝度の最小値と最大値からスプライン補間などにより各入力輝度に対する目標出力輝度を算出する。入力輝度と目標出力輝度の差が目標補正量であり、各輝度に対する目標出力輝度により形成されるトーンカーブが階調補正特性を表す。階調補正特性は、入力輝度と出力輝度の対応を示すルックアップテーブル(LUT)によって表現することができる。
補正量算出部9063の動作例について、図13を参照してさらに説明する。図13(a)は、ヒストグラムの代表輝度値と、3つの入力輝度値(64LSB,128LSB,224LSB)に対する目標輝度との関係の例を示している。なお、LSBは分解能を意味し、本実施形態では輝度値のフルスケール(最小値〜最大値)を8ビットの分解能(0〜255LSB)で表すものとする。図13(a)において、「64LSBの点」に対応する横方向の線は、入力輝度が64LSBの画素の目標出力輝度と、ヒストグラムの代表輝度値との関係を示している。例えば、撮像された画像から検出されたヒストグラムの代表輝度値が255LSB〜140LSBの範囲であれば、その画像のうち64LSBの輝度を有する画素の目標出力輝度は64LSB(すなわち、変化無し)である。また、ヒストグラムの代表輝度値が70LSB〜0LSBの範囲の画像においては、64LSBの輝度を有する画素の目標出力輝度は110LSBである。そして、ヒストグラムの代表輝度値が140〜70の範囲では、64LSBの輝度を有する画素の目標出力輝度は64LSBから110LSBの間で線形に変化する。
ヒストグラムの代表輝度値が110LSBである場合、64LSB、128LSBおよび224LSBの輝度を有する画素の目標出力輝度はそれぞれ図13(a)から82LSB,135LSBおよび226LSBである(順に1301〜1303)。従って、顔の代表輝度値が110LSBの画像に対する階調補正特性は、この3点の入出力関係を表す3点と輝度の最低値(0LSB)および最大値(255LSB)に対応する点とをスプライン補間することにより、図13(b)に示す階調補正特性が得られる。このように、画像のヒストグラムを解析して、例えばSDレベルの画素(アンダー気味なシーン)を補正することができる。
なお、上述した説明ではヒストグラム検出部9062および補正量算出部9063は、色輝度調整部1202に含まれるが、色輝度調整部1202の外部、例えば制御部21に含まれても良い。また、本実施形態では入力画像のヒストグラムを例に説明したが、ヒストグラムに限らず例えば顔検出を用いて顔の代表輝度を算出し、代表輝度に基づいて暗い顔を明るく補正するような補正テーブルを生成しても構わない。
次に、再び図11を参照して、S19において制御部21は、処理対象のフレームが色輝度調整LUTを更新のフレームで無いと判定した場合、S22に処理を進める。
S22においてLUT読み出し部9064は、メモリ28に保存されているLUT情報を取得し、S23において階調補正部9065が、ガンマ変換部905の出力画像に対して階調補正を行う。
より具体的には、実施形態1と同様に、変更した現像パラメータを用いて撮像画像に対する2回の現像処理を行う。このとき、本実施形態における現像パラメータの変更は、色輝度調整LUTを変更することに対応する。以下では、色輝度調整LUTを用いて2回の現像処理を行う処理の概要を、図14を参照して説明する。
図14に示す1フレーム目は、色輝度調整LUTの算出タイミング、即ち図2で示したα周期の1枚目とする。さらに、色輝度調整LUTの算出方法によって算出するαフレーム先の目標色輝度調整LUTを、LUTαとする。実施形態1と同様にαフレームかけて色輝度調整LUTを線形に変化させていくように各フレームの色輝度調整LUTをLUT1〜LUT6として求め、各LUTを各現像画像の生成に適用する。
ところで、実施形態1では、各撮像画像の現像処理において予め求めた1つのWB係数を適用した。しかし、予め求めた複数の現像パラメータを混合して現像処理を行うことも可能である。例えば、本実施形態では、基準フレームと非基準フレームの色輝度調整LUTを混合する例を説明する。具体的には、隣り合うLUT1とLUT2を混合したLUT1・2を生成する場合、以下に示すように各LUTを加重加算すればよい。
(数式11)
ここでa、bはLUTの要素を表しており、8bitのテーブル精度を想定している。また、各LUTの加重加算割合を示すβは単に0.5として平均をとってもよい。また、オーバー露出とアンダー露出の露出差を秒時により実現している場合は、秒時に応じてより長秒なオーバー露出画像の重みが大きくなるようにβを設定しても良い。図14に示すHDR合成画像の生成方法では、撮像画像に対応するLUTをオーバーフレームとアンダーフレームのそれぞれのLUTを混合したLUTを用いて現像画像を生成する。例えば、2フレーム目のHDR合成画像を生成する場合、アンダー画像に対応するLUT2とオーバー画像に対応するLUT3を混合した現像パラメータをそれぞれ施した基準フレームと非基準フレームを合成してHDR合成画像を生成している。
以上説明したように、本実施形態では、露出の異なる2つのフレームを繰り返し撮像する構成において、1つの撮像画像に対して色輝度調整LUTを変更した現像処理を2回行って、前フレームに対するHDR合成で用いた現像画像を用いないようにした。そして、HDR合成に用いる現像画像(即ちオーバー画像とアンダー画像に対する現像画像)を生成するための色輝度調整LUTが同一になるようにした。このようにするために、オーバーフレームとアンダーフレームの色輝度調整LUTを混合したLUTを使ってオーバー撮像とアンダー撮像とで同じ現像パラメータになるようにした。このようにすることで、動画によるHDR撮影において色や輝度変化のあるシーンであっても、生成画像の画質劣化を低減させることが可能になる。即ち、同一のLUTが適用された現像画像を合成することで、色や輝度変化のあるシーンであってもトーンジャンプの発生を抑えて画質劣化を低減させることができる。
(実施形態3)
さらに実施形態3について説明する。本実施形態では、時間の経過に合わせて変化しないノイズ低減(NR:Noise Reduction)処理を対象とし、移動体の描写方法とそれに応じたノイズ低減処理のパラメータ設定を行う。なお、本実施形態のデジタルカメラ100の構成は実施形態1と同一でよい。このため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
本実施形態に係る動画HDR撮影の一連の動作について、図15を参照して説明する。上述のように、実施形態1および2に示した時間経過とともに変化していくパラメータではないノイズ低減処理を対象としているため、図2に示したS17〜S21の処理は行わない。一方、S27におけるHDR合成の処理後に、S31において後述する移動体対策の処理を行う。
まず、移動体対策の処理の概要について説明する。複数枚の画像を合成するHDR合成における移動体の描写方法については幾つか考えられる。例えば基準フレームの移動体を毎フレーム100%表示するという方法がある。しかし、動画HDR撮影の特性上、オーバー画像は飽和する部分を多く有していることが想定される。移動体部分が飽和している場合、飽和する部分を有しているオーバー画像と有していないアンダー画像が交互に現れてフリッカーのようなちらつき現象が発生することが懸念される。一方、基準フレームであるか非基準フレームであるかに依らず、常にアンダー画像を100%表示させるという方法もある。しかし、合成画像における移動体部分は、アンダー画像のみを用いて合成されるため移動体部分のフレームレートが半分になってしまう。
そこで本実施形態では、HDR合成画像の移動体部分については、基準フレームに非基準フレームも幾らか混合させた多重描写を行う。このようにすれば、移動体部分が飽和していたとしてもちらつきを低減させることができる。
移動体の描写、即ち移動体対策処理について、図15〜図17を参照して説明する。図17に示す輝度合成比率算出部1901およびベース合成部1903は、図15に示すS27の処理を、移動体対策部1905はS31の処理をそれぞれ行う。HDR合成に用いる2つの入力画像はtフレームの現像画像とt+1フレームの現像画像である。
まず輝度合成比率算出部1901は、tフレームの現像画像を基準輝度として図10に示した合成割合を算出して、ベース合成部1903が算出された合成割合に従ってベース合成画像を生成する。このベース合成画像は、移動体対策部1905に対する1つの入力画像となる。tフレームは時間経過とともにオーバーフレームとアンダーフレームが交互に入れ替わるので参照する基準輝度も交互に入れ替わることになる。このようにすることで基準輝度のフレームレートを維持することができる。
次に、移動体検出部1902は、移動体部分を抽出する。抽出の方法としては幾つか存在するが、例えば本実施形態では、tフレームの画像とt+1フレームの画像の差分絶対値をとる。すなわち、差分の無い領域は移動の無い部分であり差分の有る領域は変化のある移動体部分であることが特定できる。
置き換え用多重合成部1904は、tフレームの画像とt+1フレームの画像の多重合成を行う。本処理の多重合成に用いる合成比率(多重割合)は、基準輝度に依らない予め定めた固定の比率、例えば基準フレーム80%、非基準フレーム20%とする。後述する図16には、基準フレームおよび非基準フレームを固定の比率で合成する様子を示している。なお、図18(a)、および(b)に示すように、基準輝度に応じて多重割合を適応的に変動させても良い。このようにすれば、移動体であっても飽和しにくい中低輝度域については基準フレームが100%表示され、飽和しやすい高輝度域についてはアンダー画像が支配的な多重割合とすることができる。
最後に移動体対策部1905は、ベース合成部1903により出力されたベース合成画像の移動体部分を、置き換え用多重合成部1904により出力された置き換え用多重画像で置き換える処理を行う。
上述の方法により移動体部分を多重描写にすると、移動体部分の割合には、例えば図16に示すようにアンダー画像が80%と支配的になる基準フレームの場合と20%と支配的にならない非基準フレームの場合とがある。上述したように、オーバーフレームに対するゲインダウン処理またはアンダーフレームに対するゲインアップ処理がガンマ変換により施され、現像後の露出を合わせる処理が行われる。このため、デジタルゲインでゲインアップするとノイズ成分まで増幅されてしまうためアンダーフレームの方がノイジーになることが想定される。そしてその影響はノイズの少ないフレームとノイズの多いフレームとが交互に使用されることでちらつきとなって現れる場合が想定される。
そこで、本実施形態ではさらに、アンダーフレームの多重割合が大きい場合にノイズ低減処理の強度を高める処理を行う。ノイズ低減処理の詳細については後述するが、本実施形態に係る現像処理およびHDR合成処理の機能ブロックについて図20および図21を参照して説明する。本実施形態に係る現像処理およびHDR合成処理の機能ブロックは、色補間部803の後段にノイズ低減部2002が追加され、最後段のHDR合成部2003は移動体対策部1905を有する。
ノイズ低減部2002の詳細について図21を参照して説明する。光ショットノイズや暗電流ノイズなどのノイズを除去するには画像信号をぼかすと効果的である。しかし、画像信号を単にぼかすだけでは被写体のエッジもぼけてしまい全体的に鮮鋭度の落ちた眠い画像となってしまう。そこで、画像信号のテクスチャを破壊せずにノイズ成分のみを低減する方法として、非線形フィルタであるバイラテラルフィルタを用いる。バイラテラルフィルタは、エッジ部分の強度を保持しつつ、平滑化によりノイズを除去する効果を有するフィルタである。なお、バイラテラルフィルタの適用については公知の技術を用いることができるため、詳細の説明は省略する。バイラテラルフィルタ部231が入力画像230に対してバイラテラルフィルタをかけると、加重平均部232は対象フレームの多重割合2001に応じた割合で入力画像230とバイラテラルフィルタをかけた出力画像とを加重平均し出力画像234を出力する。このようにバイラテラルフィルタを通してノイズが低減された画像と元画像とを所定の割合で混合させることで、ノイズ感を制御することが可能となる。
ここで、ノイズ低減部2002による出力画像を用いたHDR合成画像の例を、図19を参照して説明する。図19に示すアンダー画像が基準フレームになった場合(HDR合成画像の2フレーム、4フレーム)、アンダー画像の多重割合が80%と支配的になるため、バイラテラルフィルタの出力画像の割合を入力画像と比べて多くしてノイズ低減の効果を高める。多重割合とノイズ低減強度の関係は、図22に示すように多重割合が上がるに従ってノイズ低減の効果が強まるようにする。なお、本実施形態ではノイズ低減処理としてバイラテラルフィルタを使ったが、他の方法としてメディアンフィルタやシグマフィルタなどを使っても良くその方法は問わない。そして、多重割合について例示した割合である必要はなく、基準フレームの割合が非基準フレームの割合よりも高い範囲内でどの数値を設定しても構わない。
なお、本実施形態では、実施形態1および2に示した現像パラメータを適用した画像にさらに本実施形態におけるノイズ低減処理を行う構成としてもよいのは言うまでもない。例えば、図19における2フレーム目のHDR合成画像の生成において、画像基準フレームおよび非基準フレームのそれぞれにWB係数2が適用されていてよい。このようにすれば、色や輝度変化のあるシーンであっても画質劣化を低減させた移動体対策処理が可能になる。
以上説明したように、本実施形態では、露出の異なる2つのフレームを繰り返し撮像する構成において、1つの撮像画像に対して現像パラメータを変更した現像処理を2回行って、前フレームに対するHDR合成で用いた現像画像を用いないようにした。さらに、2つの現像画像の多重割合に応じて各現像時のノイズ低減処理の強度をそれぞれ調整するようにした。このようにすることで、動画によるHDR撮影において色や輝度が変化するシーンであっても生成画像の画質劣化を低減させることが可能となり、特に生成されたHDR合成画像のフレーム間に生じるノイズ感を低減することが可能になる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
10…撮像素子、25…信号処理部、21…制御部、51…レンズ制御部、54…絞り駆動部、805…ガンマ変換部、809…ホワイトバランス係数補正部、816…HDR合成部、1309…制御Bv値推定部、1310…ガンマテーブル修正部

Claims (12)

  1. 撮像手段と、
    露出の異なるフレームの画像を繰り返し撮像するように前記撮像手段を制御する撮像制御手段と、
    前記撮像されたフレームの画像のそれぞれに現像処理を施す現像手段と、
    前記現像手段により現像された時間的に連続する画像を合成して合成画像を生成する合成手段と、を有し、
    前記現像手段は、1つの前記撮像されたフレームの画像から現像パラメータの異なる第1および第2の画像を生成し、
    前記合成手段は、時間的に連続する前記撮像されたフレームの画像のそれぞれから生成された第1および第2の画像のいずれかを合成して第1の合成画像を生成し、前記第1の合成画像に続く第2の合成画像を生成する際には、前フレームの画像から生成された第1の画像と第2の画像のうち前記第1の合成画像の生成に用いたものとは異なる画像を用いることを特徴とする撮像装置。
  2. 前記合成手段は、前記現像された時間的に連続する画像のうち、同一の現像パラメータを適用して現像された画像を合成して合成画像を生成することを特徴とする請求項1に記載の撮像装置。
  3. 前記現像手段は、時間的に連続する前記撮像されたフレームの画像に、パターンが時間経過とともに変化する現像パラメータを用いて現像処理を施すことを特徴とする請求項1または2に記載の撮像装置。
  4. 前記現像パラメータは、前記撮像されたフレームの画像のホワイトバランスの制御に用いるホワイトバランス係数であることを特徴とする請求項1ないし3のいずれか1項に記載の撮像装置。
  5. 前記現像パラメータは、前記撮像されたフレームの画像の色または輝度の階調を補正するための階調補正特性であることを特徴とする請求項1ないし3のいずれか1項に記載の撮像装置。
  6. 前記現像手段は、時間的に連続する前記撮像されたフレームの画像のそれぞれに対する階調補正特性を加重加算して得られる、混合した階調補正特性を現像パラメータとして用いることを特徴とする請求項5に記載の撮像装置。
  7. 前記階調補正特性は、前記撮像された画像の予め定められた数の色または輝度の情報に基づいて補間により生成される階調補正特性であることを特徴とする請求項5または6に記載の撮像装置。
  8. 前記現像手段は、前記撮像されたフレームの画像が適正露出に対して露出の少ない画像である場合、ノイズの平滑化された第1の画像と、該第1の画像より強くノイズの平滑化された第2の画像を生成することを特徴とする請求項1に記載の撮像装置。
  9. 前記現像された時間的に連続する画像に対して移動体の領域を検出する検出手段をさらに有し、
    前記合成手段は、前記検出された移動体の領域について、前記現像された時間的に連続する画像を予め定められた合成比率で合成した画像を生成することを特徴とする請求項8項に記載の撮像装置。
  10. 撮像手段と、
    露出の異なるフレームの画像を繰り返し撮像するように前記撮像手段を制御する撮像制御手段と、
    前記撮像されたフレームの画像のそれぞれに現像処理を施す現像手段と、
    前記現像手段により現像された時間的に連続する画像を合成して合成画像を生成する合成手段と、を有し、
    前記現像手段は、1つの前記撮像されたフレームの画像から現像パラメータの異なる第1および第2の画像を生成し、
    前記合成手段は、時間的に連続する前記撮像されたフレームの画像のそれぞれから生成された画像のうち、同一の現像パラメータで生成された画像同士を合成することを特徴とする撮像装置。
  11. 撮像手段が撮像を行う撮像工程と、
    撮像制御手段が、露出の異なるフレームの画像を繰り返し撮像するように前記撮像手段を制御する撮像制御工程と、
    現像手段が、前記撮像されたフレームの画像のそれぞれに現像処理を施す現像工程と、
    合成手段が、前記現像手段により現像された時間的に連続する画像を合成して合成画像を生成する合成工程と、を有し、
    前記現像工程では、1つの前記撮像されたフレームの画像から現像パラメータの異なる第1および第2の画像を生成し、
    前記合成工程では、時間的に連続する前記撮像されたフレームの画像のそれぞれから生成された第1および第2の画像のいずれかを合成して第1の合成画像を生成し、前記第1の合成画像に続く第2の合成画像を生成する際には、前フレームの画像から生成された第1の画像と第2の画像のうち前記第1の合成画像の生成に用いたものとは異なる画像を用いることを特徴とする撮像装置の制御方法。
  12. コンピュータを、請求項1乃至10のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。
JP2014157046A 2014-07-31 2014-07-31 撮像装置およびその制御方法ならびにプログラム Active JP6343200B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014157046A JP6343200B2 (ja) 2014-07-31 2014-07-31 撮像装置およびその制御方法ならびにプログラム
US14/809,462 US9712757B2 (en) 2014-07-31 2015-07-27 Image capturing apparatus capable of compositing images generated using the same development parameter and control method therefor
CN201510463584.0A CN105323474B (zh) 2014-07-31 2015-07-31 摄像设备及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014157046A JP6343200B2 (ja) 2014-07-31 2014-07-31 撮像装置およびその制御方法ならびにプログラム

Publications (2)

Publication Number Publication Date
JP2016034109A JP2016034109A (ja) 2016-03-10
JP6343200B2 true JP6343200B2 (ja) 2018-06-13

Family

ID=55181384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014157046A Active JP6343200B2 (ja) 2014-07-31 2014-07-31 撮像装置およびその制御方法ならびにプログラム

Country Status (3)

Country Link
US (1) US9712757B2 (ja)
JP (1) JP6343200B2 (ja)
CN (1) CN105323474B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5704476B1 (ja) * 2014-06-24 2015-04-22 株式会社ビジョナリスト デジタル写真分析装置及びデジタル写真分析プログラム
US11044390B2 (en) * 2016-02-10 2021-06-22 Karl Storz Imaging, Inc. Imaging system for identifying a boundary between active and inactive portions of a digital image
JP2017220843A (ja) * 2016-06-09 2017-12-14 ソニー株式会社 撮像制御装置および方法、並びに車両
WO2018161289A1 (zh) * 2017-03-09 2018-09-13 广东欧珀移动通信有限公司 基于深度的控制方法、基于深度的控制装置和电子装置
JP6824817B2 (ja) * 2017-05-17 2021-02-03 キヤノン株式会社 画像処理装置および画像処理方法
US10334141B2 (en) 2017-05-25 2019-06-25 Denso International America, Inc. Vehicle camera system
WO2019061542A1 (zh) * 2017-09-30 2019-04-04 深圳传音通讯有限公司 视频拍摄方法、装置及计算机可读存储介质
JP7071084B2 (ja) * 2017-10-10 2022-05-18 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
CN107635102B (zh) * 2017-10-30 2020-02-14 Oppo广东移动通信有限公司 高动态范围图像曝光补偿值获取方法和装置
CN107864321B (zh) * 2017-11-29 2024-02-02 苏州蛟视智能科技有限公司 一种基于定焦镜头的电动调焦装置及方法
KR102650217B1 (ko) * 2017-12-07 2024-03-21 삼성전자주식회사 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치
GB2576241B (en) 2018-06-25 2020-11-04 Canon Kk Image capturing apparatus, control method thereof, and computer program
CN109862282B (zh) * 2019-02-18 2021-04-30 Oppo广东移动通信有限公司 人物图像处理方法和装置
US11812157B2 (en) 2019-05-31 2023-11-07 Kowa Company, Ltd. Image processing device and image processing program
US20220261970A1 (en) * 2019-06-11 2022-08-18 Sarang Dilip Nerkar Methods, systems and computer program products for generating high dynamic range image frames
US20220078327A1 (en) * 2019-07-12 2022-03-10 Bennet K. Langlotz Digital camera with still frame capture during video
CN112243090A (zh) * 2019-07-16 2021-01-19 三星电子株式会社 图像传感器和图像处理系统
CN112672060B (zh) * 2020-12-29 2022-09-02 维沃移动通信有限公司 拍摄方法、装置和电子设备
CN113014801B (zh) * 2021-02-01 2022-11-29 维沃移动通信有限公司 录像方法、装置、电子设备及介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3999321B2 (ja) * 1997-12-05 2007-10-31 オリンパス株式会社 電子カメラ
JP2001352486A (ja) * 2000-06-07 2001-12-21 Matsushita Electric Ind Co Ltd 撮像装置
JP3740394B2 (ja) * 2001-07-27 2006-02-01 日本電信電話株式会社 高ダイナミックレンジ映像の生成方法とその装置、及びこの方法の実行プログラムとこの実行プログラムの記録媒体
US7949182B2 (en) * 2007-01-25 2011-05-24 Hewlett-Packard Development Company, L.P. Combining differently exposed images of the same object
US8115858B2 (en) * 2008-01-16 2012-02-14 Samsung Electronics Co., Ltd. System and method for acquiring moving images
JP5012656B2 (ja) 2008-05-16 2012-08-29 ソニー株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
KR101643319B1 (ko) * 2010-01-11 2016-07-27 삼성전자주식회사 하이 다이나믹 레인지 영상을 획득하는 장치 및 그 방법
JP5699482B2 (ja) 2010-08-24 2015-04-08 セイコーエプソン株式会社 画像処理装置、画像処理方法及び撮像装置
US8947555B2 (en) * 2011-04-18 2015-02-03 Qualcomm Incorporated White balance optimization with high dynamic range images
US20130044237A1 (en) * 2011-08-15 2013-02-21 Broadcom Corporation High Dynamic Range Video
JP5832855B2 (ja) * 2011-11-01 2015-12-16 クラリオン株式会社 画像処理装置、撮像装置および画像処理プログラム
US9521355B2 (en) * 2012-12-04 2016-12-13 Samsung Electronics Co., Ltd. Image processing apparatus, image processing method and program thereof
CN103873781B (zh) * 2014-03-27 2017-03-29 成都动力视讯科技股份有限公司 一种宽动态摄像机实现方法及装置

Also Published As

Publication number Publication date
JP2016034109A (ja) 2016-03-10
CN105323474B (zh) 2018-10-23
US20160037046A1 (en) 2016-02-04
US9712757B2 (en) 2017-07-18
CN105323474A (zh) 2016-02-10

Similar Documents

Publication Publication Date Title
JP6343200B2 (ja) 撮像装置およびその制御方法ならびにプログラム
US10194091B2 (en) Image capturing apparatus, control method therefor, program, and recording medium
JP6223028B2 (ja) 撮像装置、制御方法及びそのプログラム
JP5787648B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP6333095B2 (ja) 撮像装置およびその制御方法ならびにプログラム
US20150036878A1 (en) Image processing apparatus and image processing method
US10992854B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
US10986262B2 (en) Imaging apparatus, control method, and non-transitory storage medium
JP6744711B2 (ja) 撮像装置及びその制御方法、プログラム並びに記憶媒体
JP2017022610A (ja) 画像処理装置、画像処理方法
JP4999871B2 (ja) 撮像装置およびその制御方法
JP5861924B2 (ja) 撮像装置
JP2008148180A (ja) 撮像装置、画像処理装置、および方法、並びにコンピュータ・プログラム
US20220270221A1 (en) Image processing apparatus and control method thereof
JP2008131530A (ja) 撮像装置、画像処理装置、および方法、並びにコンピュータ・プログラム
JP6108680B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6047686B2 (ja) 撮影装置
JP2009200743A (ja) 画像処理装置および画像処理方法および画像処理プログラムおよび撮像装置
JP2010068046A (ja) 撮像装置
CN116266877A (zh) 图像处理设备和方法、摄像设备和计算机可读介质
JP5335964B2 (ja) 撮像装置およびその制御方法
JP2009118052A (ja) 画像信号処理方法及び装置
JP2019140468A (ja) 画像処理装置、及びその制御方法
JP4752434B2 (ja) 色補正処理プログラムおよび電子カメラ
JP6157274B2 (ja) 撮像装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180518

R151 Written notification of patent or utility model registration

Ref document number: 6343200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151