JP2019047336A - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2019047336A
JP2019047336A JP2017168643A JP2017168643A JP2019047336A JP 2019047336 A JP2019047336 A JP 2019047336A JP 2017168643 A JP2017168643 A JP 2017168643A JP 2017168643 A JP2017168643 A JP 2017168643A JP 2019047336 A JP2019047336 A JP 2019047336A
Authority
JP
Japan
Prior art keywords
image
occlusion
characteristic
hdr
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017168643A
Other languages
English (en)
Other versions
JP2019047336A5 (ja
JP7057079B2 (ja
Inventor
寿人 関根
Hisato Sekine
寿人 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017168643A priority Critical patent/JP7057079B2/ja
Priority to US16/113,268 priority patent/US10832386B2/en
Publication of JP2019047336A publication Critical patent/JP2019047336A/ja
Publication of JP2019047336A5 publication Critical patent/JP2019047336A5/ja
Application granted granted Critical
Publication of JP7057079B2 publication Critical patent/JP7057079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】移動体によって生じるオクルージョン領域のオクルージョン特性を考慮して、多重像や不自然なボケ、尾引きなどの発生を抑制したHDR画像を合成する。【解決手段】本発明の一実施形態に係る画像処理装置は、同じシーンに対して、基準露光量で撮影された第1の画像と、基準露光量とは異なる露光量で、第1の画像を撮影する前に撮影された第2の画像と、基準露光量とは異なる露光量で、第1の画像を撮影した後に撮影された第3の画像とを取得する取得手段を有する。また、第1の画像、第2の画像及び第3の画像のうち少なくとも2つの画像を用いて、被写体の移動によって生じるオクルージョン領域のオクルージョン特性を特定するオクルージョン特性特定手段と、第1の画像に対して、特定したオクルージョン特性に応じて第2の画像または第3の画像を合成し、HDR画像を生成するHDR合成手段とを有する。【選択図】図2

Description

本発明は、露光量の異なる複数の画像を合成し、HDR画像を生成する技術に関する。
一般的に、デジタルカメラやデジタルビデオカメラなどの撮像装置において用いられるCCDやCMOSといった撮像センサーのダイナミックレンジは、自然界のダイナミックレンジと比較して狭い。そのため、広いダイナミックレンジ(以下、ハイダイナミックレンジと称し、「HDR」と略記する)を有するシーンを一般的な方法で撮像した場合には、黒潰れや白飛びなどが発生してしまう。このような広いダイナミックレンジを有するシーン(以下、HDRシーンと称する)の画像を生成する手法としては、露光量の異なる複数の画像を撮像し、それらを合成して、HDRシーンの画像(以下、HDR画像と称する)を生成する方法がある。この方法では、まず、異なる露光量で複数の画像を撮像する。以降、露光量の多い画像を多露光画像と呼び、露光量の少ない画像を少露光画像と呼ぶ。次に、撮像した複数の画像に対して、露光量に基づきデジタルゲイン補正(以下、露光量補正という)を行い、各画像の露光量を等しくする。最後に、露光量補正を行った各画像データから、画像の領域ごとに適切な画素を選択し、合成することで、HDR画像を生成する。以下、このような合成方法をHDR合成と称する。
しかし、このようなHDRシーンの撮像中に被写体が移動した場合、HDR画像を適切に合成できない場合がある。例えば、図15に示すように、移動体1501を含むHDRシーン1500を撮像し、HDR合成を行なう場合、多露光画像の飽和領域(白飛び領域)に少露光画像が合成される。このような場合、移動体1501の移動により合成対象の領域1502の一部が隠れてしまうため、HDR合成を行ってHDR画像1503を生成すると、多重像1504などが発生してしまう。以下、複数の画像を合成する際、被写体の移動により変化する領域をオクルージョン領域と称する。このような問題に対して、特許文献1には、オクルージョン領域を検出し、オクルージョン領域に対して多露光画像と少露光画像を混合することで多重像を目立たなくさせる方法が開示されている。また、特許文献2には、複数の画像間の動きベクトルを算出し、動きベクトルの大きさに応じて、画像の合成比率を制御する方法が開示されている。
特開2014−220717号公報 特開2012−19337号公報
しかしながら、オクルージョン領域には、被写体の移動により消失する消失領域と、被写体の移動により出現する出現領域とが存在する。以下、消失領域及び出現領域をオクルージョン特性と称する。上述した特許文献1や特許文献2に開示された方法では、オクルージョン特性が考慮されていないため、合成画像には多重像や不自然なボケ、動体の残像(尾引き)などが残ってしまう。
本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、移動体によって生じるオクルージョン領域のオクルージョン特性を考慮して、多重像や不自然なボケ、尾引きなどの発生を抑制したHDR画像を合成することにある。
本発明の一実施形態に係る画像処理装置は、同じシーンに対して、基準露光量で撮影された第1の画像と、前記基準露光量とは異なる露光量で、前記第1の画像を撮影する前に撮影された第2の画像と、前記基準露光量とは異なる露光量で、前記第1の画像を撮影した後に撮影された第3の画像とを取得する取得手段を有する。また、前記第1の画像、前記第2の画像及び前記第3の画像のうち少なくとも2つの画像を用いて、被写体の移動によって生じるオクルージョン領域のオクルージョン特性を特定するオクルージョン特性特定手段と、前記第1の画像に対して、前記特定したオクルージョン特性に応じて前記第2の画像または前記第3の画像を合成し、HDR画像を生成するHDR合成手段とを有する。
本発明によると、移動体によって生じるオクルージョン領域のオクルージョン特性を考慮して、多重像や不自然なボケ、尾引きなどの発生を抑制したHDR画像を合成することが可能となる。
第1の実施形態の撮像装置の構成を示すブロック図である。 第1の実施形態の画像処理のフローチャートを示す図である。 第1の実施形態の画像処理部の構成を示すブロック図である。 第1の実施形態のオクルージョン特性算出処理のフローチャートを示す図である。 第1の実施形態のオクルージョン特性算出部の構成を示すブロック図である。 第1の実施形態の誤差画像を説明するための図である。 第1の実施形態のオプティカルフローを説明するための図である。 第1の実施形態のオクルージョン特性を説明するための図である。 第1の実施形態のHDR合成処理のフローチャートを示す図である。 第2の実施形態の画像処理のフローチャートを示す図である。 第2の実施形態の画像処理部の構成を示すブロック図である。 第2の実施形態のオクルージョン特性算出処理のフローチャートを示す図である。 第2の実施形態のオクルージョン特性算出部の構成を示すブロック図である。 第2の実施形態のユーザインタフェースの一例を示す図である。 従来のHDR合成処理を説明するための図である。
以下、本発明の実施形態について、図面を参照して詳細に説明する。尚、本発明の実施形態は、以下に説明する実施形態に必ずしも限定されるものではない。また、以下の実施形態における特徴の組み合わせの全てが、本発明に必須のものとは限らない。尚、同一の構成要素については、同じ符号を付して説明する。
[第1の実施形態]
<撮像装置の構成>
図1は、本実施形態における撮像装置101の構成を示すブロック図である。撮像装置101は、光学部102、撮像素子部103、CPU104、ROM105、RAM106、撮像系制御部107、制御部108、操作ボタン109、撮影ボタン110、及びキャラクタージェネレーション部111を備える。また、撮像装置101は、A/D変換部112、画像処理部113、エンコーダ部114、メディアI/F115、表示部116、及びシステムバス118を備える。
光学部102は、ズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、及びシャッターから構成され、被写体の光情報を集光する。尚、光学部102は、被写体の光情報を集光できればよく、その構成は限定されない。
撮像素子部103は、光学部102にて集光された光情報を電流値へと変換する素子であり、アナログ信号を出力する。また、撮像素子部103は、カラーフィルタなどを用いて色情報を取得することができる。光学部102及び撮像素子部103は、撮像部を構成し、撮像手段として機能する。
CPU104は、各構成要素の処理を制御し、ROM(Read Only Memory)105や、RAM(Random Access Memory)106に格納された命令を順次読み込み、解釈し、その結果に従って処理を実行する。
撮像系制御部107は、光学部102に対して、フォーカスを合わせる、シャッターを開く、絞りを調整するなどのCPU104から指示された制御を行う。
制御部108は、操作ボタン109や撮影ボタン110からのユーザ指示によって、撮影動作の開始及び終了の制御を行う。
キャラクタージェネレーション部111は文字やグラフィックなどを生成し、表示部116に表示する。
A/D変換部112は、撮像素子部103から出力されたアナログ信号に基づいて、被写体の光量をデジタル信号値に変換する。
画像処理部113は、デジタル信号に変換された画像データを取得し、画像処理を行う。また、画像処理部113は、画像処理を行った画像データを表示部116に表示してもよい。画像処理部113は、画像処理装置として機能することができる。
エンコーダ部114は、画像処理部113にて処理した画像データを、Jpegなどのファイルフォーマットに変換する。
メディアI/F(インタフェース)115は、PC/メディア117(例えば、ハードディスク、メモリカード、CFカード、SDカードなど)と画像データを送受信するためのインタフェースである。
システムバス118は、撮像装置101の構成要素間でデータを送受信するためのバスである。
<画像処理>
図2は、本実施形態の画像処理のフローチャートを示す。図2のフローチャートの各ステップは、画像処理部113によって実行される。また、図3は、本実施形態の画像処理部113の構成を示すブロック図である。本実施形態の画像処理部113は、現像処理部304、露出補正処理部305、オクルージョン特性算出部306、及びHDR合成処理部307を備える。また、多露光画像記憶部308、前少露光画像記憶部309、後少露光画像記憶部310、オクルージョン特性記憶部311、HDR合成画像記憶部312、及びパラメータ記憶部313を備える。以下では、図2及び図3を用いて、本実施形態の画像処理の全体的な流れを詳細に説明する。
まず、ステップS201で、画像処理部113は、前少露光画像301、多露光画像302、及び後少露光画像303を取得する。前少露光画像301、多露光画像302、及び後少露光画像303は、同じシーンを撮影した画像である。多露光画像302の露光量を、基準露光量と称する。前少露光画像301は、基準露光量より少ない露光量で、多露光画像302を撮影する前に撮影された画像である。後少露光画像303は、基準露光量より少ない露光量で、多露光画像302を撮影した後に撮影された画像である。すなわち本実施形態では、基準露光量と、基準露光量より少ない露光量とを交互に切り替えながら同じシーンを連続して撮影したことにより得られる画像を処理の対象とする。
ステップS202で、現像処理部304は、ステップS202において取得した多露光画像302、前少露光画像301、及び後少露光画像303に対して、ホワイトバランス補正、デモザイキング、及びノイズリダクションなどの現像処理を行う。現像処理部304は、現像処理を行った多露光画像302、前少露光画像301、及び後少露光画像303をそれぞれ、多露光画像記憶部308、前少露光画像記憶部309及び後少露光画像記憶部310に記憶する。
ステップS203で、露出補正処理部305は、ステップS202にて記憶した前少露光画像301及び後少露光画像303の露出補正処理を行い、それぞれ、前少露光画像記憶部309及び後少露光画像記憶部310に再び記憶する。尚、露出補正処理は、多露光画像と少露光画像の露光量を、デジタルゲインによって同じレベルにする処理である。例えば、多露光画像の露光量をEl、少露光画像の露光量をEs、露出補正処理前の少露光画像をS,露出補正処理後の少露光画像をS’とすると、露出補正処理後の少露光画像S’は、次式(1)のように表すことができる。
S’=El/Es*S (1)
ステップS204で、オクルージョン特性算出部306は、前少露光画像301及び後少露光画像303を用いてオクルージョン領域のオクルージョン特性を算出し、オクルージョン特性記憶部311に記憶する。すなわち、オクルージョン特性算出部306は、オクルージョン特性を特定するオクルージョン特性特定手段として機能する。オクルージョン特性算出部306は、パラメータ記憶部313に予め記憶されたパラメータを用いて、オクルージョン特性を算出してもよい。尚、オクルージョン特性算出処理の詳細については後述する。
ステップS205で、HDR合成処理部307は、多露光画像302、前少露光画像301、後少露光画像303、及びステップS204にて算出したオクルージョン特性を用いて、HDR合成処理を行い、HDR画像を生成する。HDR合成処理部307は、生成したHDR画像をHDR合成画像記憶部312に記憶する。尚、HDR合成処理の詳細については後述する。
最後にステップS206で、画像処理部113は、ステップS205においてHDR合成画像記憶部312に記憶した合成画像(すなわち、HDR画像)を出力する。
<オクルージョン特性算出処理>
図4は、本実施形態のオクルージョン特性算出処理のフローチャートを示す。図4のフローチャートの各ステップは、オクルージョン特性算出部306によって実行される。図5は、本実施形態のオクルージョン特性算出部306の構成を示すブロック図である。オクルージョン特性算出部306は、誤差算出部501、オプティカルフロー算出部502、オクルージョン特性設定部503、誤差画像記憶部504、及びオプティカルフロー記憶部505を備える。図6は、本実施形態の誤差画像を説明する図である。図7は、本実施形態のオプティカルフローを説明する図である。図8は、本実施形態のオクルージョン特性を説明する図である。以下では、図4から図7を用いて、上述したステップS204におけるオクルージョン特性算出処理について詳細に説明する。
まず、ステップS401で、オクルージョン特性算出部306は、前少露光画像記憶部309に記憶された前少露光画像301、及び後少露光画像記憶部310に記憶された後少露光画像303を取得する。
ステップS402で、誤差算出部501は、前少露光画像301と後少露光画像303との誤差画像を算出し、誤差画像記憶部504に記憶する。尚、誤差算出部501における誤差算出方法は、前少露光画像301と後少露光画像303との各画素の画素値の誤差を算出する方法であれば、何でもよい。例えば、図6に示すように、誤差画像D(x,y)は、前少露光画像をSt-1(x,y)、後少露光画像をSt+1(x,y)とすると、次式(2)に示すように、絶対値誤差を用いて算出することができる。
Figure 2019047336
ここでは、各画素の画素値が、xy平面における座標位置(x,y)を用いて表される。時刻tは、多露光画像302が撮影される時刻とする。また、kは正規化するための係数、Aは誤差の許容値を制御するための係数である。係数Aを用いることで、前少露光画像と後少露光画像との差分が小さい場合も、その誤差をゼロとみなすことができる。例えば、誤差画像D(x,y)は、後述する「静止領域」と「動体領域」においてゼロとなる。係数k及び係数Aは、予めパラメータ記憶部313に記憶されている。尚、誤差の算出は上記方法に限定されるものではなく、例えば、二乗誤差などの方法を用いて算出してもよい。
ステップS403で、オプティカルフロー算出部502は、前少露光画像301と後少露光画像303を用いて、各画素位置のオプティカルフローF(x,y)を算出し、オプティカルフロー記憶部505に記憶する。尚、オプティカルフローF(x,y)は、図7に示すような各画素に対する移動ベクトルである。オプティカルフローF(x,y)の算出方法は、画像間の領域ごとの移動ベクトルを算出する手法であれば何でも良い。例えば、オプティカルフローF(x,y)は、Lucas−Kanade法を用いて算出することができる。尚、オクルージョン特性が消失領域である場合、オプティカルフローF(x,y)の算出対象領域が消失してしまっているので、オプティカルフローF(x,y)は算出されない。オプティカルフローF(x,y)を算出できない場合、本実施形態では、オプティカルフローF(x,y)の値を0に設定する。また、この場合の設定値は0に限定されず、NULL値などを設定してもよい。
ステップS404〜S413で、オクルージョン特性設定部503は、図8に示すように、各画素位置のオクルージョン特性O(x,y)を算出し、オクルージョン特性記憶部311に記憶する。オクルージョン特性O(x,y)は、消失領域801、出現領域802、静止領域803、及び動体領域804のいずれかに設定される。
ステップS404で、オクルージョン特性設定部503は、処理画素位置及びオクルージョン特性O(x,y)の初期化を行う。
ステップS405で、オクルージョン特性設定部503は、処理画素位置(x,y)におけるオプティカルフローの大きさ|F(x,y)|が、パラメータ記憶部313に記憶された所定の閾値である動体閾値Tよりも小さいかどうかを判定する。動体閾値Tよりも小さい場合には、ステップS406に進み、そうでない場合には、ステップS409に進む。
ステップS406で、オクルージョン特性設定部503は、処理画素位置(x,y)における誤差D(x,y)がゼロかどうかを判定する。ゼロの場合にはステップS407に進み、そうでない場合にはステップS408に進む。
ステップS407で、オクルージョン特性設定部503は、処理画素位置(x,y)におけるオプティカルフローの大きさが動体閾値Tよりも小さく、誤差D(x,y)がゼロであるため、オクルージョン特性O(x,y)を「静止領域」として設定する。すなわち、前少露光画像301と後少露光画像303との間で動きがなく、画素値の誤差もない場合、処理画素は「静止領域」にあると判断できる。
ステップS408で、オクルージョン特性設定部503は、処理画素位置(x,y)におけるオプティカルフローの大きさが動体閾値Tよりも小さく、誤差D(x,y)がゼロでないため、オクルージョン特性O(x,y)を「消失領域」として設定する。オプティカルフローを算出できない「消失領域」では、オプティカルフローの値はゼロに設定されており、動体閾値Tよりも小さくなる。さらに、前少露光画像301と後少露光画像303とでは画素値の誤差が存在する。このような場合、処理画素は、前少露光画像を撮影してから後少露光画像を撮影するまでの間に、被写体の移動により隠された「消失領域」にあると判断できる。なお、移動する被写体のことを移動体とも称する。
ステップS409で、オクルージョン特性設定部503は、処理画素位置(x,y)における誤差D(x,y)がゼロかどうかを判定する。ゼロの場合にはステップS410に進み、そうでない場合には、ステップS411に進む。
ステップS410で、オクルージョン特性設定部503は、処理画素位置(x,y)におけるオプティカルフローの大きさが動体閾値Tよりも大きく、誤差D(x,y)がゼロでないため、オクルージョン特性O(x,y)を「出現領域」として設定する。すなわち、前少露光画像301と後少露光画像303との間で動きがあり、画素値の誤差がある場合、被写体により隠されていた領域が、被写体の移動により出現した「出現領域」と判断できる。
ステップS411で、オクルージョン特性設定部503は、処理画素位置(x,y)におけるオプティカルフローの大きさが動体閾値Tよりも大きく、誤差D(x,y)がゼロであるため、オクルージョン特性O(x,y)を「動体領域」として設定する。すなわち、前少露光画像301と後少露光画像303との間で動きがあり、画素値の誤差がない場合、「消失領域」や「出現領域」ではなく、移動した被写体の「動体領域」と判断できる。
ステップS412で、オクルージョン特性設定部503は、処理画素位置を更新し、次の画素位置を処理対象とする。
ステップS413で、オクルージョン特性設定部503は、すべての画素位置に対して処理を行ったどうかを判定する。すべての画素位置に対して処理を行った場合には、ステップS414に進み、そうでない場合には、ステップS405に戻り、ステップS405からステップS413の処理を繰り返す。
最後にステップS414で、オクルージョン特性算出部306は、設定したオクルージョン特性をオクルージョン特性記憶部311に記憶する。
<HDR合成処理>
図9は、本実施形態のHDR合成処理のフローチャートを示す。図9のフローチャートの各ステップは、HDR合成処理部307によって実行される。以下では、図9を用いて、上述したステップS205のHDR合成処理について詳細に説明する。
まず、ステップS901で、HDR合成処理部307は、多露光画像記憶部308に記憶された多露光画像302、前少露光画像記憶部309に記憶された前少露光画像301、及び後少露光画像記憶部310に記憶された後少露光画像303を取得する。さらに、HDR合成処理部307は、オクルージョン特性記憶部311に記憶されたオクルージョン特性を取得する。
ステップS902で、HDR合成処理部307は、処理画素位置(x,y)及び出力する合成画像を初期化する。
ステップS903で、HDR合成処理部307は、多露光画像302、前少露光画像301、及び後少露光画像303の合成比率を算出する。
ここで、合成比率の算出方法の一例を説明する。まず、露光画像(x,y)におけるRGB値をR、G、Bとすると、輝度値Yは、次式(3)のように算出される。
Y=0.2126×R+0.7152×G+0.0722×B (3)
次に、合成輝度の下限値をTh1とし、上限値をTh2とすると、合成比率rは、算出した輝度値Yを用いて次式(4)のように算出される。
Figure 2019047336
尚、合成比率の算出方法は、上記の方法に限定されるものではない。例えば、Gのみを用いて決定してもよい。
次に、ステップS904で、HDR合成処理部307は、処理位置(x,y)におけるオクルージョン特性O(x,y)が、「消失領域」であるかどうかを判定する。「消失領域」である場合には、ステップS905に進み、そうでない場合には、ステップS906に進む。
ステップS905で、HDR合成処理部307は、多露光画像L(x,y)、前少露光画像St-1(x,y)、及び合成比率rを用いて、合成画像C(x,y)を次式(5)のようにして合成する。
C(x,y)=(1−r)*L(x,y)+r*St-1(x,y) (5)
このように、処理位置(x,y)におけるオクルージョン特性O(x,y)が「消失領域」である場合、前少露光画像301を用いて合成処理を行う。
ステップS906で、HDR合成処理部307は、多露光画像L(x,y)、後少露光画像St+1(x,y)、及び合成比率rを用いて、合成画像C(x,y)を次式(6)のようにして合成する。
C(x,y)=(1−r)*L(x,y)+r*St+1(x,y) (6)
このように、処理位置(x,y)におけるオクルージョン特性O(x,y)が「消失領域」でない場合、後少露光画像303を用いて合成処理を行う。
なお、HDR合成処理では、上述したように、オクルージョン特性O(x,y)が「消失領域」であるかどうかだけを判定する。そのため、上述したオクルージョン特性算出処理では、処理位置(x,y)におけるオクルージョン特性O(x,y)が、「消失領域」であるかどうかだけを判定するようにしてもよい。
ステップS907で、HDR合成処理部307は、処理画素位置を更新し、次の画素位置を処理対象とする。
ステップS908で、HDR合成処理部307は、すべての画素位置に対して処理を行ったかどうかを判定する。すべての画素位置に対して処理を行った場合には、ステップS909に進み、そうでない場合には、ステップS903に戻り、ステップS903からステップS908の処理を繰り返す。
最後にステップS909で、HDR合成処理部307は、合成したHDR画像をHDR合成画像記憶部312に記憶する。
以上、説明したように、本実施形態によると、前少露光画像、多露光画像、及び後少露光画像を、オプティカルフローに基づくオクルージョン特性に応じて合成することで、多重像や不自然なボケ、尾引きなどの発生を抑制したHDR画像の合成が可能となる。
なお、本実施形態では、前少露光画像、多露光画像、及び後少露光画像の3つを用いて処理を実行する場合を例に説明した。しかしながらこれに限らない。例えば、少ない方の露光量を基準露光とし、前多露光画像、少露光画像、後多露光画像の順に撮影された3つの画像を用いても、同様の処理を実行することができる。
また、オクルージョン特性の特定には、前少露光画像と後少露光画像を用いた。しかしながら、オクルージョン特性は、時間差のある2つの画像を用いればよい。前述の説明では、3つの画像のうち2つの画像を用いたが、基準露光である多露光画像も加えた3つの画像を用いてオクルージョン特性を特定してもよい。例えば、|L(t)−S(t−1)|と|S(t+1)−L(t)|から算出される値を動体閾値と比較することで動体領域を特定できる。あるいは、前多露光画像、少露光画像、後多露光画像の順に撮影された3つの画像の場合は、誤差画像D(x,y)を|St+1(x,y)−St-1(x,y)|ではなく、|Lt+1(x,y)−Lt-1(x,y)|に基づいて算出する。
[第2の実施形態]
上述した第1の実施形態では、前少露光画像と後少露光画像とのオプティカルフローを用いて、オクルージョン特性を算出した。本実施形態では、撮影シーンの特性をユーザが入力することで、オプティカルフローを用いずにオクルージョン特性を設定する。
<撮像装置の構成>
本実施形態の撮像装置101の構成は、上述した第1の実施形態と同様であるため説明は省略する。
<画像処理>
図10は、本実施形態の画像処理のフローチャートを示す。図10のフローチャートの各ステップは、画像処理部113によって実行される。また、図11は、本実施形態の画像処理部113の構成を示すブロック図である。本実施形態の画像処理部113は、上述した第1の実施形態の画像処理部と比較して、ユーザによって入力されたシーン特性1101を記憶するシーン特性記憶部1102をさらに備える。また、本実施形態のオクルージョン特性算出部306の構成は、第1の実施形態と異なるため、詳細は後述する。以下では、図10及び図11を用いて、本実施形態の画像処理の全体的な流れを詳細に説明する。
まず、ステップS1001で、画像処理部113は、ユーザによって入力されたシーン特性1101を設定し、シーン特性記憶部1102に記憶する。図14は、本実施形態のユーザインタフェースの一例を示す。ユーザインタフェース1400は、ユーザがシーン特性を入力するためのユーザインタフェースであり、シーン特性指定部1401を有する。ユーザは、シーン特性指定部1401において、撮影シーン1404が、明るい背景の前を暗い被写体が移動しているシーン1402であるか、それとも、暗い背景の前を明るい被写体が移動しているシーン1403であるかを選択する。図14に示した例では、明るい背景の前を暗い被写体が移動しているシーン1402が指定される。
ステップS1002〜ステップS1004、ステップS1006、及びステップS1007の処理は、第1の実施形態と同様であるため説明は省略する。尚、ステップS1005のオクルージョン特性算出処理は、処理内容が第1の実施形態と異なるため、以下に詳細に説明する。
<オクルージョン特性算出処理>
図12は、本実施形態のオクルージョン特性算出処理のフローチャートを示す。図12のフローチャートの各ステップは、オクルージョン特性算出部306によって実行される。図13は、本実施形態のオクルージョン特性算出部306の構成を示すブロック図である。本実施形態のオクルージョン特性算出部306は、誤差算出部1301、オクルージョン特性設定部1302、及び差分誤差記憶部1303を備える。
まず、ステップS1201で、オクルージョン特性算出部306は、前少露光画像記憶部309に記憶された前少露光画像301、及び後少露光画像記憶部310に記憶された後少露光画像303を取得する。また、本実施形態では、シーン特性記憶部1102に記憶されたシーン特性1101をさらに取得する。
ステップS1202で、オクルージョン特性算出部306は、処理画素位置及オクルージョン特性O(x,y)の初期化を行う。
ステップS1203で、誤差算出部1301は、処理画素位置(x,y)において、後少露光画像303と前少露光画像301との差分誤差を算出し、差分誤差記憶部1303に記憶する。本実施形態における差分誤差D(x,y)は、前少露光画像をSt-1(x,y)、後少露光画像をSt+1(x,y)とすると、次式(7)に示すように算出される。
D(x,y)=St+1(x,y)−St-1(x,y) (7)
このように、本実施形態における差分誤差D(x,y)は、第1の実施形態と異なり、画素値の差分の正負の判定ができればよい。
ステップS1204で、オクルージョン特性設定部1302は、ステップS1201で取得したシーン特性1101が、「明るい背景の前を暗い被写体が移動しているシーン1402」であるかどうかを判定する。「明るい背景の前を暗い被写体が移動しているシーン1402」である場合には、ステップS1205に進み、そうでない場合には、ステップS1208に進む。
ステップS1205で、オクルージョン特性設定部1302は、ステップS1203で算出した差分誤差D(x,y)が負であるかどうかを判定する。負である場合にはステップS1206に進み、そうでない場合にはステップS1207に進む。
ステップS1206で、オクルージョン特性設定部1302は、処理画素位置(x,y)におけるオクルージョン特性O(x,y)を、「消失領域」として設定する。
ステップS1207で、オクルージョン特性設定部1302は、処理画素位置(x,y)におけるオクルージョン特性O(x,y)を、「出現領域」として設定する。
ステップS1208で、オクルージョン特性設定部1302は、ステップS1203で算出した差分誤差D(x,y)が負であるかどうかを判定する。負である場合にはステップS1209に進み、そうでない場合にはステップS1210に進む。
ステップS1209で、オクルージョン特性設定部1302は、処理画素位置(x,y)におけるオクルージョン特性O(x,y)を、「出現領域」として設定する。
ステップS1210で、オクルージョン特性設定部1302は、処理画素位置(x,y)におけるオクルージョン特性O(x,y)を、「消失領域」として設定する。
ステップS1211で、オクルージョン特性設定部1302は、処理画素位置を更新し、次の画素位置を処理対象とする。
ステップS1212で,オクルージョン特性設定部1302は、すべての画素位置に対して処理を行ったかどうかを判定する。すべての画素位置に対して処理を行った場合には、ステップS1213に進み、そうでない場合には、ステップS1203に戻り、ステップS1203からステップS1212の処理を繰り返す。
ステップS1213で、オクルージョン特性算出部306は、設定したオクルージョン特性をオクルージョン特性記憶部311に記憶する。
なお、本実施形態においても、処理位置(x,y)におけるオクルージョン特性O(x,y)が、「消失領域」であるかどうかだけを判定するようにしてもよい。
以上説明したように、本実施形態では、撮影シーンのシーン特性が設定されているため、シーン特性に応じて差分誤差の正負判定を行うことで、オクルージョン特性を設定することができる。すなわち、本実施形態では、第1の実施形態のようにオプティカルフローを算出しなくても、オクルージョン特性に応じて多重像や不自然なボケ、尾引きなどの発生を抑制したHDR画像の合成が可能となる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
113 画像処理部
306 オクルージョン特性算出部
307 HDR合成処理部
308 多露光画像記憶部
309 前少露光画像記憶部
310 後少露光画像記憶部
311 オクルージョン特性記憶部

Claims (11)

  1. 同じシーンに対して、基準露光量で撮影された第1の画像と、前記基準露光量とは異なる露光量で、前記第1の画像を撮影する前に撮影された第2の画像と、前記基準露光量とは異なる露光量で、前記第1の画像を撮影した後に撮影された第3の画像とを取得する取得手段と、
    前記第1の画像、前記第2の画像及び前記第3の画像のうち少なくとも2つの画像を用いて、被写体の移動によって生じるオクルージョン領域のオクルージョン特性を特定するオクルージョン特性特定手段と、
    前記第1の画像に対して、前記特定したオクルージョン特性に応じて前記第2の画像または前記第3の画像を合成し、HDR画像を生成するHDR合成手段と
    を有することを特徴とする画像処理装置。
  2. 前記オクルージョン特性は、前記被写体の移動によって消失する消失領域を含み、
    前記HDR合成手段は、前記オクルージョン特性が前記消失領域である場合には、前記第1の画像に対して前記第2の画像を合成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記HDR合成手段は、前記オクルージョン特性が前記消失領域でない場合には、前記第1の画像に対して前記第3の画像を合成することを特徴とする請求項2に記載の画像処理装置。
  4. 前記オクルージョン特性特定手段は、前記第2の画像と前記第3の画像から算出された画像の誤差及びオプティカルフローを用いて、前記オクルージョン特性を特定することを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記オクルージョン特性特定手段は、前記オプティカルフローの大きさが所定の閾値より小さく、かつ、前記画像の誤差がゼロでない場合に、前記オクルージョン特性を前記消失領域として特定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記オクルージョン特性特定手段は、ユーザが指定した前記シーンのシーン特性、及び、前記第2の画像と前記第3の画像から算出された画素値の差分を用いて、前記オクルージョン特性を特定することを特徴とする請求項2に記載の画像処理装置。
  7. 前記シーン特性は、前記シーンの背景に対する前記被写体の明るさであることを特徴とする請求項6に記載の画像処理装置。
  8. 前記オクルージョン特性特定手段は、前記背景に対して前記被写体が暗い場合、前記差分が負の領域の前記オクルージョン特性を前記消失領域として特定し、前記背景に対して前記被写体が明るい場合、前記差分が正の領域の前記オクルージョン特性を前記消失領域として特定することを特徴とする請求項7に記載の画像処理装置。
  9. 前記第1乃至第3の画像を撮像する撮像手段と、
    請求項1乃至8のいずれか1項に記載の画像処理装置と
    を有することを特徴とする撮像装置。
  10. 同じシーンに対して、基準露光量で撮影された第1の画像と、前記基準露光量とは異なる露光量で、前記第1の画像を撮影する前に撮影された第2の画像と、前記基準露光量とは異なる露光量で、前記第1の画像を撮影した後に撮影された第3の画像とを取得する工程と、
    前記第1の画像、前記第2の画像及び前記第3の画像のうち少なくとも2つの画像を用いて、被写体の移動によって生じるオクルージョン領域のオクルージョン特性を特定する工程と、
    前記第1の画像に対して、前記特定したオクルージョン特性に応じて前記第2の画像または前記第3の画像を合成し、HDR画像を生成する工程と
    を含むことを特徴とする画像処理方法。
  11. コンピュータを、請求項1乃至8のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2017168643A 2017-09-01 2017-09-01 画像処理装置、撮像装置、画像処理方法、及びプログラム Active JP7057079B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017168643A JP7057079B2 (ja) 2017-09-01 2017-09-01 画像処理装置、撮像装置、画像処理方法、及びプログラム
US16/113,268 US10832386B2 (en) 2017-09-01 2018-08-27 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017168643A JP7057079B2 (ja) 2017-09-01 2017-09-01 画像処理装置、撮像装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019047336A true JP2019047336A (ja) 2019-03-22
JP2019047336A5 JP2019047336A5 (ja) 2020-08-27
JP7057079B2 JP7057079B2 (ja) 2022-04-19

Family

ID=65518193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017168643A Active JP7057079B2 (ja) 2017-09-01 2017-09-01 画像処理装置、撮像装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10832386B2 (ja)
JP (1) JP7057079B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021025285A1 (ko) * 2019-08-06 2021-02-11 삼성전자 주식회사 얼굴이 포함된 영상의 노출 값을 조절하는 전자 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112004029B (zh) * 2019-05-27 2022-03-15 Oppo广东移动通信有限公司 曝光处理方法、装置、电子设备、计算机可读存储介质
US10819915B1 (en) * 2019-10-17 2020-10-27 Horiba Instruments Incorporated Apparatus and method generating high dynamic range video

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001507552A (ja) * 1997-10-29 2001-06-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 隠れた/露出した像部分の動きベクトル予測及び検知
JP2002312782A (ja) * 2001-04-10 2002-10-25 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2014220717A (ja) * 2013-05-09 2014-11-20 キヤノン株式会社 画像処理装置及び方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100157079A1 (en) * 2008-12-19 2010-06-24 Qualcomm Incorporated System and method to selectively combine images
US8885978B2 (en) * 2010-07-05 2014-11-11 Apple Inc. Operating a device to capture high dynamic range images
JP2012019337A (ja) 2010-07-07 2012-01-26 Olympus Corp 画像処理装置及び方法並びにプログラム
JP5655626B2 (ja) * 2011-02-24 2015-01-21 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5821571B2 (ja) * 2011-11-28 2015-11-24 富士通株式会社 画像合成装置及び画像合成方法
JP6046966B2 (ja) * 2012-04-19 2016-12-21 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
KR102106537B1 (ko) * 2013-09-27 2020-05-04 삼성전자주식회사 하이 다이나믹 레인지 영상 생성 방법 및, 그에 따른 장치, 그에 따른 시스템
WO2017090300A1 (ja) * 2015-11-24 2017-06-01 ソニー株式会社 画像処理装置、および画像処理方法、ならびにプログラム
JP2018019387A (ja) * 2016-07-15 2018-02-01 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、撮影装置、及び、信号処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001507552A (ja) * 1997-10-29 2001-06-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 隠れた/露出した像部分の動きベクトル予測及び検知
JP2002312782A (ja) * 2001-04-10 2002-10-25 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2014220717A (ja) * 2013-05-09 2014-11-20 キヤノン株式会社 画像処理装置及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021025285A1 (ko) * 2019-08-06 2021-02-11 삼성전자 주식회사 얼굴이 포함된 영상의 노출 값을 조절하는 전자 장치

Also Published As

Publication number Publication date
US10832386B2 (en) 2020-11-10
JP7057079B2 (ja) 2022-04-19
US20190073751A1 (en) 2019-03-07

Similar Documents

Publication Publication Date Title
KR101303410B1 (ko) 촬상장치 및 촬상방법
JP5408053B2 (ja) 画像処理装置、画像処理方法
JP6157242B2 (ja) 画像処理装置及び画像処理方法
JP6193721B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP5672796B2 (ja) 画像処理装置、画像処理方法
KR20140093237A (ko) 화상 합성 장치, 화상 합성 방법 및 기록 매체
JP2012165213A (ja) 画像処理装置
US11818466B2 (en) Notifying apparatus, image capturing apparatus, notifying method, image capturing method, and storage medium
JP2015144475A (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
WO2019124289A1 (ja) 装置、制御方法および記憶媒体
JP6261205B2 (ja) 画像処理装置
JP7057079B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2017175364A (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP5882702B2 (ja) 撮像装置
JP7142507B2 (ja) 画像処理装置および画像処理方法、ならびに撮像装置
JP6541501B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP5713643B2 (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
JP2011176557A (ja) 画像処理装置及び方法、並びにプログラム
JP2017220885A (ja) 画像処理装置、その制御方法、および制御プログラム
JP2014179920A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6210772B2 (ja) 情報処理装置、撮像装置、制御方法、及びプログラム
JP2023033355A (ja) 画像処理装置およびその制御方法
JP2019016893A (ja) 画像処理装置およびその制御方法及びプログラム
JP7442989B2 (ja) 撮像装置、該撮像装置の制御方法、及びプログラム
JP2019075716A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200715

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220407

R151 Written notification of patent or utility model registration

Ref document number: 7057079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151