JP6159298B2 - 複数スケールの規格化された相互相関を用いた、hdr画像処理におけるゴーストアーティファクトの検出および除去方法 - Google Patents

複数スケールの規格化された相互相関を用いた、hdr画像処理におけるゴーストアーティファクトの検出および除去方法 Download PDF

Info

Publication number
JP6159298B2
JP6159298B2 JP2014131420A JP2014131420A JP6159298B2 JP 6159298 B2 JP6159298 B2 JP 6159298B2 JP 2014131420 A JP2014131420 A JP 2014131420A JP 2014131420 A JP2014131420 A JP 2014131420A JP 6159298 B2 JP6159298 B2 JP 6159298B2
Authority
JP
Japan
Prior art keywords
map
images
image
pixel
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014131420A
Other languages
English (en)
Other versions
JP2015011717A (ja
Inventor
ジュリアン ヴィダル−ナケ マイケル
ジュリアン ヴィダル−ナケ マイケル
Original Assignee
コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド, コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド filed Critical コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
Publication of JP2015011717A publication Critical patent/JP2015011717A/ja
Application granted granted Critical
Publication of JP6159298B2 publication Critical patent/JP6159298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/90
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Description

本願発明は、ハイダイナミックレンジ(HDR)イメージングに関し、特にHDR画像の作成におけるゴーストアーティファクトの除去に関連する。
ハイダイナミックレンジ(HDR)イメージングは、極めて幅広い明るさ(光度)の範囲を有している元画像を取り扱う画像処理およびデジタル写真に使用される技術である。例えば、昼間の屋外風景においては、青空や日の光に照らされた物体から影に隠れた物体、夜中の風景においては、ネオンライトや強く照らされた物体から、弱く照らされているにすぎない物体、室内の風景においては、明るい窓から、暗所にあるもの等を含みうる。これらの風景をデジタルカメラといった写真機器で撮影するには、一筋縄ではいかない。このように広範囲の光度を有している風景を十分に画像化するには、しばしば、現在入手可能なデジタルカメラのイメージセンサーのダイナミックレンジでは追いつかないことがある。風景の暗部をキャプチャーするのに十分な露出度としてしまうと、しばしば明るい部分は過度に露出されてしまい、白飛びしてしまう。逆に、明るい部分をキャプチャーするのに十分な露出度としてしまうと、しばしば暗部は黒く潰れてしまう。
HDRイメージング技術は、この問題を、複数の写真を様々な露出度で撮影して合成することで解決する。そして、HDR画像を作成するためにデジタルに併合された写真は、それぞれ元の複数の画像の情報を保持しているため、暗部と明部の両方を十分に表現することが可能である。複数の画像からHDR画像を作成するという方法は一般的に知られている。
ブラケティングは、異なる露出度、または、フォーカス、フィールドの深さ等の他の異なるセッティング値を用いた同じ風景の複数画像を撮影する技術である。ある種のカメラは、自動的にブラケティングを行える。すなわち、自動的に撮影回数および撮影する枚数の設定を変化させる。複数の画像のそれぞれは、しばしばブラケットとよばれる。露出度を調整したブラケティングにより生成された複数枚の画像はHDR画像の生成に用いられる。
HDR画像の生成時において、異なる画像(ブラケット)を次々と撮影しているときに、対象物が動いたり、現れたり、消えたりするとゴーストアーティファクトが現れることがある。例えば、三枚のブラケットを撮影している間、三枚目のブラケットを撮影している時のみに、風景に人が歩行して入ってくると、その三枚目のブラケットのせいで、HDR画像は風景に半透明な人の姿を写しだしてしまう(これを、ゴーストと呼ぶ)。
HDR画像に対するゴーストの効果をなるべく減らす、もしくは完全に除去した上で画像処理するために、複数の画像の中からゴーストを引き起こす対象を識別する方法が提案されてきた。例えば、ゴーストを除去する技術として、ウィンドウを使用してブラケットを局所的に比較するというものがある。これらの技術に関して、しばしば調査報告がなされている。A.Srikantha and D. SidideのGhost Detection and Removal for High Dynamic Range Images:Recent Advances, Signal Processing:image Communications, 27(6),pp 650−662,2012。米国特許出願公開第2011/0188744号において、規格化された相互相関技術(NCC)を用いてゴーストアーティファクトを除去する方法が記載されている。これらの既知の方法においては、異なる画像において、局所的な領域を比較することで、その局所領域が非類似であると思われる場合には、その領域に動く物体が存在するとみなすという方法を用いている。調整された異なるブラケットが異なる露出度(光度)を有している結果、同じピクセル領域において異なるピクセル値をとってしまうので、この比較方法は、あらゆる光度に対して感度が低くなくてはならない。
前述したそれぞれのゴースト検出技術は、画像を比較するための一つの固定されたサイズの小さなウィンドウを用いる。それらは、典型的には小さく、7×7、11×11ピクセルなどのサイズである。小さなウィンドウを使うことの一つの欠点は、それらがノイズに敏感であるということである。もう一つの欠点は、ブラケット間におけるある種の相違に対しては敏感ではないということである。例えば、一つのブラケットにおいて比較的特徴の少ない領域が、他のブラケットにおいても特徴の少ない領域に置き換わってしまうといったことがこれにあたる。また、芝生の上に転がる白いボールといったものがこれにあたる。もし小さなウィンドウがボールと比較して小さく、ボールの全体像の中に完全に埋め込まれてしまうようなものであったら、この違いを探知することはできないかもしれない。なぜならば、比較アルゴリズムは、全体の光度の変化に敏感でないからである。逆に、もし大きなウィンドウが使えたのならば、ゴーストを引き起こす小さな領域を特定できる。
本願発明は、HDR合成画像の生成において、複数枚の画像の中で、潜在的にゴーストを引き起こす領域を削除、またはゴーストによる効果を減らすか取り除くために上記の方法を改善したもの、および、これらに関連する機器に関する発明である。この方法は、特に、3枚のブラケットが得られた時に、ゴーストアーティファクトの検出および削除に適している。
本願発明の追加的な特徴および優位性は後述する詳細な説明により明らかとなり、実施形態によっても把握される。本願の目的および他の利点は、添付図面と共に、明細書において示された構造および請求の範囲により、万全に理解されるであろう。
これらの、および他の、具体化され、幅広く描写されている目的を達成するために、本願は、ハイダイナミックレンジ(HDR)の画像を、異なる露出度で撮影された複数の要素からなる画像セットから生成する方法を提供する。当該方法は、画像セット中のそれぞれの画像の組に対する、以下のステップを含む。異なる露出度を有する複数の画像セットからハイダイナミックレンジ(HDR)画像を生成する方法であって、画像セットの各画像の組に対して、(a)各画像の組に対する複数の個別の整合マップを生成するステップと、ここで、個々の整合マップは、ウィンドウサイズを有し画像の組中にそれぞれ位置する動くウィンドウの組間の整合関数を計算することによって生成され、複数の個別の整合マップは、複数の異なるウィンドウサイズを用いて生成され、(b)前記画像の組のために、結合された整合マップを生成するために、複数の個別の整合マップを結合するステップと、(c)前記結合された整合マップを二値化して、前記画像の組のために、最終的な整合マップを生成するステップと、ここで、前記最終的な整合マップ内の各ピクセルは、対応する位置において前記画像の組が整合するか否かを示すピクセル値を有し、(d)前記画像組の各画像について、複数の前記最終的な整合マップに基づき、ゴースト重みマップを生成するステップと、ここで、前記ゴースト重みマップ中の各ピクセルは、ゴーストを引き起こす画像に対応する位置における画像ピクセルである見込みを示すピクセル値を有し、(e)前記画像セットおよび対応するゴースト重みマップを用いて、HDR画像を生成する。
選択的に、前記ステップ(a)において、個々の整合マップは、カラー画像の組及び白黒画像の組を生成するための個々の整合マップを含んでもよい。また、選択的にステップ(a)について、整合相似関数は、規格化された相互整合関数(NCC)を用いてもよい。
本願発明の他の側面によれば、上記の方法を達成するためのコンピュータプログラムおよびコンピュータプログラムが内蔵されているデータ処理装置を制御するために具備された装置や、コンピュータプログラムが内蔵されたデータ処理装置メモリーやストレージ装置といった、非一時的な媒体からなる計算装置からなるコンピュータプログラム製品を提供する。
他の方法において、本願は、デジタルカメラであって、当該デジタルカメラは前記コンピュータプログラム、画像を得るためのイメージングセクション、異なる露出度で撮影された画像セットを得るためのイメージングセクションを制御するための制御セクションをさらに有するコンピュータ上で使用可能な非一時的な可読媒体を含むものを提供する。
前述した内容および後述する発明の内容はともに例示的、説明的なものであって、特許請求の範囲に記載されている発明の更なる説明をより促進させるためのものであるということを理解しなければならない。
図1は、本願発明の実施形態による、ゴーストアーティファクトを検知し、除去しながら、複数のブラケットによりHDR画像を生成する方法を示す図である。 図2は、図1に示す方法の実行に従って、個々の整合マップのスケールを変更する方法を概略的に示す図である。 図3は、図1に示す方法の実行に従って、異なるスケールおよび異なる画像種の複数の結合している個々の整合マップを生成する方法を概略的に示す図である。 図4は、図1に示す方法の実行に従って、画像についてゴースト重みマップを計算する方法を概略的に示す図である。 図5は、図1および図3の方法で使用されている、二値化閾値を生成する方法を概略的に示す図である。 図6は、ゴーストアーティファクトを示した代表的な2枚の画像である。 図7は整合ピクセルおよび、不整合ピクセルの整合値の分布を代表的に表す図である。 図8Aおよび図8Bは、本願発明が実行された場合の実施形態におけるデータ処理装置およびカメラをそれぞれ概略的に表す図である。
本発明の実施形態は、HDR画像生成のために、複数の画像中にあるゴーストアーティファクトを検出する方法を提供する。複数の画像(ブラケッツ)は、同じ風景を異なる露出度で撮影して得られる。撮影中にカメラが実質的には動いていなかったとしても、処理中に風景の中に物体が出現したり、あるいは消失したりするという事態が想定される。本願発明においては、そのような物体をまとめて動く物体と呼称する。もしも未処置のままでいると、動く物体はHDR画像中にゴーストアーティファクトを引き起こすであろう。ゴーストアーティファクト検出方法は、そのようなゴーストアーティファクトを引き起こす、動く物体を含む画像中の領域を特定する方法である。この方法が、ゴーストアーティファクト検出方法と呼称されるにしても、この方法は、HDR画像が生成されたあとにゴーストアーティファクトを検出するものではないことに留意する。むしろ、この方法は、元の複数画像中において、放置しておくとゴーストアーティファクトをHDR画像中に引き起こす領域を検出する方法というべきである。
前述した周知の技術と同様に、本願発明の実施態様におけるゴーストアーティファクト検出方法は、動くウィンドウを使用して画像の組における局所的な領域を比較する。対応するウィンドウの組の間の類似性を評価するために、規格化された相互整合関数(NCC)といった、比較関数もしくは他の適当な関数が用いられる。周知の技術とは異なり、ここで説明される方法は、複数の異なる大きさの動くウィンドウを用いる。複数の異なるサイズのウィンドウを組み合わせた結果を比較することによって、ゴーストアーティファクトを引き起こす、大きな領域から小さな領域までを検出できる。
NCCは、コントラストや平均光度が変化しても大きさが変わらない標準の基準である。NCCは、画像を比較するために、コンピュータヴィジョンの分野において用いられてきた。ゴーストアーティファクト検出のためにNCCを用いた時に予想されるのが、2つの異なるブラケットの同じ領域に対して関数値を算出した場合、その内容に変化が全くない場合には、2つのブラケットが異なる露出度を有していたとしても、NCCの値は大きくなるということである。そして、連続する2つの画像の間に、画像の内容に変化があれば、NCCの値は比較的小さくなる。したがって、NCCの関数値が小さければ、ゴーストアーティファクトを引き起こす物体が存在する証拠となるのである。
例として、図6は(a)低い露出度の画像、(b)高い露出度の画像をそれぞれ示している。(b)の画像中において、風景中右から人が歩いてきている。ウィンドウA1およびA2の組において、NCCの値は比較的小さくなるであろうことが予想される。そして、ウィンドウB1およびB2においては、NCCの値は比較的高くなるであろうことが予想される。
HDR画像生成のために複数の画像中からゴーストアーティファクトを検出するための方法に関する本願発明の具体的態様については、図1を参照しつつ説明する。この図においては、NCCは画像の類似性または整合性(これら2つの単語は本願において交互に使用されることがある。)を示す関数として使用されている。しかし、他の適当な関数が用いられる場合もある。より一般的には、NCCといった関数は、整合関数と呼称されることもあり、NCCマップといった下記に示すマップは、整合図と呼称されることもある。
異なる露出度で撮影された、風景の原画像のセット中のすべての画像は同じ大きさであると予想される。原画像が異なるサイズであるときに、スケーリングが予め行われ得る。まず選択的かつ事前的ステップとして、それぞれの画像は、アスペクト比を維持しつつ、小さな大きさのサイズへ変更され得る。例えば、画像は短手方向において、750ピクセルにまでサイズ変更されることがある。これによって、重要な情報は喪失されることなく、より速い計算が実現される。
図1におけるステップS11からステップS15は、結合NCCマップを一組について計算するために画像セットの中の、画像Iおよび画像Iについて計算が実行されているところを示した図である。iおよびjは、画像の番号を示したものであり、その範囲は1からMである。ここで、Mは画像セットの総枚数である。まず、ウィンドウサイズsおよび画像種tについて個々の
が計算される(ステップS11)。個々のNCCマップは、画像と同じ大きさを有している。ここで、xは、ウィンドウの中心の画像中における2次元ピクセル座標を示したものであって、sはウィンドウの大きさ(スケールとも呼称される)。そして、tは、画像種に対応している(様式とも呼称される)ものであって、白黒画像またはカラー画像のいずれかを表したものである。もし元の画像がカラーであった場合、白黒写真が元のカラー画像から得られる。これを達成するために、適当な方法が用いられる。もし、画像がもともと白黒であった場合、個々のNCCマップは白又は黒に対応するものでしか計算されない。一つの実行例として、ウィンドウサイズとして、6または7が使用される。ウィンドウの最も大きいサイズは、画像の四分の一程度で、最も小さいもので7×7ピクセルである。
数学的に、同じ大きさの2つの画像パッチXおよびYの間のNCCは、以下の公式で与えられる。
白黒画像のときは、Nは画像内のウィンドウのピクセル数と同じで、総和は、Nピクセルにわたり実行される。カラー画像では、R,B,G要素それぞれについて実行される。すなわち、Nはウィンドウのピクセル数の3倍の値となる。
式1より、NCCの値域は、−1から1である。値が大きければ、2つのウィンドウ間で、より強い類似性(整合性)があることを示す。
NCCは、NCC(X,aY+b)=NCC(X,Y)という性質がある。ここで、a,bは定数である。したがって、先述したように、NCCは露出度およびコントラストの変化に対して不変となる。
ステップS11において、NCCマップR ij,s,tを画像内の2次元のピクセルの座標xのそれぞれについて計算するには、NCCの値が式1より算出される。ここで、ウィンドウXおよびYは大きさsのものであって、中心座標xに位置している時の画像IおよびIに対応しているものである。よって、NCCの値は、2次元マップをなす位置xの関数として表記される。
(L−1+1)×(C−c+1)ピクセルの画像の中心領域内にある各ピクセル位置xについて、NCCの値は式1を直接用いて計算される。ここで、L,Cは画像の線形次元(例えば、幅および高さ)であって、lおよびcはウィンドウの大きさであり、xを中心座標とするl×cのフルサイズのウィンドウが存在する。しかしながら、四辺がそれぞれより広い(l−1)/2および(c−1)/2の幅をもった境界領域内のピクセル位置において、中心をピクセル位置xとする、大きさl×cのフルサイズのウィンドウが存在しないことになる。図6において、この状況はウィンドウC1、C2で表されている。したがって、境界外の位置xのNCC値は、改良された手法(改良方法)を用いて計算する必要がある。以下その代替方法を述べる。
境界領域のための第1の改良方法は、不完全な(より小さな)ウィンドウを用いて座標xにおけるNCCの値を計算する。不完全なウィンドウは、xを中心座標とするウィンドウと画像とが重なりあう領域である。ちょうど画像の縁に位置するピクセルにおいては、不完全なウィンドウは通常のウィンドウの大きさのおよそ半分の大きさである。ちょうど画像の角にあるピクセルにおいては、不完全なウィンドウは通常のウィンドウの大きさのおよそ四分の一の大きさである。そして、式1が小さなウィンドウ内部の全ピクセルに関して足しあわされることによって適用される。
境界領域のための第2の改良方法は、図2に示すように、補間法という方法が、境界領域におけるNCCの値を計算するために使用される。まず、NCCマップの境界領域においては、全体にゼロ値を詰める(代入する)(ステップS21)。一方で、(L−l+1)×(C−c+1)の中心領域においては、数2を用いてNCCの値が計算される。そして、ゼロ値が代入されたマップ(L×Cの大きさ、代入マップとも呼ぶ)にブラーカーネルでフィルターをかける(ステップS22)。ここで注意しておかねばならないのが、L×Cの大きさの、フィルターのかかった代入マップが得られるように、不完全なブラーカーネルでフィルターを代入マップの縁の領域にかけるということである。ウィンドウの大きさが異なれば、異なるブラーカーネルが用いられる。ここで、ブラーカーネルの大きさおよび標準偏差は、ウィンドウの大きさに比例する。フィルターのかかったNCCマップは、代入NCCマップ(および元画像)と同じ大きさを持つ。そして、フィルターのかかったNCCマップは規格化される。
特に、規格化されたマップが計算され、中心領域において1、境界領域において0の値を有しているL×Cの大きさ(すなわち、原画像と同じ大きさの)のテンプレートマップが生成され、(ステップS23)、そして、ステップS22のフィルターステップのように、同じブラーカーネルを用いてテンプレートマップをフィルタリングする(ステップS24)。ステップS23およびS24は、オフライン、すなわち、ゴーストアーティファクト検出が行われないときに実行され得る。規格化されたマップは、原画像と同じ大きさを有している。最終的に規格化され、フィルタリングされたNCCマップは、ピクセル幅の分割を用いる正規化されたマップによりフィルタリングされたNCCマップを分割して計算される。この規格化されフィルタリングされたNCCマップは、原画像と同じ大きさを持ち、ウィンドウの大きさsおよびタイプtのNCCマップに対して用いられる。
選択的に、正規化され、フィルタリングされたNCCマップの中心部分は、式1を用いて計算されたNCCの値に代替されてもよい(ステップS26).この代替ステップが行われた場合、フィルタリングステップS22およびS24における計算および、分割ステップS25は、境界領域のピクセルに対してのみ実行すればよい。この場合においては、代替ステップS26は、(代替ステップというより)NCCマップの中心領域および境界領域を結合するステップとみなすこともできる。
ステップ11において個々のNCCマップを計算する際、おしなべて均一なウィンドウを取り扱うときには、事前に注意すべきことがある。例えば、青空やテクスチャのない表面といったものである。数式1におけるNCC関数は、ウィンドウの標準偏差がゼロ近傍のときは定義されない。したがって、ウィンドウXがおしなべて均一なものであるか否かを決定するために、分散係数(CoV)を計算する。
ここで、std(X)は、ピクセル値の標準偏差(カラー画像におけるR,G,B要素を含む)、mean(X)はウィンドウのピクセル値の平均である。カラー画像においては、均一な画像というのは、グレーであるという意味であることに留意する。グレーでないが他の色で均一な領域は、一般的に低いCoVを持たない。
もし、CoVが閾値以下(例えば、一つの実施態様として0.001)であれば、そのウィンドウは均一であるとみなされる。式1はどの2つの画像も不均一である場合のみNCCの値を計算するために用いられる。一つの実施態様として、2つの均一な画像については、NCCの値は1、すなわち合同であると定義され、均一なものと不均一なウィンドウとの間のNCCの値を計算すれば、0または−1と計算される。
ステップS11で計算されるように、すべてのウィンドウサイズおよびすべての画像種についての、NCCマップR ij,s,tは原画像と同じ大きさを持つ。
ステップS11はすべてのウィンドウサイズおよび画像種について繰り返される(ステップS12においてYの経路)。そして、
を計算するために、すべてのウィンドウサイズsおよび画像種tについて、複数の個々のNCCマップが結合される(ステップS13)。この計算は図面3に詳しく説明されている。まず、個々のNCCマップR ij,s,tは、閾値θs,tに対応するものを用いて二値化される。そして個々のNCCマップR ij,s,tについて二値化されたNCCマップが計算される(ステップS31)。換言すれば、もしNCCの値がθs,t以上であれば、あるピクセル位置において中心座標を同じくする一組のウィンドウは自己相似ということを示唆し、二値化されたNCCマップのピクセル値は1である。もし、NCCの値がθs,tよりも小さい場合、あるピクセル位置において中心座標を同じくする一組のウィンドウが非類似であることを示し、二値化されたNCCマップのピクセル値は0である。二値化されたNCCマップのピクセル値1または0は逆にされてもよいことに留意する(すなわち、0が非整合的なウィンドウであることを示唆し、1が整合的なウィンドウであることを示唆してもよい)。これは定義の問題である。
大きさsおよび種類tを持つそれぞれのNCCマップの閾値θs,tは予め決定され、メモリーに保存される(詳細は、図5およびその説明を参照)。選択的に事前に風景(浜辺、屋内等)に適したウィンドウサイズや画像種が事前に提供されることがある。そして、被写風景の種類に応じて、ステップS31の方法により、閾値の一つが選択される。被写風景の種類はカメラのセッティングによって決定することもできるし(例えば、ユーザーが写真を取る前に、風景のタイプをセットできる)、風景のタイプを検出するアルゴリズムを使って、自動的に決定できる。
そして、すべてのウィンドウサイズおよびすべての画像種について二値化された個々のNCCマップは、結合されたNCCマップを計算するために平均化される(ステップS32)。ピクセル幅の平均方法が使われる。換言すれば、結合されたNCCマップにおけるそれぞれのピクセルにおけるピクセル値は、個々の二値化されたNCCマップにおける対応するピクセルのピクセル値の平均であるということである。このピクセル値は、NCCマップの平均値を示しており、対応するピクセル位置における閾値を超える。
数学的には、NCCマップR ijは、以下の数式により表現される。
ここで、和はすべてのウィンドウサイズsおよび画像種tに亘ってとられ、Pはウィンドウサイズと画像種との組み合わせの総数である(すなわち、ウィンドウサイズの数と画像種の数の積である)。I( )は指示関数を表している。
代わりに、シグモイド関数といった種類のものを適用するなどしてソフトな二値化が使用されることがある。図3で示されている他の方法として(好しさは低くなるが)、最初の二値化をせずに、単に個々のNCCマップを平均化して結合されたNCCマップを作るという方法が用いてもよい。
結合されたNCCマップR ijは、異なる大きさ(ウィンドウサイズ)および画像種を考慮に入れた、2つのブラケットIおよびI間の視覚的な類似性を表したものである。
図1に戻って言及すると、画像の組IおよびIについての
を生成するために、閾値を用いて、結合されたNCCマップR ijが二値化される(ステップS14)。この閾値は経験的に決定される。一つの実施態様としては、この閾値は0.6と設定される。最終的なNCCマップは二値化されたマップであって、ある一つのピクセル値(この例においては1)は、整合性のあるピクセルであることを示し、他の値(この例においては0)は非類似のピクセル(例えば、動く物体が入り込んでいること)であることを示している。
画像のセットにおいて、異なるブラケットにおける同じピクセルは、高い露出度のブラケットにおいては高い値を持つことが予想される。この露出具合に基づく予想は、動く物体が入り込んでくると破綻する。他者も提言しているように(A Srikantha, D. Sidibeの論文)、この事実はピクセルが非整合的であることを示すマークとして使われる。換言すれば、画像の組に対応するピクセルのピクセル値の比較および、画像の組のすべての露出度の比較にもとづいて修正がなされる(図15)。例えば、ピクセルxにおいて、IはIより露出度が高いのに、
であることがマーキングされることによって、最終的なNCCマップRB ijは、調整できる。このステップは選択的である。
ステップS11〜S15は画像のセットの任意の2つのペアについて、繰り返される。結果的に、画像の総枚数をMとすると、M(M−1)/2枚の最終的なNCCマップが生成される。次のステップは、任意の画像の組について、非整合的であると思われる各ピクセルについて、どの画像が動く物体を含んでいるか、そしてどの画像が動く物体を含んでいないかを決定することである。動く物体と風景の区別はいくぶんか恣意的である。例えば、人物がある画像には存在するものの、他の画像には存在していなかったという場合、その人物は、光景に意図的に入ろうとしていたのか、あるいは意図せず歩いてきた人なのか峻別できない。一般的に、画像のセットが2つ以上の画像を含んでいれば、どの画像が動く物体を含んでいるのかを、数を比較することによって見いだせる。例えば、画像のセットが5枚の写真を含んでいたとして、画像1、2、3および5は互いに類似しているものの、画像4は他の4つと非類似であると判明した場合、画像4は、そのピクセルの領域において、ゴーストを引き起こす動く物体を含んでいると予想がつく。ステップS17における結果は、画像Iにおける、各ピクセルxにおいてゴーストを引き起こす物体があるか否かを指し示す指標、
である。
以下で、ゴースト重みマップの計算方法を、2つ例示する。
ゴースト重みマップを計算する1つ目の方法では、画像セットの中からひとつの画像を、ゴーストを含んでいない参照画像として定義する。画像iが参照画像として選択される場合、画像iのゴースト重みマップは、ゼロ、G =0、G =RB ijである。参照画像は、最初のものを選択しても、最後のものでも、真ん中のものなど、何を選択してもよい。あるいは、もっともよい露出品質を提供する画像を参照画像として定義してもよい。もっともよい露出品質とは、他のものと比較して、最も飽和した、もしくは露出不足のピクセルの数が少ないものである。この参照画像は、ユーザーが選んでも良いし、機器が自動的に選択してもよい。(コンピュータ処理においてこの方法が実行されるときは、その機器はコンピュータであるし、カメラで実行されるときはカメラである)。
ゴースト重みマップを計算する2つ目の方法は、図4に示されているが、特に写真の枚数が3枚の時に適している方法である。この方法は、一つのブランケットが、位置xにおいて、その他2つのブランケットの両方と非類似であるかどうかの観察に基づく。例えば、整合マップRB ij、RB ikともに0であった場合、位置xにおいて、ブラケットIは、他の2つの画像I,Iと異なる可能性が高い。したがって、ブランケットIはゴーストアーティファクトを位置xにおいて引き起こす。ゴースト重みマップG は、この原則に基づいて計算される(ステップS41)。特にこの方法の実行においては、以下の式が使用される。
この式において、RB ijおよびRB ikがともに0(非類似)であった場合、は1であるから、ピクセル位置xにおいて、ブラケットiがゴーストアーティファクトを引き起こすことを示している。仮に、Rb ijまたは、Rb ikが1(類似)であった場合、G は0となるから、ピクセル位置xにおいてブラケットiがゴーストを引き起こさないことを示している。
選択的に、ゴースト重みマップG は、露出オーバーや露出アンダーの効果のために修正され得る。露出オーバーや露出アンダーの画像領域は、ゴーストアーティファクトを引き起こすピクセルの誤検出を導くおそれがある。なぜならば、異なる画像間における同じ位置のピクセル値はもはや露出度に比例せずに、NCCの値が低く(非類似に)なってしまうからである。それゆえ、露出オーバーまたは露出アンダーのピクセルでは、ピクセル値を0(ゴーストなし)として設定することによって、ゴースト重みマップG が修正されうる。換言すれば、そのようなピクセルは、NCCの値が非類似を示していたとしても、ゴーストアーティファクトを引き起こす領域とは考えられない。
ゴースト重みマップG を計算する前に、最終的な個々のNCCマップRB ijを修正することで、露出オーバーや露出アンダーのピクセルを代わりに修正できることに留意する。この代替方法の好ましさはより小さい。
式4の方法を用いて、3枚の画像全てについて、ゴーストアーティファクトを引き起こすピクセルをマークすることが可能である。例えば、2つ目のブラケットにおいて、風景に人が歩いてきて、3つ目のブラケットにおいて、異なる場所へと移動していったという場合である。2つ目および3つ目のブラケットにおける、人のいた位置は重なり合っており、その重なり合っている領域において、3枚全ての画像は互いに非整合的となる。そのような状況において、全てのブラケットがひとつの画像に結合されて圧縮されてしまうと、HDR画像において、黒いピクセルを生んでしまう。したがって、本願発明の一つの実施例として、ひとつのブラケットが参照ブラケットとして選択され、そのゴースト重み値が、ゴーストを引き起こさないものであるピクセルとしてマークされる。すなわち、ブラケットiが参照ブラケットであれば、G =0である(ステップS43)。この、ゴーストを引き起こすものでないブラケットを選択するためのアルゴリズムは、試行錯誤的に発展され得る。例えば、第一に、ゴースト重みマップを作り出す3つのペアに対して、重なっていないゴーストを引き起こすピクセル数を計算する。第二に、あるブラケットにあって、他の2つにはないゴーストピクセルを最大の有しているブラケット内のピクセルをゴーストとしてマークする。第三に、他の2つのブラケットの中で、最もよく露出しているブラケットを選択し、その最も露出度の高いブラケットの中のピクセルを、ノン・ゴースト、そして他のものをゴーストとマークする。
ゴーストを引き起こさないものとしてマークされるブラケットを選択する他のアルゴリズムとして、以下のものがある。第一に、ゴースト重みマップの考えうる3つのペアから、重なっていないゴーストを引き起こすピクセルの数を計算する。第二に、他の2つのブランケットと比較して、ゴーストを含んでいるピクセルの数が最も少ないものを、ノンゴーストとしてマークし、他のブラケットの対応するピクセルをゴーストとしてマークする。
そのように種々の修正がなされた後に、それぞれの二値化されたゴースト重みマップは最終的なゴースト重みマップを生成するためにぼやかされ、最終的なゴースト重みマップにおける各ピクセルは0から1の連続的な値を持つ。この値は、そのピクセルがゴーストを引き起こす可能性を表すものである(ステップS44)。画像セット中におけるそれぞれの画像について、一つの最終的なゴースト重みマップが生成される。
図1に戻って言及すると、画像セット中の複数の画像のそれぞれについて、最終的なゴースト重みマップが生成された後は、複数の画像およびそれに対応する最終的なゴースト重みマップを用いて、HDR画像が生成される(ステップS18)。HDRに対しての、各画像ピクセルの貢献度は、それの持つゴースト重みに依存する。例えば、ゴースト重み1(ゴースト)を有するある画像中のピクセルはHDR画像生成過程においては完全に抑圧され、ゴースト重み0(ノンゴースト)を有するものは、HDR画像生成において完全に用いられる。ゴースト重みG をもっているピクセルは、(1−G )に比例する貢献度を有している。複数の画像から、HDR画像を生成する方法は一般的に知られている。前述したゴースト重みの値が考慮に入れられる限りにおいて、そのような方法は、ステップS18において使用される。例えば、HDR画像生成の画像を結合する段階におけるアルゴリズムは、典型的に、1つ、もしくは複合的な重みを、画像中のピクセル値へと与える。(1−G )という値は、追加的な複合的重みの一つである。
ステップS31において、先述したように、閾値θs,tは個々のNCCマップR ij,s,tを二値化するために使用される。好ましくは、閾値として、異なるウィンドウの大きさsおよび画像種tが用いられる。これらの閾値は、ゴーストアーティファクト検出アルゴリズムにとって重要なパラメータである。何故ならば、それらの値は、それぞれの画像のペアのウィンドウが類似か非類似かを決定するものだからである。これらの閾値は予め(すなわち、オフラインで)発展され、カメラやコンピュータ内部のメモリーに記録される。本願発明の実施形態によれば、これらの閾値は、図5に示したマシーンラーニングアプローチを用いて、連続するデータにより自動的に決定される。
まず、画像のウィンドウの組のセット(訓練データ)が与えられ、いくつかの組は、類似であって、いくつかのものは非類似であると予め知られているものとする(ステップS51)。一つの具体例として、訓練データを生成するためには、既知の類似するウィンドウの組を生成するために、ゴーストを引き起こす領域が存在しない同じ風景であって、異なる露出度で撮影された画像の組が使用される。また、既知の非類似であるウィンドウのペアを生成するために、再度異なる露出度で撮影された異なる風景を撮影した画像の組が使用される。そして、類似の組および非類似の組の両方について、ウィンドウの組のセットのために、NCCの値のセットが計算される(ステップS52)。実施する上では、ステップS51において区別される画像ウィンドウの組を実際に生成することは必要とはされない。例えば、複数の小さなウィンドウの組(例えば、11×11ピクセル)が、大きなサイズの画像(例えば、1000×750ピクセル)中の一つの組から、動くウィンドウを用いて生成されてもよい。
閾値は、修正値を最大化するように選択される。すなわち、閾値を用いた時に、ウィンドウの組を類似または非類似と区別するような修正具合を計測するスコア値である(ステップS53)。一つの具体例として、修正スコアF2は、式5で表現される。
ここで、
はそれぞれ、閾値θを用いた分類に関しての、適合率(陽性適中率と呼ばれることもある)および再現率(敏感さとしても知られる)を表す。r(θ)は、正確に非類似であると分類されたピクセルの比であって、p(θ)は、非類似であると分類されており、なおかつ真に非類似であるようなピクセルの比である。適合率および再現率についての定義は、http://en.wikipedia.org/wiki/Precision_and_recallにおいて一般的に議論されている。式5において、修正値を最小化する閾値θは、以下のように選択される。
最適化プロセスは、類似および非類似のウィンドウの組のすべてのNCCの値を系統的に調査することによって実行される。それゆえ、θはデータを訓練データにおいて、グローバルな最適化値である。
図7は、類似する画像の組および非類似の画像の組を用いて、サイズが41×41ピクセルのウィンドウにおける類似および非類似ピクセルのNCC値の分布を示す。NCC値が負の場合はここでは示していない。ここにおいて、NCC=0.75におけるマークは、この例示的な分布にとってF2スコアを最大化するθを示している。
上記のプロセスは、それぞれの画像サイズを示す値sおよび画像種tについて実行され、s,tに特有の閾値θs,tが獲得される。以下の表1は、本願発明の特徴的な実施例として、様々なウィンドウサイズおよび画像種について閾値を示したものである。
もちろん、これらは一つの例示に過ぎず、他の最適値が用いられる場合もある。
異なる種類の風景(砂浜、屋内等)に特有の閾値は、異なる種類の風景の訓練画像を使用することによって得ることができる。
要約すれば、本願発明のゴーストアーティファクト検出およびこれらの除去方法は、検出結果を強調するために複数のウィンドウサイズを用いる。加えて、検出結果を向上するために、白黒、カラーといった異なる画像種を結合する個々の整合マップが一つの統合されたマップへと結合された場合、個々の整合マップにおいて非類似の領域を特定するために使用される閾値は、ウィンドウサイズおよび画像種に特有のものである。閾値は、特に風景の種類に依存する。
さらに、相互整合関数が失敗する領域、すなわち、比較的均一な強度をもつ領域においては、非整合的画像の整合性を決定するために別の技術が使用される。
本願発明における、ゴーストアーティファクト検出および除去方法における他の側面によれば、参照画像、すなわちゴーストを検出するために他の画像と比較するための画像を抽出する必要がない。
前述した一つの好ましい具体例として、NCCマップを計算するために固定された大きさの画像を処理するために異なる大きさのウィンドウが使用される。しかしながら、本願発明はこの実施態様に限定されない。ある特定サイズのウィンドウは異なる大きさの画像に適用可能であり、異なる大きさの画像は原画像に対して、異なるダウンサンプリング要素を適用することで手に入れられるからである。換言すれば、本願において、「異なるウィンドウの大きさ」という言葉は、画像に対してウィンドウの大きさが異なるという意味で使用されている。
本願において記載されているゴーストアーティファクト除去方法は、図8Aで示されている、コンピュータ120といったデータ処理装置システムにおいて実行可能である。コンピュータ120は、プロセッサー121,ストレージデバイス122、内部メモリー123から構成される。ストレージデバイス122はRAM123へと読み込まれるソフトウェアプログラムを内蔵し、プロセッサー121によってこの方法が実行される。
この方法は、デジタルカメラ内部といった物理的に組み込まれた回路内部においても実現される。図8Bはデジタルカメラ130を図示したものであって、デジタルカメラはプロセッサー131、ストレージデバイス132、および内部メモリー133、画像を得るためのイメージングセクション134、カメラの種々の機能を制御するための制御セクション135からなる。制御セクション135は異なる露出度で撮影された画像セットを自動的にバケットする。プロセッサー131は、HDR画像を生成するための、前述したアルゴリズムを用いて画像セットを処理する。
一側面によれば、本発明は、デジタルカメラのデータ処理部のようなデータ処理機器として具現化される。他の側面によれば、本発明は、データ処理機器を制御するために組み込まれたコンピュータ読み取り可能プログラムを有するコンピュータ利用可能な非一時的媒体として具現化されるコンピュータプログラムである。また他の側面によれば、本発明は、データ処理機器によって実行される方法である。
本願発明の精神または範囲から逸脱することなく、ゴーストアーティファクト検出および除去に関する方法および本願に関する機器に関して、多彩な改良およびバリエーションがなされうる。したがって、本願は該改良およびバリエーションを含意するものであって、そのようなものは特許請求の範囲およびこれに均等な範囲の範疇に含まれる。

Claims (23)

  1. 異なる露出度を有する複数の画像セットからハイダイナミックレンジ(HDR)画像を生成する方法であって、
    画像セットの各画像の組に対して、
    (a)各画像の組に対する複数の個別の整合マップを生成するステップと、ここで、個々の整合マップは、ウィンドウサイズを有し画像の組中にそれぞれ位置する動くウィンドウの組間の整合関数を計算することによって生成され、複数の個別の整合マップは、複数の異なるウィンドウサイズを用いて生成され、
    (b)前記画像の組のために、結合された整合マップを生成するために、複数の個別の整合マップを結合するステップと、
    (c)前記結合された整合マップを二値化して、前記画像の組のために、最終的な整合マップを生成するステップと、ここで、前記最終的な整合マップ内の各ピクセルは、対応する位置において前記画像の組が整合するか否かを示すピクセル値を有し、
    (d)前記画像組の各画像について、複数の前記最終的な整合マップに基づき、ゴースト重みマップを生成するステップと、ここで、前記ゴースト重みマップ中の各ピクセルは、ゴーストを引き起こす画像に対応する位置における画像ピクセルである見込みを示すピクセル値を有し、
    (e)前記画像セットおよび対応するゴースト重みマップを用いて、HDR画像を生成するステップと、
    を有する方法。
  2. 前記ステップ(a)において、個々の整合マップは、カラー画像の組及び白黒画像の組を生成するための個々の整合マップを含む請求項1記載の方法。
  3. 前記ステップ(a)において、
    前記整合関数が、
    で表される規格化された相互整合関数で定義される請求項1または2に記載の方法。
  4. 前記ステップ(a)において、すべての画像およびすべての個々の整合マップは特定の大きさを有しており、
    個々の各整合マップのために、前記ステップ(a)は、
    (a1)前記画像の線形次元をLおよびC、動くウィンドウの線形次元をlおよびcとして、(L−l+1)×(C−c+1)ピクセルの中心領域に位置する各ピクセルについて、当該ピクセルを中心とする線形次元lおよびcの動くウィンドウの組を用いて、整合関数を計算するステップと、
    (a2)前記個々の整合マップにおいて前記中心領域の外の境界領域に位置する各ピクセルについて、前記画像中に位置するピクセルを中心とする線形次元lおよびcの動くウィンドウの一部である不完全な動くウィンドウの組を用いて、整合関数を計算するステップと、
    をさらに含む請求項1〜3のいずれか1項に記載の方法。
  5. 前記ステップ(a)において、すべての画像およびすべての個々の整合マップは等しい大きさを有しており、
    個々の各整合マップのために、前記ステップ(a)は、
    (a1)前記画像の線形次元をLおよびC、動くウィンドウの線形次元をlおよびcとして、(L−l+1)×(C−c+1)ピクセルの中心領域に位置する各ピクセルについて、当該ピクセルを中心とする線形次元lおよびcの動くウィンドウの組を用いて、整合関数を計算するステップと、
    (a2)記個々の整合マップにおいて前記中心領域の外の境界領域に非類似を表すピクセル値を代入して、代入マップを生成するステップと、
    (a3)ブラーカーネルを用いて前記代入マップをフィルタリングし、フィルタリングされたマップを生成するステップと、
    (a4)前記フィルタリングされたマップを正規化するステップと、
    をさらに有する請求項1〜4のいずれか1項に記載の方法。
  6. 前記ステップ(a)において、動くウィンドウの組の間の整合関数は、
    各動くウィンドウが均一か均一でないかを決定するステップと、
    動くウィンドウが両方均一である場合、整合関数を類似を示す値にセットし、
    動くウィンドウの1つが均一であって、もう一方が均一でない場合は、整合関数を非類似を示す値にセットし、
    動くウィンドウが両方均一でない場合、動くウィンドウの組の規格化された相互相関値を整合関数として計算するステップと、
    によって計算される請求項1〜5のいずれか1項に記載の方法。
  7. 前記ステップ(b)は、
    (b1)予め決定された閾値を用いて、個々の整合マップを二値化して、複数の二値化された個々の整合マップを生成するステップと、
    (b2)複数の二値化された個々の整合関数を平均化して、結合された整合マップを生成するステップと、
    をさらに含む請求項1〜6のいずれか1項に記載の方法。
  8. 前記ステップ(b1)において、前記予め決定された閾値は、異なる個々の整合マップにより異なり、機械学習方法および訓練画像のセットを用いて生成される請求項7記載の方法。
  9. 前記ステップ(c)の後であって、前記ステップ(d)の前に、さらに、
    前記画像の組において対応するピクセルのピクセル値の比較および前記画像の組の全部の露出度の比較に基づいて、前記画像の組のための最終的な整合マップを修正するステップを含む請求項1〜8のいずれか1項に記載の方法。
  10. 前記画像のセットは、3枚の画像からなり、前記ステップ(d)において、ゴースト重みマップは、
    請求項1〜9のいずれか1項に記載の方法。
  11. 各画像のために、前記ステップ(d)は、
    (d1)複数の最終的な整合マップに基づいて、各ピクセルにゴーストを引き起こす、またはゴーストを引き起こさないことを示す値を有する、二値化されたゴースト重みマップを生成するステップと、
    (d2)対応する画像中において、露出アンダーまたは露出オーバーのピクセルのために、前記二値化されたゴースト重みマップを修正するステップと、
    (d3)すべてのゴースト重みマップにおいて、ゴーストを引き起こすことを示す値を持つピクセルのために、二値化されたゴースト重みマップを修正するステップと、
    (d4)前記二値化されたゴースト重みマップをぼやかして、各ピクセルにゴーストを引き起こす可能性を示すピクセル値を有し、連続的な値を持つゴースト重みマップを生成するステップと、
    をさらに含む請求項1〜10のいずれか1項に記載の方法。
  12. 異なる露出度を有する複数の画像セットからハイダイナミックレンジ(HDR)画像を生成する処理をデータ処理装置に実行させるために、当該データ処理装置を制御するためのコンピュータプログラムであって、前記処理は、
    画像セットの各画像の組に対して、
    (a)各画像の組に対する複数の個別の整合マップを生成するステップと、ここで、個々の整合マップは、ウィンドウサイズを有し画像の組中にそれぞれ位置する動くウィンドウの組間の整合関数を計算することによって生成され、複数の個別の整合マップは、複数の異なるウィンドウサイズを用いて生成され、
    (b)前記画像の組のために、結合された整合マップを生成するために、複数の個別の整合マップを結合するステップと、
    (c)前記結合された整合マップを二値化して、前記画像の組のために、最終的な整合マップを生成するステップと、ここで、前記最終的な整合マップ内の各ピクセルは、対応する位置において前記画像の組が整合するか否かを示すピクセル値を有し、
    (d)前記画像組の各画像について、複数の前記最終的な整合マップに基づき、ゴースト重みマップを生成するステップと、ここで、前記ゴースト重みマップ中の各ピクセルは、ゴーストを引き起こす画像に対応する位置における画像ピクセルである見込みを示すピクセル値を有し、
    (e)前記画像セットおよび対応するゴースト重みマップを用いて、HDR画像を生成するステップと、
    を有するプログラム。
  13. 前記ステップ(a)において、個々の整合マップは、カラー画像の組及び白黒画像の組を生成するための個々の整合マップを含む請求項12に記載のプログラム。
  14. 前記ステップ(a)において、
    前記整合関数が、
    で表される規格化された相互整合関数で定義される請求項12または13に記載のプログラム。
  15. 前記ステップ(a)において、すべての画像およびすべての個々の整合マップは特定の大きさを有しており、
    個々の各整合マップのために、前記ステップ(a)は、
    (a1)前記画像の線形次元をLおよびC、動くウィンドウの線形次元をlおよびcとして、(L−l+1)×(C−c+1)ピクセルの中心領域に位置する各ピクセルについて、当該ピクセルを中心とする線形次元lおよびcの動くウィンドウの組を用いて、整合関数を計算するステップと、
    (a2)前記個々の整合マップにおいて前記中心領域の外の境界領域に位置する各ピクセルについて、前記画像中に位置するピクセルを中心とする線形次元lおよびcの動くウィンドウの一部である不完全な動くウィンドウの組を用いて、整合関数を計算するステップと、
    をさらに含む請求項12〜14のいずれか1項に記載のプログラム。
  16. 前記ステップ(a)において、すべての画像およびすべての個々の整合マップは等しい大きさを有しており、
    個々の各整合マップのために、前記ステップ(a)は、
    (a1)前記画像の線形次元をLおよびC、動くウィンドウの線形次元をlおよびcとして、(L−l+1)×(C−c+1)ピクセルの中心領域に位置する各ピクセルについて、当該ピクセルを中心とする線形次元lおよびcの動くウィンドウの組を用いて、整合関数を計算するステップと、
    (a2)記個々の整合マップにおいて前記中心領域の外の境界領域に非類似を表すピクセル値を代入して、代入マップを生成するステップと、
    (a3)ブラーカーネルを用いて前記代入マップをフィルタリングし、フィルタリングされたマップを生成するステップと、
    (a4)前記フィルタリングされたマップを正規化するステップと、
    をさらに有する請求項12〜14のいずれか1項に記載のプログラム。
  17. 前記ステップ(a)において、動くウィンドウの組の間の整合関数は、
    各動くウィンドウが均一か均一でないかを決定するステップと、
    動くウィンドウが両方均一である場合、整合関数を類似を示す値にセットし、
    動くウィンドウの1つが均一であって、もう一方が均一でない場合は、整合関数を非類似を示す値にセットし、
    動くウィンドウが両方均一でない場合、動くウィンドウの組の規格化された相互相関値を整合関数として計算するステップと、
    によって計算される請求項12〜16のいずれか1項に記載のプログラム。
  18. 前記ステップ(b)は、
    (b1)予め決定された閾値を用いて、個々の整合マップを二値化して、複数の二値化された個々の整合マップを生成するステップと、
    (b2)複数の二値化された個々の整合関数を平均化して、結合された整合マップを生成するステップと、
    をさらに含む請求項12〜17のいずれか1項に記載のプログラム。
  19. 前記ステップ(b1)において、前記予め決定された閾値は、異なる個々の整合マップにより異なり、機械学習方法および訓練画像のセットを用いて生成される請求項18に記載のプログラム。
  20. 前記ステップ(c)の後であって、前記ステップ(d)の前に、さらに、
    前記画像の組において対応するピクセルのピクセル値の比較および前記画像の組の全部の露出度の比較に基づいて、前記画像の組のための最終的な整合マップを修正するステップを含む請求項12〜19のいずれか1項に記載のプログラム。
  21. 前記画像のセットは、3枚の画像からなり、前記ステップ(d)において、ゴースト重みマップは、
    請求項12〜20のいずれか1項に記載のプログラム。
  22. 各画像のために、前記ステップ(d)は、
    (d1)複数の最終的な整合マップに基づいて、各ピクセルにゴーストを引き起こす、またはゴーストを引き起こさないことを示す値を有する、二値化されたゴースト重みマップを生成するステップと、
    (d2)対応する画像中において、露出アンダーまたは露出オーバーのピクセルのために、前記二値化されたゴースト重みマップを修正するステップと、
    (d3)すべてのゴースト重みマップにおいて、ゴーストを引き起こすことを示す値を持つピクセルのために、二値化されたゴースト重みマップを修正するステップと、
    (d4)前記二値化されたゴースト重みマップをぼやかして、各ピクセルにゴーストを引き起こす可能性を示すピクセル値を有し、連続的な値を持つゴースト重みマップを生成するステップと、
    をさらに含む請求項12〜21のいずれか1項に記載のプログラム。
  23. 請求項12〜22のいずれか一項に記載のコンピュータプログラムを格納したコンピュータ利用可能な非一時的媒体を含むデジタルカメラであって、
    画像を取得するための結像部と、
    異なる露出度を有する画像セットを得るために、前記結像部を制御する制御部と、
    を有するデジタルカメラ。
JP2014131420A 2013-06-30 2014-06-26 複数スケールの規格化された相互相関を用いた、hdr画像処理におけるゴーストアーティファクトの検出および除去方法 Active JP6159298B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/931,984 US8957984B2 (en) 2013-06-30 2013-06-30 Ghost artifact detection and removal in HDR image processsing using multi-scale normalized cross-correlation
US13/931984 2013-06-30

Publications (2)

Publication Number Publication Date
JP2015011717A JP2015011717A (ja) 2015-01-19
JP6159298B2 true JP6159298B2 (ja) 2017-07-05

Family

ID=52115241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014131420A Active JP6159298B2 (ja) 2013-06-30 2014-06-26 複数スケールの規格化された相互相関を用いた、hdr画像処理におけるゴーストアーティファクトの検出および除去方法

Country Status (2)

Country Link
US (1) US8957984B2 (ja)
JP (1) JP6159298B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108201A1 (ko) * 2020-11-23 2022-05-27 삼성전자 주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2667034C2 (ru) * 2014-05-28 2018-09-13 Конинклейке Филипс Н.В. Способы и устройства для кодирования hdr-изображений и способы и устройства для использования таких кодированных изображений
WO2015188359A1 (zh) * 2014-06-12 2015-12-17 深圳市大疆创新科技有限公司 一种图片处理方法、装置
US11042788B2 (en) 2016-01-28 2021-06-22 Siemens Healthcare Diagnostics Inc. Methods and apparatus adapted to identify a specimen container from multiple lateral views
CN107122327B (zh) * 2016-02-25 2021-06-29 阿里巴巴集团控股有限公司 一种利用训练数据训练模型的方法和训练系统
US10366478B2 (en) * 2016-05-18 2019-07-30 Interdigital Ce Patent Holdings Method and device for obtaining a HDR image by graph signal processing
US9818178B1 (en) * 2016-07-14 2017-11-14 Interra Systems, Inc. Method and system for detection of ghosting artifact in a video
US10257414B2 (en) 2016-07-15 2019-04-09 Qualcomm Incorporated Method and system for smart group portrait
US10319083B2 (en) 2016-07-15 2019-06-11 Samsung Electronics Co., Ltd. Image artifact detection and correction in scenes obtained from multiple visual images
US9883119B1 (en) 2016-09-22 2018-01-30 Qualcomm Incorporated Method and system for hardware-based motion sensitive HDR image processing
CN106454149B (zh) 2016-11-29 2019-03-19 Oppo广东移动通信有限公司 图像拍摄方法、装置及终端设备
CN109997351B (zh) * 2016-12-22 2021-02-23 华为技术有限公司 用于生成高动态范围图像的方法和装置
US10666874B2 (en) 2017-06-02 2020-05-26 Apple Inc. Reducing or eliminating artifacts in high dynamic range (HDR) imaging
US11450148B2 (en) 2017-07-06 2022-09-20 Wisconsin Alumni Research Foundation Movement monitoring system
US10482613B2 (en) * 2017-07-06 2019-11-19 Wisconsin Alumni Research Foundation Movement monitoring system
KR102460390B1 (ko) 2018-01-24 2022-10-28 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
CN108833775B (zh) * 2018-05-22 2020-04-03 深圳岚锋创视网络科技有限公司 一种抗运动鬼影的hdr方法、装置及便携式终端
CN112262427B (zh) * 2018-09-21 2021-12-24 华为技术有限公司 拖影评价、改善方法和电子设备
US10936708B2 (en) * 2018-10-01 2021-03-02 International Business Machines Corporation Biometric data protection
CN113874907A (zh) * 2019-02-15 2021-12-31 三星电子株式会社 生成hdr图像的电子设备及其操作方法
US11128809B2 (en) 2019-02-15 2021-09-21 Samsung Electronics Co., Ltd. System and method for compositing high dynamic range images
US10949959B2 (en) * 2019-02-18 2021-03-16 Samsung Electronics Co., Ltd. Processing image data in a composite image
SG11202110071XA (en) * 2019-03-25 2021-10-28 Razer Asia Pacific Pte Ltd Method and apparatus for using incremental search sequence in audio error concealment
US11587361B2 (en) * 2019-11-08 2023-02-21 Wisconsin Alumni Research Foundation Movement monitoring system
US11430094B2 (en) 2020-07-20 2022-08-30 Samsung Electronics Co., Ltd. Guided multi-exposure image fusion
US11776141B1 (en) * 2020-09-22 2023-10-03 Apple Inc. Hybrid image registration techniques
CN112734680A (zh) * 2020-12-31 2021-04-30 合肥视涯技术有限公司 一种重影测量方法、装置、可读存储介质和计算机设备
WO2022163877A1 (ko) * 2021-01-27 2022-08-04 삼성전자 주식회사 영상을 처리하는 방법 및 이를 수행하는 전자 장치
KR20220114209A (ko) * 2021-02-08 2022-08-17 삼성전자주식회사 연사 영상 기반의 영상 복원 방법 및 장치
CN116452485A (zh) * 2022-01-05 2023-07-18 通用汽车环球科技运作有限责任公司 基于图像相关联性的反射表面的检查

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142723B2 (en) * 2003-07-18 2006-11-28 Microsoft Corporation System and process for generating high dynamic range images from multiple exposures of a moving scene
US7612804B1 (en) * 2005-02-15 2009-11-03 Apple Inc. Methods and apparatuses for image processing
JP4905187B2 (ja) * 2007-03-09 2012-03-28 ソニー株式会社 画像処理装置、撮像装置、および画像処理方法、並びにコンピュータ・プログラム
US8237813B2 (en) * 2009-04-23 2012-08-07 Csr Technology Inc. Multiple exposure high dynamic range image capture
US8606009B2 (en) 2010-02-04 2013-12-10 Microsoft Corporation High dynamic range image generation and rendering
JP5672748B2 (ja) * 2010-03-31 2015-02-18 ヤマハ株式会社 音場制御装置
US8462221B2 (en) * 2010-11-03 2013-06-11 Eastman Kodak Company Method for producing high dynamic range images
US8711248B2 (en) * 2011-02-25 2014-04-29 Microsoft Corporation Global alignment for high-dynamic range image generation
US9300947B2 (en) * 2011-03-24 2016-03-29 Kodak Alaris Inc. Producing 3D images from captured 2D video
JP5791336B2 (ja) * 2011-04-01 2015-10-07 キヤノン株式会社 画像処理装置及びその制御方法
KR101699919B1 (ko) * 2011-07-28 2017-01-26 삼성전자주식회사 다중 노출 퓨전 기반에서 고스트 흐림을 제거한 hdr 영상 생성 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108201A1 (ko) * 2020-11-23 2022-05-27 삼성전자 주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치

Also Published As

Publication number Publication date
JP2015011717A (ja) 2015-01-19
US20150002704A1 (en) 2015-01-01
US8957984B2 (en) 2015-02-17

Similar Documents

Publication Publication Date Title
JP6159298B2 (ja) 複数スケールの規格化された相互相関を用いた、hdr画像処理におけるゴーストアーティファクトの検出および除去方法
Zhao et al. Multi-scale optimal fusion model for single image dehazing
US11882357B2 (en) Image display method and device
US10666873B2 (en) Exposure-related intensity transformation
Gallo et al. Artifact-free high dynamic range imaging
Raman et al. Bilateral Filter Based Compositing for Variable Exposure Photography.
Srikantha et al. Ghost detection and removal for high dynamic range images: Recent advances
JP6185453B2 (ja) シーン分類に基づく高ダイナミックレンジ画像処理のための最適アルゴリズムの自動選択
CN107220931B (zh) 一种基于灰度级映射的高动态范围图像重建方法
Gao et al. A fast image dehazing algorithm based on negative correction
KR101662846B1 (ko) 아웃 포커싱 촬영에서 빛망울 효과를 생성하기 위한 장치 및 방법
US9754356B2 (en) Method and system for processing an input image based on a guidance image and weights determined thereform
CN109997351B (zh) 用于生成高动态范围图像的方法和装置
Raman et al. Reconstruction of high contrast images for dynamic scenes
JP6389131B2 (ja) 局所基準のグラフ基準選択を用いたhdr画像生成におけるゴーストアーチファクトの検出及び除去
US10839529B2 (en) Image processing apparatus and image processing method, and storage medium
Park et al. Generation of high dynamic range illumination from a single image for the enhancement of undesirably illuminated images
Zhang et al. Motion-free exposure fusion based on inter-consistency and intra-consistency
An et al. Probabilistic motion pixel detection for the reduction of ghost artifacts in high dynamic range images from multiple exposures
Martorell et al. Ghosting-free DCT based multi-exposure image fusion
US9258490B2 (en) Smoothing of ghost maps in a ghost artifact detection method for HDR image creation
US9466007B2 (en) Method and device for image processing
Raman et al. Bottom-up segmentation for ghost-free reconstruction of a dynamic scene from multi-exposure images
Wang et al. An exposure fusion approach without ghost for dynamic scenes
Hu et al. Exploiting patch-based correlation for ghost removal in exposure fusion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170609

R150 Certificate of patent or registration of utility model

Ref document number: 6159298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150