JP2012515493A - 多重露光からの拡張ダイナミックレンジ画像および映像のための方法およびシステム - Google Patents

多重露光からの拡張ダイナミックレンジ画像および映像のための方法およびシステム Download PDF

Info

Publication number
JP2012515493A
JP2012515493A JP2011545996A JP2011545996A JP2012515493A JP 2012515493 A JP2012515493 A JP 2012515493A JP 2011545996 A JP2011545996 A JP 2011545996A JP 2011545996 A JP2011545996 A JP 2011545996A JP 2012515493 A JP2012515493 A JP 2012515493A
Authority
JP
Japan
Prior art keywords
frame
exposure
extended
frames
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011545996A
Other languages
English (en)
Other versions
JP5179671B2 (ja
Inventor
エー. セガール クリストファー
チャオ ジー
ルビンスタイン ロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2012515493A publication Critical patent/JP2012515493A/ja
Application granted granted Critical
Publication of JP5179671B2 publication Critical patent/JP5179671B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本発明の実施形態は、映像のコード化および復号化のためのシステムおよび方法に関する。いくつかの実施形態は、第1露光設定で捕捉された一連の低ダイナミックレンジ(LDR)フレームに基づいた拡張ダイナミックレンジ映像シーケンスのコード化および復号化に関する。当該低ダイナミックレンジ(LDR)フレームは、第2露光設定で捕捉された一連の拡張フレームでマルチピクセル化される。

Description

本発明のいくつかの実施形態は、単一画像捕捉による拡張ダイナミックレンジの捕捉ができないセンサを用いて、拡張ダイナミックレンジ画像および映像を捕捉するための方法およびシステムを含む。いくつかの実施形態はまた、映像シーケンスのコード化および復号化に関する。
本発明は、(i)現在のセンサ技術、および、(ii)電力制約されるイメージングプラットフォーム、例えばカメラ電話による、高い(またはより高い)ダイナミックレンジ映像の捕捉に関する課題に対処する。
現在、高いダイナミックレンジを取得するときの課題は、この環境においてあまり対処されていない。先行研究では、多重露光を得るために、より高いダイナミックレンジ画像センサを組み入れる、または、標準的なダイナミックレンジ画像センサを用い、その後、出力結果を融合させる。
特に、従来技術は以下の特徴に対処していない。
(1)非常に低いフレームレートでの拡張露光の取得。
(2)電話から(つまり、例えば携帯電話のモバイルビデオカメラ、または、カメラ電話等の低いダイナミックレンジ装置から)実行される高いダイナミックレンジ映像の生成。
(3)効率的にコード化されている拡張露光。
(4)下位互換性のあるビットストリームで保存されている拡張露光。
(5)多重露光を融合するための方法の使用。特に、色データの融合方法の使用、および、混合ピラミッドの使用。
本発明は、新たな画像センサを必要とせず、そして、センサのフレームレートを増加させるよう要求しないシステムを開発することにより、少なくともこれらの問題を解決する。
映像シーケンスを復号化する方法が開示されている。その方法は、第1露光設定によって捕捉された複数の低ダイナミックレンジ(LDR)参照フレームと、第2露光設定によって捕捉された複数の拡張フレームとを含む、インターリーブされたフレームシーケンスを受信する受信ステップと、上記LDR参照フレーム及び少なくとも1つの上記拡張フレームにおける少なくとも1つの色光度チャンネルから、輝度チャンネルを分離する分離ステップと、上記LDR参照フレームおよび上記拡張フレームの上記輝度チャンネル上で動き推定を実行する推定実行ステップと、上記拡張フレームを上記LDR参照フレームに整列させるために、上記LDR参照フレームおよび上記拡張フレームの輝度チャンネル上で動き補償を実行する補償実行ステップと、上記拡張フレームが捕捉されるたびに、補間LDR参照フレームを生成するために、上記LDR参照フレーム間での補間を行う参照フレーム補間ステップと、上記LDR参照フレームが捕捉されるたびに、歪んだ拡張フレームを生成するために、上記拡張フレーム間での補間を行う拡張フレーム補間ステップと、時間重みの値を上記拡張フレームに割り当てる割り当てステップと、上記拡張フレームが上記LDR参照フレームのどこで整列していないかを特定するミスマッチマップを生成するマップ生成ステップと、上記拡張フレーム、上記歪んだ拡張フレーム、上記補間LDR参照フレームおよび上記LDR参照フレームの輝度チャンネルを融合する輝度チャンネル融合ステップと、上記拡張フレーム、上記歪んだ拡張フレーム、上記補間LDR参照フレームおよび上記LDR参照フレームの色光度チャンネルを融合する色光度チャンネル融合ステップと、チャンネル値が妥当な強度範囲を満たすように、上記融合された輝度チャンネル上でトーンマッピングを実行するトーンマッピング実行ステップと、再構成されたシーケンスを生成するために、融合され、かつトーンマッピングされた上記輝度チャンネルを、融合された上記色光度チャンネルと結合させる結合ステップ、とを含む。
低ダイナミックレンジ(LDR)画像フレームおよび複数の拡張フレームから拡張ダイナミックレンジ(EDR)画像フレームを生成する方法が開示されている。その方法は、上記拡張フレームおよび上記LDR画像フレームのそれぞれに対してラプラシアンピラミッドを演算するラプラシアンピラミッド演算ステップと、上記ラプラシアンピラミッド内のピクセルがピラミッド混合処理においてどの程度用いられうるかを示す、上記ラプラシアンピラミッドに対応する混合ピラミッドを演算する混合ピラミッド演算ステップと、上記混合ピラミッドに従って上記ラプラシアンピラミッド間のピクセルごとの最大化を実行することにより、混合されたピラミッドを生成するピクセル最大化実行ステップと、を含む。
低ダイナミックレンジ(LDR)画像フレームおよび複数の拡張フレームから色光度チャンネルを融合する方法が開示されている。その方法は、上記拡張フレームのそれぞれに対して色融合マップを演算する色融合マップ演算ステップと、飽和信頼度マップを演算する飽和信頼度マップ演算ステップと、上記色融合マップおよび上記飽和信頼度マップに基づいて上記色光度チャンネルを融合する融合ステップとを含み、上記色融合マップ演算ステップは、上記拡張フレームに対して平滑境界マップを演算する平滑境界マップ演算ステップと、上記平滑境界マップのうちの大きい方の値が1となるように、上記平滑境界マップを正規化する正規化ステップと、上記拡張フレームと上記LDR画像フレームとの間のミスマッチの程度に基づいて、正規化された上記平滑境界マップの値を調整する調整ステップと、を含み、上記飽和信頼度における値は、その対応する輝度値と、中間色調値との間の差分に関するものである。
より高いダイナミックレンジ(HDR)画像を、より低いダイナミックレンジ(LDR)画像にトーンマッピングする方法が開示されている。その方法は、上記HDR画像に対してラプラシアンピラミッドを演算する演算ステップと、上記ラプラシアンピラミッドの最も粗いレベルに対して圧縮マップを適用する適用ステップと、上記圧縮マップを再構成する再構成ステップと、を含む方法である。
異なる露光画像間の誤登録を検出する方法が開示されている。その方法は、第1露光設定によって捕捉されている第1画像を受信する第1画像受信ステップと、第2露光設定によって捕捉されている第2画像を受信する第2画像受信ステップと、上記第2画像に関連する上記第1画像上で露光補償を実行する露光補償実行ステップと、上記第1画像および上記第2画像のそれぞれに対してラプラシアンピラミッドを演算するラプラシアンピラミッド演算ステップと、上記第1画像内のピクセルと、当該ピクセルに対応する上記第2画像内のピクセルとの間で正規化された局所相関を演算する局所相関演算ステップと、上記第1画像および上記第2画像に対して局所活動量を演算する局所活動量演算ステップと、上記正規化された局所相関および上記局所活動量に基づいてミスマッチマップを用いて上記ラプラシアンピラミッドのレベルを統合する統合ステップと、を含む。
拡張ダイナミックレンジ映像シーケンスを捕捉および符号化する方法が開示されている。その方法は、第1露光設定を用いて、実質的に固定された間隔で複数の低ダイナミックレンジ(LDR)参照フレームを捕捉する参照フレーム捕捉ステップと、第2露光設定を用いて、少なくとも1つの拡張フレームを捕捉する拡張フレーム捕捉ステップと、サポートデコーダが、上記拡張フレームを参照することなく、映像シーケンス内の上記LDR参照フレームを復号化することができ、かつサポートデコーダが、拡張映像シーケンス内の上記LDR参照フレームおよび上記少なくとも1つの拡張フレームを復号化することができるように、上記LDR参照フレームおよび上記少なくとも1つの拡張フレームを符号化する符号化ステップと、を含む。
拡張ダイナミックレンジ映像シーケンスを捕捉および符号化する方法が開示されている。その方法は、第1露光設定を用いて、複数の第1設定参照フレームを捕捉する第1設定参照フレーム捕捉ステップと、第1露光設定パラメータを特定する第1露光設定メタデータを生成する第1露光設定メタデータ生成ステップと、第2露光設定を用いて、少なくとも1つの第2設定フレームを捕捉する第2設定フレーム捕捉ステップと、第2露光設定パラメータを特定する第2露光設定メタデータを生成する第2露光設定メタデータ生成ステップと、上記第1設定参照フレームおよび上記少なくとも1つの第2設定フレーム上で露光補償を実行し、上記第1露光設定パラメータと上記第2露光設定パラメータとの差分を修正することにより、補償映像シーケンスを生成する露光補償実行ステップと、上記補償映像シーケンスを符号化する符号化ステップと、上記補償映像シーケンスを、上記第1露光設定メタデータおよび上記第2露光設定メタデータと関連付ける関連付けステップと、を含む。
拡張ダイナミックレンジ映像シーケンスを復号化する方法が開示されている。複数の補償された第1設定参照フレームおよび少なくとも1つの補償された第2設定フレームを含み、上記第1設定参照フレームに関連する第1露光設定メタデータと関連付けられ、かつ上記少なくとも1つの第2設定フレームに関連する第2露光設定メタデータと関連付けられた補償映像シーケンスを受信する受信ステップと、上記補償された第1設定参照フレームおよび上記少なくとも1つの補償された第2設定フレームを復号化することにより、復号化された補償シーケンスを生成する復号化ステップと、上記復号化された補償シーケンス上で反転露光補償を実行する反転露光補償実行ステップと、を含む方法。
映像シーケンス内の重み付け予測を可能にする方法が開示されている。その方法は、第1露光設定によって捕捉されている第1映像フレームを受信する第1映像フレーム受信ステップと、第1露光設定パラメータを記述する第1映像フレーム露光メタデータを受信する第1映像フレーム露光メタデータ受信ステップと、上記第1映像フレーム露光メタデータに基づいて上記第1映像フレームに対する第1明度値を決定する第1明度値決定ステップと、第2露光設定によって捕捉されている第2映像フレームを受信する第2映像フレーム受信ステップと、第2露光設定パラメータを記述する第2映像フレーム露光メタデータを受信する第2映像フレーム露光メタデータ受信ステップと、上記第1映像フレーム露光メタデータに基づいて上記第2映像フレームに対する第2明度値を決定する第2明度値決定ステップと、上記第1明度値と上記第2明度値との関係に基づいて、上記第1映像フレームおよび上記第2映像フレームに対する重み付け予測を可能にする重み付け予測可能ステップと、を含む。
映像シーケンスを復号化するシステムが開示されている。そのシステムは、第1露光設定によって捕捉された複数の低ダイナミックレンジ(LDR)参照フレームと、第2露光設定によって捕捉された複数の拡張フレームとを含む、インターリーブされたフレームシーケンスを受信する受信部と、上記LDR参照フレーム及び少なくとも1つの上記拡張フレームにおける少なくとも1つの色光度チャンネルから、輝度チャンネルを分離する分離部と、上記LDR参照フレームおよび上記拡張フレームの輝度チャンネル上で動き推定を実行する動き推定部と、上記拡張フレームを上記LDR参照フレームに整列させるために、上記LDR参照フレームおよび上記拡張フレームの上記輝度チャンネル上で動き補償を実行する動き補償部と、上記拡張フレームが捕捉されるたびに、補間LDR参照フレームを生成するために、上記LDR参照フレーム間での補間を行う第1補間部と、上記LDR参照フレームが捕捉されるたびに、歪んだ拡張フレームを生成するために、上記拡張フレーム間での補間を行う第2補間部と、時間重みの値を上記拡張フレームに割り当てる時間重み割当部と、上記拡張フレームが上記LDR参照フレームのどこで整列していないかを特定するミスマッチ特定部と、上記拡張フレーム、上記歪んだ拡張フレーム、上記補間LDR参照フレームおよび上記LDR参照フレームの輝度チャンネルを融合する輝度融合部と、上記拡張フレーム、上記歪んだ拡張フレーム、上記補間LDR参照フレームおよび上記LDR参照フレームの色光度チャンネルを融合する色光度融合部と、チャンネル値が妥当な強度範囲を満たすように、融合された上記輝度チャンネル上でトーンマッピングを実行するトーンマッピング部と、再構成されたシーケンスを生成するために、融合され、かつトーンマッピングされた上記輝度チャンネルを、融合された上記色光度チャンネルと結合させる結合部と、を含む。
本発明の上記および他の目的、特徴、および優れた点は、以下に示す本発明の詳細な説明によって十分分かるであろう。また、本発明の利点は、添付図面を参照した次の説明で明白になるであろう。
典型的な一連の参照フレームおよび拡張フレームを示す図である。 典型的な登録フェーズを示す図である。 典型的な融合フェーズを示す図である。 捕捉された参照フレーム、補間参照フレーム、拡張フレーム、および、歪んだ拡張フレーム間の関係を示す図である。 典型的な誤登録検出アルゴリズムを示す図である。 典型的なトーンマッピング関数のプロットである。 典型的なレガシービットストリームを示す図である。 典型的な時間的補間処理および関連フレームを示す図である。 典型的な予測構造を示す図である。 典型的な他の予測構造を示す図である。 露光補償を伴う典型的な予測構造を示す図である。 典型的な映像捕捉装置を示す図である。 メタデータ拡張を伴う典型的な映像捕捉装置を示す図である。 露光補償を伴う典型的な映像コード化システムを示す図である。 典型的な登録フェーズの利用のためのシステムを示す図である。 典型的な融合フェーズの利用のためのシステムを示す図である。
本発明の実施形態は、図面を参照することにより最も理解されるであろう。図面において、同様の部材は、初めから終わりまで同様の数字により明示される。上に挙げた図は、この詳細な記載の一部として明確に組み入れられる。
ここに一般に記載され、図示される本発明の構成要素は、異なる構成で幅広く変形され、設計される。このことは、容易に理解されるであろう。従って、以下の本発明の方法およびシステムの実施形態のより詳細な記載は、本発明の範囲を制限することを意図するものではなく、本発明の現在の好ましい実施形態を表現するにすぎない。
本発明の実施形態の要素は、ハードウェア、ファームウェア、および/または、ソフトウェアで具現化されうる。ここに明らかにされた典型的な実施形態は、これらの形式の一つを記載しうるのみである一方、本発明の範囲内に留まりつつ、これらの形式の何れかでこれらの要素を当業者が成し遂げうる。
本発明の実施形態は、低品質、低フレームレート、および/または、低ダイナミックレンジセンサを含む捕捉装置を用いて、拡張ダイナミックレンジ映像を捕捉するためのシステムおよび方法を含む。LDRカメラ等の捕捉装置は、自動露光フレームの小さなサブセットを拡張フレームに取り替える簡易なコントローラに組み入れられうる。上記拡張フレームは、基本シーケンスで飽和する情報を捕捉するように、異なって露光される。拡張フレームの時間的解像度は、比較的低くてもよい(例えば約1FPS)。それらの露光は、コントローラにより実時間で決定されうる。上記コントローラは、自動露光フレームにおける飽和量に基づき、それらの捕捉を活性化または非活性化しうる。
いくつかの実施形態において、拡張フレームの低時間周波数によって、本来の自動露光シーケンスが、欠落しているフレームを埋めるために、拡張フレームを捨て、かつ単純な時間補間を実行することにより、または、他の処理により、回復する。このとき、品質低下が起こるものの、それは、無視できる程度の可視的な品質低下である。同時に、後述の融合処理が、拡張データを用いて自動露光フレームを融合するために使用され、より優れた拡張ダイナミックレンジ(EDR)の出力を生成する。これらのシステムおよび方法は、デフォルトの自動露光とともに手動または自動処理により一以上の拡張フレームを捕捉することにより、静止画像にも容易に適用することができる。
本発明のいくつかの実施形態は、低品質、低フレームレート装置から拡張ダイナミックレンジ映像を生成するという課題を解決する。これらの実施形態は、より低いフレームレートの拡張シーケンスに差し込まれたベースとなる参照シーケンスを利用する他のモデルとは異なる。これらの実施形態は、類似の、そして参照シーケンスより低品質でないシーケンスを出力でき、その一方で、拡張フレームにより提供された追加情報を利用する。
いくつかの実施形態の利点は、登録が失敗すると、融合を中止し、参照シーケンスに戻ることができる能力にある。参照シーケンスの存在はまた、変化する露光によりフレームを融合する場合に問題となりうる時間的な照度の一貫性を維持することに役立つ。いくつかの実施形態はまた、ロバストな登録処理と、信頼性の高い物体動き検出器とを備えてもよく、以下により詳細に記載される。
いくつかの実施形態において、物理的精度が目標の一つではない。そして融合処理の核となるものは、全ての画像から細部の蓄積を許容するマルチスケール分解に基づきうる。いくつかの実施形態は、フレーム間の全域的動きにより出現する境界条件の新しい処理を利用する。標準ピラミッド構造のアルゴリズムは、一般に、画像境界に沿って、左右対称のパッディング等の簡易な境界処理技術を利用する。これらの方法は、定義された領域が長方形でない場合にまで拡張することが難しい。そして、これらの方法は、どんな事象においても、フレームの内部に適用されると煩わしいアーチファクトの原因となりうる。4.3.1では、未定義領域を含む画像に対するピラミッド表現を演算するための方法を記述する。
本発明のいくつかの実施形態において、トーンマッピング方法は、融合結果を後処理するために用いられる。通常、マルチセンサ融合技術の出力が拡大ダイナミックレンジという結果をもたらすため、典型的な融合方法は、拡大ダイナミックレンジをLDRモニターに適用するために、上記結果を線形的に圧縮する。しかしながら、この処理は、上記結果のコントラストを軽減させる。4.4.1では、コントラストの損失がより少ない、そのような画像の範囲を圧縮するための単純な方法を記載する。
本発明のいくつかの実施形態はまた、オブジェクトの動き、登録エラー、または、他の現象が起きたときに融合を抑制することを目的とする、一般化された誤登録検出器を含む。4.2で議論される動き検出器は、単純な局所画像統計に基づくことができ、そして、操作するために多数のフレームを必要としない。動き検出器は、露光変化に対してロバスト性があり、中間サイズのオブジェクトの動きから細かいエイリアシングなアーチファクトまでの現象を除去するために多くのスケールにわたって動作しうる。
2.アルゴリズム概要
本発明の実施形態は、典型的に、自動露光(LDR参照)フレーム(Aフレーム)50、54、56および60のシーケンス形式において入力を受信する。フレーム(Aフレーム)50、54、56および60は、第1露光設定で捕捉され、異なって露光された拡張フレーム(Eフレーム)52および58により周期的に置換される。拡張フレーム(Eフレーム)52および58は、第2露光設定で捕捉される。これらは、図1に示される。その画像のシーケンスは、低解像度でよく、場合により複雑なカメラおよびオブジェクトの動きと共に圧縮できる。これらのシステムおよび方法は、一般に2つの基本的なフェーズ、登録および融合、を含む。登録フェーズは、他の方法だけではなく、全域的な動き推定、画像歪み、および補間を含みうる。その目的は、自動露光および拡張露光のインターリーブされたシーケンスまたは多重化シーケンスを登録フレームセットのシーケンスへと、変換することである。ここで、各フレームセットは、特定の時点に対応し、自動露光フレームおよび一以上の整列した拡張フレームを含みうる。融合フェーズは、EDRシーケンスの出力をもたらしうる融合処理を実行する。融合は、各時点で個々に実行され、そして、ミスマッチ検出器を含みうる。ミスマッチ検出器は、局所的動きを含むエリア、および、融合処理からの他の登録エラーを制限または排除しうる。
アルゴリズムの2つのフェーズは、図2Aおよび2Bに要約される。図2Aは、前処理および登録フェーズの概要を示すものであり、図2Bは、融合フェーズの概要を示すものである。いくつかの実施形態において、システムは、これらの部分の各々が独立しているように設計されている。これに対する重要な利点は、各部分が個別かつ特別に、変更および微調整されうることであり、本願に記載される動き推定技術を他の技術に置き換えることができる。そのような変更は、より正確な推定処理により誤登録を軽減し、その結果、より精緻な利得を得るという程度にシステムに影響を及ぼすのみである。
登録フェーズ(図2A)は、図1のようなAおよびEフレームの関連シーケンスで始まりうる。少なくとも一つのAフレームは、少なくとも一つの色光度チャネルから分離された輝度チャンネルを有しうる。フレームは、強度および色の分離処理を許容するために、輝度−色光度の色空間に変換されうる。いくつかの実施形態において、L*a*b*色空間は、よい結果をもたらす。いくつかの実施形態において、動き推定は、各Aフレームを、そのフレームを取り巻く2つのEフレームと整列させることによって、AフレームおよびEフレームの各々の輝度チャンネル上で実行されうる。動き推定は、三つのフレームのフレームセットを生成するAフレームの座標系に2つのEフレームを歪めるために用いられうる。同時に、動き推定は、Eフレームを優先して低下した、欠落した自動露光を埋め合わせるために用いられる。この埋め合わせ処理は、その周囲の二つのAフレームおよび捕捉されたEフレームから欠落したフレーム各々を時間的に補間することにより実現されうる。
第1のフェーズは、一連のフレームセットをもたらし、各時点に対して一つである(図3参照)。各フレームセットは、捕捉された、または補間された自動露光フレームのどちらか、および、一以上の整列した拡張フレームを含みうる。ここでは、これらのフレームセット(捕捉されたフレームおよび補間されたフレームの両方)における自動露光フレームを参照フレームと称する。なぜなら、これらは、融合が行われない場合、表示のためのデフォルトフレームになるためである。用語「拡張フレーム」は、捕捉されたEフレーム、および、それらの歪んだバージョンとの両方を称するために用いられる。図3において、実線の枠のブランクフレーム30−33は、捕捉された参照フレームを表す。一方、点線の枠のブランクフレーム34−35は、補間により生成された参照フレームを表す。陰付きのフレーム36および37は、捕捉された拡張フレームを表し、軽度の陰付きフレーム38−41は、歪んだ拡張フレームを表す。フレームの各鉛直の列(例えば42)は、単一時点に対するフレームセットを表す。
図2Bに示されるアルゴリズムの実施形態の典型的な融合フェーズは、時間的に一貫した方法で単一EDRフレームへ各フレームセットを融合することを目的とする。融合フェーズは、単一参照フレームおよび一以上の整列した拡張フレームで始まる。そして、全域的な動きにより、各拡張フレームが参照フレームの一部をカバーするのみでありうることを指摘しておく。いくつかの実施形態において、融合処理は、拡張フレームの各々に対し、0と1との間の重みの値を割り当てることにより始まる。これらの重みの値は、対応する拡張フレームと参照フレームとの間の時間的距離を反映する。これらの重みは、時間的な一貫性を促進するためにアルゴリズムの様々な部分で後に用いられる。いくつかの実施形態において、その後、フレームは、誤登録検出器へ送られる。誤登録検出器は、フレームを比較し、かつそれらが充分にマッチしていない位置を特定する。そのような領域はミスマッチとしてマークされ、融合から排除、または、異なって処理されうる。
ミスマッチマップが与えられると、融合処理のコアとなる部分が行われうる。典型的な実施形態において、輝度チャンネルは、全てのスケールで情報を蓄積するバンドパスラプラシアンピラミッド分解を用いて融合されうる。さほど精度を要求されない色チャンネルは、より単純な単一スケールの信頼性に基づく方法を用いて融合されうる。いくつかの実施形態において、融合された輝度値は、単純な強度圧縮技術を用いて解決されうる強度の有効範囲を超えて普通に広がる。最終的な輝度(融合され、トーンマップされた輝度チャンネル)および色チャンネル(融合された色光度チャンネル)は、再構成シーケンスを生成するために再結合され、表示目的に対してRGBに変換される。
3.登録フェーズ
3.1 動き推定
典型的な実施形態において、単純な2D射影の全域的動きモデルが、フレーム間で用いられうる。フレームアライメントは、二重エッジおよび他のアーチファクトを避けるために高精度でなければならず、かつ、露光変化の下で安定でもなければならないので、二段階の技術が用いられうる。第1ステージは、特徴に基づいたアライメントであり、露光変化および適度なノイズに対してロバスト性を提供する。第2ステージは、初期化として第1ステージの出力を用いる反復改良法であり、融合処理により要求された精度をかなえる。演算の複雑さを減らすため、大きなフレームは動き推定の前にサイズが縮小されうる。
いくつかの実施形態において、全域的動き推定は、関連シーケンスにおける連続フレーム間のみで実行されうる。これは、より小さなカメラ移動に対して2D射影動きモデルがより精密なため、処理の安定性を増す。これらの推定が全ての対に対して利用可能となると、それらの間の連続して起こる動きを蓄積することによりシーケンス内のどんな二つのフレームも(おおよそ)整列させられる。
3.1.1 特徴に基づいた動き推定
2つの(おそらく異なる露光の)フレームが与えられ、特徴に基づく動き検出器は、2つのフレーム間の密集点対応を生成するために、SIFT特徴マッチングを用いうる。フレームが低品質である場合(低コストセンサはその場合が多い)、その対応は多数の外れ値(outlier)を有しうるため、RANSAC外れ値リジェクションが、1組のインライア(inlier)マッチを特定するために用いられうる。最尤推定処理を用い、2D射影動きが上記インライアセットから推定されうる。
3.1.2 反復動きの改良
典型的な実施形態において、特徴に基づく処理により提供される、提案された動き推定は、反復マルチスケールLucas−Kanade型方法を用いて改良されうる。その方法は、ペナルティ関数を線形化し、かつ、反復ソルバーへ導く一次近似値を用いて、2つの画像間のポイントごとの(point-wise)エラー||I−I|| を最小化する。粗から精細への改良が、処理を加速しかつより大きな動きを調整するために利用されうる。
この方法は、ポイントごとのエラーに基づくため、異なる露光画像を整列させる場合、露光補償が適用されうる。単純なヒストグラム仕様は、このタスクを達成するために用いられ、拡張フレームのヒストグラムを参照のヒストグラムに一致させる。いくつかの実施形態において、より一般的な動きモデルが想定されうる(階層性の2Dホモグラフィモデル等)。これは、その方法の性能に対して有益でありうる。
3.2 動き補償
一旦、動き推定が決定されると、拡張フレームおよび自動露光フレームを整列させ、かつ、融合されるフレームセットを生成するためにワーピング(歪み)が用いられうる。これは、自動露光フレームおよび拡張フレームの輝度チャンネル上で、動き補償を実行することにより実現される。典型的な実施形態において、複雑さと品質とのバランスを保つバイキュービック補間が用いられうる。すでに、より劣る結果を得るために、より単純なバイリニア補間が見出されている。未定義である、歪んだ結果におけるピクセルは、不確定数によりマークされる。
3.3 自動露光補間
Eフレームが捕捉される時はいつでも、その時点で自動露光フレームを失う。これ補償するために、捕捉されたEフレームと同様に、隣接する2つのAフレームを用いて補間LDR参照フレームを作るために、このフレームが補間される。同様に、Aフレームが捕捉される時はいつでも、歪んだ拡張フレームを生成するために拡張フレーム間で補間が実行されうる。
3.3.1 方法
典型的な補間方法は、割合に直接的である。既知の動き推定を用いて現在の座標系に対して2つの隣接するAフレームを歪めることにより始める。その後、歪められたフレームは、平均化される。Aフレームの一つによりカバーされるのみであるピクセルは、現状のままコピーされる。最後に、いくつかの実施形態において、いくつかのピクセルが未定義のままであれば(Aフレームのどれによってもカバーされていないピクセル)、次に記載するようにこのフレームに露光補償を適用した後、拡張フレームを用いてこれらのピクセルが埋められる。
色画像のための露光補償
いくつかの実施形態は、露光補償を含みうる。異なって露光された2つの画像が与えられると、露光補償(強度画像が含まれる場合、放射分析アライメントとしても知られる)は、他の露光条件を真似るように複数の画像のうちの一つの画像の値を修正しようとする。
強度画像を含むいくつかの実施形態において、露光補償は、ヒストグラム仕様を介して行われる。つまり、そのヒストグラムが他のヒストグラムに類似するように、複数の画像のうちの一つの画像の強度に単調関数が適用される。
色画像が含まれる場合、上の処理は、二つの画像の輝度チャネルを較正するために用いられうる。色に関して、これらのチャンネルは、両画像において理論上は同一である。しかしながら、実際は、制限されたセンサ感度、量子化効果、および、RGBキューブの制限、の組み合わせにより、必ずしもこの限りではない。それゆえいくつかの実施形態において、以下のように色補正が適用される。
いくつかの実施形態において、アフィンモデルを用いて2つの画像に関する色変換がモデル化される。
Figure 2012515493
ここで、(u,v)および(u,v)は、ソースおよび対象画像における色の値であり、それぞれ、
Figure 2012515493
および
Figure 2012515493
である。このモデルは、発見的であって物理的には正確ではないと言える。しかしながら、実際にはよい結果が提供される。アフィンモデルのパラメータは、線形回帰を介して推定されうる。2つのフレームがおおよそ整列すると仮定し、対応するピクセルの各対を回帰処理のためのサンプルと見なし、そして、モデルパラメータに対して外れ値リジェクションと共にロバスト推定を行う。いくつかの実施形態において、複雑さは、推定のために用いられたサンプル数を制限することにより減少しうる。
4.融合フェーズ
いくつかの実施形態において、融合処理は、参照フレームおよび一以上の拡張フレームを含む単一フレームセットを入力として受け付け、融合されたEDRフレームを出力する。融合方法はまた、そのセットにおけるフレームのインデックスを入力として受け取り、フレーム間に時間的距離を設ける。以下、融合処理の様々なステップを記載する。
4.1 時間重み付け
融合処理は、フレームセットにおける拡張フレームの各々に対し、範囲[0,1]において時間重みの値を割り当てることにより始まりうる。拡張フレームの重みは、参照からその時間的距離により決定され、そして、時間的な一貫性を促進するためアルゴリズムの様々な部分で後々で用いられる。
いくつかの実施形態において、重みは、次のルールに従って割り当てられうる。フレームセットが一つの拡張フレームのみを含む場合、このフレームは常に1の重みを割り当てられる。フレームセットが2つの拡張フレームを含む場合、近い方のフレームが1の重みを割り当てられ、一方で、遠い方のフレームがより低い重みを割り当てられ、それは、参照からの時間的距離において線形である。これを形式化するために、セットにおける三つのフレームのインデックスをi,k,kとする。ここで、iはAフレームのインディクスであり、k,kは(それぞれ)Eフレームのインデックスであり、そして、k<i<kである。更なるフレームの重みは以下により与えられ、
Figure 2012515493
ここで、
Figure 2012515493
は、更なるフレームのインデックスであり、そして0≦wmax≦1は、更なるフレームに割り当てられた極大の重みを表す任意の定数である。
典型的な実施形態において、wmax=0.6である。そして、ガウシアンカーネルσは画像のサイズに対して選ばれうる。N×M画像に対して、σ=min(N,M)/50を用いる。
4.2 誤登録検出
誤登録検出器の目的は、参照で充分に正確に整列していない拡張フレームでの領域をマップし、そして、その領域を融合から選択的に排除することである。
4.2.1 他の実施形態
いくつかの実施形態において、二つの画像のうち一つに対して拡張補償を適用することにより、かつ、各ピクセルでエラーを演算することにより、対となる画像を比較することで、誤登録検出処理が実行されうる。予め定義されたある閾値より大きいエラーを有するピクセルは、局所的動きの影響を受けるものとして特定される(これらのどちらかが飽和する場合を除く)。オブジェクトの動きと疑われたピクセルは、その場所で最小飽和した画像を用いて埋められ、おそらくその画像をそのピクセルでの強度が大きく異なっていない他の画像と共に平均化する。
いくつかの実施形態において、局所エントロピーは、オブジェクトの動きのインジケータとして用いられうる。これは、画像ブロックのエントロピーは露光変化によってさほど影響を受けず、かつ、そのブロックにおける構造との関連がより大きい、との考えに基づく。提案された動き検出器は、各ピクセル周りのウィンドウでのエントロピーを演算し、そして、このエントロピーが露光間で違い過ぎる場合、それを抑制動きと指定する動きが一旦検出されると、そのピクセルは最小飽和画像を用いて埋められ、目に見える不連続性を避けるために平滑化処理が用いられる。
いくつかの実施形態において、典型的な推定処理は、演算コストの軽減を目的として、二つの画像を整列するため(必要に応じて)ダウンスケールすることにより始まる。これらの実施形態において、推定処理は、二つのダウンスケールされた画像に関係する3×3ホモグラフィ行列
Figure 2012515493
を生成する。このとき、第1画像中の各ピクセル位置
Figure 2012515493
に対して、第2画像中の対応位置は
Figure 2012515493
となる。このとき、〜は、ある因子まで等しいことを示す。これを二つの元の画像間の関係
Figure 2012515493
に対し変換するには(ピクセル座標が(1,1)で始まると推定して)、次式を演算することで実現される。
Figure 2012515493
ここで、c<1はダウンスケーリング因子を表す。
4.2.2 異なる露光間の誤登録の検出
いくつかの実施形態において、できるだけ正確に全域的に整列した、同じシーンの異なって露光された二つの画像を仮定する。このケースで誤登録のソースは、(a)仮定した全域的動きモデルにより課せられた制限、(b)仮定モデル内の最適動きパラメータの推定に失敗すること、(c)二つのフレームにおける非互換パターンに変える高周波領域でのエイリアシングアーチファクト、および(d)移動するオブジェクト、であってもよい。これらの実施形態では、非互換を検出し、影響が与えられた領域を融合処理から排除するというように、同様の方法でこれら全ての場合を処理する。
異なって露光された画像間での誤登録を検出するための典型的な実施形態は、図4を用いて概説される。これらの方法は、それぞれ第1および第2露光設定で捕捉されている二つの画像の輝度チャンネル上で機能する。これらの処理は、参照フレームのより近くに拡張フレームがくるように露光補償を適用することにより開始することができる。次に、二つの画像のラプラシアンピラミッドが演算される。ラプラシアンピラミッドは、多くのスケールにわたる画像の細部を明確にし、大きなオブジェクトに対して細かいテクスチャーを補うように用いられる。移動するオブジェクトは、二つのピラミッドを対応するスケールで異ならせ、より細かいスケールにおいても同様にすることが可能である。
ピラミッドの各バンドパスレベルに対して、拡張フレームが対象フレームのどこで整列していないかを特定するために、以下のようにミスマッチマップを演算する。p i,j,kおよびp i,j,kを、その位置(i,j)および二つのピラミッドのスケールkにおいて対応する(同一場所に配置された)二つのピクセルとする。いくつかの実施形態において、二つのピクセル間の対応関係を定量化するために用いる基本値は、k番目のスケールでそれらを囲む二つのN×Nウィンドウ間の正規化相関(正規化された局所相関)である。形式的には、p i,j,kを囲むN×Nウィンドウにおけるピクセルをベクトル
Figure 2012515493
、および、p i,j,kを囲むピクセルをベクトル
Figure 2012515493
として配置する場合、その対応関係を以下のように計測する。
Figure 2012515493
この典型的な対応関係の計測では、[−1,1]内の値をとり、二つのピクセルがそれらの周りで類似のエッジパターンを有する場合のみ高くなる(1に近づく)。エントロピーに基づいた検出器と対比させるので、例えば、この計測は細かいテクスチャーの非互換性に敏感であり、最終的には、結果として融合結果における曖昧さを生じさせる。それは、非互換のエイリアシングパターンと他の一致しないエッジとを同様に検出する。その計測は、アファインスケーリングにより影響を受けないので、露光変化に対してロバスト性がある。
ρi,j,kをそのままの形で用いることは、効果的な結果として、フレームのうちの一つが細部を実際に欠落している領域の全てを完全に排除することは明らかである。それゆえ、フレームのどちらかがある隣接域において微小の細部を有する場合、その位置のρi,j,kの値を無視して融合を続ける。ピクセルpi,j,k周りの活動量を定量化するために、以下で与えられるように、ラプラシアンピラミッドにおけるその周囲のウィンドウの全エネルギーを用いる。
Figure 2012515493
ラプラシアンピラミッドにおけるゼロでない成分がその画像の特徴に対応するので、この計測では、それぞれのスケールにおいて、pi,j,k周囲の細部の量を直接定量化する。
(4)および(5)を用いて、我々はミスマッチ検出器を定義できる。我々はマルチスケール二値ミスマッチピラミッドmi,j,kで始める。mi,j,kは次のように定義される。
Figure 2012515493
ここで、
Figure 2012515493
および
Figure 2012515493
は予め定義された閾値である。二つのフレーム間の相互関係係数が小さい場合はいつでも、このマップは1を含み、これら二つのフレームはともに相当に充分な活動量を有する。異なるピラミッドレベルに対して異なる活動閾値
Figure 2012515493
を許容する。なぜなら、これらの値が正規化されず、また、画像導関数は、より粗いスケールにおいて充分に減少する傾向にあるためである。
このピラミッドが与えられると、アルゴリズムの最終ステップでは、その異なるレベルを結合し、かつ、最終動きマップを生成する。これは、ラプラシアンピラミッド再構成処理に類似する方法で、ピラミッドのレベルを統合することにより成される。つまり、最も粗いレベルを拡大し、その上のレベルにそれを加え、ピラミッド全体が処理されるまで繰り返す。蓄積された結果における各ピクセルの値は、おおよそスケール数であり、そのスケール数において、そのピクセルが動きを含むことが分かっている。単一スケールを、動きを示すのに充分なものとみなしているため、ピクセル値が閾値よりも蓄積した場合はいつでも、1を有する二値マップを出力する。
4.2.3 ミスマッチマップの生成
ここでは、本発明のいくつかの実施形態の融合処理に対して、上記の方法がどのように完全なミスマッチ検出システムを形成するために利用されうるのかについて記載する。全ての時点で、参照フレームと、1または2個の拡張フレームとを有するものと仮定する。図3からわかるように、殆どの時点で、各参照フレームは二つの拡張フレームを有しており、拡張フレームはシーケンスにおける周囲の二つのEフレームから生じる。しかしながら、いくつかの時点において、一つの拡張フレームのみを有してもよい。これは、ただ一つの時間的に隣接したEフレームが存在するシーケンスの第1および最後の数フレームにおける場合と同様、Eフレームが捕捉されるときに起こる。
ただ一つの拡張フレームが利用可能な場合、いくつかの実施形態では、その拡張フレームに対してミスマッチマップを構築するために、そしてその処理を終えるために、4.2.2での技術を使うことができる。しかしながら、二つの拡張フレームが利用可能な場合には、これら二つの拡張フレームをそれら自身の中で比較する第2のステップを加えてもよい。これは、オブジェクトの動きまたは登録エラーが存在するときに、それらが寄与する情報が非互換であってもよいように、当該第2のステップを加える。
フレーム間の単純なピクセルごと(pixel-wise)のエラーマップが演算(コンピュータにより演算)され、このマップが閾値化されることにより、二つの拡張フレームが比較される。それら二つの拡張フレームが同様に露光されるとき、それらは、(エラーマップにおいて大きなエントリとして特定する)オブジェクトの動きまたは登録エラーが存在する場合を除いて、実質的に同一であるべきである。それらの境界だけでなく、いっそう大きなオブジェクトの対象の検出を許容するために、ガウシアンピラミッドにおける多くのスケールにわたって演算を繰り返す。従って、対応するレベルの各対間の差分を閾値化することにより、二値動きピラミッドが演算され、異なる露光がなされた画像の場合のように、結果として生じる二値動きピラミッドが単一動きマップへと統合される。
最後に、拡張フレームの各々と参照フレームとの間のミスマッチマップm0,1およびm0,2、同様に二つの拡張フレーム間のミスマッチマップm1,2が与えられることにより、それらの間に二値ORが適用され、拡張フレームに対する最終ミスマッチマップが得られる。
Figure 2012515493
4.2.4 時間一貫性
これまで記載された典型的な動き検出器には、一つの重大な欠点がある。それは、時間的に安定でないことである。フレームシーケンス(E,…I,E,I,…,E)を考えるとする。ここで、E,E,Eは、三つの連続したEフレームであり、I,Iは二つのAフレームである。なお、Iでのフレームセットは{I,E,E}から成り、Eでのフレームセットは{Interp(I,I),E}から成り、Iでのフレームセットは{I,E,E}から成る。記載されたミスマッチ検出スキームが適用され、フレームEは、Iと融合された場合にはEとのそのミスマッチにより、Iと融合された場合にはEとのそのミスマッチによりマスクされ、補間フレームと融合された場合は全くマスクされない。これは、Eフレーム周りでの重要な視覚障害の原因となりうる。
これを対処するために、単純な時間的適応を用いて、Eフレームにより近づけるにつれて更なるEフレームの影響が次第に減少することを担保する。二つの拡張フレーム間のミスマッチマップが、それらの間のピクセルごとの差分を取り、その結果を閾値化することにより演算されることを思い出してほしい(これは、実際には多くのスケールに対して繰り返されうる。しかし、ここでは簡単のために単一スケールを考慮する)。なお、ミスマッチ閾値が増加するので、検出器は、それら二つのフレーム間の不一致に対して余り敏感にならない。特に、[0,1]内の画像強度が仮定されれば、1に近い閾値はミスマッチ検出を実質的に取り消す。処理を時間的に安定させるために、各拡張フレームのそれぞれに対して時間で閾値を徐々に変えることによりこの観察が利用されうる。それゆえ、二つの拡張フレーム間の差分マップが与えられる場合、二つの異なる閾値を用いて、フレームのそれぞれのうちの一つに対して差分マップから二つの異なるミスマッチマップを生成する。時間的により近いフレームに対し、より大きい閾値を認めることにより、閾値上の更なるフレームの影響を軽減する。これらの閾値は、時間的に一貫した結果を達成するために、時間でスムーズに変えられうる。結果として生じる2つのミスマッチマップは、両方のフレームに本来共通であった(7)のマップm1,2を置換するために用いられる。
4.2.5 その他のミスマッチ検出の実施形態
いくつかの実施形態において、検出方法が誤登録の検出に失敗しうる状況がありうる。4.2.2に記載された方法では、画像のうちの一つが細部を欠く領域におけるミスマッチを全く検出せず、追加情報が他の露光から欠落していることを常に仮定している。その他の一実施形態では、欠落している細部のインジケータとしての局所活動量を飽和量に置換してもよい。従って、2つの画像が低い相互関係を有し、かつ、その両方が飽和していない場合に、ミスマッチが明らかにされる。
4.3 輝度チャンネルの融合
典型的な実施形態において、全体の処理の核となるものは、全画像から(つまり、拡張フレーム、歪んだ拡張フレーム、補間参照フレームおよび参照フレームから)細部を蓄積する単一強度画像への、輝度チャンネルのセットの融合である。その処理は、一つの拡張フレームのみが利用可能である場合のセット{I,E,M}、または、2つの拡張フレームが利用可能である場合のセット{I,E,E,M,M}を入力として利用しており、拡張フレームに関連する2つのミスマッチマップMおよびMを用いている。その方法は、基本的には3ステップの処理である。
1.各入力フレームに対して適応型ラプラシアンピラミッドを演算する。
2.各レベルにおけるピクセルごとの最大化を用いてピラミッドを統合する。
3.統合されたラプラシアンピラミッドの再構築を介して出力画像を補正する。
これらの実施形態において、我々はいくつかの理由からラプラシアンピラミッドを選択した。第一に、ラプラシアンピラミッドは、注意深くサンプルされたウェーブレット変換よりも時間的に非常に安定していることが示されている。同時に、シフト不変のウェーブレット変換または勾配ピラミッドよりも時間的に僅かに安定的でないことが示されているだけである。これは、非常に異なるソースから画像を融合する場合、より関連があるように思われる。しかしながら、ラプラシアンピラミッドを用いる主な動機はその単純さであり、画像に対する変換の変形を未定義領域で設計できる。
4.3.1 適応型画像ピラミッド
A.ガウシアンおよびラプラシアンピラミッド
画像のガウシアンおよびラプラシアンピラミッドは、マルチスケールおよびバンドパス画像解析のために広く使われる構造である。ピラミッドは、二つの基本操作、すなわち縮小および拡大を用いて構成される。縮小操作は、2因子分だけ画像をダウンスケールし、エイリアシングを最小化するために平滑化処理を利用している。拡大操作は、2因子分だけ画像をアップスケールし、高周波の導入を回避するために同様に平滑化処理を利用している。
強度画像Iの場合、そのガウシアンピラミッドG={G,G,…,G}は、単にこの画像の一連のダウンスケールバージョンであり、G=IおよびGi+1=shrink(G)である。ガウシアンピラミッドは、マルチスケール画像処理タスクに対して一般に使用される。画像のラプラシアンピラミッドL={L,L,…,L}は、本質的には画像のバンドパス分解である。それは、L=GおよびLi−1=Gi−1−expand(G)を介してそのガウシアンピラミッドから演算される。ラプラシアンピラミッドの各レベルは、これらのレベルのダウンサンプリングによりそれぞれ低い冗長性を有しており、画像周波数領域の異なる帯域を示す。
B.適応型ガウシアンピラミッド
ガウシアンおよびラプラシアンピラミッドは、画像がその全体のグリッドにわたって定義される限りは、明確に定義される。本実施形態の場合、このことは参照フレームに対しては真であるが、拡張フレームに対する場合にはめったに真ではない。過去または更なるEフレームの歪んだバージョンである拡張フレームは、通常、それらが全域的な動きにより未定義である領域を有する。
ガウシアンピラミッドを構成するために用いられる縮小操作は、画像の平滑化およびそのダウンサンプリングを含む。平滑化は、一般に、加算して1になるように正規化したその重みで、小さく分離できるガウシアンカーネルと共に畳み込みが行われることにより実施される。ダウンサンプリングは、画像サンプルを放棄し、偶数(または奇数)のインデックス付きのもののみを残すことを含む。
画像サンプルのいくつかが未定義である場合、出力ピクセルが未定義の値に依存する時はいつでも、平滑化処理が困難となる。画像I={Ii,j}および平滑化カーネルg={gi,j}に対して、出力J={Jk,l}が次式により定義されることを思い出してほしい。
Figure 2012515493
Iの未定義値がこの総和において存在する場合、一つのアプローチとしては、結果として生じるJk,lを同様に未定義することである。しかしながら、より粗いガウシアンピラミッドレベルが構築されるように、これは、増加する画像数を徐々に除去し、最も粗いピラミッドレベルに元の画像領域の一部分のみをカバーさせる。このように構築されたラプラシアンピラミッドは、そのレベルの各々が2つのガウシアンピラミッドレベルに依存するので、更なる細部損失までも被ることになり、それゆえ、それらの未定義領域の両方を蓄積する。最終的に、これは、融合結果において、結果として欠落している細部を生じさせ、低パフォーマンス最適化(sub-optimal performance)を引き起こす。
いくつかの実施形態において、これを克服するために取り得る方法としては、定義された値のみを考慮するように、計算式(8)を再定義することがある。
Figure 2012515493
この式において、Ωは、Iで定義されたピクセルに対応する{−l…l}×{−l…l}のサブセットである。正規化は、この総和での重みが1に至るまでなお加えることを担保するようになる。なお、定義値に完全に依存する出力ピクセルに対して、この計算は前述の計算と同等である。この修正された公式において、未定義値に完全に依存するピクセルのみが(従って、分母=0)、未定義であると称される。
これらの実施形態では、画像のある形式の連続する振舞いを仮定するとき、本質的には、その境界周りの画像の外挿法を実行する。残念ながら、この外挿法は、常に有効であるわけではない。外挿法が失敗する場合、画像に本来存在しない細部を導入し、融合結果において可視的なアーチファクトを生じさせる可能性がある。それゆえに、いくつかの実施形態は、ある極小数の定義された入力ピクセルに依存する出力ピクセルに対して、(9)の使用を制限し、その残りを未定義数に設定する。形式的には、以下のような重み閾値0≦μ≦1が定義される。
Figure 2012515493
なお、この公式は、(8)と(9)との両方を一般化したものである。μ=1に設定することは、計算式(8)を再現し(定義された全入力に対する出力のみが定義される)、一方、μ=0に設定することは、計算式(9)を再現する(定義された一つの入力でどんな出力も定義される)。
残念ながら、μの全ての固定的な選択が重大な欠点を与えることが分かっている。より低い値がアーチファクトを生じさせ、一方、高い値が欠落している細部を生じさせる。これを克服するために、いくつかの実施形態には、その位置で画像コンテンツに基づいた各ピクセルに対して個別にμの値を選択する、新たな適応構築処理が含まれる。それゆえ、固有の閾値μk,lを各出力ピクセルに割り当て、その処理が導かれる。
Figure 2012515493
現在の基本的な考え方は、そのピクセル周りの画像における活動量に、μk,lの選択の基礎を置くことである。この型のピラミッド構築を適応型ガウシアンピラミッドと称する。このアプローチによれば、まず始めに、画像に対してμマップを演算することを目指す。μマップは、0と1との間のμの値を各ピクセルに割り当てる。一旦このマップが決定すれば、我々は、計算式(11)を実施し、ダウンサンプリングを進める。修正された計算式(11)を用いることが、定義された入力に完全に依存する出力ピクセルに影響を与えない(μk,lのそれらの割り当てられた値を無視する)ことは強調されるべきである。なぜなら、それらの入力ピクセルの総重みは、常に合計1になるためである。特に、このことは、完全に定義された画像のガウシアンピラミッドが不変のままであることを意味する。
μマップを構築することにおける重要な観察は、境界の両側上の真の画像値が類似であるところにおいて、外挿法の操作が最も正確であるということである。それゆえ、その考え方は、境界に対して垂直な構成要素のみを考慮することにより、μk,lの値を局所画像勾配から引き出すというものである。垂直な構成要素がより強ければ、外挿法が失敗する可能性が高くなり、それゆえ、μにはより高い値が課せられるべきである。しかしながら、境界に沿った勾配は、拡張フレーム自身から容易に決定されることができない。それゆえ、いくつかの実施形態では、参照フレームからこれらの勾配を推定しうる。この背後にある指針となる仮定は、充分に強い勾配が境界の近くに存在すれば、それは参照フレームにおける何らかの形跡を有するというものである。
いくつかの実施形態において、μマップの実際の計算は以下のとおりである。そのi番目のレベルで与えられた適応型ガウシアンピラミッドのi+1番目のレベルを演算していると仮定する。正確なμマップを決定するために、参照フレームのガウシアンピラミッドのi番目のレベルが参照される。その勾配は、それをソーベルxおよびy、導関数カーネルk=(0.25,0.5,0.25)(−0.5,0,0.5)およびk=k で畳み込み積分することにより演算される。
Figure 2012515493
拡張フレームにおける未定義領域の境界の垂直成分を演算し続ける。このため、フレームが定義された箇所で1、および、それとは異なる箇所で0を含む境界マップIboundを定義する。同じソーベルカーネルを用いてこのマップの勾配が演算される。
Figure 2012515493
単位ベクトルを得るためにこれらの勾配が正規化される。
Figure 2012515493
最後に、(12)および(14)から、次式を介して勾配の垂直成分を演算できる。
Figure 2012515493
値dが与えられると、以下のルールに従ってμ値を各ピクセルに割り当てる。
Figure 2012515493
ここで、tおよびtは、低次および高次導関数間を区別する2つの閾値である。そして、μ<μは、μの2つの固定値である。この規則によれば、導関数が大きい場合には、外挿法を完全に中止する(μ=1)。導関数が非常に低い場合には、強い外挿法を許容する(μ=μ、μは0に近い)。そして、導関数がその中間である場合には、適度な外挿法が実行される(μ=μ、ここでμ〜0.5)。
C.適応型ラプラシアンピラミッド
未定義領域で画像に対してラプラシアンピラミッドを構築することは、ガウシアンピラミッドを構築することと同様の困難性を与える。このため、類似の方法でこれらが対処される。いくつかの実施形態において、上述のように、画像の適応型ガウシアンピラミッドを構築することにより開始してもよい。一旦このピラミッドが演算されれば、このピラミッドからラプラシアンピラミッドを演算することは、一連の拡大操作および画像減法を含むことになる。
独立変数のどれかが未定義である場合に結果として未定義数を与えるために、減法操作を定義する。これは、拡大された、より粗いガウシアンレベルが、外挿法により現在のガウシアンレベル以上をカバーしている場合、この領域が減法処理で除去されることを担保する。
拡大操作の実行は、正攻法であって、適応型ガウシアンピラミッドにおける減少操作に酷似している。拡大手順は、画像のアップサンプリングにより開始される。ここで、定義されたピクセルおよび未定義のピクセルを区別するために、ゼロ充填よりむしろ、未定義数充填が用いられる。次に、明度を維持するために、定義されたピクセルの値に4を掛ける。最後に、小さく分離可能なガウシアンカーネルを用いて画像を平滑化し、定義されたピクセルのみを考慮する。過度な外挿法を回避するために、定義されたピクセルに最小重みを課す(10)で与えられた平滑化操作を用いる。
理解しやすいように、拡大操作に対し、適応値よりむしろ、全体の画像に対する単純な固定値μを選択する。確かに、適応型ラプラシアンピラミッドが適応型ガウシアンピラミッドに基づく限りは、μのより精巧な微調整が不必要であることを理解している。拡大操作におけるμの選択に関して注意すべきことは、その有効範囲が[0,1]よりむしろ、[0,0.25]であるべきであるということだけである。なぜなら、未定義数充填により、いかなるウィンドウにおける定義されたピクセルの極小重みが0.25になるようにするためである。
典型的な実施形態において、平滑化カーネルは、σ=1で2Dガウシアンピラミッドの5×5正規化近似値である。ダウンサンプリング処理は、画像の左上のピクセル、およびそのピクセルから生じる、2倍サブサンプリングされたダイナミックグリッド上の全てのピクセルを残す。これは、N×M画像に対して、サイズ結果[N/2]×[M/2]を導く。この典型的な実施形態において、我々は、t=0.01、t=0.1、μ=0.1、μ=0.5も用いる。
4.3.2 ピラミッドの統合
A.基本処理
参照および拡張フレームのラプラシアンピラミッドのそれぞれをLref,LおよびLとした場合、基本的な考え方は、単一ピラミッドにおける全てのフレームから細部を蓄積するように、最も粗いレベル以外の全てのレベルにおいてそれらの間でのピクセルごとの最大化を実行するというものである。
ピクセルごとの最大化処理は、2つの画像ピラミッドを取得するステップと、ピラミッド内の各位置で第1および第2画像のピクセル値を比較するステップとで説明される。各位置での出力は、その位置での第1および第2画像の最大値である。
これは、x,yおよびzの全ての値に対して、次のように、
Output(x,y,z) = max( Input1(x,y,z), Input2(x,y,z))
と数学的に記述することができる。ここで、xおよびyは空間的位置、zはピラミッドにおけるレベル位置である。
本発明のいくつかの実施形態において、ピクセルごとの最大化手順は、混合ピラミッドに従ってラプラシアンピラミッド間で実行される。それにより、混合されたピラミッドが作成される。この場合、各位置での出力は、第1および第2画像におけるピクセル値の関数により決定される。
論理的には、これは以下のように記述される。すなわち、
if(BlendFunction(Input1(x,y,z))> BlendFunction(Input2(x,y,z))
Output(x,y,z) = BlendFunction(Input1(x,y,z))
else
Output(x,y,z) = BlendFunction(Input2(x,y,z))
と記述される。
本発明のいくつかの実施形態において、ピクセルごとの最大化処理は、重み付け因子を含む混合ピラミッドを用いる。重み付け因子は、実行中に上記ラプラシアンピラミッドにおけるピクセルの相対的寄与を定義する。
論理的には、これは以下のように記述される。すなわち、
if(BlendValue1(x,y,z)*Input1(x,y,z))> BlendValue2(x,y,z)*Input2(x,y,z))
Output(x,y,z) = BlendValue1(x,y,z)*Input1(x,y,z)
else
Output(x,y,z) = BlendValue2(x,y,z)*Input2(x,y,z)
と記述される。
ミスマッチが存在せず、かつ、時間重みが無視される単純な場合において、融合処理はアルゴリズム1で記載された処理により要約される。そのアルゴリズムの記載において、関数maxabsは、符号を無視したその独立変数のピクセルごとの最大化を実行する。つまり、関数maxabsは、その符号の絶対値倍の極大の独立変数を返す。
B.マルチスケール混合ピラミッドとの融合
ミスマッチ、時間重み、および他の現象に合わせるために、マルチスケール混合ピラミッドが各拡張フレームピラミッドに割り当てられるように、基本的な処理を一般化している。このピラミッドは、拡張フレームのラプラシアンピラミッドと同じサイズであり、その中の各ピクセルに[0,1]内の混合値を割り当てる。0の混合値は、このピクセルが(例えば、ミスマッチにより)最大化処理において考慮されないべきであることを意味する。一方、1の混合値は、元の公式のように、そのピクセルが充分に処理されるべきであることを意味する。次節において混合ピラミッドを演算するための手順を記載する。
混合ピラミッドが与えられると仮定した場合、アルゴリズム2は、これらのピラミッドを考慮する修正された融合処理を表す。なお、各ピラミッドレベルiに対して、出力は参照レベルで初期化される。その後、拡張フレームは、連続して処理される。各拡張値L (x,y)は、出力ピラミッドの現在のコンテンツと比較される。そして、各拡張値がより大きい場合、各拡張値は、その関連した重み(混合されたピラミッド)に従って混合される。
この処理の重要な特性は、その処理がアルゴリズム1を直接的に一般化していることである。これは、全ての割り当てられた混合値が1であるどんなピラミッド位置に対しても、両方のアルゴリズムの出力が同じであるためである。このアルゴリズムの背後にある考え方は、元の公式のように、新たな情報が現在の出力値より大きい場合には新たな情報を考慮するのみであるというところにあり、これは、フレームが出力ピラミッドにおいて現在は示されていない情報を含有するという我々の指摘である。しかし、関連した混合値が1より小さい場合には、混合値に基づいたこの新たな情報の効果を制限する。これは、混合値が減少するようにこれらの細部の緩やかな減衰を効果的にもたらし、より平滑な融合結果を生成する。
Figure 2012515493
アルゴリズム1:基本的な輝度融合処理
C 混合ピラミッドの生成
次に、拡張フレーム混合ピラミッドを生成するために用いられるプロセスについて説明する。このプロセスでは、拡張フレームの適応型ラプラシアンピラミッド:L、L、適応型ラプラシアンピラミッドに関連する二値ミスマッチマップ:M、M2、および時間重み:W、Wが入力される。そして、このプロセスは、0と1との間の混合値を含む、LおよびLと同じサイズの一組の混合ピラミッドP、Pを出力する。時間重み(重み係数)は、このプロセスでの拡張フレームピラミッドにおける相対的なピクセルの寄与を規定するために用いられる。
混合ピラミッドの初期化は、ミスマッチマップを無視し、かつ、時間重みのみを考慮することによって行われる。(i、j)を空間位置、kをピラミッドレベルとしたときに、ピラミッド中のすべてのピクセル位置(i、j、k)に対して、まず最初に、この位置が0、1、または2つの拡張ピクセルによってカバーされるか否かが判定される(これは、2つの拡張ピラミッドが規定されている領域を前提とする)。続いて、第n拡張フレームの混合値が次の式により決定される。
Figure 2012515493
ここで、xが規定されているとdef(x)は真となる。このように、(i、j、k)で両方の拡張フレームが規定されている典型的なケースにおいて、混合値は、単に、対応付けられた時間重みとなる(重みは、少なくとも1つが1となるように選択されることに留意されたい。4.1参照)。位置をカバーしていないフレームは、常に混合値0が割り当てられる。そして、1つの拡張フレームが幾つかの位置をカバーしている場合には、混合値1が割り当てられる。このプロセスによれば、少なくとも1つの拡張フレームによりカバーされる任意のピラミッド位置に対して、フレームの1つに混合値1を確実に割り当てることができる。
Figure 2012515493
アルゴリズム2: 混合ピラミッドを用いた輝度融合
各拡張フレームが初期混合ピラミッドを有した時点で、次のように、対応するミスマッチマップが混合ピラミッドに組み込まれる。最初に、二値ミスマッチマップmの多重スケール代表値Mが演算される。このプロセスは、標準的なガウシアンピラミッド構造に似ている。しかしながら、このプロセスは、(浮動小数点結果を出力する)軽減処理それぞれに二値閾値処理が続き、そこでは閾値は0.5であり、出力が二値に戻される、という点においてガウシアンピラミッド構造と相違する。このプロセスは以下の式で示される。
=m,Mk+1={reduce(M)>0.5}.
次に、この二値ピラミッドの各レベルが、ガウシアンカーネルを用いて平滑化される。このとき、各ピラミッドレベルのサイズに適合する減少標準偏差値σ=σ・2−kが用いられる。
Figure 2012515493
演算を完了するために、ピクセルごとに、(17)で演算された初期混合ピラミッドを、平滑化されたミスマッチピラミッド(平滑化処理)により積算する。これによりプロセスが終了する。
ある典型的な実施形態において、ミスマッチ検出器が、それぞれに露光する画像に対して7×7ブロックで動作する。拡張フレームに対して露光補償を行った後、4.3で説明したように、各フレームに対して適応型ラプラシアンピラミッドが演算される。これらのピラミッドにおける一組の対応するピクセルそれぞれに対して、(4)で規定されるように、7×7の近傍間で正規化相関が演算される。このとき、境界となるピクセルに対して左右対称のパッディングが用いられる。また、(5)で規定されるように、2つの7×7の近傍それぞれの局所活動量が演算される。この典型的な実施形態において、ピクセルは、正規化相関が(a)で示す値以下であり、かつ、両ブロックの局所活動量が(b)で示す値以上であれば、動作を有するものと規定される。
Figure 2012515493
Figure 2012515493
このとき、k=1、2、,,,、Kは、精細から粗へのレベル番号である。以下の(c)の選択は、[0、1]の範囲内の強度値を想定している。
Figure 2012515493
二値ミスマッチピラミッドが形成されると、それが二重表現に変換され、すべてのレベルの寄与を累積するためにラプラシアン再構成処理が行われる。最終的なミスマッチマップが、>0.9(少なくとも1つのスケールで検出された動作)を有する各ピクセルを1に設定することにより得られる。
この典型的な実施形態において、同様に露光するフレームに対するミスマッチ検出器が、各フレームに対して適応型ガウシアンピラミッドを演算することにより動作を開始する。これらのピラミッドにおける対応するピクセルの組ごとに、その差(絶対値)が演算され、2つの予め規定された閾値と比較される。これにより2つの二値ミスマッチピラミッドが生成されるが、その2つの二値ミスマッチピラミッドは、フレームごとに1つである。二値ミスマッチピラミッドは、その後、上述したように、2つのミスマッチマップに累積される。使用される閾値は、輝度値が[0、1]の範囲内を想定しており、以下の式により与えられる。
Figure 2012515493
ここで、T=0.08、α=0.03は一定である。w、wは、2つのフレーム(4.1参照)に割り当てられる、0と1との間の時間重みである。時間的に近いフレームの重みは大きくなるため、このフレームには大きな閾値(T以上)が与えられ、2つ目のフレームには低い閾値(T以下)が与えられる。
4.3.3 出力輝度の再構成
4.3.2で説明したプロセスは、結果的に、出力輝度チャンネルを表す1つの統合ラプラシアンピラミッドをもたらす。融合結果を得るために、I=L、および、Ik−1=expand(I)+Lk−1によって与えられる標準ラプラシアンの再構成プロセスが利用される。プロセスの出力はI=Iである。ここで処理されるラプラシアンピラミッドには規定されない値が含まれないため、標準拡張処理が用いられる。
4.4トーンマッピング、および強度補償
ラプラシアン再構成プロセスに由来する融合輝度チャンネルは、典型的に、基準の飽和領域に対して拡張フレームが寄与した情報の量に応じて、有効強度範囲を超えたチャンネル値を含む。実際に、基本的な融合処理を用いて2つの画像を融合したときに、 [0、1]の範囲の入力画像に対する理論的な出力強度は[−1、2]の範囲である。実際に、入力に対する出力強度の範囲は、約50%の改善が見込まれる。拡張フレームの露光が十分ではない場合、出力範囲は[0、1.5]付近となる。拡張フレームの露光が十分な場合、出力範囲は[−0.5、1]付近となる。そのような強度範囲を、中ダイナミックレンジ(medium dynamic range(MDR))と称する。
表示可能な結果を得るために、標準画像装置から要求されるように、中ダイナミックレンジを低ダイナミックレンジにマッピングする強度圧縮が用いられる。この処理の主要な部分は、高ダイナミックレンジ(higher-dynamic range(HDR))のトーンマッピング技術に類似したトーンマッピング方法である。そのトーンマッピング方法は、空間的に適用される方法で強度範囲を圧縮し、より飽和した領域に対して、より強い圧縮をかける。この処理の目的は、参照フレームの全体的な見た目を維持するために中間色調を保持しつつ、画像のダイナミックレンジを低くすることにある。同時に、飽和した領域が、コントラストの損失を最小限にしつつ、有効強度範囲に近づけられる。トーンマッピング処理を適用した後、その結果に対して簡易な強度圧縮が追加的に行われ、出力が[0、1]の範囲の値のみを含めることができる。
4.4.1 MDRトーンマッピング
範囲外の領域が範囲内の領域よりも圧縮されるように、空間的に適応されるトーンマッピング処理が用いられる。これは、トーンマップ結果を生成するために、強度画像から抽出される平滑化圧縮マップを演算する、という考えである。ここでは、この圧縮マップが低周波数のみを含む限りにおいて、局所的なコントラストが維持され、無視しうるようなアーチファクトが起こる、という主要な観測結果が得られた。実際に実行すると、圧縮マップは正値のみを含み、範囲外の領域は圧縮が大きく、範囲内の領域は小さく(またはゼロ)という演算結果になった。
全体的なトーンマッピング処理がアルゴリズム3に記載されている。この処理は、[0、1+δ]の範囲のMDR画像に対して記述されたものである。しかしながら、同様の方法が、[−δ、1]の範囲の画像に対しても記述されうる。この処理はまた、HDR画像をLDR画像にトーンマッピングするためにも用いられうる。ここに示されるように、基本的なトーンマッピング処理は、画像のラプラシアンピラミッドを構築する処理、このピラミッドの最も粗いレベルに対して圧縮マップを適用する処理、トーンマップ結果を再構成する処理を含む。これは、ピラミッドの最も粗いレベルに対して圧縮マップを演算することによって、低周波数要素のみを含むようにする、という考えである。これにより、再構成が可能な圧縮ピラミッドが生成される。
トーンマッピング処理は、飽和点v、および強度係数cという2つのパラメータを受け入れる。飽和点vは、画像のための飽和マップSを規定するために用いられる。飽和マップsは、画像がvよりも低い場合はゼロを含み、画像がvよりも大きい場合は飽和量I−vを含む。ここで、このマップは、軽減処理を繰り返すことで、最も粗いラプラシアンピラミッドレベルのサイズまで軽減される。アルゴリズムでは、この処理は、ガウシアンピラミッドの演算(G of S)として記述される。しかしながら、実際には、ピラミッド(G)の最も粗いレベルのみを必要とする。
Figure 2012515493
アルゴリズム3:[0、1+δ]の範囲を有する画像のMDRトーンマッピング
マップGは、全体的に飽和点を下回る領域では明らかにゼロであり、飽和点を上回る領域で徐々に増加していく。このマップの注意を引く特性は、その値が、飽和ピクセルの数、および飽和した値の両方に比例するという点にある。明らかに、範囲外の値が多数含まれる領域では、範囲内の値が支配的で、かつ飽和ピクセルの数が僅かしかない領域に比べて、より大きな圧縮が求められる。同様に、大部分の値が範囲外であるときには、大部分の値が範囲内である場合よりも、より強い圧縮が求められる。
マップGは、圧縮マップのベースとして用いられる。実際の圧縮では、マップGをある強度係数c(典型的には1に近い)により積算することが依然として望まれる。強度係数cは、適用されるトーンマッピングの量を制御する。大きな値は、小さな値に比べて、範囲外の領域をより大きく圧縮する。
4.4.2固定圧縮
上記のトーンマッピング処理は、出力値が[0、1]の範囲となることを保証するものではなく、たいてい範囲外の値が幾つか残る。それゆえ、適応型トーンマッピングプロセスを、図5に示す固定的な広範囲圧縮機能で補完する。この圧縮機能は、中位色調範囲では同一(導関数(derivative)=1)であり、高位色調範囲および低位色調範囲では圧縮を徐々に増すように設計されている。こういった機能は、極端な領域ではコントラストを維持することはできず、MDR融合結果に直接適用されると重要な情報を排除してしまう。これに先立つ適応トーンマッピングプロセスは、範囲外の領域を中位範囲ゾーンに近づけることによって、この有害な影響を最小限に抑えることを目的とする。
圧縮機能は2つの機能を用いる。1つは、圧縮が行われない(出力と入力が等しい)中位色調範囲a=(amin、amax)である。もう1つは、[0、1]の範囲に対して1対1にマッピングされる圧縮範囲x=(xmin、xmax)である。上記圧縮範囲を超えるあらゆる値は、0または1に向かって飽和する。圧縮機能は、C−smoothとなるように設計されており、以下の式により与えられる。
Figure 2012515493
この構成により、fとamin、amaxにおける導関数とが連続性を有する。一定値α、β、α、βは、fおよびxmin、xmaxにおけるfの導関数に対して連続的な制約を課すことにより決まり、これにより、パラメータの組それぞれに対して2つの線型方程式が導かれる。
上記の圧縮機能は、平滑化を保証するものの、単調性を保証するものではないことに留意されたい。この単調性は、圧縮機能が要求するものとして極めて重要である。しかしながら、単調性は、複数の、aおよびxの合理的選択により得られる。過度に複雑化することを避けるため、ここでは全ての入力結果に対してこれらのパラメータを固定している。
4.5. 色チャンネルの融合
4.5.1 基本的プロセス
カラー(色光度)チャンネル(すなわち、拡張フレーム、歪んだ拡張フレーム、補間参照フレーム、および参照フレーム)の融合は、最も精細なスケールで直接行われる。基本的な考えは、その位置において最も飽和していないフレームからのピクセルごとの色度情報を得る、というものである。というのも、それが最も信頼できる測定結果を期待できるためである。定量的には、中位色調値からの輝度の距離として、ピクセルごとに信頼度(飽和信頼度マップ)を規定する。
Figure 2012515493
輝度0.5付近のピクセルの信頼度が最も高く(1に近く)、輝度が飽和状態に近づくと0にまで減少する。こうして、最も高い信頼度のフレームからピクセルごとの色情報が取得される。これが、最も正確な情報を提供することになる。このように、色光度チャンネルの融合は、色融合マップおよび飽和信頼度マップに基づいている。
4.5.2 色融合マップ
上述のプロセスは、単純なケースでは十分に機能する。しかしながら、提案するプロセスには、異なる拡張フレームで異なる基準領域をカバーするとき、フレーム間で色のバランスが異なる場合に円滑な色の移行を確実に行えない、という大きな欠点を有する。また、上記プロセスは、ミスマッチマップ、時間重み、または他の現象を受け入れることができない。
これを説明するため、それぞれの拡張フレームに関連する色融合マップを受け入れるよう融合プロセスを一般化する。色融合マップは、フレーム中のピクセルごとに[0、1]の範囲で重み付けする。その重みは、融合結果に対する寄与を表す。色融合マップは、基準とのミスマッチの程度、フレームの時間重みなどの異なる特性を表現することができる。特に、異なる拡張フレーム間で円滑な色の移行を実現するために、ある拡張フレームが他の拡張フレームと重畳するときはいつでも、拡張フレームにおける規定された領域の境界付近の色融合マップに対して低減された値が割り当てられる。
次のセクションで、色融合マップの構築について説明する。これらのマップを所与のものとしたうえで、融合プロセスは次のように実行される。(19)で規定されるように、参照フレーム、および2つの拡張フレームそれぞれについての飽和信頼度マップを、conf0(x,y)、conf1(x,y)、及びconf2(x,y)とする。また、C0(x,y)、C1(x,y)、C2(x,y)が対応する色融合マップであるとする。ここで、参照フレームの場合には、以下のように定義する。
Figure 2012515493
最後に、参照フレームおよび2つの拡張フレームの色度チャンネルを以下とする。
Figure 2012515493
ある位置(x、y)における融合色度{a(x、y)、b(x、y)}を明確に表すために、次のように、まず最初にその位置における信頼度値を減少順に分類する。
Figure 2012515493
このとき、
Figure 2012515493
は、各フレームのインデックス(このなかで、4.5.1の基本的プロセスで説明したように、最大信頼度を有するフレームを選択するプロセスを一般化していることに言及しておく)である。ここで融合結果は反復する凸状の色入力の組み合わせとして与えられ、線形重みが色融合マップから抽出される。
Figure 2012515493
信頼度値confk(x,y)は、演算中に明示的に現れないが、加算条件の順序を決定するうえで重要な役割を果たす(confk(x,y)は、インデックスi、i、iを決定する。)。演算そのものは簡潔に説明される。最初に、Ci0=1と仮定される。これは、位置(x、y)における最も飽和していないフレームIに色融合重み1が割り当てられることを意味する。この場合、上記演算は、(1−Ci0)=0であるため、この最も飽和していないフレームから色を得ることになる。こうして、すべての残りのフレームが無視される。そのため、このプロセスの重要な特性は、色融合重みがすべて1であるときはいつでも、プロセスが最適な(基本的)処理になるという点である。
i0<0のとき、フレームiからの色情報が部分的にのみ用いられる。Ci0=0という制限において、たとえ信頼度が高くとも、このフレームを完全に無視する。これは、例えば、その位置でミスマッチが検出されたときに起こりうる。最後に、0<Ci0<1に対して、演算(20)は、単に、融合結果が、iを除く全てのフレームの(x、y)における反復融合であり、続いて、その関連する重みに基づいてiからの情報と組み合わされることを意味する。なお、本明細書中においてCi0は、
Figure 2012515493
を意味する。
上記プロセスの他の望ましい特性は、当該プロセスが、容易に、任意のフレーム数に一般化するという点である。当該プロセスは、基本的に、最も飽和していないフレームからの色情報を用いて始まり、より飽和しているフレームからの色を徐々に追加していき、色融合重み1に対応付けられた最初のフレームに到達すると終了する。このフレームよりも飽和しているすべてのフレームは、結果が不要に劣化しないよう、融合から排除される。
4.5.3色融合マップの演算
拡張フレームの色融合マップの演算は、平滑境界マップから始まる。このマップは、フレームの規定された領域外にゼロを含み、規定された領域に1を含み、境界の内側部分では0から1へ穏やかに移行する。0から1への移行は、所定の距離を拡げる。このマップは、融合プロセスにエラーを発生させないためにフレームの所定領域を超えると厳密に0であり、こうして上記移行はフレームの所定領域全体において円滑に行われるという点が重要であることに言及しておく。このマップの演算はユークリッド距離変換を用いて行われうる。ユークリッド距離変換は、入力として二値マップを受け入れ、かつ、各ピクセルとその最も近い非ゼロとのユークリッド距離を含むマップを出力する。ユークリッド距離変換は、線形時間で効率的に演算されうる。そしてこの変換を用いて、アルゴリズム4に示すように、平滑境界マップの演算が直接的になる。
拡張フレームの平滑境界マップが演算されると、平滑境界マップは正規化されて、少なくとも1つの拡張フレームにカバーされるすべての位置において、2つのマップのうち大きい方の値が1となる。この正規化は、少なくとも一方のマップが規定されている位置ではどこでも、2つのマップの最大値によって2つの境界マップをピクセルごとに分割することによって行われる。この正規化プロセスは、拡張フレームに対する最初の色融合マップを生成し、重畳する領域における拡張フレーム間の線形移行を確実にする。
最後の色融合マップは、最初の色融合マップ、CおよびC、および4.2で演算されたミスマッチマップMから取得される。
=C・(M*σ) k=1、2
ここで、*は畳み込みを表す。換言すると、上記演算は、初期の色融合マップをミスマッチマップのガウス分布のぼやけたバージョンでピクセルごとに積算する。上記の、正規化平滑境界マップの値の調整は、拡張フレームと参照フレームとの間のミスマッチの程度に基づく。ミスマッチのぼやけは、融合結果に係る空間的および時間的平滑化を高めることが見出された。
5. 画像の撮像およびコード化
5.1 導入
本発明のこれらの実施形態では、高(あるいは、より高い)ダイナミックレンジの動画像シーケンスを、(1)現在の(LDR)センサ技術により、および、他のケースでは、(2)電力制限を受けた画像プラットフォーム、例えばカメラ付携帯電話、を用いて、撮像し符号化するときの課題を扱ってきた。現在、高ダイナミックレンジの取得に関する課題は、この状況において十分に示されていない。これらの実施形態は、新しい(HDR)画像センサを必要としないシステムおよび方法を含む。その代わりに、上記実施形態は、多重露光を得る。幾つかの実施形態では、重要な演算がカメラ・プラットフォームから外れるように、データの格納/送信が効率的に行われる。さらに、幾つかの実施形態では、レガシーデコーダで再生される、条件を満たす動画像シーケンスの効率的な表現が行われる。
5.2 典型的な実施形態
典型的な実施形態には以下の要素が含まれる。
1.カメラセンサモジュールが、ホストプロセッサにより初期化され、画像データを撮像し、その画像データをプロセッサに送信する。この画像データは、第1露光設定として規定される、ほぼ固定した時間間隔での複数のLDR参照フレームを有する。ここで、その画像データは、例えば、カメラセンサ内において、ホワイト・バランス、非モザイク化、ガンマ補正、あるいは、標準色空間への変換などの幾つかの処理を経てもよい。状況に応じて、カメラセンサモジュールは、ホストコンピュータに対して、その構成を説明するメタデータを送信する。
2.ホストプロセッサは、画像データを圧縮、格納する。データは、次に、格納または第2装置に送信される。状況に応じて、メタデータが、格納または第2装置に送信される。
3.ホストプロセッサは、センサモジュールから継続してデータを受信し、その画像データを圧縮、格納する。状況に応じて、メタデータが、格納または第2装置に送信される。
4.定期的に、ホストプロセッサは、画像センサが、第2露光設定として規定される、代わりとなる露光値(あるいは、代わりとなる一連の値)を用いるよう要求する。カメラモジュールは、ホストプロセッサに対して、結果として得られる拡張画像データを送信する。
5.ホストプロセッサは、第2装置に対して、拡張画像データを圧縮、送信/格納する。状況に応じて、ホストプロセッサは、第2装置に対して、画像センサの構成を記述するメタデータを送信/格納する。状況に応じて、ホストプロセッサは、第2装置に対して、オリジナルの露光値における現在のフレーム表現を送信/格納する。
6.続いて、ホストプロセッサは、画像センサが元の露光値に戻ることを要求する。画像センサは画像データを送信し、プロセスが上記2に戻る。
デコーダにおいて、第2レガシー装置は、拡張情報を無視し、デフォルト露光または露光方法に対応する画像シーケンスを再構成する。しかしながら、技術革新した第2装置におけるデコーダは、この追加的な拡張情報を抽出し、その拡張情報を、オリジナルシーンのダイナミックレンジを拡張するために利用する。
典型的な実施例はまた、次の観点を含む。
1.多重露光を、1つのコード化された映像ビットストリームに交互配置するシステム。
2.携帯電話またはLDRプラットフォームにおいて多重露光を撮像し、下位互換性を有する方法で当該データを送信し、表示のためにより高ダイナミックレンジの画像シーケンスを再構成するための高度復号化プロセスを使用するシステム。状況に応じて、幾つかの実施形態では、より高度な電力処理に対して従順性を有する第2装置において、より高いダイナミックレンジの再構成を実行する、という観点を含む。
3.携帯電話においてビットレートおよび電力消費を軽減するための、代わりとなる(拡張)露光値の低時間サンプリングの使用。
4.画像センサからのメタデータを含むカメラ・メタデータの取得と送信。特に、1以上の、ホワイトバランス、非モザイク化、ガンマ補正、露光値、利得値、自動露光方法、自動利得方法、色空間変換方法、および、カメラセンサモジュール内でのプロセスを記述する他のパラメータの取得と送信。
5.異なる露光を含むシーケンスの効率的符号化のためのシステムおよび方法。さらに、幾つかの実施形態では、レガシーレコーダによって唯一の露光値を再構成する効率的なコード化処理を含む。
5.3システムの説明
本発明に係る幾つかの実施形態は、カメラセンサと、取得システムとを含む。これらのシステムは、基準ダイナミックレンジ・画像センサとホストプロセッサ、または、他の必要な制御インターフェースとを含む。本発明の幾つかの実施形態は、コード化システムを含む。このシステムは、画像データの効率的な表現に関与する。さらに、このシステムは、拡張露光を復号化することができず、また、レガシーレコーダによって見ることができるように、画像シーケンスの格納に関与する。その一方で、単一露光値(あるいは、方法)に関連する、好適な品質を有する画像シーケンスがレガシーデコーダにより出力される。本発明の幾つかの実施形態では、さらに高ダイナミックレンジ画像を生成するために拡張露光を活用する高ダイナミックレンジ再構成システムを含む。
この説明において、一連の画像フレームを含む画像シーケンスの圧縮および表現は、異なる露光値または自動露光計算方法に対応するものと考える。例えば、図1に現れる画像シーケンスは、信号入力を表現する。この図1において、第1の一連のフレーム50、54、56、60は、第1露光設定または露光計算方法によって得られる。さらに、第2のフレーム52、58は、第2露光設定または露光計算方法によって得られる。
幾つかの典型的な実施形態において、符号化システムは、レガシー装置(サポートデコーダ)によりサポートされる映像符号システムを用いる露光計算方法、またはデフォルト(第1)露光値に対応するフレームを符号化することで開始する。レガシーシステムの例としては、H.264/AVC, MPEG-2、およびMPEG-4、同様にその他が含まれる。このプロセスの出力は、図6に示される、レガシービットストリーム62と称される。
図6において、レガシービットストリーム62は、時間位置(例えば、t+1、t+N+1)に対して、他の(第2)露光に対応する画像データを含まない。これは、多くの映像コード化システムで行われることであり、デコーダは、選択的に、これらのフレームを合成するために時間的補間を行う。しかしながら、他の実施形態において、この時間的補間プロセスは、符号化している間に行われる。幾つかの実施形態において、このときビットストリームに“スキップフレームを”挿入する符号化プロセスが例示される。スキップフレームは、先の時刻から現在の時刻に画像強度値をコピーするビットストリームの指示として規定される。当然に、時間的補間は他の方法を用いることも可能である。他の方法には、補間フレームを構成するために隣接する時間フレームからビットストリーム情報、例えば、運動ベクトル、コード化モードなど、を用いるプロセスと同様に、フレームを補間し、続いて、そのフレームを明示的にコード化するプロセスも含まれる。時間的補間を組み込む典型的な符号化システムが図7に示される。補間されたフレーム64・65はそれぞれ、拡張フレーム52・58が取り込まれたときのタイムスロットに対応する。
レガシービットストリーム62の符号化を検討したところで、拡張データ52・58の表現を検討する。幾つかの実施形態において、データは、レガシーデコーダによって無視されうるように符号化される。これは、拡張ビットストリームを生成することによって実現される。幾つかの実施形態において、拡張ビットストリームおよびレガシービットストリームは、次に、ユーザデータマーカ、代替となるNALユニット値、あるいは当業者にとって周知の方法を用いて交互配置される。あるいは、ビットストリームは、より大きな輸送容器内の異なるビットストリームとして多重化される。もちろん、ビットストリームは、別々に送信され、あるいは格納されてよい。
拡張層データを効率的にコード化することにより性能が向上する。幾つかの実施形態において、他の時刻またはレガシービットストリームからの予測なしに拡張フレームを符号化する。残念ながら、この方法は、映像コード化効率の観点で効率は良くない。実施形態の第2の方式において、図8に示すように、参照フレームとしてレガシービットストリーム中のフレーム50、56を用いて拡張フレーム52、58が符号化される。実施形態の第3の方式において、図9に示すように、参照フレームとして拡張ビットストリーム中の図示しないフレームを用いて拡張フレーム72、78が符号化される。レガシービットストリーム75は、補間フレーム84、86とともに、デフォルト露光フレーム70、74、76、80を含むことに留意されたい。
さらなる実施形態において、フレーム間およびビットストリーム間予測が用いられる。これらの実施形態の幾つかにおいて、1つの露光値で取り込まれたフレーム(第1設定参照フレーム)から第2露光値で取り込まれたフレーム(第2設定参照フレーム)を予測するマッピングプロセスが可能になる。この技術は、重み予測方法の符号化効率を改善する、他の新規な観点を有する重み予測として知られるプロセスを有する。図10に示されるこれらの実施形態は、予測するために、あるいは、露光補償フレーム92、98(つまり、補償映像シーケンス)を生成して、そこから拡張フレーム92、98を予測するために露光補償プロセスを用いる。他の拡張フレームもまた、拡張フレーム92、98を予測105するために用いられうる。再び、レガシービットストリーム95は、補間フレーム104、106とともに、デフォルト露光フレーム90、94、96、100を含む。
図10に関連して記載されるこれらの実施形態を用いて、レガシーデコーダは、レガシービットストリーム95を復号化し、第1露光値または方法に対応する映像シーケンスを出力する。拡張ビットストリームを復号化することが可能なデコーダは、図1の画像シーケンスに対応する映像シーケンスを出力することができる。幾つかの実施形態は、将来の予測に用いる拡張フレームを格納するためのピクチャバッファを備える。さらに、幾つかの実施形態では、拡張ビットストリームを復号化することが可能なデコーダは、拡張フレームの時刻に対応するレガシービットストリーム中に現れるフレームを再構成することはない。
6. メタデータに基づく実施形態
6.1 序論
携帯電話等に設けられるモバイルビデオカメラは、一般に、ダイナミックレンジが低く、実際に全てのダイナミックレンジを捕捉することはできない。一般に、消費者は、明るさが時間的に不定に変化する環境下でビデオを使用するため、カメラは、露光量を変化させて低ダイナミックレンジを補償する必要がある。露光量の変化は、画質を向上させるために有効である。さらに、露光量の変化は、表示装置において、さらに大きなダイナミックレンジの表示を抽出するために有効である。これは、第1露光設定メタデータにおいて捕捉されたフレーム(第1構造設定フレーム)を投影するマッピングプロセスを含むことができる。第1露光設定メタデータは、第2露光設定メタデータにおいて捕捉されたフレーム(第2設定フレーム)に関連する第1露光設定パラメータを示しており、第2露光設定メタデータは、第2露光設定パラメータを示している。残念ながら、このダイナミックレンジの変化は、コード化の効率を低下させる。その結果、限定された帯域幅の下で映像の質が低下する。このため、結局、画質が低下し、画像処理において、より高いダイナミックレンジの表示に回復させることが不可能となる。
重み付け予測は、露光量を変化させてシーケンスを効率的にコード化することが可能な現行の方法である。重み付け予測は、映像コーデックの本質的な手段である。これは、参照フレームをスケーリングして、予測エラーを低減させることによって機能する。それゆえ、映像コード化の効率を向上させることができる。しかしながら、重み付け予測には、2つの重大な欠点がある。すなわち、(1)モバイルのコード化に通常採用されている映像コード化規格のベースラインプロファイルに適用できないこと、および、(2)重み付け予測を利用するための演算負荷が非常に大きいこと、である。
6.2 要約
本発明の実施形態は、カメラセンサメタデータを利用することにより前処理および後処理の工程を実行して、フレーム間の予測エラーを低減させ、これによりコード化の効率を向上させる映像コード化システムを含む。重み付け予測とは異なり、この方法は、映像コーデックのあらゆるプロファイルに適用できる。
いくつかの具体的な実施形態は、以下のステップ、すなわち、
・露光量等のカメラセンサメタデータを取得するステップ
・必要に応じて、映像の露光補償を実行するステップ
・この補償結果を符号化するステップ
・反転補償の利用のために、センサメタデータ情報をデコーダに転送するステップ、
・デコーダにおいて、元の露光に変換するステップ
を含む。
本発明の実施形態は、露光補償のための前処理および後処理を実行するために、カメラセンサメタデータ情報を利用する。これらの実施形態は、ステップを実行するためにコーデックの変更を必要としない。
6.3 詳細な実施形態
携帯電話のビデオカメラのような、通常の一般向けの映像捕捉装置を使用する場合、露光量の変化は、コード化された映像の質に影響を与える。本発明の実施形態は、コード化の効率を向上させ、コード化された映像の質を改善するために、カメラセンサデータを利用する。
図11Aに示すように、一般的な映像捕捉装置(従来技術)は、センサ110、信号処理部(DSP)116および映像コーデック部122を備えている。カメラセンサ110は、未補正の映像データ112を捕捉して、DSP116に送信する。DSP116は、未補正の映像データ112を処理して、RGB、YUVまたは他のフォーマットの映像120を出力する。また、DSPは、センサ110に制御信号114を与えてもよい。DSP116の典型的な機能として、フォーカス、露光制御、ホワイトバランス、ズーム/パン/傾き、フリッカ制御などが含まれる。カメラセンサメタデータ118は、露光(シャッター速度、口径、および利得)、フォーカス、フリッカ、ホワイトバランス等を含んでおり、DSP116からレジスタを読み出すことによって利用できる。このカメラセンサメタデータ118は、映像コード化には利用されない。
6.3.1 露光補償を用いた映像コード化システム
本発明の典型的な映像捕捉装置は、図11Bに示すように、センサ110、信号処理部(DSP)116および映像コーデック部122を備えている。カメラセンサ110は、未補正の映像データ112を捕捉して、DSP116に送信する。DSP116は、未補正の映像データ112を処理して、RGB、YUVまたは他のフォーマットの映像120を出力する。また、DSPは、センサ110に制御信号114を与えてもよい。DSP116の典型的な機能として、フォーカス、露光制御、ホワイトバランス、ズーム/パン/傾き、フリッカ制御などが含まれる。カメラセンサメタデータ118は、露光(シャッター速度、口径、および利得)、フォーカス、フリッカ、ホワイトバランス等を含んでおり、DSP116からレジスタを読み出すことによって利用できる。それに代えて、または、それに加えて、カメラセンサメタデータは、センサ110から直接取得されてもよい。既知の装置と異なり、このセンサメタデータ118は、124を介して映像コーデック部122に送信され、映像コード化に利用される。
本発明の実施形態は、コード化の効率を向上させるために、映像コーデックにおいてカメラセンサメタデータを利用する符号化システムを備えている。この実施形態は、露光補償のために、単一の前処理および後処理の工程を有してもよい。図12は、典型的なシステムを示す図である。映像シーケンスであるシーケンスB130は、映像センサによって捕捉され、前処理露光補償部134に送信される。センサメタデータも、前処理露光補償部134に送信される。センサメタデータ132を用いて、シーケンスBが前処理され、シーケンスA136が得られる。シーケンスA136は、通常の符号化のため、エンコーダ138に送信される。続いて、符号化されたシーケンスAは、デコーダ140に受信され、補償シーケンスとして復号化される。これにより、復号化されたシーケンスA’144が生成される。シーケンスA’144は、量子化エラーまたは他の影響により、シーケンスAと異なってもよい。また、センサメタデータ132も、135を介してデコーダ側に送信され、後処理反転露光補償部142に受信される。後処理反転露光補償部142はまた、デコーダ140からシーケンスA’144を受信する。後処理反転露光補償部142は、センサメタデータを用いて補償特性を決定し、反転露光補償を実行する。これにより、シーケンスB’146が生成される。
典型的な実施形態は、以下のステップ、すなわち、
1.露光量等のカメラセンサメタデータ132を取得するステップ
2.必要に応じて、映像に対して露光補償部134を実行するステップ、言い換えれば、露光変動(B)を有するシーケンスを露光変動Aを有するシーケンスに変換するステップ
3.この補償されたシーケンスA138を符号化するステップ
4.反転補償に用いるため、センサメタデータ情報135をデコーダに送信するステップ
5.デコーダ側において、142がコード化されたシーケンスA’を元の露光B’に変換するステップ
を含んでもよい。
露光補償を実行することにより、露光変動によって生じるフレーム間の差異を低減することができる。これにより、後の映像符号化におけるフレーム予測誤差を低減することができ、それゆえ、コード化の効率が向上する。なお、これらの典型的な実施形態では、ステップ(2)と(4)との間に、露光補償が線形空間において実行される。これは、利用可能な映像データがすでにガンマ補正されている場合、当該映像データを露光補償の前に先ず線形空間に戻して変換する必要があることを意味している。補償後、映像データは、コード化または視覚化のために通常のガンマ補正空間に変換される。
典型的なガンマ変換および反転ガンマ変換は、式(21)および(22)によって与えられる。パラメータは、DSP部によって得られる。
Figure 2012515493
Figure 2012515493
露光補償および反転露光補償は、(23)および(24)によって表現される。
Figure 2012515493
Figure 2012515493
ここで、factorは、口径、シャッター速度および利得などの、カメラ露光センサデータによって決定される。範囲外のデータを防止するため、適当なスケーリングがfactorに含まれてもよい。
露光補償の目的は、両方のフレームが同一の参照露光(すなわち、同一の口径、シャッター速度および利得)によって捕捉されているかのように、捕捉された輝度を調整することである。光学の理論によれば、センサによって捕捉された輝度は、シャッター速度に比例し、(fstop単位での)口径の二乗に反比例し、利得に比例する。したがって、factorは、以下のように表現できる。
Figure 2012515493
ここでfactorは、単にカメラセンサメタデータによって決定され、電力消費フレーム適合アルゴリズムは要求されない。もちろん、同様の原理で、前処理を改善し、コード化する間の予測エラーを低減するために、さらに複雑な前処理のアルゴリズムも、使用することができる。
映像シーケンスを再構成するために、135を介してカメラメタデータをエンコーダ138からデコーダ140に転送する。ある実施形態は、これを達成するために、いくつかのメカニズムを採用してもよい。ある具体例では、露光および他のカメラメタデータ値は、ビットストリーム内でユーザデータとして転送される。第2の具体例では、露光および他のカメラメタデータ値は、暗にトーンマッピング曲線とともに転送される。この曲線は、エンコーダにおいて作成されており、どのようにして復号化された輝度値をマッピングして輝度値を出力するのかをデコーダに指示する。その結果、トーンマッピング曲線は、デコーダに転送される。ある具体例では、H.264/AVC規格で定義されているように、トーンマッピングSEIメッセージが採用されている。
7. 重み付け予測の実施形態
7.1 序論
重み付け予測は、モバイルアプリケーションにとって、2つの重大な欠点を有している。すなわち、(1)モバイルの符号化に通常採用されている映像コーディングプロファイルに現在対応していないこと、および(2)最新の手法では、多重符号化を行って、重み付け予測の歪み率(RD)の損失を非重み付け予測と比較するという事実により、重み付け予測を利用するための演算負荷が非常に大きいこと、である。この多重符号化は、さらなる演算能力、メモリの処理能力の増大、およびさらに高い消費電力を必要とする。
本発明のこれらの実施形態は、重み付け予測が映像コーデックによって動作可能なシナリオに適用できる。この場合、モバイルアクイジションでの主な試みは、重み付け予測の機能性を利用するために必要な増大した処理となる。この実施形態は、重み付け予測のパラメータを決定するための効率的な方法を含む。これらの方法は、パラメータを決定するためにカメラセンサメタデータを利用してもよい。なお、これらの方法のいくつかは、重み付け予測のコード化をサポートする映像コード化システムにおける変更を必要とするものではないと理解すべきである。
本発明のこれらの実施形態は、カメラメタデータの利用による、重み付け予測パラメータの効率的な選択のための方法およびシステムを含む。当該方法は、カメラ露光に起因する映像明度における経験的変動を変更するシナリオに役に立つ。
模範的な方法は、以下のステップ、すなわち、
(a)カメラセンサメタデータを取得するステップ
(b)カメラ露光値がフレーム間で変動し閾値を超える場合、重み付け予測コード化手段を動作可能にするステップ
(c)カメラメタデータから重み付け予測パラメータを決定するステップ
を含む。
従来の方法と異なり、これらの実施形態は、重み付け予測処理を動作可能にして制御するために、カメラセンサメタデータ情報を利用する。
7.2 典型的な実施形態
重み付け予測の処理は、参照フレームから現在のフレームを予測するために使用される値において機能する。重み付け予測は、動き補償の前に、乗法重み付け因子と参照フレームに対する加法オフセットとを適用することによって実現してもよい。その目的は、現在のフレームと参照フレームとの間の動き補償予測エラーを低減することであり、以下のように表現できる。
Figure 2012515493
ここで、ppred(x)は、現在の映像のx座標における予測されたピクセルであり、pref(x’)は、参照映像の動き補償された位置x’におけるピクセルであり、wおよびoはそれぞれ、重み付け因子およびオフセットである。これらのパラメータの選択は、重み付け予測を利用するか否かを決定しなければならないエンコーダにおいて達成される。また、当該エンコーダは、重み付け因子を決定しなければならない。
これらの実施形態は、カメラセンサメタデータを利用する重み付け予測推定方法を含む。これにより、カメラ露光の変化によって生じる映像明度変動の問題が解決される。これは、重み付け予測がモバイルアクイジションの間で有用である場合の一つである。
我々は、取得した画像の明度値がカメラの露光値にどれほど関連しているのかを示すモデルの確立に着手している。カメラの露光値は、シャッター速度およびレンズ口径の組み合わせによって制御される。シャッター速度は、センサが露光する時間を制御する一方、レンズ口径は、レンズを通過する光量を制御する。取得された画像の明度値(BV)は、センサの露光量に比例するため、カメラ露光値に比例する。最終的に取得された画像の明度値に影響を与えうる他の要因は、利得およびガンマ補正である。一例として、シャッター速度、利得、(f−stop単位での)口径およびガンマ(λ)の組み合わせとしての明度値(BV)のモデルを示す。このモデルは、式(26)として表現される。カメラが、取得された画像の明度に影響を与えうる他の画像処理ユニットを有している、または他の制限がある場合、それらも当該モデルにおいて考慮されてもよい。一般に、このメタデータはカメラとは区別され、明度値の変動の監視に利用することができ、エンコーダにおける重み付け予測の制御にも利用することができる。
Figure 2012515493
重み付けパラメータは、現在のフレーム(第1フレーム)の明度値と参照フレーム(第2フレーム)の明度値と(それぞれ、第1明度値および第2明度値)の比率(関係)から決定することができる。
Figure 2012515493
これらの実施形態では、高速の重み付け予測アルゴリズムは、以下のように機能する。
・参照フレームおよび現在のフレームのカメラセンサメタデータ(第1映像フレーム露光メタデータおよび第2映像フレーム露光メタデータ等)を取得する。
・式(26)から明度値の変化を計算する。
・明度値の変化が閾値を超える場合、エンコーダに重み付け予測を選択させる。
・露光量に基づき、式(27)から重み付けパラメータを決定する。
上記の方法は、図13Aおよび図13Bに示すシステムにも利用することができる。図13Aは、前処理および登録フェーズの利用のためのシステムを示しており、図13Bは、融合フェーズの利用のためのシステムを示している。当該システムは、受信部150、分離部152、動き推定部154、動き補償部156、第1補間部158、第2補間部159、時間重み割当部160、ミスマッチ特定部162、輝度融合部164、色光度融合部168、トーンマッピング部166および結合部170を備えてもよい。受信部150は、インターリーブされたフレームシーケンスを受信する。当該フレームシーケンスは、第1露光設定によって捕捉された複数の低ダイナミックレンジ(LDR)参照フレームと、第2露光設定によって捕捉された複数の拡張フレームとを含む。分離部152は、LDR参照フレーム及び少なくとも1つの拡張フレームにおける少なくとも1つの色光度チャンネルから、輝度チャンネルを分離する。動き推定部154は、LDR参照フレームおよび拡張フレームの輝度チャンネル上での動き推定を実行する。動き補償部156は、拡張フレームを上記LDR参照フレームと整列させるために、LDR参照フレームおよび拡張フレームの輝度チャンネル上で動き補償を実行する。第1補間部158は、拡張フレームが捕捉されるたびに、補間LDR参照フレームを生成するために、LDR参照フレーム間での補間を行う。第2補間部159は、LDR参照フレームが捕捉されるたびに、歪んだ拡張フレームを生成するために、拡張フレーム間での補間を行う。時間重み割当部160は、時間重みの値を拡張フレームに割り当てる。ミスマッチ特定部162は、拡張フレームがLDR参照フレームのどこで整列していないかを特定する。輝度融合部164は、拡張フレーム、歪んだ拡張フレーム、補間LDR参照フレームおよびLDR参照フレームの輝度チャンネルを融合する。色光度融合部168は、拡張フレーム、歪んだ拡張フレーム、補間LDR参照フレームおよびLDR参照フレームの色光度チャンネルを融合する。トーンマッピング部166は、チャンネル値が妥当な強度範囲を満たすように、融合された輝度チャンネル上でトーンマッピングを実行する。結合部170は、再構成されたシーケンスを生成するために、融合され、かつトーンマッピングされた上記輝度チャンネルを、融合された上記色光度チャンネルと結合させる。
上述の明細書において用いられた用語および表現は、限定する用語としてではなく、詳細な説明の用語として用いられたものであり、そのような用語および表現を使用は、明細書に開示され記述された特徴またはその一部と等価のものを除外することを意図するものではない。

Claims (17)

  1. 映像シーケンスを復号化する方法であって、
    (a)第1露光設定によって捕捉された複数の低ダイナミックレンジ(LDR)参照フレームと、第2露光設定によって捕捉された複数の拡張フレームとを含む、インターリーブされたフレームシーケンスを受信する受信ステップと、
    (b)上記LDR参照フレーム及び少なくとも1つの上記拡張フレームにおける少なくとも1つの色光度チャンネルから、輝度チャンネルを分離する分離ステップと、
    (c)上記LDR参照フレームおよび上記拡張フレームの上記輝度チャンネル上で動き推定を実行する推定実行ステップと、
    (d)上記拡張フレームを上記LDR参照フレームと整列させるために、上記LDR参照フレームおよび上記拡張フレームの輝度チャンネル上で動き補償を実行する補償実行ステップと、
    (e)上記拡張フレームが捕捉されるたびに、補間LDR参照フレームを生成するために、上記LDR参照フレーム間での補間を行う参照フレーム補間ステップと、
    (f)上記LDR参照フレームが捕捉されるたびに、歪んだ拡張フレームを生成するために、上記拡張フレーム間での補間を行う拡張フレーム補間ステップと、
    (g)時間重みの値を上記拡張フレームに割り当てる割り当てステップと、
    (h)上記拡張フレームが上記LDR参照フレームのどこで整列していないかを特定するミスマッチマップを生成するマップ生成ステップと、
    (i)上記拡張フレーム、上記歪んだ拡張フレーム、上記補間LDR参照フレームおよび上記LDR参照フレームの輝度チャンネルを融合する輝度チャンネル融合ステップと、
    (j)上記拡張フレーム、上記歪んだ拡張フレーム、上記補間LDR参照フレームおよび上記LDR参照フレームの色光度チャンネルを融合する色光度チャンネル融合ステップと、
    (k)チャンネル値が妥当な強度範囲を満たすように、上記融合された輝度チャンネル上でトーンマッピングを実行するトーンマッピング実行ステップと、
    (l)再構成されたシーケンスを生成するために、融合され、かつトーンマッピングされた上記輝度チャンネルを、融合された上記色光度チャンネルと結合させる結合ステップ、とを含む方法。
  2. 上記拡張フレームの上記輝度チャンネル融合ステップは、上記拡張フレームに対して適応型ラプラシアンピラミッドを演算する演算ステップを含む請求項1に記載の方法。
  3. 上記拡張フレームの上記輝度チャンネル融合ステップは、ピクセルごとの最大化を用いて適応型ラプラシアンピラミッドを統合する統合ステップを含む請求項1に記載の方法。
  4. 低ダイナミックレンジ(LDR)画像フレームおよび複数の拡張フレームから拡張ダイナミックレンジ(EDR)画像フレームを生成する方法であって、
    (a)上記拡張フレームおよび上記LDR画像フレームのそれぞれに対してラプラシアンピラミッドを演算するラプラシアンピラミッド演算ステップと、
    (b)上記ラプラシアンピラミッド内のピクセルがピラミッド混合処理においてどの程度用いられうるかを示す、上記ラプラシアンピラミッドに対応する混合ピラミッドを演算する混合ピラミッド演算ステップと、
    (c)上記混合ピラミッドに従って上記ラプラシアンピラミッド間のピクセルごとの最大化を実行することにより、混合されたピラミッドを生成するピクセル最大化実行ステップと、を含む方法。
  5. 上記混合ピラミッドは、上記ピクセル最大化実行ステップ中の上記ラプラシアンピラミッド内の相対的なピクセルの寄与を規定する重み付け係数を含む請求項4に記載の方法。
  6. 上記ラプラシアンピラミッドに時間重みの値を割り当てる割当ステップを更に含む請求項4に記載の方法。
  7. 上記混合ピラミッド上で二値閾値処理を実行する二値閾値処理実行ステップを更に含む請求項4に記載の方法。
  8. 上記混合ピラミッド上で平滑化処理を実行する平滑化実行ステップを更に含む請求項4に記載の方法。
  9. 低ダイナミックレンジ(LDR)画像フレームおよび複数の拡張フレームから色光度チャンネルを融合する方法であって、
    (a)上記拡張フレームのそれぞれに対して色融合マップを演算する色融合マップ演算ステップと、
    (b)飽和信頼度マップを演算する飽和信頼度マップ演算ステップと、
    (c)上記色融合マップおよび上記飽和信頼度マップに基づいて上記色光度チャンネルを融合する融合ステップとを含み、
    上記色融合マップ演算ステップは、
    (i)上記拡張フレームに対して平滑境界マップを演算する平滑境界マップ演算ステップと、
    (ii)上記平滑境界マップのうちの大きい方の値が1となるように、上記平滑境界マップを正規化する正規化ステップと、
    (iii)上記拡張フレームと上記LDR画像フレームとの間のミスマッチの程度に基づいて、正規化された上記平滑境界マップの値を調整する調整ステップと、を含み、
    上記飽和信頼度における値は、その対応する輝度値と、中間色調値との間の差分に関するものである方法。
  10. より高いダイナミックレンジ(HDR)画像を、より低いダイナミックレンジ(LDR)画像にトーンマッピングする方法であって、
    (a)上記HDR画像に対してラプラシアンピラミッドを演算する演算ステップと、
    (b)上記ラプラシアンピラミッドの最も粗いレベルに対して圧縮マップを適用する適用ステップと、
    (c)上記圧縮マップを再構成する再構成ステップと、を含む方法。
  11. 異なる露光画像間の誤登録を検出する方法であって、
    (a)第1露光設定によって捕捉されている第1画像を受信する第1画像受信ステップと、
    (b)第2露光設定によって捕捉されている第2画像を受信する第2画像受信ステップと、
    (c)上記第2画像に関連する上記第1画像上で露光補償を実行する露光補償実行ステップと、
    (d)上記第1画像および上記第2画像のそれぞれに対してラプラシアンピラミッドを演算するラプラシアンピラミッド演算ステップと、
    (e)上記第1画像内のピクセルと、当該ピクセルに対応する上記第2画像内のピクセルとの間で正規化された局所相関を演算する局所相関演算ステップと、
    (f)上記第1画像および上記第2画像に対して局所活動量を演算する局所活動量演算ステップと、
    (g)上記正規化された局所相関および上記局所活動量に基づいてミスマッチマップを用いて上記ラプラシアンピラミッドのレベルを統合する統合ステップと、を含む方法。
  12. 拡張ダイナミックレンジ映像シーケンスを捕捉および符号化する方法であって、
    (a)第1露光設定を用いて、実質的に固定された間隔で複数の低ダイナミックレンジ(LDR)参照フレームを捕捉する参照フレーム捕捉ステップと、
    (b)第2露光設定を用いて、少なくとも1つの拡張フレームを捕捉する拡張フレーム捕捉ステップと、
    (c)サポートデコーダが、上記拡張フレームを参照することなく、映像シーケンス内の上記LDR参照フレームを復号化することができ、かつサポートデコーダが、拡張映像シーケンス内の上記LDR参照フレームおよび上記少なくとも1つの拡張フレームを復号化することができるように、上記LDR参照フレームおよび上記少なくとも1つの拡張フレームを符号化する符号化ステップと、を含む方法。
  13. 上記サポートデコーダは、上記拡張フレームが生じると即座に、上記LDR参照フレーム間にスキップフレームを追加する請求項12に記載の方法。
  14. 拡張ダイナミックレンジ映像シーケンスを捕捉および符号化する方法であって、
    (a)第1露光設定を用いて、複数の第1設定参照フレームを捕捉する第1設定参照フレーム捕捉ステップと、
    (b)第1露光設定パラメータを特定する第1露光設定メタデータを生成する第1露光設定メタデータ生成ステップと、
    (c)第2露光設定を用いて、少なくとも1つの第2設定フレームを捕捉する第2設定フレーム捕捉ステップと、
    (d)第2露光設定パラメータを特定する第2露光設定メタデータを生成する第2露光設定メタデータ生成ステップと、
    (e)上記第1設定参照フレームおよび上記少なくとも1つの第2設定フレーム上で露光補償を実行し、上記第1露光設定パラメータと上記第2露光設定パラメータとの差分を修正することにより、補償映像シーケンスを生成する露光補償実行ステップと、
    (f)上記補償映像シーケンスを符号化する符号化ステップと、
    (g)上記補償映像シーケンスを、上記第1露光設定メタデータおよび上記第2露光設定メタデータと関連付ける関連付けステップと、を含む方法。
  15. 拡張ダイナミックレンジ映像シーケンスを復号化する方法であって、
    (a)複数の補償された第1設定参照フレームおよび少なくとも1つの補償された第2設定フレームを含み、上記第1設定参照フレームに関連する第1露光設定メタデータと関連付けられ、かつ上記少なくとも1つの第2設定フレームに関連する第2露光設定メタデータと関連付けられた補償映像シーケンスを受信する受信ステップと、
    (b)上記補償された第1設定参照フレームおよび上記少なくとも1つの補償された第2設定フレームを復号化することにより、復号化された補償シーケンスを生成する復号化ステップと、
    (c)上記復号化された補償シーケンス上で反転露光補償を実行する反転露光補償実行ステップと、を含む方法。
  16. 映像シーケンス内の重み付け予測を可能にする方法であって、
    (a)第1露光設定によって捕捉されている第1映像フレームを受信する第1映像フレーム受信ステップと、
    (b)第1露光設定パラメータを記述する第1映像フレーム露光メタデータを受信する第1映像フレーム露光メタデータ受信ステップと、
    (c)上記第1映像フレーム露光メタデータに基づいて上記第1映像フレームに対する第1明度値を決定する第1明度値決定ステップと、
    (d)第2露光設定によって捕捉されている第2映像フレームを受信する第2映像フレーム受信ステップと、
    (e)第2露光設定パラメータを記述する第2映像フレーム露光メタデータを受信する第2映像フレーム露光メタデータ受信ステップと、
    (f)上記第1映像フレーム露光メタデータに基づいて上記第2映像フレームに対する第2明度値を決定する第2明度値決定ステップと、
    (g)上記第1明度値と上記第2明度値との関係に基づいて、上記第1映像フレームおよび上記第2映像フレームに対する重み付け予測を可能にする重み付け予測可能ステップと、を含む方法。
  17. 映像シーケンスを復号化するシステムであって、
    (a)第1露光設定によって捕捉された複数の低ダイナミックレンジ(LDR)参照フレームと、第2露光設定によって捕捉された複数の拡張フレームとを含む、インターリーブされたフレームシーケンスを受信する受信部と、
    (b)上記LDR参照フレーム及び少なくとも1つの上記拡張フレームにおける少なくとも1つの色光度チャンネルから、輝度チャンネルを分離する分離部と、
    (c)上記LDR参照フレームおよび上記拡張フレームの輝度チャンネル上で動き推定を実行する動き推定部と、
    (d)上記拡張フレームを上記LDR参照フレームと整列させるために、上記LDR参照フレームおよび上記拡張フレームの上記輝度チャンネル上で動き補償を実行する動き補償部と、
    (e)上記拡張フレームが捕捉されるたびに、補間LDR参照フレームを生成するために、上記LDR参照フレーム間での補間を行う第1補間部と、
    (f)上記LDR参照フレームが捕捉されるたびに、歪んだ拡張フレームを生成するために、上記拡張フレーム間での補間を行う第2補間部と、
    (g)時間重みの値を上記拡張フレームに割り当てる時間重み割当部と、
    (h)上記拡張フレームが上記LDR参照フレームのどこで整列していないかを特定するミスマッチ特定部と、
    (i)上記拡張フレーム、上記歪んだ拡張フレーム、上記補間LDR参照フレームおよび上記LDR参照フレームの輝度チャンネルを融合する輝度融合部と、
    (j)上記拡張フレーム、上記歪んだ拡張フレーム、上記補間LDR参照フレームおよび上記LDR参照フレームの色光度チャンネルを融合する色光度融合部と、
    (k)チャンネル値が妥当な強度範囲を満たすように、融合された上記輝度チャンネル上でトーンマッピングを実行するトーンマッピング部と、
    (l)再構成されたシーケンスを生成するために、融合され、かつトーンマッピングされた上記輝度チャンネルを、融合された上記色光度チャンネルと結合させる結合部と、を含むシステム。
JP2011545996A 2009-01-19 2010-01-19 映像シーケンスを復号化する方法およびシステム Expired - Fee Related JP5179671B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/356,074 US8406569B2 (en) 2009-01-19 2009-01-19 Methods and systems for enhanced dynamic range images and video from multiple exposures
US12/356,074 2009-01-19
PCT/JP2010/050864 WO2010082692A1 (en) 2009-01-19 2010-01-19 Methods and systems for enhanced dynamic range images and video from multiple exposures

Publications (2)

Publication Number Publication Date
JP2012515493A true JP2012515493A (ja) 2012-07-05
JP5179671B2 JP5179671B2 (ja) 2013-04-10

Family

ID=42336937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011545996A Expired - Fee Related JP5179671B2 (ja) 2009-01-19 2010-01-19 映像シーケンスを復号化する方法およびシステム

Country Status (5)

Country Link
US (1) US8406569B2 (ja)
EP (1) EP2380344A1 (ja)
JP (1) JP5179671B2 (ja)
CN (2) CN104065887A (ja)
WO (1) WO2010082692A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102946513A (zh) * 2012-11-08 2013-02-27 北京小米科技有限责任公司 一种启动拍摄装置高动态范围功能的方法、装置及终端
JP2016005244A (ja) * 2014-06-19 2016-01-12 株式会社ニコン 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
JP2016076143A (ja) * 2014-10-08 2016-05-12 エルジー ディスプレイ カンパニー リミテッド 画像信号処理装置およびビット拡張演算処理方法
JP2019106741A (ja) * 2019-04-08 2019-06-27 株式会社ニコン 画像処理装置
US12033301B2 (en) 2019-09-09 2024-07-09 Nvidia Corporation Video upsampling using one or more neural networks

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009057106A1 (en) * 2007-10-29 2009-05-07 Ramot At Tel Aviv University Ltd. Method and device for processing computerized tomography images
JP5214538B2 (ja) * 2009-05-25 2013-06-19 オリンパス株式会社 画像取得装置、画像合成方法、及び顕微鏡システム
US8346022B2 (en) * 2009-09-02 2013-01-01 Tandent Vision Science, Inc. System and method for generating an intrinsic image using tone mapping and log chromaticity
KR101611437B1 (ko) * 2009-10-28 2016-04-26 삼성전자주식회사 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치
US9473792B2 (en) 2009-11-06 2016-10-18 Texas Instruments Incorporated Method and system to improve the performance of a video encoder
US8896715B2 (en) 2010-02-11 2014-11-25 Microsoft Corporation Generic platform video image stabilization
CN101917624B (zh) * 2010-07-26 2013-04-03 清华大学 一种高分辨率视频图像重建方法
WO2012017440A1 (en) * 2010-08-05 2012-02-09 Ramot At Tel-Aviv University Ltd. Method and system for processing an image featuring multiple scales
CN101980288B (zh) * 2010-10-21 2012-10-17 展讯通信(上海)有限公司 高动态范围辐照图的生成方法及其系统
US9106916B1 (en) * 2010-10-29 2015-08-11 Qualcomm Technologies, Inc. Saturation insensitive H.264 weighted prediction coefficients estimation
US9697588B2 (en) * 2010-11-15 2017-07-04 Intuitive Surgical Operations, Inc. System and method for multi-resolution sharpness transport across color channels
CN102063704B (zh) * 2010-11-19 2012-08-29 中国航空无线电电子研究所 一种机载视景增强方法及其装置
GB2500835B (en) * 2010-12-10 2014-02-12 Ibm High-dynamic range video tone mapping
US9210322B2 (en) * 2010-12-27 2015-12-08 Dolby Laboratories Licensing Corporation 3D cameras for HDR
US20120169748A1 (en) * 2011-01-03 2012-07-05 Sifteo Inc. Distributed graphics engine
US8711248B2 (en) 2011-02-25 2014-04-29 Microsoft Corporation Global alignment for high-dynamic range image generation
US8675984B2 (en) * 2011-03-03 2014-03-18 Dolby Laboratories Licensing Corporation Merging multiple exposed images in transform domain
EP2498499B1 (en) 2011-03-08 2018-04-18 Dolby Laboratories Licensing Corporation Interpolation of color gamut for display on target display
AU2012226283B2 (en) * 2011-03-10 2016-09-15 Vidyo, Inc. Render-orientation information in video bitstream
TWI538473B (zh) 2011-03-15 2016-06-11 杜比實驗室特許公司 影像資料轉換的方法與設備
WO2012130208A1 (de) 2011-03-17 2012-10-04 Spheron Vr Ag Videoanordnung zur bereitstellung von hdr videoströmen
WO2012127401A1 (en) * 2011-03-24 2012-09-27 Koninklijke Philips Electronics N.V. Apparatuses and methods for analyzing image gradings
ES2750234T3 (es) 2011-04-14 2020-03-25 Dolby Laboratories Licensing Corp Predictor de regresión múltiple de múltiples canales de color
US8334911B2 (en) 2011-04-15 2012-12-18 Dolby Laboratories Licensing Corporation Encoding, decoding, and representing high dynamic range images
US9036042B2 (en) 2011-04-15 2015-05-19 Dolby Laboratories Licensing Corporation Encoding, decoding, and representing high dynamic range images
TWI580275B (zh) * 2011-04-15 2017-04-21 杜比實驗室特許公司 高動態範圍影像的編碼、解碼及表示
KR102602528B1 (ko) 2011-05-27 2023-11-16 돌비 레버러토리즈 라이쎈싱 코오포레이션 변하는 레벨들의 메타데이터을 포함하는 컬러 관리를 제어하기 위한 스케일러블 시스템들
WO2012173571A1 (en) * 2011-06-17 2012-12-20 Nanyang Technological University A method and system for fusing images
KR101444675B1 (ko) * 2011-07-01 2014-10-01 에스케이 텔레콤주식회사 영상 부호화 및 복호화 방법과 장치
US9824426B2 (en) 2011-08-01 2017-11-21 Microsoft Technology Licensing, Llc Reduced latency video stabilization
JP2013066140A (ja) * 2011-08-31 2013-04-11 Sony Corp 撮像装置、および信号処理方法、並びにプログラム
US9024961B2 (en) 2011-12-19 2015-05-05 Dolby Laboratories Licensing Corporation Color grading apparatus and methods
EP2613532A1 (en) 2012-01-06 2013-07-10 Thomson Licensing Method of and device for encoding an HDR video together with an LDR video, method of and device for reconstructing one of an HDR video and an LDR video coded together and non-transitory storage medium
US9420302B2 (en) 2012-01-24 2016-08-16 Dolby Laboratories Licensing Corporation Weighted multi-band cross color channel predictor
EP2632162A1 (en) * 2012-02-27 2013-08-28 Thomson Licensing Method and device for encoding an HDR video image, method and device for decoding an HDR video image
KR101912748B1 (ko) * 2012-02-28 2018-10-30 한국전자통신연구원 확장성을 고려한 특징 기술자 생성 및 특징 기술자를 이용한 정합 장치 및 방법
KR101844332B1 (ko) * 2012-03-13 2018-04-03 삼성전자주식회사 블러 영상 및 노이즈 영상으로 구성된 멀티 프레임을 이용하여 비균일 모션 블러를 제거하는 방법 및 장치
US9214015B2 (en) * 2012-03-30 2015-12-15 Sharp Laboratories Of America, Inc. System for image enhancement
US9357197B2 (en) * 2012-05-24 2016-05-31 Dolby Laboratories Licensing Corporation Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats
JP6000670B2 (ja) * 2012-06-11 2016-10-05 キヤノン株式会社 画像処理装置、画像処理方法
US9489706B2 (en) * 2012-07-02 2016-11-08 Qualcomm Technologies, Inc. Device and algorithm for capturing high dynamic range (HDR) video
CN102779334B (zh) * 2012-07-20 2015-01-07 华为技术有限公司 一种多曝光运动图像的校正方法及装置
TWI606418B (zh) * 2012-09-28 2017-11-21 輝達公司 圖形處理單元驅動程式產生內插的圖框之電腦系統及方法
EP3448032B1 (en) * 2013-03-25 2022-10-19 Imax Corporation Enhancing motion pictures with accurate motion information
JP2016529747A (ja) * 2013-05-23 2016-09-23 トムソン ライセンシングThomson Licensing ビデオシーケンスをトーンマッピングする方法
US9053558B2 (en) 2013-07-26 2015-06-09 Rui Shen Method and system for fusing multiple images
US9712834B2 (en) * 2013-10-01 2017-07-18 Dolby Laboratories Licensing Corporation Hardware efficient sparse FIR filtering in video codec
US9648351B2 (en) * 2013-10-24 2017-05-09 Dolby Laboratories Licensing Corporation Error control in multi-stream EDR video codec
WO2015134198A1 (en) * 2014-02-21 2015-09-11 Silicon Image, Inc. Adaptive processing of video streams with reduced color resolution
USRE48920E1 (en) 2014-02-21 2022-02-01 Lattice Semiconductor Corporation Adaptive processing of video streams with reduced color resolution
CN111246050B (zh) * 2014-02-25 2022-10-28 苹果公司 用于视频数据处理的系统、装置和方法
SG11201608233WA (en) * 2014-03-31 2016-10-28 Agency Science Tech & Res Image processing devices and image processing methods
US10104388B2 (en) * 2014-06-30 2018-10-16 Sony Corporation Video processing system with high dynamic range sensor mechanism and method of operation thereof
US10277771B1 (en) 2014-08-21 2019-04-30 Oliver Markus Haynold Floating-point camera
CN104202538A (zh) * 2014-09-10 2014-12-10 浙江广播电视集团 宽动态摄像机中不同曝光度图像的双次配准方法
JP6423088B2 (ja) 2014-10-06 2018-11-14 ライカ マイクロシステムズ (シュヴァイツ) アクチエンゲゼルシャフトLeica Microsystems (Schweiz) AG 対象物の高ダイナミックレンジ合成画像を取得するための顕微鏡および方法
US10225485B1 (en) 2014-10-12 2019-03-05 Oliver Markus Haynold Method and apparatus for accelerated tonemapping
CN104363451B (zh) * 2014-10-27 2019-01-25 华为技术有限公司 图像预测方法及相关装置
WO2016078094A1 (en) 2014-11-21 2016-05-26 SZ DJI Technology Co., Ltd. System and method of fast adaptive blending for high dynamic range imaging
EP3026912A1 (en) 2014-11-27 2016-06-01 Thomson Licensing Method and device for encoding and decoding a HDR picture and a LDR picture using illumination information
EP3051821A1 (en) * 2015-01-30 2016-08-03 Thomson Licensing Method and apparatus for encoding and decoding high dynamic range (HDR) videos
EP3067882A1 (en) 2015-03-10 2016-09-14 Thomson Licensing Adaptive color grade interpolation method and device
US10109228B2 (en) 2015-04-10 2018-10-23 Samsung Display Co., Ltd. Method and apparatus for HDR on-demand attenuation control
CN107209931B (zh) 2015-05-22 2020-03-10 华为技术有限公司 颜色校正装置和方法
US10368105B2 (en) * 2015-06-09 2019-07-30 Microsoft Technology Licensing, Llc Metadata describing nominal lighting conditions of a reference viewing environment for video playback
US9508117B1 (en) * 2015-07-07 2016-11-29 Raytheon Company Image processing system and method for calculating transformation parameters to register a first image to a second image
EP3136726B1 (en) 2015-08-27 2018-03-07 Axis AB Pre-processing of digital images
US9571741B1 (en) * 2015-10-08 2017-02-14 Gopro, Inc. Smart shutter in low light
US9621767B1 (en) * 2015-11-24 2017-04-11 Intel Corporation Spatially adaptive tone mapping for display of high dynamic range (HDR) images
FR3048800B1 (fr) * 2016-03-11 2018-04-06 Bertin Technologies Procede de traitement d'images
US9934557B2 (en) * 2016-03-22 2018-04-03 Samsung Electronics Co., Ltd Method and apparatus of image representation and processing for dynamic vision sensor
DK3436850T3 (da) * 2016-03-31 2022-06-20 Bp Corp North America Inc Bestemmelse af forskydning mellem seismiske billeder ved anvendelse af optisk flow
US20170289571A1 (en) * 2016-04-01 2017-10-05 Intel Corporation Temporal control for spatially adaptive tone mapping of high dynamic range video
EP3459250A1 (en) * 2016-05-16 2019-03-27 Numeri Ltd. A new pyramid algorithm for video compression and video analysis
US10129485B2 (en) * 2016-06-10 2018-11-13 Microsoft Technology Licensing, Llc Methods and systems for generating high dynamic range images
US10074162B2 (en) 2016-08-11 2018-09-11 Intel Corporation Brightness control for spatially adaptive tone mapping of high dynamic range (HDR) images
US9916644B1 (en) * 2016-09-09 2018-03-13 Omnivision Technologies, Inc. Ghost artifact removal system and method
US10223775B2 (en) * 2016-09-14 2019-03-05 Omnivision Technologies, Inc. Array camera image combination with feature-based ghost removal
CN108335279B (zh) * 2017-01-20 2022-05-17 微软技术许可有限责任公司 图像融合和hdr成像
JP7086587B2 (ja) * 2017-02-24 2022-06-20 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 復号された画像データから画像データを再構成する方法および装置
GB2562204B (en) * 2017-03-15 2022-07-20 Avago Tech Int Sales Pte Lid Apparatus and method for generating a laplacian pyramid
US10467733B2 (en) * 2017-07-27 2019-11-05 Raytheon Company Multiplexed high dynamic range images
US10645417B2 (en) * 2017-10-09 2020-05-05 Google Llc Video coding using parameterized motion model
US10846824B2 (en) 2017-12-08 2020-11-24 Tata Consultancy Services Limited Systems and methods for reconstructing super-resolution images under total aliasing based upon translation values
US20190243376A1 (en) * 2018-02-05 2019-08-08 Qualcomm Incorporated Actively Complementing Exposure Settings for Autonomous Navigation
US10643336B2 (en) * 2018-03-06 2020-05-05 Sony Corporation Image processing apparatus and method for object boundary stabilization in an image of a sequence of images
WO2020041882A1 (en) * 2018-08-29 2020-03-05 Uti Limited Partnership Neural network trained system for producing low dynamic range images from wide dynamic range images
US10708514B2 (en) 2018-08-30 2020-07-07 Analog Devices, Inc. Blending depth images obtained with multiple exposures
CN111050143B (zh) 2018-10-11 2021-09-21 华为技术有限公司 一种图像拍摄方法和终端设备
CN109767413B (zh) * 2019-01-11 2022-11-29 影石创新科技股份有限公司 一种抗运动伪影的hdr方法、装置及便携式终端
WO2020206659A1 (en) * 2019-04-11 2020-10-15 Thunder Software Technology Co., Ltd. Method and apparatus for combining low-dynamic range images to a single image
GB2583101B (en) * 2019-04-16 2021-05-19 Sony Interactive Entertainment Inc Video processing
CN110086995B (zh) * 2019-05-15 2021-01-15 深圳市道通智能航空技术有限公司 一种图像亮度调节方法、装置及无人机
TWI700929B (zh) * 2019-06-11 2020-08-01 晶睿通訊股份有限公司 曝光補償方法及其攝影設備
CN110599433B (zh) * 2019-07-30 2023-06-06 西安电子科技大学 一种基于动态场景的双曝光图像融合方法
CN110619593B (zh) * 2019-07-30 2023-07-04 西安电子科技大学 一种基于动态场景的双曝光视频成像系统
CN111028165B (zh) * 2019-11-29 2023-03-21 郑州轻工业大学 一种基于raw数据抵抗相机抖动的高动态图像恢复方法
CN111429368B (zh) * 2020-03-16 2023-06-27 重庆邮电大学 一种自适应细节增强和鬼影消除的多曝光图像融合方法
CN113706393A (zh) * 2020-05-20 2021-11-26 武汉Tcl集团工业研究院有限公司 视频增强方法、装置、设备及存储介质
CN111986084B (zh) * 2020-08-03 2023-12-12 南京大学 一种基于多任务融合的多相机低光照图像质量增强方法
CN112488946B (zh) * 2020-12-03 2024-04-09 重庆邮电大学 一种针对驾驶室环境的单尺度运动模糊图像帧复原方法
CN112580711B (zh) * 2020-12-14 2024-03-12 北京华能新锐控制技术有限公司 一种基于风电机组故障识别的视频图像融合方法
CN113538304B (zh) * 2020-12-14 2023-08-18 腾讯科技(深圳)有限公司 图像增强模型的训练方法及装置、图像增强方法及装置
US11810274B2 (en) * 2021-03-04 2023-11-07 Nvidia Corporation Tone management using tone gain functions for high dynamic range imaging applications
CN113160072B (zh) * 2021-03-19 2023-04-07 聚融医疗科技(杭州)有限公司 一种基于图像金字塔的鲁棒自适应帧相关方法及系统
CN113222954B (zh) * 2021-05-21 2024-03-29 大连海事大学 基于补丁对齐的全局梯度下的多曝光图像无鬼影融合方法
US20240078635A1 (en) * 2022-09-02 2024-03-07 Qualcomm Incorporated Compression of images for generating combined images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142670A (ja) * 2005-11-16 2007-06-07 Olympus Corp 画像処理システム、画像処理プログラム
JP2007201985A (ja) * 2006-01-30 2007-08-09 Matsushita Electric Ind Co Ltd 広ダイナミックレンジ撮像装置
JP2009224901A (ja) * 2008-03-13 2009-10-01 Yamaha Corp 画像のダイナミックレンジ圧縮方法、画像処理回路、撮像装置およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5883678A (en) * 1995-09-29 1999-03-16 Kabushiki Kaisha Toshiba Video coding and video decoding apparatus for reducing an alpha-map signal at a controlled reduction ratio
US5828793A (en) * 1996-05-06 1998-10-27 Massachusetts Institute Of Technology Method and apparatus for producing digital images having extended dynamic ranges
US6864916B1 (en) * 1999-06-04 2005-03-08 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
US7084905B1 (en) * 2000-02-23 2006-08-01 The Trustees Of Columbia University In The City Of New York Method and apparatus for obtaining high dynamic range images
US7239750B2 (en) * 2001-12-12 2007-07-03 Sony Corporation System and method for effectively utilizing universal feature detectors
US6879731B2 (en) * 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
US8050511B2 (en) * 2004-11-16 2011-11-01 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
EP1907076B1 (en) 2005-07-12 2008-11-05 Dartfish SA A method for analyzing the motion of a person during an activity
US8019170B2 (en) 2005-10-05 2011-09-13 Qualcomm, Incorporated Video frame motion-based automatic region-of-interest detection
US8036263B2 (en) 2005-12-23 2011-10-11 Qualcomm Incorporated Selecting key frames from video frames
US7623683B2 (en) * 2006-04-13 2009-11-24 Hewlett-Packard Development Company, L.P. Combining multiple exposure images to increase dynamic range
NO325859B1 (no) 2006-05-31 2008-08-04 Tandberg Telecom As Kodek-preprosessering
US7756330B2 (en) * 2006-07-27 2010-07-13 Eastman Kodak Company Producing an extended dynamic range digital image
CN100515042C (zh) * 2007-03-29 2009-07-15 上海交通大学 多曝光图像增强方法
US8064697B2 (en) * 2007-10-12 2011-11-22 Microsoft Corporation Laplacian principal components analysis (LPCA)

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142670A (ja) * 2005-11-16 2007-06-07 Olympus Corp 画像処理システム、画像処理プログラム
JP2007201985A (ja) * 2006-01-30 2007-08-09 Matsushita Electric Ind Co Ltd 広ダイナミックレンジ撮像装置
JP2009224901A (ja) * 2008-03-13 2009-10-01 Yamaha Corp 画像のダイナミックレンジ圧縮方法、画像処理回路、撮像装置およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102946513A (zh) * 2012-11-08 2013-02-27 北京小米科技有限责任公司 一种启动拍摄装置高动态范围功能的方法、装置及终端
JP2016005244A (ja) * 2014-06-19 2016-01-12 株式会社ニコン 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
JP2016076143A (ja) * 2014-10-08 2016-05-12 エルジー ディスプレイ カンパニー リミテッド 画像信号処理装置およびビット拡張演算処理方法
JP2019106741A (ja) * 2019-04-08 2019-06-27 株式会社ニコン 画像処理装置
US12033301B2 (en) 2019-09-09 2024-07-09 Nvidia Corporation Video upsampling using one or more neural networks
US12039694B2 (en) 2021-12-06 2024-07-16 Nvidia Corporation Video upsampling using one or more neural networks

Also Published As

Publication number Publication date
US8406569B2 (en) 2013-03-26
CN102282838B (zh) 2014-07-09
CN104065887A (zh) 2014-09-24
WO2010082692A1 (en) 2010-07-22
US20100183071A1 (en) 2010-07-22
CN102282838A (zh) 2011-12-14
JP5179671B2 (ja) 2013-04-10
EP2380344A1 (en) 2011-10-26

Similar Documents

Publication Publication Date Title
JP5179671B2 (ja) 映像シーケンスを復号化する方法およびシステム
US8774559B2 (en) Stereoscopic dynamic range image sequence
US10003768B2 (en) Apparatus and methods for frame interpolation based on spatial considerations
KR101831551B1 (ko) 높은 동적 범위의 이미지 생성 및 렌더링
US9432579B1 (en) Digital image processing
KR101026577B1 (ko) 하이 다이나믹 레인지 비디오 생성 시스템, 컴퓨터 구현 방법, 및 컴퓨터 판독가능 기록 매체
KR101023946B1 (ko) 객체 추적을 이용한 디지털 영상의 손떨림 보정 장치 및방법
JP5747136B2 (ja) Hdr画像のための画像処理
US10986363B2 (en) Method of pre-processing of video information for optimized video encoding
US8682104B2 (en) Image synthesizing apparatus, image synthesizing method, and image synthesizing program
WO2010095471A1 (ja) 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
US8581992B2 (en) Image capturing apparatus and camera shake correction method, and computer-readable medium
JP5436458B2 (ja) 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
US8947501B2 (en) Scene enhancements in off-center peripheral regions for nonlinear lens geometries
US8933985B1 (en) Method, apparatus, and manufacture for on-camera HDR panorama
JP4194479B2 (ja) 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
KR20050022748A (ko) 조도차가 큰 사진의 화질 개선 장치 및 방법
KR100793284B1 (ko) 디지털 영상의 손떨림 보정 장치, 방법 및 상기 방법을프로그램화하여 수록한 컴퓨터로 읽을 수 있는 기록매체
JP2008193530A (ja) 画像記録装置、画像記録方法、及びプログラム
US20140286593A1 (en) Image processing device, image procesisng method, program, and imaging device
KR100771138B1 (ko) 촬영 장치 및 영상 보정 방법
JP2018046478A (ja) 画像処理装置
JP2012142828A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130109

LAPS Cancellation because of no payment of annual fees