JP2019050580A - ビデオシーケンスをトーンマッピングする方法 - Google Patents

ビデオシーケンスをトーンマッピングする方法 Download PDF

Info

Publication number
JP2019050580A
JP2019050580A JP2018196650A JP2018196650A JP2019050580A JP 2019050580 A JP2019050580 A JP 2019050580A JP 2018196650 A JP2018196650 A JP 2018196650A JP 2018196650 A JP2018196650 A JP 2018196650A JP 2019050580 A JP2019050580 A JP 2019050580A
Authority
JP
Japan
Prior art keywords
frame
tone
motion
mapped
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2018196650A
Other languages
English (en)
Inventor
ボアタール ロナン
Boitard Ronan
ボアタール ロナン
ソロー ドミニク
Dominique Thoreau
ソロー ドミニク
ボアタッチ カドウ
Bouatouch Kadi
ボアタッチ カドウ
コジョ レミ
Cozot Remi
コジョ レミ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2019050580A publication Critical patent/JP2019050580A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ローカルトーンマッピングオペレータを備える、ビデオシーケンスをトーンマッピングするための装置及び方法を提供する。【解決手段】ビデオシーケンスをトーンマッピングするための装置は、トーンマッピングされるビデオシーケンスのフレームの画素に関連付けられた空間的近傍を、前記フレームの時間フィルタリングされたバージョン内の同一場所に位置する画素の周辺に位置するフレームの時間フィルタリングされたバージョンの画素から決定する手段と、決定した空間的近傍を使用して、フレームの画素にローカルトーンマッピングオペレータを適用する手段と、を備える。前記フレームの前記画素と、前記同一場所に位置する画素とは、同一の空間的座標を有する。【選択図】図1a

Description

本発明は一般に、ビデオのトーンマッピングに関する。特に、本発明の技術分野は、ビデオシーケンスのローカルトーンマッピングに関する。
このセクションは、以下に説明され、および/または添付の特許請求の範囲に記載される本発明の種々の態様に関連し得る技術の、種々の態様を読者に紹介することを意図している。この議論は、本発明の種々の態様をよりよく理解しやすくするための背景情報を読者に提供するのに役立つものと考えられる。従って、これらの記述はこの観点から読まれるべきであり、従来技術の自認として読まれるべきではない。
ハイダイナミックレンジ(HDR)イメージは、コンピュータグラフィックスのコミュニティおよび画像処理のコミュニティの両方において広く知られるようになっており、HDR技術を使用することから得られる利点は、すでにトーンマッピングオペレータ(TMO)のおかげで評価できている。事実、TMOはHDR画像において利用可能な広範囲の値をLDR (ローダイナミックレンジ) ディスプレイ上に再現する。LDRフレームは、HDR画像のダイナミックレンジより低いダイナミックレンジを有することに留意されたい。
TMOには2つの主要なタイプがある。すなわち、グローバルオペレータおよびローカルオペレータである。
グローバルオペレータは、単調増加するトーンマップ曲線を全体画像について計算するために、HDRフレームの特性を使用する。結果として、これらのオペレータは空間の輝度(brightness)の一貫性を確実にする。しかしながら、これらは通常HDRフレームに含まれるさらに細かい細部を再現することができない。
対照的に、ローカルオペレータはその空間の近傍に基づいて各画素をトーンマッピングする。これらの技術は、局所的な空間のコントラストを高めることによって、より詳細なフレームを提供する。
周知のローカルTMOは各画素の空間的近傍をフィルタリングする。フィルタリングされた画像は、各色チャンネルをスケーリングしてLDRフレームを取得するために使用される(Chiu K., Herf M., Shirley P., Swamy S., Wang C, Zimmerman K.: Spatially Nonuniform Scaling Functions for High Contrast Images f. Interface, May (1993))。
より洗練された解決手段は、ピラミッド構造の手法を使用し、このピラミッドの各レベルは空間的近傍の異なるサイズに対応し、各色チャンネルは、ピラミッドの各レベルを使用して圧縮され、すべてのレベルについてのすべての結果を組み合わせると、トーンマッピングされたフレームを与える(Rahman Z., Jobson D.: A multiscale retinex for color rendition and dynamic range compression. SPIE International Symposium on (1996))。
他の一部の通常の解決手段は、より細かい細部を維持するための周波数サブバンド分解を使用する。サブバンドは別個に処理され、トーンマッピングされたフレームを取得するために結合される(Tumblin J.: LCIS: A boundary hierarchy for detail-preserving contrast reduction. Proceedings of the 26th annual conference on (1999))。
鮮明な階調再現(PTR)[RSSF02]オペレータは、ラプラシアンピラミッド分解に依拠する(Reinhard E., Stark M., Shirley P., Ferwerda J.: Photographic tone reproduction for digital images. ACM Trans. Graph. 21 , 3 (July 2002), 267{276.)。閾値は、組み合わせではなく、各画素について使用するための最良の近傍サイズを選択することを可能にする。
他の周知の解決手段では、勾配領域のトーンマッピングを実行するために、勾配領域圧縮(Gradient Domain Compression)(GDC)を使用する (Fattal R., Lischinski D.: Gradient domain high dynamic range compression. ACM Transactions on Graphics (2002))。勾配は、ガウシアン・ピラミッド(gaussian pyramid)の各レベルにおいて画素の周りの空間的近傍から計算される。倍率は、勾配の大きさに基づいて各画素について決定される。すべての勾配場(gradient field)は、圧縮された勾配場を取得するためにすべての解決手段において結合される。この勾配場は常に積分可能とは限らないので、トーンマッピングされたフレームを計算するために近似が使用される。
入力ビデオシーケンスの各フレームにTMOを別個に適用すると、時間的な不整合が生じる。時間的な不整合には主要な2つのタイプがある。すなわち、ちらつくアーチファクトおよび時間的な輝度の不整合である。
ちらつくアーチファクトは、TMOまたはシーンのいずれかによるものである。実際、TMOによりちらつくアーチファクトは、連続するフレームにおいてトーンマップ曲線の急速な変化によりもたらされる。結果として、同様のHDRのルミナンス値が異なるLDRの値にマッピングされる。シーンによるちらつきは、照明条件の急速な変化に対応する。時間的に近いフレームを考慮せずにTMOを適用すると、異なるHDRの値が同様のLDRの値にマッピングされることになる。時間的な輝度の不整合に関し、これはトーンマッピング処理の工程中に相対的なHDRフレームの輝度が維持されない場合に発生する。結果として、HDRシーケンスにおいて最も明るいとして維持されたフレームは、必ずしもLDRシーケンスにおいて最も明るいとは限らない。ちらつくアーチファクトとは異なり、輝度の不整合は、必ずしも連続するフレームに沿って現れるわけではない。
要約すると、グローバルであれローカルであれ、HDRビデオシーケンスの各フレームに別個にTMOを適用すると、時間的な不整合が生じる。
トーンマップ曲線の時間フィルタリングに基づく解決手段が設計されている (Boitard R., Thoreau D., Bouatouch K., Cozot R.: Temporal Coherency in Video Tone Mapping, a Survey. In HDRi2013 - First International Conference and SME Workshop on HDR imaging (201 3), no. 1 , pp. 1 -6)。しかしながら、ローカルTMOが非線形で空間的に変化するトーンマップ曲線を有するため、これらの技術はグローバルTMOに有効でしかない。
ローカルTMOについては、時間的整合の維持は、時間および空間に亘るトーンマッピングの激しい変動を避けることにある。GDCオペレータに基づく解決手段は、Lee他により提案されている(Lee C, Kim C.-S.: Gradient Domain Tone Mapping of High Dynamic Range Videos. In 2007 IEEE International Conference on Image Processing (2007), no. 2, IEEE, pp. II I-461 -III-464.)。
まず、この技術は連続するHDRフレームの各対に対して画素に関する動き推定を実行し、結果の動きフィールドが、対応するLDRフレームについて時間整合性の制約として使用される。この制約は、動きベクトルを通じて関連付けられる2つの画素が同様にトーンマッピングされることを確実にする。
この技術によりもたらされる視覚的改善にもかかわらず、依然としていくつかの短所がある。第1に、この解決手段は、連続するフレームの対の間での時間整合性しか維持しない。第2に、この技術は動き推定の堅牢性に依存する。この推定に失敗すると、時間整合性の制約が、異なるオブジェクトに属する画素に適用される。この動き推定の問題を、整合しない動きベクトル(non-coherent motion vector)と呼ぶことにする。さらに、この技術は、GDCオペレータという1つのローカルTMOについてしか設計されておらず、他のTMOに拡張することができない。
従来技術の上述した欠点のうちの少なくとも1つを解決するため、特に、時間を通じてローカルTMOの空間的近傍の計算を安定させるため、ビデオシーケンスをトーンマッピングするために使用されるローカルTMOの空間的近傍が、トーンマッピングされるフレームの時間フィルタリングされたバージョンについて決定される。
トーンマッピングされたオペレータの空間的近傍を決定するために、フレームの(通常の)元のルミナンスではなくトーンマッピングされるフレームの時間フィルタリングされたバージョンを使用すると、空間的近傍の時間整合性が維持され、したがってトーンマッピングされたフレームにおいてちらつくアーチファクトを制限することが可能になる。
一実施形態によれば、本方法は、
トーンマップされるフレームの画素ごとに動きベクトルを取得するステップと、
推定された動きベクトルを使用してビデオシーケンスの一部のフレームを動き補償し、該動き補償されたフレームを時間フィルタリングして、トーンマッピングされる上記フレームの時間フィルタリングされたバージョンを取得するステップと、
を含む。
一実施形態によれば、この方法は、
整合しない動きベクトルを検出し、推定された動きベクトルが整合している場合にのみ、この動きベクトルを使用してトーンマッピングされるフレームの各画素を時間フィルタリングするステップをさらに含む。
一実施形態によれば、動きベクトルは、トーンマッピングされるフレームと、この動きベクトルに対応する動き補償されたフレームとの間の誤差が閾値より大きい場合に整合しないとして検出される。
本発明の別の態様によれば、本発明は、ローカルトーンマッピングオペレータを備える、ビデオシーケンスをトーンマッピングするための装置に関する。この装置は、トーンマッピングされる上記ビデオシーケンスのフレームの時間フィルタリングされたバージョンを取得する手段と、上記ローカルトーンマッピングオペレータにより使用される空間的近傍を決定する手段と、をさらに含むことにおいて特徴づけられる。
本発明の具体的な特質、ならびに本発明の他の目的、利点、機能および使用は、添付の図面と組み合わせて、以下の好ましい実施形態の説明から明らかになるであろう。
本実施形態は、以下の図面を参照して説明される。
ビデオシーケンスをトーンマッピングする方法のステップの図である。 ビデオシーケンスのトーンマッピングされるフレームの時間フィルタリングされたバージョンを計算する方法のステップの図である。 ビデオシーケンスのトーンマッピングされるフレームの時間フィルタリングされたバージョンを計算する方法の変形例のステップの図である。 本方法のステップ100および200の実施形態を示す図である。 本方法のステップ100および200の別の実施形態を示す図である。 本方法のステップ100および200の別の実施形態を示す図である。 ビデオシーケンスをトーンマッピングする方法を実装するように構成された手段を含む装置のアーキテクチャの例を示す図である。
フレーム(画像とも呼ぶ)は、各々がフレームデータのうちの少なくとも1つの項目と関連付けられた画素またはフレーム位置を含む。フレームデータの項目は、例えば、ルミナンスデータの項目またはクロミナンスデータの項目である。
一般に、ビデオシーケンスをトーンマッピングするための方法は、フレームごとのローカルトーンマッピングを、ビデオシーケンスの各フレームに適用することにある。
本方法は、上記ローカルトーンマッピングオペレータにより使用される空間的近傍が、トーンマッピングされるフレームの時間フィルタリングされたバージョンに対して決定されることにおいて特徴づけられる。
したがって、ローカルTMOの空間的近傍の確定(definition)は、時間整合性に従う。即ち、空間的近傍は、トーンマッピングされるフレームのトーンマッピングされたバージョンにおいてちらつくアーチファクトを回避する、フレーム毎により安定した確定を有する。
本方法の利点の1つは、任意の従来技術のローカルトーンマッピングオペレータを使用できることである。なぜなら、トーンマッピングされるフレームの時間フィルタリングされたバージョンは、その空間的近傍を決定するためにのみ使用されるからである。
図1aは、ビデオシーケンスをトーンマッピングするための方法のステップの図を示し、ここで時間フィルタリングされたバージョンは、トーンマッピングされる各フレームF0について取得される。
入力ビデオシーケンスは、例えば、ハイダイナミックレンジビデオシーケンス(HDR)とすることができ、トーンマッピングされたビデオシーケンスV’はローダイナミックレンジ(LDR)、すなわち入力ビデオシーケンスVより低いダイナミックレンジのビデオシーケンスとすることができる。TMOは任意の従来技術のローカルトーンマッピングオペレータのことを言う。トーンマッピングされるフレームの時間フィルタリングされたバージョンは、以下では時間フィルタリングされたフレームLTFと呼ぶ。
本方法の一実施形態によれば、時間フィルタリングされたフレームLTFは通信ネットワークを介してメモリまたはリモートの機器から取得される。
図1bは、ビデオシーケンスのトーンマッピングされるフレームF0から時間フィルタリングされたフレームLTFを計算する方法の図である。
ステップ100において、フレームF0の各画素について動きベクトルを取得する。
一実施形態によれば、フレームF0の各画素に対し、動きベクトルが通信ネットワークを介してメモリまたはリモートの機器から取得される。
動き推定ステップ100の実施形態によれば、現在のブロックと、推定された一致するブロックとの間の誤差メトリックを最小するために動きベクトル(δ,δ)が定義される。
例えば、動き推定において使用される最も共通するメトリックは、以下で与えられる差の絶対値の合計(SAD)である。
Figure 2019050580
ここで、Ωは使用される正方形ブロックの全ての画素位置(x,y)を表す。
ステップ200において、推定された動きベクトルを使用してビデオシーケンスVの一部のフレームを動き補償し、動き補償されたフレームを時間フィルタリングして、時間フィルタリングされたフレームLTFを取得する。
ステップ100および200は共に、動き補償時間フィルタリング(MCTF)技術に対応する。
図1cに図示されているステップ200の変形例によれば、整合しない動きベクトルが検出され、推定された動きベクトルが整合する(coherent)場合にのみ、この動きベクトルを使用して、トーンマッピングされるフレームの各画素が時間フィルタリングされる。
これは、整合しない動きベクトルの問題を解決する。なぜなら、フレームF0のトーンマッピングされたバージョン内でいくらかのゴースティングアーチファクトをもたらすフレームF0の異なるオブジェクトに属する画素の動き補償を回避するからである。
ステップ100および200の実施形態によれば、時間フィルタの長さNが取得され、推定された動きベクトルにより、フレームF0に関して現在のフレームの動き補償を通じて(N−1)個の動き補償されたフレームが取得され、そして上記動き補償されたフレームの上記時間フィルタを使用した時間フィルタリングの結果として、時間フィルタリングされたフレームLTFが得られる。
図2に示されるように、時間フィルタの長さNは5に等しく(N=5)、(N−1)個の動きベクトルMVnが推定される(ME)。すなわち、2つの直前のフレームF−2およびF−1の各々について1つ、および2つの後続のフレームF1およびF2の各々について1つである。ついで、推定された動きベクトルMVnによって、フレームF0に関し現在のフレームの動き補償により取得される(N−1)個の動き補償されたフレームCF−nを入力として有する長さNの時間フィルタからの出力として、時間フィルタリングされたフレームLTFが取得される。このような入力は、動きベクトルMV−2により取得される動き補償されたフレームCF−2、動きベクトルMV−1により取得される動き補償されたフレームCF−1、動きベクトルMV−1により取得される動き補償されたフレームCF1および動きベクトルMV2により取得される動き補償されたフレームCF2である。4つの動き補償されたフレームは、この例にしたがって取得される。
多くのタイプの時間フィルタリングを使用することができ、簡単なものは、以下の式により与えられる平均である。
Figure 2019050580
ここで、CFnはn番目の動き補償されたフレームを表す。
本発明は、いかなる時間フィルタリングのタイプにも限定されず、信号処理において通常使用される他のいかなる時間フィルタリングにも使用することができる。時間フィルタの長さの具体的な値は、本発明の範囲を制限するものではない。
図2に関して説明したステップ100および200の実施形態の、図1cに例示した変形例の実施形態によれば、フレームF0と、動きベクトルに対応する動き補償されたフレームCFnとの間の誤差ε(x,y)が閾値より大きい場合に、この動きベクトルが整合しないとして検出される。
一実施形態によれば、誤差ε(x,y)は、以下の式により与えられる。
Figure 2019050580
一実施形態によれば、閾値は現在のフレームF0の画素の値に比例する。
例えば、動きベクトルは、ε(x,y)>Tの場合に整合しないとして検出され、ここでTはユーザが定義した閾値であり、(x,y)は画素位置である。
フレームLTFを取得するために、整合する画素に対応する動き補償されたフレームCFnにおける各画素が時間フィルタリングにおいて使用される。所与の位置において、整合する動きベクトルがない場合、フレームF0の画素値のみが使用される(時間フィルタリングはない)。
図3および4に例示されたステップ100および200の別の実施形態によれば、いくつかの低周波サブバンドを取得するためにダイアディックウェーブレット分解(dyadic wavelet decomposition)と組み合わされた後方(forward-)および前方(forward-oriented)動き補償がフレームF0に適用される。フレームF0の各画素について、分解の後方部分の少なくとも1つの低周波サブバンドが選択され、分解の前方部分の少なくとも1つの低周波サブバンドが選択され、フレームLTFの画素が2つの選択された低周波サブバンドに属する2つの画素の融合(blending)となる。
通常のダイアディックウェーブレット分解では、各レベルが時間周波数に対応するピラミッドを構築する。各レベルは、図3に示す予測および更新ステップを使用して計算される。動き補償された分解を実行するために、動き推定から得られた動きベクトルは、予測ステップにおいて使用される。フレームHt+1は、フレームFt+1と、フレームFの動き補償されたバージョン(MC)との差から得られる。更新ステップの間に、フレームFを、フレームHt+1の逆動き補償されたバージョンと加えることにより、低周波フレームLが得られる。それは低周波サブバンドLにおいて接続されていない画素(図3の暗い色の点)またはマルチ接続された画素(図3の灰色の点)をもたらすことができる。接続されていない画素またはマルチ接続された画素は、動きベクトルが逆に戻る場合にそれぞれ関連する画素のない画素またはマルチ接続された画素のある画素である。
この欠点を回避するため、複数レベルに分解するための特定の構造が、2つのレベルの分解について図4で示すように、フレームF0に適用される。
このようなフレームF0の分解は、以下の後方または前方動きベクトルを用いた直交変換を用いる。
Figure 2019050580
ここで、HおよびLはそれぞれ高周波数サブバンドおよび低周波サブバンドであり、vおよびvはそれぞれ後方動きベクトルおよび前方動きベクトルであり、nはフレームFt+1における画素位置であり、pはn+vに対応する。
このような分解の特定の構造は、時間フィルタリングがフレームF0に集中することを確実にする。
このような直交変換の適用により、図4に示す2つのレベルの分類の場合には2つの低周波サブバンドを与える。
本実施形態の変形例によれば、時間フィルタの長さは、フレームF0の各画素について適応的に選択される。
これは、より堅牢な動き推定を与え、したがってTMOの近傍のより安定した確定を与えるので、有利である。
図4に関して説明したステップ100および200の実施形態の図1bに示す変形例の実施形態によれば、フレームF0と分解の後方部分の低周波サブバンドとの間の誤差εb,n(x,y)、およびフレームF0と分解の前方部分の低周波サブバンドとの間の誤差εf,n(x,y)のそれぞれが閾値より大きい場合に、後方動きベクトルvおよび前方動きベクトルvのそれぞれは、不整合として検出される。
一実施形態によれば、誤差は
Figure 2019050580
によって与えられ、ここでLb,n(x,y)およびLf,n(x,y)は分解の後方部分および前方部分それぞれの低周波サブバンド(図4のL−0,L0,LL−0,LL0)である。
一実施形態によれば、閾値は現在フレームF0の画素の値に比例する。
例えば、後方動きベクトルは、εb,n(x、y)>Tの場合に不整合として検出され、ここでTはユーザが定義した閾値であり、(x,y)は画素位置である。同じ例を、前方動きベクトルに対して使用することができる。
一実施形態によれば、対応する動きベクトルが整合する場合に、分解の後方部分および前方部分の低周波サブバンドから開始し、分解の全ての低周波サブバンドが考慮され、トーンマッピングされるフレームの各画素に対して単一の低周波サブバンドが選択される。
その結果、時間フィルタリングされたフレームLTF内の画素は、2つの低周波サブバンドに関連する場合がある。この場合、画素は、2つの選択された低周波サブバンドに属する2つの画素の融合である(双方に方向づけられた(dual−oriented)フィルタリング)。2つの選択された低周波サブバンドの平均または加重平均等の多くのタイプの融合を使用することができる。
2つの低周波サブバンドのうちの1つだけが選択され得る場合、時間フィルタリングされたフレームLTF内の画素値は、選択された低周波サブバンドの画素値の値に等しい(一方に方向づけられた(single−oriented)フィルタリング)。
2つの低周波サブバンドのいずれも選択できなければ、時間フィルタリングされたフレームLTF内の画素値はフレームF0の値に等しい(時間フィルタリングはない)。
図1a、1b、2〜4において、モジュールは機能単位であり、これらは区別可能な物理的単位であってもよく、そうでなくてもよい。例えば、またはそれらのモジュールまたはそれらの一部は、固有の部品または回路で一緒にしても良いし、ソフトウェアの機能に関与しても良い。反対に、一部のモジュールは潜在的に別個の物理的エンティティから構成されることとしても良い。本発明と互換性のある装置は、純粋なハードウェアを用いて、例えばASICまたはFPGAまたはVLSI(それぞれ<<特定用途向け集積回路>>、<<フィールドプログラマブルゲートアレイ>>または<<超大規模集積回路>>)などの専用のハードウェアを用いて、または、デバイスに組み込まれたいくつかの集積電子部品によって、またはハードウェアコンポーネントおよびソフトウェアコンポーネントの組み合わせによって実装することができる。
図5は、本発明の方法を実装するシステムにおいて使用することができる装置500を示す。装置は、デジタルデータバスおよびアドレスバス50により相互接続された以下の構成要素、
−処理ユニット53(または中央演算処理装置としてのCPU)、
−メモリ55、
−接続51を介してネットワーク内で接続された他の装置に対する装置500の相互接続のための、ネットワークインタフェース54
を含む。
処理ユニット53はマイクロプロセッサ、カスタムチップ、専用の(マイクロ)コントローラ等として実装することができる。メモリ55は、RAM(ランダムアクセスメモリ)、ハードディスクドライブ、不揮発性ランダムアクセスメモリ、EPROM(消去可能プログラマブルROM)等の、揮発性および/または不揮発性メモリの任意の形式で実装することができる。装置500は、本発明の方法にかかるデータ処理装置を実装するために適合する。処理ユニット53およびメモリ55は、トーンマッピングされるフレームの時間フィルタリングされたバージョンを取得するために連携する。また、メモリ55はトーンマッピングされるフレームの時間フィルタリングされたバージョンを格納するために構成することもできる。また、このようなトーンマッピングされるフレームの時間フィルタリングされたバージョンは、ネットワークインタフェース54から取得することもできる。また、処理ユニット53およびメモリ55は、トーンマッピングされるビデオシーケンスのフレームの時間フィルタリングされたバージョンに対してローカルトーンマッピングオペレータの空間的近傍を決定するために、および潜在的にこのようなオペレータをトーンマッピングされるフレームに適用するためにも連携する。
また、装置500の処理ユニットおよびメモリは、図1a、1b、2〜4に関係して説明される方法の任意の実施形態および/または変形例を実装するように構成される。
本明細書に記載されている「1つの実施形態」または「一実施形態」は、本発明の少なくとも1つの実装に含まれることができる実施形態に関連して説明される特定の機能、構造、または特性を意味する。本明細書において種々の位置に「一実施形態において」という表現が現れるが、すべてが同じ実施形態について言及しているとは限らないし、また他の実施形態とは相互に排他的な個別のまたは代替の実施形態について言及しているとも限らない。
特許請求の範囲にみられる参照符号は単に例示であって、請求項の範囲を限定する効果はない。
明示的に説明はしていないが、本実施形態および変形形態は、任意の組み合わせまたはサブコンビネーションで用いることができる。
明示的に説明はしていないが、本実施形態および変形形態は、任意の組み合わせまたはサブコンビネーションで用いることができる。
[付記1]
ビデオシーケンスをトーンマッピングするための方法であって、トーンマッピングされる前記ビデオシーケンスの各フレームにローカルトーンマッピングオペレータが適用され、前記ローカルトーンマッピングオペレータによって用いられる空間的近傍は、トーンマッピングされる前記フレーム(F0)の時間フィルタリングされたバージョン(L TF )に対して決定されることを特徴とする、前記方法。
[付記2]
トーンマッピングされる前記フレームの各画素に対して動きベクトルを取得するステップと、
推定された動きベクトルを使用して前記ビデオシーケンスの一部のフレームを動き補償し、およびトーンマッピングされる前記フレーム(F0)の前記時間フィルタリングされたバージョン(L TF )を取得するために前記動き補償されたフレームを時間フィルタリングするステップ(200)と、
を含む、付記1に記載の方法。
[付記3]
整合しない動きベクトルを検出し、および推定された動きベクトルが整合する場合にのみこの動きベクトルを用いて、トーンマッピングされる前記フレームの各画素を時間フィルタリングするステップをさらに含む、付記2に記載の方法。
[付記4]
動きベクトルは、トーンマッピングされる前記フレーム(F0)と、この動きベクトルに対応する動き補償されたフレームとの間の誤差(ε (x,y),ε b,n (x,y),ε f,n (x,y))が閾値より大きい場合に、整合しないとして検出される、付記3に記載の方法。
[付記5]
時間フィルタの長さNが取得され、前記推定された動きベクトルにより、トーンマッピングされる前記フレーム(F0)に関し現在のフレームの動き補償を通じて(N−1)個の動き補償されたフレームが取得され、トーンマッピングされる前記フレーム(F0)の前記時間フィルタリングされたバージョン(L TF )は、前記動き補償されたフレームの前記時間フィルタを用いた時間フィルタリングから得られる、付記2から4のいずれか1項に記載の方法。
[付記6]
ダイアディックウェーブレット分解と組み合わせた後方のおよび前方の動き補償が、いくつかの低周波サブバンドを取得するためにトーンマッピングされる前記フレーム(F0)に適用され、トーンマッピングされる前記フレームの各画素について、前記ダイアディックウェーブレット分解の後方部分の少なくとも1つの低周波サブバンドが選択され、前記ダイアディックウェーブレット分解の前方部分の少なくとも1つの低周波サブバンドが選択され、トーンマッピングされる前記フレームの時間フィルタリングされたバージョン(L TF )の画素は2つの前記選択された低周波サブバンドに属する2つの画素の融合である、付記2から4のいずれか1項に記載の方法。
[付記7]
前記ダイアディックウェーブレット分解の後方および前方部分の低周波サブバンドから開始し、前記ダイアディックウェーブレット分解の全ての低周波サブバンドが考慮され、対応する動きベクトルが整合する場合に、トーンマッピングされる前記フレームの各画素について単一の低周波サブバンドが選択される、付記3または4に従属する場合の付記6に記載の方法。
[付記8]
ローカルトーンマッピングオペレータを含む、ビデオシーケンスをトーンマッピングするための装置であって、トーンマッピングされる前記ビデオシーケンスのフレームの時間フィルタリングされたバージョンを取得する手段と、前記ローカルトーンマッピングオペレータにより用いられる空間的近傍を決定する手段と、を備えたことを特徴とする、前記装置。
[付記9]
付記1から7のいずれか1項に記載の方法を実装するように構成された手段をさらに備える、付記8に記載の装置。

Claims (9)

  1. ビデオシーケンスをトーンマッピングするための方法であって、トーンマッピングされる前記ビデオシーケンスの各フレームにローカルトーンマッピングオペレータが適用され、前記ローカルトーンマッピングオペレータによって用いられる空間的近傍は、トーンマッピングされる前記フレーム(F0)の時間フィルタリングされたバージョン(LTF)に対して決定されることを特徴とする、前記方法。
  2. トーンマッピングされる前記フレームの各画素に対して動きベクトルを取得するステップと、
    推定された動きベクトルを使用して前記ビデオシーケンスの一部のフレームを動き補償し、およびトーンマッピングされる前記フレーム(F0)の前記時間フィルタリングされたバージョン(LTF)を取得するために前記動き補償されたフレームを時間フィルタリングするステップ(200)と、
    を含む、請求項1に記載の方法。
  3. 整合しない動きベクトルを検出し、および推定された動きベクトルが整合する場合にのみこの動きベクトルを用いて、トーンマッピングされる前記フレームの各画素を時間フィルタリングするステップをさらに含む、請求項2に記載の方法。
  4. 動きベクトルは、トーンマッピングされる前記フレーム(F0)と、この動きベクトルに対応する動き補償されたフレームとの間の誤差(ε(x,y),εb,n(x,y),εf,n(x,y))が閾値より大きい場合に、整合しないとして検出される、請求項3に記載の方法。
  5. 時間フィルタの長さNが取得され、前記推定された動きベクトルにより、トーンマッピングされる前記フレーム(F0)に関し現在のフレームの動き補償を通じて(N−1)個の動き補償されたフレームが取得され、トーンマッピングされる前記フレーム(F0)の前記時間フィルタリングされたバージョン(LTF)は、前記動き補償されたフレームの前記時間フィルタを用いた時間フィルタリングから得られる、請求項2から4のいずれか1項に記載の方法。
  6. ダイアディックウェーブレット分解と組み合わせた後方のおよび前方の動き補償が、いくつかの低周波サブバンドを取得するためにトーンマッピングされる前記フレーム(F0)に適用され、トーンマッピングされる前記フレームの各画素について、前記ダイアディックウェーブレット分解の後方部分の少なくとも1つの低周波サブバンドが選択され、前記ダイアディックウェーブレット分解の前方部分の少なくとも1つの低周波サブバンドが選択され、トーンマッピングされる前記フレームの時間フィルタリングされたバージョン(LTF)の画素は2つの前記選択された低周波サブバンドに属する2つの画素の融合である、請求項2から4のいずれか1項に記載の方法。
  7. 前記ダイアディックウェーブレット分解の後方および前方部分の低周波サブバンドから開始し、前記ダイアディックウェーブレット分解の全ての低周波サブバンドが考慮され、対応する動きベクトルが整合する場合に、トーンマッピングされる前記フレームの各画素について単一の低周波サブバンドが選択される、請求項3または4に従属する場合の請求項6に記載の方法。
  8. ローカルトーンマッピングオペレータを含む、ビデオシーケンスをトーンマッピングするための装置であって、トーンマッピングされる前記ビデオシーケンスのフレームの時間フィルタリングされたバージョンを取得する手段と、前記ローカルトーンマッピングオペレータにより用いられる空間的近傍を決定する手段と、を備えたことを特徴とする、前記装置。
  9. 請求項1から7のいずれか1項に記載の方法を実装するように構成された手段をさらに備える、請求項8に記載の装置。
JP2018196650A 2013-05-23 2018-10-18 ビデオシーケンスをトーンマッピングする方法 Ceased JP2019050580A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP13305668 2013-05-23
EP13305668.9 2013-05-23

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016514367A Division JP2016529747A (ja) 2013-05-23 2014-05-20 ビデオシーケンスをトーンマッピングする方法

Publications (1)

Publication Number Publication Date
JP2019050580A true JP2019050580A (ja) 2019-03-28

Family

ID=48578979

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016514367A Pending JP2016529747A (ja) 2013-05-23 2014-05-20 ビデオシーケンスをトーンマッピングする方法
JP2018196650A Ceased JP2019050580A (ja) 2013-05-23 2018-10-18 ビデオシーケンスをトーンマッピングする方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016514367A Pending JP2016529747A (ja) 2013-05-23 2014-05-20 ビデオシーケンスをトーンマッピングする方法

Country Status (7)

Country Link
US (1) US20160142593A1 (ja)
EP (1) EP3000097A1 (ja)
JP (2) JP2016529747A (ja)
KR (1) KR20160013023A (ja)
CN (1) CN105393280A (ja)
BR (1) BR112015029097A2 (ja)
WO (1) WO2014187808A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9955084B1 (en) * 2013-05-23 2018-04-24 Oliver Markus Haynold HDR video camera
JP6731722B2 (ja) * 2015-05-12 2020-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
EP3136736A1 (en) 2015-08-25 2017-03-01 Thomson Licensing Method for inverse tone mapping of a sequence of images
US9979895B2 (en) * 2015-09-04 2018-05-22 Disney Enterprises, Inc. High dynamic range tone mapping
US10445865B1 (en) * 2018-03-27 2019-10-15 Tfi Digital Media Limited Method and apparatus for converting low dynamic range video to high dynamic range video
CN111311524B (zh) * 2020-03-27 2023-04-18 电子科技大学 一种基于msr的高动态范围视频生成方法
KR20230005981A (ko) * 2020-05-08 2023-01-10 후아웨이 테크놀러지 컴퍼니 리미티드 톤 매핑 곡선에 대한 파라미터 세트의 결정

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004032519A1 (en) * 2002-10-07 2004-04-15 Koninklijke Philips Electronics N.V. Efficient motion-vector prediction for unconstrained and lifting-based motion compensated temporal filtering
DE60317670T2 (de) * 2003-09-09 2008-10-30 Mitsubishi Denki K.K. Verfahren und Vorrichtung zur 3D-Teilbandvideokodierung
EP1915872A1 (en) * 2005-08-15 2008-04-30 Nokia Corporation Method and apparatus for sub-pixel interpolation for updating operation in video coding
US9830691B2 (en) * 2007-08-03 2017-11-28 The University Of Akron Method for real-time implementable local tone mapping for high dynamic range images
US8385412B2 (en) * 2007-10-15 2013-02-26 Thomson Licensing Method and apparatus for inter-layer residue prediction for scalable video
US8406569B2 (en) * 2009-01-19 2013-03-26 Sharp Laboratories Of America, Inc. Methods and systems for enhanced dynamic range images and video from multiple exposures
WO2012122421A1 (en) * 2011-03-10 2012-09-13 Dolby Laboratories Licensing Corporation Joint rate distortion optimization for bitdepth color format scalable video coding

Also Published As

Publication number Publication date
EP3000097A1 (en) 2016-03-30
KR20160013023A (ko) 2016-02-03
WO2014187808A1 (en) 2014-11-27
CN105393280A (zh) 2016-03-09
BR112015029097A2 (pt) 2017-07-25
JP2016529747A (ja) 2016-09-23
US20160142593A1 (en) 2016-05-19

Similar Documents

Publication Publication Date Title
JP2019050580A (ja) ビデオシーケンスをトーンマッピングする方法
Park et al. Low-light image enhancement using variational optimization-based retinex model
Chen et al. Robust image and video dehazing with visual artifact suppression via gradient residual minimization
CN108702496B (zh) 用于实时色调映射的系统和方法
Rao et al. A Survey of Video Enhancement Techniques.
Singh et al. A novel dehazing model for remote sensing images
CN109963048B (zh) 降噪方法、降噪装置及降噪电路系统
KR102445762B1 (ko) 이미지 프로세싱 방법 및 디바이스
Celebi et al. Fuzzy fusion based high dynamic range imaging using adaptive histogram separation
KR20150145725A (ko) Ldr 비디오 시퀀스의 동적 범위 확장을 위한 방법 및 장치
Mangiat et al. Spatially adaptive filtering for registration artifact removal in HDR video
Gunturk et al. High-resolution image reconstruction from multiple differently exposed images
Buades et al. Enhancement of noisy and compressed videos by optical flow and non-local denoising
Zuo et al. Video Denoising Based on a Spatiotemporal Kalman‐Bilateral Mixture Model
WO2016051716A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラムを記憶する記録媒体
Zhang et al. Video super-resolution with registration-reliability regulation and adaptive total variation
KR101910894B1 (ko) 영상 복원 장치 및 방법
EP2961169A1 (en) Method and device for processing images
Ramachandra et al. HDR imaging from differently exposed multiview videos
Lee et al. Multi-image high dynamic range algorithm using a hybrid camera
Chaudhury et al. Histogram equalization-A simple but efficient technique for image enhancement
Romanenko et al. Image matching in Bayer raw domain to de-noise low-light still images, optimized for real-time implementation
Jinno et al. HDR video tone mapping based on gamma blending
Buades et al. Patch-Based Methods for Video Denoising
Chen et al. A multicurve tone mapping operator for the display of high dynamic range image and video

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191015

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191025

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20200220