JP6121331B2 - 時間的コヒーレンス・ダイナミックレンジ・マッピングを用いたビデオ符号化および復号化 - Google Patents

時間的コヒーレンス・ダイナミックレンジ・マッピングを用いたビデオ符号化および復号化 Download PDF

Info

Publication number
JP6121331B2
JP6121331B2 JP2013534258A JP2013534258A JP6121331B2 JP 6121331 B2 JP6121331 B2 JP 6121331B2 JP 2013534258 A JP2013534258 A JP 2013534258A JP 2013534258 A JP2013534258 A JP 2013534258A JP 6121331 B2 JP6121331 B2 JP 6121331B2
Authority
JP
Japan
Prior art keywords
sequence
frame
dynamic range
parameter
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013534258A
Other languages
English (en)
Other versions
JP2013545371A (ja
JP2013545371A5 (ja
Inventor
イェンス−ウーヴェ ガルバス
イェンス−ウーヴェ ガルバス
ヘルベルト トーマ
ヘルベルト トーマ
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ, フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2013545371A publication Critical patent/JP2013545371A/ja
Publication of JP2013545371A5 publication Critical patent/JP2013545371A5/ja
Application granted granted Critical
Publication of JP6121331B2 publication Critical patent/JP6121331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本出願は、HDRシーケンスとともに使用するために用いられるような、例えばビデオ符号化に関する。
これまで、大部分の画像およびビデオ符号化アプリケーションは、約2桁の輝度範囲(低いダイナミックレンジ(LDR))だけをカバーすることができる[1](非特許文献1参照)。しかしながら、人間の視覚系(HVS)によって、我々が10桁以上の範囲をカバーすることができる光条件に適応し、同時に約5桁を把握することができる[2](非特許文献2参照)。全部のHDR輝度(例えばCGI、特殊効果演出、HDRディスプレイ)の表現から利益を得ることができる数多くのアプリケーションで、HDRビデオ符号化方法において需要が増加している。H.264/AVCのような標準的な符号化方法を用いることは、付加的な努力をすることなく、LDRからHDRビデオ符号化への継ぎ目のない移行を可能にしている。用語HDRがこの研究を通して本当の輝度値の表現に言及しているのであって、ときどきHDRIと呼ばれているトーンマッピングされたLDR表現に言及しているわけではないことに注意すべきである。
HDRデータの最も自然な表現、浮動小数点数が良好な圧縮という結果にならず、取り扱うのに高コストであるので、数人の創造者は浮動小数点輝度値から整数luma値への適切なマッピングを提案した[3、4、5、6](非特許文献3、4、5、6参照)。これらの輝度−lumaマッピングは、精度の関連する損失がHVSの許容度以下であるという共通点があり、歪曲に気付くことはない。それらは、更に、それらが更なる処理の前にHDR画像データのCIELUV色空間[1](非特許文献1参照)への変換に適用するという共通点がある。すなわち、データは、輝度成分Yおよび彩度成分(u´、v´)によって表される。(u´、v´)色表現の効果は、それが知覚的に同一であるということである。すなわち、この表現の等しいオフセットは、等しい知覚色差を示し、したがって、それらは、例えば8ビットのビット深度を有する整数値に直線的にマッピングされることができる。知覚できる(u´、v´)間隔[0、0.62]から範囲[0、255]における整数値へのこの種のマッピングは、可視閾値をはるかに下回っている0.00172の最大の絶対の量子化エラーを取り込む。
Figure 0006121331
それは、間隔[5.44×10-20、1.84×1019]の実数値の輝度を範囲[0、215−1]の範囲の15ビットの整数luma値にマッピングし、逆の場合も同様である。すなわち、約38桁の輝度は、0.27%の相対的なステップ・サイズによって表される。これは、約1%の可視量子化閾値をはるに下回っている[1](非特許文献1参照)。
しかしながら、この種のマッピングによってカバーされるダイナミックレンジは、HVSが同時に把握することができるものの範囲を遥かに超えている。さらに、この種の高いダイナミックレンジに及ぶ自然の画像データが存在しない。更なる画像処理ステップを受けることができるデータの可逆画像圧縮のために、この極めて高い範囲および忠実度が役立つかもしれないのに対して、人間のオブザーバによって見られることを目的とする不可逆ビデオ符号化のために、それはそうではない。したがって、知覚できない、または、ソース画像またはビデオフレームで起こらない輝度値を表すためにビットを確保する必要はない。これが、例えば、TIFFライブラリを有するHDR静止画像符号化で圧縮効率を下げるので[3](非特許文献3参照)、拡大縮小はLogLuv変換の前に適当な範囲にソース画像を拡大縮小するために用いることができる。類似のLogLuv方法[6](非特許文献6参照)において、拡大縮小は、所与のビット深度に対してあらゆる可能なlumaコード値の全範囲を有効に使うために、ビデオ・シーケンスの個々のフレームに適用されている。
しかしながら、多くのHDRビデオ符号化方法のように、後者は、ちょうど個々のビデオフレームに対するHDR画像符号化の直接的な拡張である。したがって、アプローチは、若干のビデオに特有の特徴を欠いており、それは圧縮効率を大きく低下させる。中でも注目すべきは、一連のフレームの輝度値を個々の拡大縮小を有する異なるコード値にマッピングすることは、シーケンスの時間的コヒーレンスに悪影響を与える。したがって、H.264/AVCビデオ・コーダーの時間的運動補償予測は、大部分は失敗する。
[1] Eric Reinhard, Greg Ward, Sumanta Pattanaik, and Paul Debevec, High Dynamic Range Imaging: Acquisition, Display, and Image-Based Lighting, Morgan Kaufmann Publishers Inc., San Francisco, CA, USA, 2005 [2] J. A. Ferwerda, "Elements of early vision for computer graphics," IEEE Comp. Graph. and Appl., vol. 21, no.5, pp.22-33, 2001 [3]Gregory Ward Larson, "The Logluv encoding for full gamut, highdynamic range images," Journal of Graph. Tools. Vol.3, no, 1, pp.15-31, 1998 [4]Rafal Mantiuk, Grzegorz, Krawczyk, Karol Myszkowski, and Hans-Peter Seidel,"Perception-motivated high dynamic range video encoding" ACM Trans. Graph., vol.23, no,3,pp.733-741,2004 [5]Masahiro Okuda and Nicola Adami, "Effictive color space representation for wavelet based compression of HDR images," in International Conference on Image Analysis and Processing, 2007,pp.388-392 [6]Ajit Motra and Herbert Thoma, "An adaptive LogLuv transform for high dynamic range video compression," in Proc. Intl. Conf. on Image Processing (ICIP), Hong Kong, China, Sept.2010
当然、これは、他の時間的に予測している符号器や、輝度値以外のサンプル値にとっても同様のことである。
したがって、この発明の目的は、一方ではダイナミックレンジ・マッピングのより効率的な共同活用法を考慮に入れている符号化概念を提供し、他方では時間的予測を提供することである。
この目的は、独立クレームの主題によって達成される。
本発明の基礎をなしている基本的な考えは、例えばHDRフレーム・シーケンスを符号化するため、一方ではダイナミックレンジ・マッピングおよび他方では時間的予測のより効果的な共同使用が、マッピング・パラメータを参照フレームから現在の時間的に予測されるフレームに移行するために重み付けされた予測の概念を利用することにより成し遂げられることができるということである。このような計測によって、時間的予測は失敗せず、ダイナミックレンジ・マッピングにおけるフレーム的な変化にもかかわらず、符号化効率は、このように、維持される。良好な付随する側面として、重み付けされた時間的予測は、例えばH.264/AVCのような既存のビデオ符号化ステージの能力の範囲内である。
本発明の好ましい実施例は、下で更に詳細に後述する。
図1は、実施例によるビデオエンコーダのブロック図を示す。 図2は、実施例による図1のビデオ符号化ステージのブロック図を示す。 図3は、実施例によるビデオデコーダのブロック図を示す。 図4は、実施例によるビデオ復号化ステージのブロック図を示す。 図5は、実施例により、図1のビデオエンコーダによって生成され、図3のビデオデコーダによって復号化されるデータストリームの部分を示す図解図である。 図6は、異なるフレームに対する異なる範囲での典型的な適応対数で表された輝度−lumaマッピングを有するグラフを示す。 図7は、3つのケースに対する符号化結果を示し、すなわち図に関して記載されている実施例に従って時間的コヒーレンス・マッピングを使用する場合、異なるビデオ部分(左、中間、右)に対して恒常的なマッピングを使用する場合、時間的コヒーレンスに従うことのないフレーム的な適合を使用する場合、および質の低下(上下の行)に対する異なる計測を使用する場合を示す。
本発明の実施例が図に関して以下において更に詳細に記載される前に、これらの図の異なる実施例の範囲内で発生している等しい要素が等しい参照符号を使用して示される点に留意する必要があり、したがって、後者に関して提案される具体的な詳細が反対に教示しない限り、1つの図に関するこれらの要素の説明は他の図に関しても適用できる。
図1は、本発明の一実施例に係るビデオエンコーダ10を示す。ビデオエンコーダ10はフレーム14の最初のシーケンス12を符号化するように構成され、そのサンプル値16は第1のダイナミックレンジをカバーする第1のフォーマットにおいて示される。たとえば、フレーム・シーケンス12はHDRビデオのようなビデオであってもよく、サンプル値16は個々のフレーム14の輝度分布の空間サンプリングを表すことができる。サンプル値16が表される第1のフォーマットは、浮動小数点フォーマットであってもよい。詳細な実施例は、下で概説される。しかしながら、サンプル値16によって空間的にサンプリングされる情報のタイプは輝度に制限されない点に留意する必要がある。むしろ、他のタイプの情報は、その代わりにサンプル値16の目的であり得る。例えば、フレーム14は深度図を表すことができ、したがって、シーケンス12は特定の場面等の深度図の時間的サンプリングを表すことができる。
ビデオエンコーダ10は、サンプル値コンバータ18、ビデオ符号化ステージ20およびパラメータ・セッター22を含む。サンプル値コンバータ18およびビデオ符号化ステージ20は、ビデオエンコーダ10の入力24および出力26の間で接続され、入力24がフレーム・シーケンス12を受信するように構成され、出力26はビデオエンコーダ10による符号化シーケンス12から得られるデータストリームを出力するためのものである。パラメータ・セッター22は、入力24に接続される入力、および、それぞれ、サンプル値コンバータ18およびビデオ符号化ステージ20のパラメータ入力に接続される出力を有する。点線28によって示されるように、更に以下において詳細に概説されるように、パラメータ・セッター22はデータストリーム26に関与しているサイド情報を出力することもできる
サンプル値コンバータ18は、第1のシーケンス12のフレーム14のサンプル値16を、第1のフォーマットから第1のダイナミックレンジより低い第2のダイナミックレンジを有する第2のフォーマットに換算するように構成される。このように、サンプル値コンバータ18は、ビデオ符号化ステージ20に、第1のフォーマットから第2のフォーマットに変換されたサンプル値16を除いて完全にシーケンス12に対応するフレーム32の第2のシーケンス30を送る。したがって、各フレーム32はシーケンス12のそれぞれのフレーム14に対応し、シーケンス12の中の対応するフレーム14と同じ順序となるようにシーケンス30の中で配置されているフレーム32を有する。
Figure 0006121331
第1のシーケンス12のフレーム14のサンプル値を第1のフォーマットから第2のフォーマットに変換するために、サンプル値コンバータ18は、部分38を第1のダイナミックレンジ40から第2のダイナミックレンジ42にマッピングする写像関数36を使用する。特に、写像関数36が第2のフォーマットに対応してダイナミックレンジ42にマッピングする部分38が、フレーム的な基準で、以下に詳細に概説されるようにパラメータ・セッター22によって設定されるマッピング・パラメータ44によって設定可能であるように、サンプル値コンバータ18は設定される。以下において更に詳細に概説される特定の実施例において、写像関数36は、対数関数的領域の第1のダイナミックレンジ40と線形領域の第2のダイナミックレンジの間の線形写像関数を表す。しかしながら、他の狭義単調関数が、この種の関数の代わりに用いられることもできる。以下の更なる説明からより明らかになるように、部分38は、第1のフォーマットのそれぞれのフレーム14の範囲内に含まれるすべての情報を実質的に捕えるために1フレームごとにパラメータ・セッター22によって設定される。簡単に言えば、パラメータ・セッター22は、それぞれのフレーム14の範囲内のすべての知覚的に関連したサンプルがその部分38の範囲内でそれらのサンプル値16を有するように、第1のダイナミックレンジ40内で部分38を位置付け、範囲−または大きさ−を定めようとし、それにより、すべてのこれらのサンプル値が第2のフォーマット42の第2のダイナミックレンジに−省略されることなく−正しくマッピングされるようにする。現行フレームの範囲内のサンプル値16の典型的な分布44は、図1に典型的に示される。図1の実施例において、この分布は、部分38の範囲内に完全に含まれる。以下において更に詳細に概説されるように、分布44は、ビデオ内容のシーンにおける最も重要な部分を含みそうなその中心部分のようなフレーム14の特定の部分の中のサンプル値16の分布を示すだけである。
明らかであるように、第1のダイナミックレンジ40の中のサンプル値16の分布はフレームからフレームに変更することができ、したがって、図1は、点線46で、シーケンス12の中の他のフレーム14の分布を例として示している。図1に例として示されるように、この分布46は、例えば、現行フレームの分布44に対して置き換えることができ、および/または現行フレームの分布44より狭くすることができる。したがって、パラメータ・セッター22は、部分48を規定するマッピング・パラメータ45とは異なって、マッピング・パラメータ44をサンプル値分布46を有するフレームに対して設定することができた。たとえば、部分48が分布46で満たされている第1のダイナミックレンジ40の部分に近づくように、すなわち、部分48ができるだけ小さいが、分布44に関して同じ程度に部分38を適用して、まだ分布46の範囲をカバーするように、サンプル値分布46はこれらのフレームのためにマッピング・パラメータを設定することができる。
このように、シーケンス30は実質的にサンプル値を有するシーケンス12に対応するが、他のフォーマットにおいて表される。しかしながら、シーケンス30の中の1つのフレームのサンプル値34が同じシーケンスの他のフレームの中のサンプル値34より他の輝度部分に関して規定されるために、視聴シーケンス30は不快な印象という結果になる。たとえば、シーケンス12の前述のフレームは、それぞれ、部分38および48の範囲内で存在するサンプル値34にマッピングされるサンプル値16を有する。したがって、1つのフレームの1つのサンプル値34は、例えば、シーケンス30の異なるフレームの範囲内の1つのサンプル値より他の実際の輝度値に対応しそうである。追加的な評価がなければ、必要な運動ベクトル検索がたぶん成功していないため、ビデオ符号化ステージ20は、このように、例えば、運動補償予測を使用している通常の時間的予測を実行することができない。
特に、ビデオ符号化ステージ20は、参照用に重み付けパラメータによって重み付けされ、オフセット・パラメータによってオフセットされる、第2のシーケンス30の第2のフレームまたは第2のシーケンス30の第2のフレームの再現バージョンを用いて、第2のシーケンス30の第1のフレームの重み付けされた時間的予測によって、フレーム32の第2のシーケンス30を符号化するように構成される。換言すれば、ビデオ符号化ステージ20は、運動補償予測により、および参照用として別の、以前に符号化されたシーケンス30のフレーム32を用いることにより、シーケンス30の現行フレーム32を時間的に予測することができる。運動補償予測は、ブロックごとに実行されることができる。運動ベクトルおよび参照フレーム・インデックスのような運動予測データは、以下のような重み付け/オフセット・パラメータとともに、サイド情報としてデータストリームに挿入される。各時間的に予測されたブロックは、ビデオ符号化ステージ20が参照の中の現行フレーム32、すなわちパラメータ50によって重み付けされサンプル値オフセットされた参照フレームの現行ブロックの内容の最適合の決定により決定する運動ベクトルと、現行フレームにおけるブロックの位置に対応する位置に関連して試みられるさまざまな置換(運動ベクトル)とを関連付けたかもしれない。検索費用を制限するために、ビデオ符号化ステージ20は、検索を若干の検索範囲に制限する。
以下において明らかになるように、ビデオ符号化ステージ20が重み付けされた時間的予測を使用するという事実により、それぞれ、パラメータ・セッター22が関連するマッピング部分48および38の違いに関して参照フレームを現行フレームに適応させることは可能である。
特に、パラメータ・セッター22は、図1に矢印50で共に示されているように、以下にいて詳述するように、重み付けパラメータおよびオフセット・パラメータを介して現行レームに対するマッピング・パラメータに関する参照フレームのためのマッピング・パラメータをもって、参照フレームに対するマッピング・パラメータ45に応じて、重み付けパラメータとオフセット・パラメータとを設定している。一方では、現行フレームのための重み付けパラメータおよびオフセット・パラメータ50、および、他方では、現行フレームのためのマッピング・パラメータ45の両方の設定に関与している。しかしながら、パラメータ・セッター22は、現行フレームのためのマッピング・パラメータ45を設定することから独立して自由に重み付けおよびオフセット・パラメータ50を設定することができない。むしろ、両方の設定は、例えば独自に確定した方法で、互いに関連している。したがって、事実、パラメータ・セッター22は、重み付けおよびオフセット・パラメータ50とマッピング・パラメータ45とを同時に設定し、特に、参照フレームの部分48の範囲を置換よび拡大縮小し、この置換および拡大縮小から得られる間隔が上述のような分布の知覚的に関連のある部分を保存するのに適している現行フレームに対する部分38を得る。重み付け/オフセット・パラメータ50は、参照フレームに対するアプリケーションにより参照フレームの部分48の範囲を置換し拡大縮小する。重み付け/オフセット・パラメータ50は、部分48の範囲内のすべての可能な値を、部分38を定める範囲に及んでいる値の上にマッピングする。
以下に更に詳細に特定の実施例に従う図1のビデオエンコーダの機能を記載する前に、ビデオ符号化ステージ20の実現のための実施例は、図2に関して記載されている。図2の実施例によれば、ビデオ符号化ステージ20は、残差符号器60、エントロピーエンコーダ62、残差再現器64、時間予測器66、減算器68、加算器70、更なる加算器72、および、重み付け器または乗算器74を含む。サンプル値コンバータ18の出力に接続されているビデオ符号化ステージ20の入力76と、ビデオエンコーダ10の出力26に接続されているビデオ符号化ステージ20の出力78との間において、減算器68、残差符号器60およびエントロピーエンコーダ62が、この順序で接続される。残差再現器64は、残差符号器60の出力に接続された入力を有する。加算器70の第1の入力は、残差再現器64の出力に接続される。乗算器74、加算器72および時間予測器66はループを形成し、加算器70の出力およびその入力の間で、前述の順序で直列に接続される。同時に、乗算器74、加算器72および時間予測器66の直列接続は、減算器68の更なる、減算入力に接続される。それぞれ、加算器72および乗算器74の更なる入力に適用される値は、それぞれ、ビデオ符号化ステージ20のパラメータ・インプット80において入力されるオフセット・パラメータ50を重み付けすることによって決定される。
動作において、現行フレームの時間予測が減算器68の減算入力において適用される間、現行フレームは入力76を入力する。現行フレームから時間予測84を減算することから生じている予測残差82は、残差符号器60によって符号化される。残差符号器60は、例えば、残差信号82を変換、例えばスペクトル的に分解している変換を考察することができ、残差符号器60は、ブロック毎の基準でこの変換を実行することができる。さらに、あるいは、残差符号器60は、データストリームに符号化される予測残差82の中に含まれる情報内容を減らすために、残差信号82に量子化を適用することができる。残差符号器60は、実施例として破線の矢印86によって示されているように、フレームからフレームにさらに変更可能な量子化のためのパラメータとして、量子化ステップサイズ・パラメータを使用することができる。残差符号器60の出力において、残差予測の不可逆符号化バージョン88が得られる。それは、可逆方法におけるエントリピーエンコーダ62によって、出力78でデータストリームに符号化される。
Figure 0006121331
ビデオ符号化ステージ20が重み付けされた時間予測を使用するため、時間予測器66は、加算器70による出力として、直接よりもむしろ92からサンプル値重み付けおよびサンプル値オフセットにおける以前に符号化されたフレームの再現バージョンを使用する。それにより、これらのフレーム間の部分38および48の位置決めおよび範囲の違いは、バランスを保っている。他の語においてさえ、バランスをとることは、同様に、適切に入力80に入力している重み付けしてオフセットしたパラメータ50を設定するパラメータ・セッター22によって保証される。
そこで、再び図1に戻って、パラメータ・セッター22は、現行フレームのためのマッピング・パラメータによって設定される部分38が満たされた部分に近づくように、重み付けおよびオフセット・パラメータ50を設定することで、その中で第1のシーケンス12の現行フレームのサンプル値16が分布する第1のダイナミックレンジ40の満たされた部分を決定するように構成される。言い換えれば、パラメータ・セッター22は、第1のダイナミックレンジ40の興味深い満たされた部分を決定するために、分布44を最初に検査することができる。そして、パラメータ・セッター22は現行フレームの重み付けおよびオフセット・パラメータ50を設定し、これらの再現されたバージョン70のサンプル値へのこれらのパラメータ50の適用が、分布44によって規定される満たされた部分に近づく部分38を得るために、再現された部分70が再現を示すフレームの部分48の置換および拡大縮小に効果的に導く。
この点に関しては、参照フレームの再現70の上に入力80における重み付けおよびオフセット・パラメータの適用から得られる拡大縮小されサンプル値オフセットされた参照フレームを示すために、すなわち、参照フレーム92のために、シーケンス30のダイナミックレンジと比べて、ビデオ符号化ステージ20はより高いビット数のような高いダイナミックレンジを使用することができ、それにより、これらのパラメータの適用が問題を削減することにつながらないことに留意すべきである。例えば、表示ビットの数は、2増やされることができる。
Figure 0006121331
Figure 0006121331
さらに、以下において概説される詳細な実施例に関しても述べられるように、ビデオ符号化ステージ20および残差符号器60はフレーム32の第2のシーケンス30を符号化する際に量子化ステップ・サイズ・パラメータを使用するように構成され、そして、パラメータ・セッター22は各部38、48の長さに応じて量子化ステップ・サイズ・パラメータをシーケンス30のフレーム32に設定するように構成され、それぞれのフレームに設定される。この基準によって、それぞれ、部分38および48の長さの時間的変化のために静的量子化ステップ・サイズ・パラメータを使用する場合、量子化ノイズを時間的なバリエーションに調和させることは、それが起こらなければ可能である。パラメータ・セッター22は、第2のシーケンス、例えばIPPPPP・・・シーケンスのIフレームのような第2のシーケンスの最初のフレームのための量子化されたステップ・サイズ・パラメータに差別的にデータストリームに量子化ステップ・サイズ・パラメータを符号化するように構成されることができる。
図3に関して、ビデオエンコーダのための実施例を記載した後に、実施例に従うビデオ・デコーダ100について後述する。ビデオ・デコーダは、フレーム104のシーケンス152を再現するためのものであり、そのサンプル値106は、図1のビデオエンコーダによって生成されるもののように、データストリームから第1のダイナミックレンジをカバーする第1のフォーマットに示される。値106が表されるフォーマットは、サンプル値16の基礎をなしているフォーマットでもよい。しかしながら、これは、必須のものではない。
ビデオ・デコーダ100は、ビデオ復号化ステージ108、パラメータ・セッター110およびサンプル値再変換器112を含む。さらに、ビデオ・デコーダ100は、前述のデータストリームがビデオ・デコーダ100に入る入力114、およびシーケンス102を出力するための出力116を含む。入力114および出力116の間に、ビデオ復号化ステージ108およびサンプル値再変換器112が、その順序で、連続的に接続される。パラメータ・セッター110は、入力114およびサンプル値再変換器112のパラメータ入力の間に接続される。
図4に関して、ビデオ復号化ステージ108は、図2のエンコーダの構成要素64、70、74、72、および66と実質的に同様に行うことができることが示されている。特に、ビデオ復号化ステージ108は、残差再変換器118、加算器120、時間予測器122、計数器/乗算器124および更なる加算器126を含む。残差再変換器118および加算器120は、入力114に接続しているビデオ復号化ステージ108の入力128と、サンプル値再変換器112に接続されているビデオ復号化ステージの出力130との間に連続的に接続される。ループの形において、乗算器124、加算器126および時間予測器122は、加算器120の出力およびその更なる入力の間において、その順序で連続的に接続される。乗算器124および加算器126の更なる入力に適用される値は、ビデオ復号化ステージ108がデータストリーム入力128から引き出される重み付けおよびフセット・パラメータにしたがって制御される。
このように、それぞれ、実施例にしたがって、ビデオ・デコーダ100およびビデオ復号化ステージ108の内部構造を記載した後に、それらの動作モードが、以下において更に詳細に記載される。
すでに前述した様に、ビデオ・デコーダ100は、例えば、図1のビデオエンコーダによって生成されたデータストリームを復号化するためにある。データストリームは、ビデオ符号化ステージ20がサイド情報としてデータストリームに挿入した重み付けおよびオフセット・パラメータ50を用いて、より低いダイナミックレンジ・フォーマットでシーケンス30から引き出された。したがって、ビデオ・デコーダは、符号化側で用いられる重み付けおよびオフセット・パラメータ50にアクセスし、たとえば、若干の割合/歪曲最適化を経由して、符号化側で最終的に選択されるパラメータを使用して符号化側における再現を模倣することが可能である。
特に、ビデオ復号化ステージ108は、入力114を入力しているデータストリームから、例えばビデオ符号化ステージ20によって導入される量子化損失のような符号化損失とは別に、図1のシーケンス30に対応するフレーム32´の第2のシーケンス30´を再現するように構成される。フレーム32´のサンプル値34´は、したがって、最終的な再現されたシーケンス102のダイナミックレンジより低い第2のダイナミックレンジ42をカバーする第2のフォーマットにおいて表される。それがビデオ符号化ステージ20に関するものであったのと同じように、ビデオ復号化ステージ108は、参照としてデータストリーム入力114からなる、重み付けパラメータによって重み付けされ、オフセット・パラメータによってオフセットされた第2のシーケンス30´の参照フレームを使用して、第2のシーケンス30´の現行フレームの重み付けされた時間予測によって再現を実行する。パラメータ・セッター110は、同様に、第2のシーケンス30´の参照フレームおよび現行フレームの重み付けされたパラメータおよびオフセット・パラメータ50に対するマッピング・パラメータに応じて、第2のシーケンス30´の現行フレームのためにマッピング・パラメータ132を設定するように構成される。サンプル値再現器112は、次に、第2のシーケンスのそれぞれのフレームのためのマッピング・パラメータによって設定される40のような第1のダイナミックレンジからの部分の上に第2のダイナミックレンジ42をマッピングするサンプル値コンバータ18によって使用される写像関数とは逆の写像関数を用いて、第2のシーケンス30´のフレーム32´のサンプル値34´を第2のフォーマットから第1のフォーマットに変換するように構成される。
Figure 0006121331
このように、ビデオ復号化ステージ108によって出力されるシーケンス30´は、符号化側におけるビデオ符号化ステージ20に入力されるフレーム・シーケンス30の再現を表す。サンプル値再変換器112は、元の資料12に含まれるダイナミックレンジに適応するためにフレーム32´のサンプル値を十分なダイナミックレンジを有する一般のフォーマットにマッピングすることによって、このシーケンス30´を意味があるシーケンス102に変換する。このフォーマットは、シーケンス12のサンプル値16のフォーマットであるかもしれないが、そこからそれることもある。それぞれのフレーム32´のサンプル値34´がカバーするこの一般のダイナミックレンジの中の部分を得るために、サンプル値再変換器112は、順次これらのフレーム32´と関連した重み付け/オフセット・パラメータの連鎖を適用する。特に、現行フレームのために、サンプル値再変換器112は、現行フレームの参照フレームに対してすでに決定されている部分の位置および範囲の上に現行フレームのための重み付けおよびオフセット・パラメータを適用することによって、この部分、すなわちその位置および範囲を決定する。この基準によって、サンプル値再変換器112は、順次図1に示される部分38および48を回復する。
Figure 0006121331
図3のパラメータ・セッター110が単にサンプル値再変換器112に接続されているが、パラメータ・セッターは、それぞれ、サンプル値変換器およびビデオ符号化ステージ20を制御するために用いられている点にも留意する必要がある。符号化および復号化の間の外見上の相違は、エンコーダのビデオ符号化ステージ20が自由に重み付け/オフセット・パラメータを選択することができないという前述の事実から生じている。むしろ、それは外側から、すなわち、これらの重み付け/オフセット・パラメータを設定するときに、オリジナルの信号およびその分布44および46をそれぞれ考慮しなければならないパラメータ・セッター22によって規定される。しかしながら、パラメータ・セッター110は、入力110を経て到着するデータストリームに含まれるサイド情報を介した選択の結果によって導かれ、そして、このように、ビデオ復号化ステージ108は、同じ情報、すなわち重み付け/オフセット・パラメータ情報のパラメータ・セッターの評価から独立してデータストリーム内に含まれる重み付け/オフセット・パラメータ情報を用いることができ、したがって、パラメータ・セッター110からビデオ復号化ステージ108に導かれるコントロール・パスは必要ない。しかしながら、別の実施例によれば、パラメータ・セッター110は、ビデオ復号化ステージ108の設定およびコントロールの両方に対して、すなわち外側から責任を負うものと考えられる。後者の場合、コントロール・パスは、パラメータ・セッター110からビデオ復号化ステージ108まで通じる。
Figure 0006121331
Figure 0006121331
さらに、上述の説明と同様にビデオ復号化ステージ108はフレームの第2のシーケンスを再現する際の量子化ステップ・サイズ・パラメータを使用するように構成されることができ、そして、パラメータ・セッターは、第2のシーケンスのそれぞれのフレームのために設定されているように、第1のダイナミックレンジからの部分の長さに応じて第2のシーケンスのフレームのための量子化ステップ・サイズ・パラメータを設定するように構成される。この点に関しては、パラメータ・セッター110は、第2のシーケンスの始まっているフレームの量子化ステップ・サイズ・パラメータと区別してデータストリームから量子化ステップ・サイズ・パラメータを復号化するように構成されることができる。
上術のように、第1のシーケンスのフレームのサンプル値は、輝度浮動小数点値であるとみなされ、lumaの第2のシーケンスのフレームのサンプル値が整数値であると仮定され、他の可能性も存在する。
図5は、図1〜4に関して上で概説される実施例に従って符号化側から復号化側に送信されているデータストリームの典型的な部分を示す。データストリーム150がフレームの第1のシーケンス102を有し、そのサンプル値が、再現可能なフォームでそこに符号化される第1のダイナミックレンジをカバーする第1のフォーマットに示されることは、上述の説明から続く。特に、第1のシーケンスは、そのサンプル値が第1のダイナミックレンジより低い第2のダイナミックレンジ42をカバーする第2のフォーマットに示されるフレーム32の第2のシーケンス30を介して間接的にデータストリーム150に符号化され、第2のシーケンスは例として重み付けパラメータによって重み付けされオフセット・パラメータによってオフセットされる第2のシーケンス30´の第2のフレームを用いて第2のシーケンス30´の第1のフレームの重み付けされた時間予測によりデータストリームに符号化され、重み付けパラメータおよびオフセット・パラメータは、第2のシーケンス30´の第1のフレームのためのマッピング・パラメータ132が第2のシーケンス30´の第2のフレームのためのマッピング・パラメータに依存するようにデータストリームによって成り、重み付けパラメータおよびオフセット・パラメータ、および第2のシーケンスのフレーム32´のサンプル値34´が第2のシーケンスのそれぞれのフレームのためのマッピング・パラメータによって設定される第1のダイナミックレンジ40からの部分の上に第2のダイナミックレンジ42をマッピングする写像関数を用いて第2のフォーマットから第1のフォーマットに変換され、第1のシーケンスを再現する。換言すれば、データストリームは、各々フレーム30´および104のそれぞれの1つと関連したフレーム部分152に構成されることができる。各フレーム30´は、ブロック単位でデータストリーム150に符号化されることができる。各フレーム部分152は、例えば、運動ベクトルを含む運動予測データ154を含むことができる。さらに、各フレーム部分152データは、それぞれの要求において、重み付けおよびオフセット・パラメータ50を含むことができる。各フレーム部分の運動予測データ154が時間tにおいて前のフレーム部分、すなわち、提示された時間軸に沿ってフレーム部分152を配置するときにすぐに戻ることができるように、データストリームは符号化されることができる。すなわち、各フレームは参照フレームとして直前のフレームを使用しているPフレームでもよく、一般のダイナミックレンジ40からの部分はこの依存チェーンを使用して更新されることができる。単に、全体として最初の、すなわち、フレームシーケンスの出発時のフレーム158は、各GOP、すなわち(直前の)画像のグループのIフレームまたは最初のフレームである。この最初のフレーム158は、第1のフレーム158のためのマッピング・パラメータの明確な符号化160を組み込むことができた。あるいは、この明確な符号化160でさえ、不必要であるかもしれない。さらに、各フレーム152または最初のフレーム158以外の各フレーム152は、そこにおいて、残差再現器118における反量子化に用いられ、部分38の長さの依存を設定する量子化ステップ・サイズを規定する量子化ステップ・サイズ・パラメータ162を符号化することができた。特に、量子化ステップ・サイズ・パラメータ162は、参照として最初のフレーム部分158の(明確に、または、暗に決定された)量子化ステップ・サイズ・パラメータを使用する異なる方法でデータストリームに符号化されることができた。
むしろ一般の条件を用いて、符号化および復号化装置のための実施例を記載した後に、前記実施例の具体的な実施態様を表しているより詳細な実施例が以下において概説される。以下において概説される具体的な実施の詳細によれば、フレーム的な適応する輝度からlumaへのマッピングは、それぞれ、ビデオ復号化/符号化ステージおよびサンプル値再変換/変換との間の移行を実行するために用いられる。以下で概説される実施例によれば、H.264/AVCの重み付け予測ツールは、時間的コヒーレンスを維持するために活用される。換言すれば、以下に述べる実施例によれば、H.264のような実施例におけるビデオ符号化ステージおよびビデオ復号化カテージは実際に存在し、すなわち、ビデオ符号化ステージ20はH.264に従ったデータストリームを生成し、ビデオ復号化ステージ108はH.264/AVC規格に従って実施される。図5のデータストリームは、完全にH.264/AVCに合致する。重み付け予測ツールは、このように、時間的コヒーレンスを維持するために利用されるだけでなく、サンプル値変換のために用いられる適応マッピング・パラメータを送信する。さらに、実施例は、量子化パラメータ(QP)を適応マッピングに依存している各フレームに適応させる方法に関して示される。
このように、以下において、図1〜5の概略の実施例について、数学的方程式を用いてより詳細に説明される。その後、セクション2において、これらの実施の詳細を使用している実験の結果が提示される。
Figure 0006121331
明らかに、マッピングは、それぞれ、YminおよびYmaxが現在のビデオフレームの最小限および最大限の輝度に等しいとき最も高い忠実度を達成する。すなわち、ビデオフレームの既存の輝度の値が十分にマッピングされる場合、lumaは最も急な可能な傾斜を有する写像関数によって変動する。しかしながら、ダイナミックレンジが1つのフレームから次(静的場面においても、ノイズにより)まで変化することができるので、この種の直接の適合はビデオ・シーケンスの時間的コヒーレンスを壊して、効果的な時間的予測を防止する。次の部門は、この種の効果を考慮に入れる適応マッピングを提示する。
Figure 0006121331
Figure 0006121331
Figure 0006121331
Figure 0006121331
Figure 0006121331
Figure 0006121331
Figure 0006121331
2. 実験の結果
第1節の時間的コヒーレントな輝度からlumaへのマッピングを評価するために、我々は、3つのHDR試験シーケンスの符号化実験を行った。パノラマ、トンネルおよび太陽である。すべてのシーケンスは、640×480ピクセルの解像度と30fpsのフレームレートを有する。パノラマ試験シーケンスは、8000×4000ピクセルHDRパノラマイメージをパンすることによって生成された。ウインドウの外側からの非常に明るい太陽反射と同様に暗い内部域が示される。その全体のダイナミックレンジは、1010:1の割合である。両方とも、トンネルおよび太陽は、HDRビデオ・カメラを有する駆動車内部からとられたものであり、それはマックス−プランク研究所[8]から入手可能である。前者は暗いトンネル内のドライブを示し、後者は明るい太陽に向かっているハイウェイ上のドライブを示す。これらのシーケンスにおいて表される全体のダイナミックレンジは、それぞれ、105:1および107:1である。我々の実験において、我々は、復号化HDRビデオの品質を評価するために、2つの測定基準を使用する。HDR可視差予測器(VDP)[9]および知覚的に同一のピークの信号対雑音比(PU PSNR)[10]である。前者は、看者が75%以上の確率をもって異なるものと気付く一対の画像のピクセルのパーセンテージを推定する。後者の測定基準は、HDRに対する一般のPSNR測定基準の直接の拡張である。LDR画像のために、ガンマ補正ピクセル・コード値が知覚的均一、すなわち等しいエラーの大きさがイメージの明暗部分において等しく見える値であると仮定される。しかしながら、この仮定はHDRイメージを保たず、従って、意味があるPSNR値が計算されることができる前に、コード値は知覚的に同一の空間に拡大・縮小されなければならない[10]。
シーケンスを符号化するために、それらは、最初にRGB浮動小数点値からLogLuv空間に変換されて、それからH.264/AVC参照ソフトウェアJM 17.2を用いて符号化される。luma成分は12ビット/サンプルのビット深度で符号化され、u´およびv´成分は2つの垂直におよび水平に副サンプルをとられて、8ビット/サンプルで符号化される。我々は、全ての実験に対して可能な、8×8変換、IPPP GOP構造、15のイントラ・フレーム期間、およびCABACと同じH.264/AVCの構成を使用する。固定参照QPは各エンコーダの実行のために選択され、そして、レートコントロールは可能にされない。しかしながら、フレーム的なQPは、セクション1.3において説明したように、この参照QPから逸脱することができる。シーケンスを復号化した後に、それらはRGB浮動小数点値へ戻ってマッピングされ、それらの品質は前に記載されている測定基準に従って評価される。
特に、図7は、セクション1(「計画される」)、時間的コヒーレンスのない各フレームに対するフレーム的な適合(「フレーム的な」)[6]、および全部の視覚の輝度範囲のコンスタントなマッピング[10-4、108](「視覚範囲」)の3つのケースについて符号化の結果を示す。上の列:可視差予測器(VDP)。下の列:知覚的に同一のピークの信号−ノイズ比(PU PSNR)。
図7は、すべての復号化フレーム(上の列)を通じて平均化されたVDPに関して、そして、輝度成分(下の列)の平均PU PSNRに関して、すべての試験シーケンスについての符号化結果を示す。特に、図7は、時間的コヒーレント・マッピング(「計画される」)、時間的コヒーレンスのない各フレームw/oのためのフレーム的な適合(「フレーム的な」)[6]、および全ての視覚の輝度範囲[10-4、108](「視界」)の恒常的なマッピング3つのケースのための符号化結果を示す。上の列:可視差予測器(VDP)。下の列:知覚的に同一のピークの信号対ノイズ比(PU PSNR)。
計画された方法(「計画される」)は、図7における2つの参照方法と比較され、それは、時間的コヒーレンス(「フレーム的な」)を考慮することのない各フレームのダイナミックレンジに対する輝度に対するlumaのマッピングの直接のフレーム的な適合[6]、および全部の知覚できる輝度範囲[10-4、108](「視界」)の恒常的なマッピングである。後者の場合、写像関数の輝度範囲は、多くのHDRビデオ・シーケンスにおいて発生している輝度の範囲を超えているかもしれない。しかしながら、リアルタイム符号化アプリケーションにおいて、シーケンスの絶対の輝度範囲に対してマッピング範囲を狭くすることは可能でない。なぜならば、これは符号化の前に全部のシーケンスの処理を必要とするからである。図7は、全ての試験シーケンスについて、提案されたマッピングが著しく参照方法より優れていることを明らかに示している。VDP測定基準は、ピクセルが間違っているかどうかを把握しているかどうかについての見込みを提供するだけである閾値測定基準であることに注目すべきである。それは、このエラーが看者のためにどれくらい面倒かについて告示しない。このように、例えば、図7(a)の結果は、以下の通りに解釈されることができる。我々によってピクセルの約1%が誤って認められることができる場合、提案されたマッピングについては、我々は2500kbits/s未満のビット・レートを必要とするだけである。これは、我々が同じVDP値を「視界」(「フレーム的な」)シナリオにおいて成し遂げるために費やさなければならない5000kbits/s(3250kbits/s)と比較した約50%(25%)の減少である。同様に、大きな節約は、図7(b)および(c)のトンネルおよび太陽試験シーケンスのために観察されることができる。
予想通りに、PU PSNRは、全てのシーケンスに対してVDP結果と同様に類似の定量的特性を表現する図7(d)−(f)の結果となる。さらに、それらは、ビット・レートのかなりの範囲のための提案された方法によって成し遂げられることができる品質の増加の定量的結果を許容する。たとえば、パノラマ・シーケンスに対して、提案された方法のPu PSNR値は、3250kbits/s(参照図7(d))での3dBによる「視界」マッピングのPu PSNR値を上回る。これは、知覚的に同一の輝度空間における平均二乗エラーが同じビット・レートで半分にされ、そして、視覚の品質が著しく増加することを意味する。
それは、パノラマ・シーケンスのために、フレーム的な適応マッピングが非適応「視界」マッピングと比較して符号化効率の上で非常に有害な影響を及ぼす点に考慮する必要がある。このシーケンスはそのダイナミックレンジの非常に大きいおよび速いバリエーションを呈し、従って、フレーム的な適応マッピングの場合、時間予測は失敗する(図7(a)(d)参照)。一方において、 (e) ほぼ「フレーム的な」マッピングと同一の提案された方法が図7(b)および(c)において観察されることができる。このシーケンスにおいて、ダイナミックレンジの時間的変更は、非常に滑らかである。我々の実験において、我々は、ダイナミックレンジが著しく変化するときはいつでも、「フレーム的な」マッピングのために、ビット・レートおよび品質の強い時間的バリエーションが存在すると更に述べた。この負の効果は、提案された方法の時間的に整合的コヒーレントおよびマッピングによって避けることができる。
3. 結論
セクション1において、最新技術のH.264/AVCビデオ符号化基準を有する浮動小数点の高さのダイナミックレンジ・ビデオデータの圧縮を可能にする輝度からlumaへのマッピングが提案された。他の方法とは異なり、マッピングは、各フレームのダイナミックレンジに適合している。それにもかかわらず、H.264/AVCの重み付けされた予測ツールを利用することにより、そして、写像関数に従って量子化パラメータのフレーム的な適合を適用することによって、時間的コヒーレンスは維持されている。付加的なサイド情報は不要であり、非適応方法と比較した50%以上の重要なビット・レート節減は同じ品質で観察されることができる。
Figure 0006121331
さらに、すでに上術したように、輝度に対するlumaへのマッピングの代わりに、他のマッピングは上で概説される実施例の主題でありえた。換言すれば、サンプル値は、輝度以外の情報に関係することができる。さらに、図2および図4のビデオ符号化ステージ20およびビデオ復号化ステージ108は、単に図示する特質としてだけ理解されることになっている。たとえば、残差信号88をエントロピー符号化することに関与するエントロピー符合器62が中止され、同様に、エントロピー復号器129は、入力128および図4のビデオ復号化ステージ108の残差再現器118の間にそれを任意に接続することができる。
若干の態様が装置の文脈に記載されたが、これらの態様も対応する方法の説明を表すことは明らかであり、そこにおいて、ブロックまたは装置は、方法ステップまたは方法ステップの特徴に対応する。類似して、方法ステップの文脈に記載されている態様は、対応する装置の対応するブロックまたは部材または特徴の説明を表す。いくらかのまたは全てのステップは、例えば、マイクロプロセッサ、プログラム可能なコンピュータまたは電子回路などのハードウェア装置によって(または用いて)実行される。いくつかの実施形態において、最も重要な方法ステップの若干または一つ以上は、この種の装置によって実行されることができる。
発明のデータストリームは、デジタル記憶媒体に保存されることができるか、またはインターネットなどの無線伝送媒体または有線の伝送媒体のような伝送媒体上で送信されることができる。
特定の実施要件に応じて、本発明の実施例は、ハードウェアにおいて、または、ソフトウェアで実施されることができる。実施は、その上に格納される電子的に読み込み可能な制御信号を有するデジタル記憶媒体、例えばフレキシブルディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROMまたはフラッシュメモリを使用して実行されることができ、それぞれの方法が実行されるように、それはプログラム可能なコンピュータシステムと協働する(または協働することができる)。したがって、デジタル記憶媒体は、計算機可読であってもよい。
本発明による若干の実施例は、電子的に読み込み可能な制御信号を有するデータキャリアを含み、本願明細書において記載されている方法のうちの1つが実行されるように、それはプログラム可能なコンピュータシステムと協働することができる。
通常、本発明の実施例はプログラムコードを有するコンピュータ・プログラム製品として実施されることができ、コンピュータ・プログラム製品がコンピュータで動くときに、プログラムコードが方法のうちの1つを実行するために実施される。プログラムコードは、機械読み取り可読キャリアに例えば格納されることができる。
他の実施例は、本願明細書において記載されていて、機械読み取り可読キャリアに格納される方法のうちの1つを実行するためのコンピュータ・プログラムを含む。
換言すれば、発明の方法の実施例は、従って、コンピュータ・プログラムがコンピュータで動くとき、本願明細書において記載されている方法のうちの1つを実行するためのプログラムコードを有するコンピュータ・プログラムである。
発明の方法の更なる実施例は、従って、その上に記録されて、本願明細書において記載されている方法のうちの1つを実行するためのコンピュータ・プログラムを含むデータキャリア(またはデジタル記憶媒体またはコンピュータ可読媒体)である。データキャリア、デジタル記憶媒体または記録媒体は、典型的に有形および/または変化しないものである。
発明の方法の更なる実施例は、従って、本願明細書において記載されている方法のうちの1つを実行するためのコンピュータ・プログラムを表しているデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、データ通信接続を経て、例えばインターネットで転送されるように例えば構成されることができる。
更なる実施例は、ここに記載された方法の1つを実行し、または適応させるように構成された処理手段、例えばコンピュータまたはプログラム可能な論理装置を含む。
更なる実施例は、ここに記載されている方法のうちの1つを実行するためのコンピュータ・プログラムをインストールしたコンピュータを含む。
本発明による更なる実施例は、レシーバに本願明細書において記載されている方法のうちの1つを実行するためのコンピュータ・プログラムを移す(例えば、電子的に、または、光学的に)ように構成される装置またはシステムを含む。レシーバは、例えば、コンピュータ、モバイル機器、メモリデバイス等であってもよい。装置またはシステムは、例えば、コンピュータ・プログラムをレシーバに移動するためのファイル・サーバを含む。
いくつかの実施形態において、プログラマブル論理装置(例えばフィールド・プログラマブル・ゲート・アレイ)は、本願明細書において記載されている方法の機能のいくらかまたは全てを実行するために用いることができる。いくつかの実施形態では、フィールド・プログラマブル・ゲート・アレイは、本願明細書において記載されている方法のうちの1つを実行するために、マイクロプロセッサと協働することができる。通常、方法は、いかなるハードウェア装置によっても好ましくは実行される。
上記した実施例は、本発明の原理のために、単に図示されているだけである。配置の修正変更および本願明細書において記載されている詳細は、他の当業者にとって明らかであるものと理解される。したがって、間近に迫った特許クレームの範囲だけによって制限され、本願明細書において実施例の説明および説明として示される具体的な詳細だけで制限されないことが意図されている。
他の語においてさえ、高いダイナミックレンジ・ビデオ(HDR)シーケンスの効果的な圧縮に適している実施例は、記載されていた。H.264/AVCビデオ符号化基準と互換性を持つ符号化表現を得るために、浮動小数点HDR値は、適切な整数表現にマッピングされる。使用されるマッピングは、各ビデオフレームのダイナミックレンジに適している。さらに、フレーム全体の関連する動的なコントラスト変化を補償するために、重み付け予測方法および量子化適応が導入される。
他の観点から、前記実施例はまた、EP10151074.1に記載されているAdaptive−LogLuv変換の改良であり、その説明はさらに詳しくするために組み込まれている。基本的に、EP10151074.1のそれと類似の整数値に対するフロートの適応対数関数的マッピングが、用いられた。しかしながら、このマッピングのパラメータは、完全に自由ではない。その代わりに、それらは、前記実施例に従って、H.264/AVCビデオ・コーデックの特徴および特にH.264/AVCの重み付け予測(WP)ツールに合うために制限される。これらの規制については、以下の利点が得られた。(1) WPツールは、時間的コヒーレンスを確実にするために用いることができる。(2) WPのためのH.264/AVC構文はLogLuvマッピングのパラメータを示すために用いることができ、付加的なサイド情報の必要を取り除く。前記説明において、どのように適応マッピングに依存しているH.264/AVCコーダーの量子化パラメータを適応させるべきかが示された。
参照
[1] Eric Reinhard, Greg Ward, Sumanta Pattanaik, and Paul Debevec, High Dynamic Range Imaging: Acquisition, Display, and Image-Based Lighting, Morgan Kaufmann Publishers Inc., San Francisco, CA, USA, 2005
[2] J. A. Ferwerda, "Elements of early vision for computer graphics," IEEE Comp. Graph. and Appl., vol. 21, no.5, pp.22-33, 2001
[3]Gregory Ward Larson, "The Logluv encoding for full gamut, highdynamic range images," Journal of Graph. Tools. Vol.3, no, 1, pp.15-31, 1998
[4]Rafal Mantiuk, Grzegorz, Krawczyk, Karol Myszkowski, and Hans-Peter Seidel,"Perception-motivated high dynamic range video encoding" ACM Trans. Graph., vol.23, no,3,pp.733-741,2004
[5]Masahiro Okuda and Nicola Adami, "Effictive color space representation for wavelet based compression of HDR images," in International Conference on Image Analysis and Processing, 2007,pp.388-392
[6]Ajit Motra and Herbert Thoma, "An adaptive LogLuv transform for high dynamic range video compression," in Proc. Intl. Conf. on Image Processing (ICIP), Hong Kong, China, Sept.2010
[7]J.M. Boyce, "Weighted prediction in the H.264/MPEG AVC video coding standard," in Proc. Intl. Symposium on Circuits and Systems (ISCAS), May 2004,pp.789-792
[8]Grzegorz Krawczy, "HDR video environment maps samples," HYPERLINK "http://www.mpi-inf.mpg.de/resources/bdr/video/,MPI" http://www.mpi-inf.mpg.de/resources/bdr/video/,MPI
[9]Rafal Mantiuk, Scot Daly, Karol Myszkowski, and Hans-Peter Seidel, "Predicting visible differences in high dynamic range images−model and its calibration," in SPIE Human Vision and Electronic Imaging X, 2005.
[10]TunC, Ozan Aydm, Rafal Mantiuk, and Hans−Peter Seidel, "Extending quality metrics to full dynamic range images," inSPIE Human Vision and Electronic Imaging XIII, San Jose, USA,Jan.2008

Claims (7)

  1. そのサンプル値がデータストリームから第1のダイナミックレンジをカバーする第1のフォーマットで表されるフレームの第1のシーケンス(102)を再現するためのビデオデコーダであって、
    参照フレームとして、重み付けパラメータによって重み付けされ、データストリームからなるオフセット・パラメータによりオフセットされる、第2のシーケンス(30´)の第2のフレームを用いて第2のシーケンス(30´)の第1のフレームの重み付けされた時間予測により、そのサンプル値が第1のダイナミックレンジより低い第2のダイナミックレンジ(42)をカバーする第2のフォーマットで表されるフレーム(32´)の第2のシーケンス(30´)をデータストリームから再現するように構成されるビデオ復号化ステージ(108)、
    第2のシーケンス(30´)の第2のフレームのためのマッピング・パラメータ、重み付けパラメータおよびオフセット・パラメータに応じて第2のシーケンス(30´)の第1のフレームのためのマッピング・パラメータ(132)を設定するように構成されるパラメータ・セッター(110)、および
    部分(38)の下界および上界ならびに長さが、第2のシーケンスのそれぞれのフレームのためのマッピング・パラメータによって設定され、第1のダイナミックレンジ(40)からの部分(38)に第2のダイナミックレンジ(42)をマッピングする写像関数を用いて第2のシーケンスのフレーム(32´)のサンプル値(34´)を第2のフォーマットから第1のフォーマットに変換するように構成されたサンプル値再変換器(112)を含む、ビデオデコーダ
  2. マッピング・パラメータは、第2のシーケンスの第1のフレームを得るために、第1のダイナミックレンジ(40)からの部分(38)の長さおよび第1のダイナミックレンジからの部分(38)の下界および上界を定め、パラメータ・セッターは、第2のシーケンスの第1のフレームのための運動パラメータによって規定される部分(38)の長さを引き出すための重み付けパラメータに応じて第2のシーケンス(30´)の第2のフレームのための運動パラメータによって規定される第1のダイナミックレンジ(40)からの部分(48)の長さを変更することにより、および、オフセット・パラメータに応じて第2のシーケンスの第2のフレームのための運動パラメータによって規定される第1のダイナミックレンジ(40)からの部分(48)の下界または上界を変更することにより、第2のシーケンス(30´)の第1のフレームのためのマッピング・パラメータを設定するように構成される、請求項1に記載のビデオデコーダ。
  3. Figure 0006121331
  4. ビデオ復号化ステージ(108)が、第2のシーケンスのそれぞれのフレームに設定されているように、フレームの第2のシーケンスの再現において量子化ステップ・サイズ・パラメータを使用するように構成され、パラメータ・セッターが第1のダイナミックレンジからの部分(38)の長さに応じて第2のシーケンスのフレームのための量子化ステップ・サイズ・パラメータを設定するように構成される、請求項1ないし請求項3のいずれかに記載のビデオデコーダ。
  5. 第1のシーケンスのフレームのサンプル値は輝度浮動小数点値であり、第2のシーケンスのフレームのサンプル値は、luma整数値である、請求項1ないし請求項4のいずれかに記載のビデオデコーダ。
  6. そのサンプル値が第1のダイナミックレンジをカバーする第1のフォーマットに表されるフレームの第1のシーケンス(102)をデータストリームから再現するための方法であって、
    参照フレームとして、重み付けパラメータによって重み付けされデータストリームからなるオフセット・パラメータによってオフセットされる第2のシーケンス(30´)の第2のフレームを用いて第2のシーケンス(30´)の第1のフレームの重み付けされた時間予測により、第1のダイナミックレンジより低い第2のダイナミックレンジ(42)をカバーする第2のフォーマットに表されるサンプル値のフレーム(32´)の第2のシーケンス(30´)をデータストリームから再現する工程、
    第2のシーケンス(30´)の第2のフレームのためのマッピング・パラメータ、重み付けパラメータおよびオフセット・パラメータに応じて第2のシーケンス(30´)の第1のフレームのためのマッピング・パラメータ(132)を設定する工程、および
    部分(38)の下界および上界ならびに長さが、第2のシーケンスのそれぞれのフレームのためのマッピング・パラメータによって設定され、第1のダイナミックレンジ(40)からの部分(38)に第2のダイナミックレンジ(42)をマッピングする写像関数を用いて第2のシーケンスのフレーム(32´)のサンプル値(34´)を第2のフォーマットから第1のフォーマットに変換する工程を含み、前記各工程をコンピュータに実行させるための方法。
  7. コンピュータに、請求項6に記載の方法を実行させるためのプログラムコードを有するコンピュータ・プログラムが格納されたコンピュータ読み取り可能なデジタル記憶装置。
JP2013534258A 2010-10-19 2011-10-12 時間的コヒーレンス・ダイナミックレンジ・マッピングを用いたビデオ符号化および復号化 Active JP6121331B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US39440510P 2010-10-19 2010-10-19
US61/394,405 2010-10-19
EP11166909A EP2445214A1 (en) 2010-10-19 2011-05-20 Video coding using temporally coherent dynamic range mapping
EP11166909.9 2011-05-20
PCT/EP2011/067840 WO2012052338A1 (en) 2010-10-19 2011-10-12 Video coding using temporally coherent dynamic range mapping

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016217593A Division JP6453832B2 (ja) 2010-10-19 2016-11-07 時間的コヒーレンス・ダイナミックレンジ・マッピングを用いたビデオ符号化

Publications (3)

Publication Number Publication Date
JP2013545371A JP2013545371A (ja) 2013-12-19
JP2013545371A5 JP2013545371A5 (ja) 2016-04-28
JP6121331B2 true JP6121331B2 (ja) 2017-04-26

Family

ID=44117856

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013534258A Active JP6121331B2 (ja) 2010-10-19 2011-10-12 時間的コヒーレンス・ダイナミックレンジ・マッピングを用いたビデオ符号化および復号化
JP2016217593A Active JP6453832B2 (ja) 2010-10-19 2016-11-07 時間的コヒーレンス・ダイナミックレンジ・マッピングを用いたビデオ符号化

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016217593A Active JP6453832B2 (ja) 2010-10-19 2016-11-07 時間的コヒーレンス・ダイナミックレンジ・マッピングを用いたビデオ符号化

Country Status (15)

Country Link
US (2) US9532047B2 (ja)
EP (2) EP2445214A1 (ja)
JP (2) JP6121331B2 (ja)
KR (1) KR101531119B1 (ja)
CN (1) CN103262535B (ja)
AR (1) AR083481A1 (ja)
AU (1) AU2011319562B2 (ja)
BR (1) BR112013009596A2 (ja)
CA (1) CA2815158C (ja)
ES (1) ES2663213T3 (ja)
MX (1) MX2013004362A (ja)
RU (1) RU2550533C2 (ja)
TR (1) TR201802251T4 (ja)
TW (1) TWI539822B (ja)
WO (1) WO2012052338A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420302B2 (en) 2012-01-24 2016-08-16 Dolby Laboratories Licensing Corporation Weighted multi-band cross color channel predictor
CA2873496A1 (en) * 2012-05-14 2013-11-21 Luca Rossato Encoding and decoding based on blending of sequences of samples along time
GB2513111A (en) * 2013-04-08 2014-10-22 Sony Corp Data encoding and decoding
WO2015062942A1 (en) * 2013-10-31 2015-05-07 Thomson Licensing Method and device for predictive coding/decoding of a group of pictures of a sequence of images with conversion of the dynamic of the values of the pixels
WO2015073373A1 (en) * 2013-11-12 2015-05-21 Dolby Laboratories Licensing Corporation Pre-dithering in high dynamic range video coding
EP3074946B1 (en) 2013-11-27 2018-10-17 Thomson Licensing Method and device for quantising the floating value of a pixel in an image
US10271054B2 (en) * 2014-02-25 2019-04-23 Apple, Inc. Display-side adaptive video processing
US10104388B2 (en) * 2014-06-30 2018-10-16 Sony Corporation Video processing system with high dynamic range sensor mechanism and method of operation thereof
WO2016020189A1 (en) * 2014-08-08 2016-02-11 Koninklijke Philips N.V. Methods and apparatuses for encoding hdr images
FR3018149A1 (fr) * 2014-09-02 2015-09-04 Thomson Licensing Procede et dispositif de selection d'un operateur de conversion de dynamique d'image, programme d'ordinateur et support de stockage correspondant
US10531109B2 (en) 2015-01-27 2020-01-07 Dolby Laboratories Licensing Corporation Predictive image encoding and decoding with pixel group based quantization
WO2016172394A1 (en) * 2015-04-21 2016-10-27 Arris Enterprises Llc Adaptive perceptual mapping and signaling for video coding
US10306240B2 (en) * 2015-06-08 2019-05-28 Vid Scale, Inc. Intra block copy mode for screen content coding
EP3107300A1 (en) * 2015-06-15 2016-12-21 Thomson Licensing Method and device for encoding both a high-dynamic range frame and an imposed low-dynamic range frame
KR102403360B1 (ko) * 2015-06-16 2022-05-30 광운대학교 산학협력단 하위 호환성을 고려한 hdr 영상 복호화 장치에서 다이나믹 레인지 매핑 정보를 이용하는 방법 및 장치
US10244249B2 (en) * 2015-09-21 2019-03-26 Qualcomm Incorporated Fixed point implementation of range adjustment of components in video coding
ITUB20155949A1 (it) * 2015-11-26 2017-05-26 Trellis Europe S R L Metodo per la codifica e decodifica di immagini hdr
EP3235236B1 (en) * 2015-12-17 2018-06-20 Koninklijke Philips N.V. Dynamic range coding for images and video
CN107027027B (zh) * 2016-01-31 2021-02-12 西安电子科技大学 图像的编码、解码方法及装置、以及图像的编解码系统
JP7061073B6 (ja) * 2016-03-18 2022-06-03 コーニンクレッカ フィリップス エヌ ヴェ Hdrビデオの符号化及び復号
ITUA20163652A1 (it) 2016-05-20 2017-11-20 Trellis Europe S R L Metodo per la codifica e decodifica di immagini hdr
US10810970B1 (en) * 2017-03-29 2020-10-20 Sharp Kabushiki Kaisha Display device
WO2019057846A1 (en) * 2017-09-21 2019-03-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. CONCEPT FOR VARYING A CODING QUANTIFICATION PARAMETER IN AN IMAGE, ADJUSTING A CODING QUANTIFICATION PARAMETER AND ADAPTING A CODING QUANTITY PARAMETER OF A MULTI-CHANNEL IMAGE
WO2019205117A1 (en) * 2018-04-28 2019-10-31 Intel Corporation Weighted prediction mechanism
WO2021093980A1 (en) * 2019-11-15 2021-05-20 Huawei Technologies Co., Ltd. Device and method for pre-processing image data for a computer vision application

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5440344A (en) * 1992-04-28 1995-08-08 Mitsubishi Denki Kabushiki Kaisha Video encoder using adjacent pixel difference for quantizer control
US6028608A (en) * 1997-05-09 2000-02-22 Jenkins; Barry System and method of perception-based image generation and encoding
US6560285B1 (en) * 1998-03-30 2003-05-06 Sarnoff Corporation Region-based information compaction as for digital images
JP4186470B2 (ja) * 2002-02-05 2008-11-26 ソニー株式会社 符号化処理装置、復号処理装置、および方法、並びにコンピュータ・プログラム
RU2287909C2 (ru) * 2004-12-15 2006-11-20 Московский технический университет связи и информатики Способ преобразования цифрового сигнала изображения и устройство для его реализации
US8014445B2 (en) 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
WO2007116551A1 (ja) * 2006-03-30 2007-10-18 Kabushiki Kaisha Toshiba 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
GB2444992A (en) * 2006-12-21 2008-06-25 Tandberg Television Asa Video encoding using picture division and weighting by luminance difference data
JP2008227702A (ja) * 2007-03-09 2008-09-25 Oki Electric Ind Co Ltd 動きベクトル探索装置、動きベクトル探索方法及び動きベクトル探索プログラム
US7983496B2 (en) * 2007-06-26 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Inverse tone mapping for bit-depth scalable image coding adapted to variable block sizes
EP2193661A4 (en) * 2007-06-27 2011-10-19 Thomson Licensing METHOD AND APPARATUS FOR ENCODING AND / OR DECODING VIDEO DATA USING RESIDUAL PREDICTION OF IMPROVING LAYER FOR SCALABILITY OF BINARY DEPTH
BRPI1009443B1 (pt) * 2009-03-13 2021-08-24 Dolby Laboratories Licensing Corporation Método de geração de parâmetros de mapeamento de tons inverso, método de compactação de dados de vídeo e método para geração de um fluxo de bits de saída a partir de um fluxo de bits de entrada

Also Published As

Publication number Publication date
EP2630794B1 (en) 2017-12-13
JP6453832B2 (ja) 2019-01-16
US10205958B2 (en) 2019-02-12
BR112013009596A2 (pt) 2016-07-12
MX2013004362A (es) 2013-06-05
WO2012052338A1 (en) 2012-04-26
RU2013122852A (ru) 2014-11-27
ES2663213T3 (es) 2018-04-11
JP2013545371A (ja) 2013-12-19
CA2815158C (en) 2016-08-16
TW201234860A (en) 2012-08-16
AU2011319562A1 (en) 2013-05-02
US20130223531A1 (en) 2013-08-29
RU2550533C2 (ru) 2015-05-10
EP2445214A1 (en) 2012-04-25
KR101531119B1 (ko) 2015-06-23
KR20130084670A (ko) 2013-07-25
CN103262535A (zh) 2013-08-21
US20170064324A1 (en) 2017-03-02
CN103262535B (zh) 2016-08-31
JP2017073792A (ja) 2017-04-13
TWI539822B (zh) 2016-06-21
US9532047B2 (en) 2016-12-27
TR201802251T4 (tr) 2018-03-21
CA2815158A1 (en) 2012-04-26
AR083481A1 (es) 2013-02-27
AU2011319562B2 (en) 2015-08-06
EP2630794A1 (en) 2013-08-28

Similar Documents

Publication Publication Date Title
JP6453832B2 (ja) 時間的コヒーレンス・ダイナミックレンジ・マッピングを用いたビデオ符号化
Mantiuk et al. Perception-motivated high dynamic range video encoding
CN107211128B (zh) 自适应色度下采样和色彩空间转换技术
RU2586837C2 (ru) Интер-уровневое предсказание между уровнями с разным динамическим диапазоном значения отсчетов
US10013746B2 (en) High dynamic range video tone mapping
CN105264888A (zh) 用于对色彩空间、色彩采样率和/或比特深度自适应切换的编码策略
Garbas et al. Temporally coherent luminance-to-luma mapping for high dynamic range video coding with H. 264/AVC
WO2012031107A1 (en) Method and system for illumination compensation and transition for video coding and processing
JP2009130931A (ja) 映像の解像度の調整を通じて動画を効率的に符号化/復号化する方法及び装置
KR20120116936A (ko) 영상 블록 코딩 및 재구성 방법
US20170171565A1 (en) Method and apparatus for predicting image samples for encoding or decoding
KR20160102414A (ko) 높은 동적 범위 이미지를 인코딩 및/또는 비트스트림을 디코딩하기 위한 방법 및 장치
US20190289329A1 (en) Apparatus and a method for 3d video coding
KR20160147670A (ko) 높은 동적 범위 프레임 및 강제된 낮은 동적 범위 프레임 양자 모두를 인코딩하기 위한 방법 및 디바이스
JP2013098984A (ja) 画素ブロックを符号化及び再構成する方法、並びに対応する装置
US20220182643A1 (en) No Reference Image Quality Assessment Based Decoder Side Inter Prediction
CA2785230C (en) Method and apparatus for determining reproduction accuracy of decompressed video
Le Dauphin et al. Prediction-guided quantization for video tone mapping
Nascimento et al. H. 264/AVC backward compatible bit-depth scalable video coding
KR20070070626A (ko) 촬영 장치 및 영상 보정 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140926

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160301

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20160301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161202

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170329

R150 Certificate of patent or registration of utility model

Ref document number: 6121331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250