JP2017017684A - 高ダイナミックレンジフレームおよびインポーズされる低ダイナミックレンジフレームの両方を符号化するための方法およびデバイス - Google Patents

高ダイナミックレンジフレームおよびインポーズされる低ダイナミックレンジフレームの両方を符号化するための方法およびデバイス Download PDF

Info

Publication number
JP2017017684A
JP2017017684A JP2016119120A JP2016119120A JP2017017684A JP 2017017684 A JP2017017684 A JP 2017017684A JP 2016119120 A JP2016119120 A JP 2016119120A JP 2016119120 A JP2016119120 A JP 2016119120A JP 2017017684 A JP2017017684 A JP 2017017684A
Authority
JP
Japan
Prior art keywords
frame
decoded
residual
imposed
backlight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016119120A
Other languages
English (en)
Other versions
JP2017017684A5 (ja
JP7043164B2 (ja
Inventor
ラセール セバスチャン
Lasserre Sebastien
ラセール セバスチャン
アンドリフォン ピエール
Andrivon Pierre
アンドリフォン ピエール
ボルデ フィリペ
Bordes Philippe
ボルデ フィリペ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2017017684A publication Critical patent/JP2017017684A/ja
Publication of JP2017017684A5 publication Critical patent/JP2017017684A5/ja
Application granted granted Critical
Publication of JP7043164B2 publication Critical patent/JP7043164B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • G09G2320/0646Modulation of illumination source brightness and image signal correlated to each other
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2350/00Solving problems of bandwidth in display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/342Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines
    • G09G3/3426Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines the different display panel areas being distributed in two dimensions, e.g. matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】高ダイナミックレンジフレームおよびインポーズされる低ダイナミックレンジフレームの両方を符号化するための効率的な方法を提供する。
【解決手段】バックライトフレームを高ダイナミックレンジ(HDR)フレームから決定するステップと、HDRフレームおよびバックライトフレームに対応する残差フレームを算出するステップと、インポーズされるフレーム(IMF)から算出される残差フレームの予測子を使用して残差フレームを予測符号化するステップと、を備える符号化方法およびデバイスであって、インポーズされるフレームはHDRフレームの低ダイナミックレンジバージョンである。
【選択図】図1

Description

本開示は一般的には、フレーム/ビデオ符号化および復号に関する。特に本開示の技術分野は、フレームであって、その画素値が高ダイナミックレンジに属するフレームの、および、フレームであって、その画素値がより低いダイナミックレンジに属するフレームの符号化/復号に関係付けられるものである。
本セクションは、読者に、下記で説明および/または特許請求される本開示の様々な態様に関係付けられ得る、技術の様々な態様を紹介することを意図している。この議論は、読者に背景情報を提供して、本開示の様々な態様を容易により良く理解することに役立つと確信する。したがって、これらの説明は、この観点から読むべきであり、従来技術の自白として読むべきでないことを理解すべきである。
標準ダイナミックレンジフレーム(SDRフレーム)はフレームであるが、その輝度値が、制限される数のビット(8または10であることが最も多い)によって表される。この限定的な表現は、特に、暗い、および明るい輝度範囲での小さな信号変動の正しいレンダリングを可能としない。高ダイナミックレンジフレーム(HDRフレーム)では信号表現は、信号の高い正確度をその全部の範囲にわたって維持するために拡張される。HDRフレームでは画素値は通常、最も普及したフォーマットがopenEXR半精度浮動小数点(half−float)フォーマット(RGB成分当たり16ビット、すなわち、画素当たり48ビット)である、浮動小数点フォーマット(各々の成分に対して32ビットまたは16ビット、すなわち、浮動小数点または半精度浮動小数点のいずれか)で、または、long型の表現、典型的には少なくとも16ビットによる整数で表される。
HDRフレームを符号化するための典型的な手法は、レガシーな符号化方式(SDRフレームを符号化するように初期に構成される)によりフレームを符号化するために、フレームのダイナミックレンジを低減することである。
よく知られている手法によると、バックライトフレームが、入力HDRフレームの輝度成分から決定される。次いで、残差フレームが、入力HDRフレームをバックライトフレームで除算することにより取得され、バックライトフレームおよび残差フレームの両方が、H.264/AVC((「Advanced video coding for generic audiovisual Services」, SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Recommendation ITU−T H.264, Telecommunication Standardization Sector of ITU, January 2012).)またはHEVC、SHVC(「High Efficiency Video Coding」, SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Recommendation ITU−T H.265, Telecommunication Standardization Sector of ITU, October 2014)などのレガシーな符号化器により符号化される。
そのような符号化手法は、HDRフレームを、HDRフレームの輝度成分から取得されたバックライトフレームで除算することにより、SDRフレームを自動的に生成する。
結果的に、SDRフレームがインポーズされるとき、すなわち、SDRフレームが符号化の入力であり、さらに符号化されるとき、そのような符号化手法は適応されない。なぜなら、インポーズされるSDRフレームに(視覚コンテンツの点で)十分に近いHDRフレームから自動的な低ダイナミックレンジフレームを得る見込みが実際上ないためである。
これは例えば、2つの異なるカラーグレーディング:HDRフレームから取得されたSDRフレームに対するもの、および、HDRフレームそれ自体に対するものをスタジオから取得することが期待される、映画向けの使用例で起こる。その場合、HDRフレームを符号化するための通常のバックライトベースの方法から、芸術的にグレーディングされるSDRフレームに(視覚コンテンツの点で)十分に近い、(SDRフレームをバックライトフレームで除算することで)自動的なSDRフレームを得ることは、実際上不可能である。
本開示は、フレームを符号化するための方法であって、
− バックライトフレームをそのフレームから決定するステップと、
− そのフレームおよびそのバックライトフレームに対応する残差フレームを算出するステップと、
− その残差フレームを、インポーズされるフレームから算出されたその残差フレームの予測子を使用して予測符号化するステップであって、上記インポーズされるフレームは、符号化されるそのフレームの低ダイナミックバージョンである、予測符号化するステップと、
を含む、その方法によって、従来技術の欠点の一部を改善することを企図している。
これは、HDRフレームおよびインポーズされるSDRフレームの両方を符号化するための高い効率的な方法を提供するものである。なぜなら、その残差フレームは、その残差フレームに視覚コンテンツの点で類似する、そのインポーズされるSDRフレームから取得された予測子を使用して予測符号化されるためである。これは、符号化されるその残差フレームのそのダイナミックを低減し、したがって、そのインポーズされるSDRフレームおよびそのHDRフレームを独立して符号化する符号化方法と比較して、符号化効率を増大する。
さらに、上記の映画向けの使用例では、芸術的な意図(カラーグレード、その他…)は、そのHDRフレームおよびそのインポーズされるSDRフレームの両方に対して維持される。
次に、その方法は、典型的には8〜12ビットの、低から中間のビット深度符号化器を使用するのみであり、そのことは、通常のインフラストラクチャとの後方互換性を確実にする。
実施形態によると、その残差フレームのその予測子は、そのインポーズされるフレームの復号されたバージョンから算出される。
実施形態によると、その残差フレームのその予測子を算出するステップは、そのインポーズされるフレームのその復号されたバージョンを、その残差フレームに、カラーマッピング関数によりマッピングするステップを備える。
実施形態によると、そのカラーマッピング関数は、3Dカラールックアップテーブルを使用する。
実施形態によると、そのバックライトフレームは、そのインポーズされるフレームからさらに決定される。
実施形態によると、そのバックライトフレームを決定するステップは、そのフレームの各々の成分を、そのフレームIMFの成分で除算するステップを備える。
実施形態によると、その方法は、予測符号化する前に、その残差フレームをマッピングし、そのバックライトフレームを決定する前に、そのインポーズされるフレームの各々の成分を逆マッピングするステップをさらに備える。
実施形態によると、その残差フレームを予測符号化するステップは、SHVC標準に準拠する。
本開示は、フレームを少なくとも1つのビットストリームから復号するための方法にさらに関する。その方法は、
− バックライトフレームを、ビットストリームを少なくとも部分的に復号することにより取得するステップと、
− 復号されたインポーズされるフレームを、ビットストリームを少なくとも部分的に復号することにより取得するステップであって、上記復号されたインポーズされるフレームは、復号されるそのフレームの低ダイナミックバージョンである、取得するステップと、
− 予測子を、その復号されたインポーズされるフレームから取得するステップと、
− 復号された残差フレームを、ビットストリームを少なくとも部分的に復号することにより、および、その復号されたインポーズされるフレームから取得されたその予測子を使用することにより予測復号するステップと、
− その復号された残差フレーム、およびその復号されたバックライトフレームに対応するそのフレームを復号するステップと、
を備える。
実施形態によると、その方法は、
− 3DカラーLUTに関係付けられるパラメータを、ビットストリームを少なくとも部分的に復号することにより取得するステップと、
− その予測子を、その復号されたインポーズされるフレーム、およびその取得されたパラメータから取得するステップと、
をさらに備える。
実施形態によると、その予測子は、3DカラーLUTの各々の領域に対する特定の予測子を備える。
実施形態によると、復号された残差フレームを予測復号するステップは、SHVC標準に準拠する。
その態様の他のものによると、本開示は、その上記の方法を実装するように構成されたプロセッサーを備えるデバイスと、コンピュータプログラム製品であって、このプログラムがコンピュータ上で実行されるときに、その上記の方法のそのステップを実行するためのプログラムコードの命令を備える、そのコンピュータプログラム製品と、プロセッサー可読媒体であって、そのプロセッサー可読媒体内に、プロセッサーが、その上記の方法の少なくともそのステップを実行することを引き起こすための命令が記憶される、そのプロセッサー可読媒体と、プログラムコードの命令であって、上記プログラムがコンピューティングデバイス上で実行されるときに、その上記の方法のステップを実行するための、そのプログラムコードの命令を搬送する、非一時的ストレージ媒体と、に関する。
本開示の特定の性質、ならびに、本開示の他の対象、利点、特徴、および使用は、付随する図面との連関で取り上げられる好ましい実施形態の、以下の説明から明らかになろう。
実施形態は、以下の図への参照によって説明される。
本原理の例によるフレームIを符号化するための方法のステップのブロック図である。 本原理の例によるフレームIを符号化するための方法のステップのブロック図である。 本原理の例による方法のステップのブロック図である。 本原理の例による方法のステップのブロック図である。 本原理の例による方法のステップのブロック図である。 本原理の例による3DカラーLUTを創作するための方法のフローチャートである。 3DカラーLUTの例を示す図である。 3DカラーLUTの例を示す図である。 カラーマッピング関数が3DカラーLUTを使用するときの、ステップ109のサブステップの図である。 フレームをバックライトフレームで除算することにより算出される残差フレームを表すビットストリームを復号するための、本原理の例による方法のステップのブロック図である。 デバイスのアーキテクチャの例を示す図である。 通信ネットワークを介して通信する2つのリモートデバイスを示す図である。
本開示は、本明細書で以降、本開示の実施形態が示される、添付の図を参照することによってより完全に説明される。しかしながら本開示は、多くの代替の形式で実施され得るものであり、本明細書で説明される実施形態に制限されると解釈されるべきではない。したがって、本開示は様々な変更および代替形式が可能であるが、その特定の実施形態が、図面で例として示され、本明細書で詳細に説明される。しかしながら、本開示を、開示される個別の形式に制限する意図はなく、反対に本開示は、特許請求の範囲により定義されるような、本開示の趣旨および範囲の内部に在る、すべての変更、等価物、および代替物を包含するためのものであることが理解されるべきである。類似の番号は、図の説明の全体を通して類似の要素を指す。
本明細書で使用される専門用語は、個別の実施形態を説明することの目的のみのためのものであり、本開示に関して制限的であることは意図されない。単数形式「a」、「an」、および「the」は、本明細書で使用される際に、文脈でそうでないことを明確に示さない限り複数形式も含むことを意図する。用語「備える(comprises)」、「備える(comprising)」、「含む(includes)」、および/または「含む(including)」は、本明細書で使用されるときに、説明される特徴、整数、ステップ、動作、要素、および/または構成要素の存在を指定するが、1つまたは複数の、他の特徴、整数、ステップ、動作、要素、構成要素、および/またはそれらの群の、存在または追加を排除しないことがさらに理解されよう。さらに、ある要素が別の要素に「対応する(responsive to)」または「接続される」と言うとき、それは、その別の要素に直接対応する、もしくは接続される場合があり、または、介在要素が存在する場合がある。対照的に、要素が他の要素に「直接対応する」または「直接接続される」と言うとき、介在要素は存在しない。本明細書で使用される際に、用語「および/または」は、関連付けられる列挙される項目の1つまたは複数の任意の、およびすべての組み合わせを含み、「/」と略す場合がある。
第1の、第2の、等の用語が、様々な要素を説明するために本明細書で使用され得るが、これらの用語によりこれらの要素が制限されるべきではないことが理解されよう。これらの用語は、1つの要素を別のものから区別するためにのみ使用される。例えば、本開示の教示から逸脱することなく、第1の要素は第2の要素と名付けられ得るものであり、同様に、第2の要素は第1の要素と名付けられ得る。
図の一部は、通信の主方向を示すために、通信経路上に矢印を含むが、通信は、描写される矢印に対して反対方向で行われ得ることが理解されるべきである。
一部の実施形態は、各々のブロックが、指定の論理関数を実装するための、回路要素、モジュール、または、1つもしくは複数の実行可能命令を含むコードの部分を表す、ブロック図および動作フローチャートに関して説明される。他の実装では、ブロックで記される機能は、記される順序から外れて行われ得ることがさらには留意されるべきである。例えば、連続で示される2つのブロックは、現実には、実質的に同時的に実行され得るものであり、またはブロックは時には、必然的に含まれる機能性に応じて逆順序で実行され得る。
本明細書での「1つの実施形態」または「実施形態」への言及は、実施形態との関連で説明される個別の特徴、構造、または特性が、本開示の少なくとも1つの実装に含まれ得ることを意味する。本明細書の様々な所での語句「1つの実施形態で」または「実施形態によると」の出現は、必ずしもすべてが同じ実施形態を指してはおらず、別々の、または代替的実施形態は、必ずしも他の実施形態に関して相互に排他的ではない。
特許請求の範囲に出現する参照番号は、例としてのみのものであり、特許請求の範囲の範囲への制限的な影響を有さないものとする。
明示的に説明されないが、本実施形態および変形形態は、任意の組み合わせまたはサブコンビネーションで用いられ得る。
本開示は、フレームを符号化/復号することに対して説明されるが、フレームのシーケンス(ビデオ)の符号化/復号への拡張となる。なぜなら、シーケンスの各々のフレームは、下記で説明されるように順次的に符号化/復号されるためである。
図1は、本原理の例によるフレームIを符号化するための方法のステップのブロック図を示す。
ステップ100でモジュールICは、符号化されるフレームIの少なくとも1つの成分Ijを取得する。
以下では、成分Ij=1は、フレームIの輝度成分であり、成分Ij≠1は、符号化されるフレームIの色成分である。
例えば、フレームIが色空間(X,Y,Z)に属するとき、輝度成分I1は、成分Yの変換f(.)により取得され、例えばI1=f(Y)である。
フレームIが色空間(R,G,B)に属するとき、輝度成分I1は、例えば、
1=g(0.2127.R+0.7152.G+0.0722.B)
により与えられる線形結合の関数により、709色域で取得される。
ステップ101でモジュールBAMは、バックライトフレームBaの成分Bajを、フレームIの各々の成分Ijから決定する。
図3で例示されるステップ101の実施形態によると、モジュールBIは、バックライトフレームBaの成分Bajを、
Figure 2017017684
により与えられる、形状関数
Figure 2017017684
の重み付けされる線形結合であるとして決定するものであり、ここで
Figure 2017017684
は、成分Bajに対する重み付け係数である。
したがって、バックライトフレームBaの成分Bajを成分Ijから決定することは、バックライトフレームBaの成分Bajが成分Ijに適合するために、最適な重み付け係数(および可能性として、さらには、前もって知られていないならば、最適な形状関数)を見出すことにある。
成分Bajに対する重み付け係数
Figure 2017017684
を見出すための多くのよく知られている方法が存する。例えば、最小平均二乗誤差方法を使用して、成分Bajと成分Ijとの間の平均二乗誤差を最小化することが可能である。
本開示は、バックライトフレームBaを取得するための任意の特定の方法に制限されない。
形状関数は、(例えばLEDでなされ、したがって各々の形状関数は1つのLEDの応答に対応する)ディスプレイバックライトの真の物理的応答であってもよく、または、輝度成分に最も良好に適合するための純粋な数学的構造であってもよいことに留意すべきである。
この実施形態によると、ステップ101から出力されるバックライトフレームBaは、式(1)により与えられる少なくとも1つの成分を備えるバックライトフレームBaである。
図4で例示されるステップ101の実施形態によると、モジュールBMは、(式(1)により与えられる)バックライトフレームBaの少なくとも1つの成分Bajを、モジュールHLにより取得された平均値Lmeanによって調節(modulate)する。
バックライトフレームの少なくとも1つの成分を、フレームの成分の平均値によって調節することは、フレームの成分と残差フレームの成分との間の大域的な輝度コヒーレンスを改善し、例えば、フレーム内の明るい領域は残差フレーム内で明るく見え、フレーム内の暗い領域は残差フレーム内で暗く見える。
複数の成分が、これらの成分のダイナミックレンジを、それらのトーンを変更することなく低減するために、同じ平均値によって調節される。
この実施形態によると、ステップ101から出力されるバックライトフレームBaは、調節されるバックライトフレームである。
実施形態によると、モジュールHLは、平均値Lmeanを、全体のルミナンス成分I1にわたって算出するように構成される。
この実施形態の変形形態によると、モジュールHLは、
Figure 2017017684
により平均値Lmeanを算出するように構成され、ここでβは、1より小さい係数であり、E(X)は、成分I1の数学的期待値(平均)である。
この最後の変形形態は、フレームIがフレームのシーケンスに属するときに、通常非常に迷惑な一時的な平均明るさの不安定性の原因となる極めて高い値の数個の画素により、平均値Lmeanが影響を受けることを防止するものであるため、有利である。
本開示は、平均値Lmeanを算出するための特定の実施形態に制限されない。
図5で例示される変形形態によると、モジュールNは、フレームに対して(または、フレームIがフレームのシーケンスに属するならば、すべてのフレームに対して)、1での中間灰色成分
Figure 2017017684
を得るように、(式(1)により与えられる)バックライトフレームBaの少なくとも1つの成分Bajを、ルミナンス平均値E(Ba1)により正規化する。
Figure 2017017684
次いでモジュールBMは、1での中間灰色成分
Figure 2017017684
を、成分Ijの平均値Lmeanによって、以下の関係
Figure 2017017684
を使用することにより調節するように構成され、ここでcstmodは調節係数であり、αは、1より小さい、典型的には0.3から0.5の間の、別の調節係数である。
この変形形態によると、ステップ101から出力されるバックライトフレームBalは、式(2)により与えられる少なくとも1つの成分
Figure 2017017684
を備えるバックライトフレームである。
調節係数cstmodは、残差フレームに対する良好なルックとなる明るさを得るために調節され、バックライトフレームを取得することのプロセスに高度に依存することに留意すべきである。例えば、最小平均二乗により取得されたすべての成分に対して、
Figure 2017017684
である。
実際には、線形性により、バックライトフレームの成分Bajを調節するためのすべての演算は、バックライト係数
Figure 2017017684
に、補正因子(correcting factor)として供給され、その因子は、係数
Figure 2017017684
を新しい係数
Figure 2017017684
に変換し、結果として
Figure 2017017684
を得る。
ステップ102(図1)で、ステップ101から出力されるバックライトフレームBaを決定するために必要とされるデータが、符号化器ENC1により符号化され、ビットストリームF1内に追加され、そのビットストリームF1は、記憶され、および/または、通信ネットワークを介して送信され得る。
例えば、符号化されるデータは、既知の非適応的形状関数が使用されるときは、重み付け係数
Figure 2017017684
または
Figure 2017017684
に制限されるが、形状関数Ψiは、例えば、より良好な適合のためのいくらか最適な数学的構造の例では、事前に知られておらず、したがってビットストリームF1内で符号化される場合もある。そのため、すべての重み付け係数
Figure 2017017684
または
Figure 2017017684
(および可能性として、形状関数
Figure 2017017684
)が、ビットストリームF1内で符号化される。
有利には、重み付け係数
Figure 2017017684
または
Figure 2017017684
は、ビットストリームF1のサイズを低減するために、符号化される前に量子化される。
別の例によると、バックライトフレームBaの各々の成分Bajは、符号化器ENC1によりビットストリームF1内で符号化される画像であると考えられる。
ステップ103で残差フレームResは、フレームIを、復号されたバージョンのバックライトフレームで除算することにより算出される。
バックライトフレームの復号されたバージョンを使用して、符号化器側および復号器側の両方での同じバックライトフレームを確実にすることが有利であり、したがってこれは、最終的な復号されたフレーム
Figure 2017017684
のより良好な精密度につながる。
より精密には、モジュールICから取得されたフレームIの各々の成分Ijは、バックライトフレームの成分の復号されたバージョン
Figure 2017017684
で除算される。この除算は画素ごとに行われる。
例えば、フレームIの成分R、G、またはBが色空間(R,G,B)で表現されるとき、成分Res1、Res2、およびRes3が、以下のように取得される。
Figure 2017017684
Figure 2017017684
Figure 2017017684
例えば、フレームIの成分X、Y、またはZが色空間(X,Y,Z)で表現されるとき、成分Res1、Res2、およびRes3が、以下のように取得される。
Figure 2017017684
Figure 2017017684
Figure 2017017684
一実施形態によると、ステップ104で、バックライトフレームの少なくとも1つの成分の復号されたバージョン
Figure 2017017684
が、復号器DEC1によりビットストリームF1を少なくとも部分的に復号することにより取得される。
上述したように、バックライトフレームの成分を取得するために必要とされる一部のデータ、ステップ101の出力が、符号化され(ステップ102)、次いで、ビットストリームF1を少なくとも部分的に復号することにより取得されている。
上記で与えられる例の後に続いて、重み付け係数
Figure 2017017684
(および可能性として、形状関数
Figure 2017017684
)が次いで、ステップ104の出力として取得される。
次いでステップ105でモジュールBAGは、バックライトフレームの成分の復号されたバージョン
Figure 2017017684
を、重み付け係数
Figure 2017017684
、および、一部の知られている非適応的形状関数、または形状関数
Figure 2017017684
のいずれかから、
Figure 2017017684
により生成する。
別の例によると、バックライトフレームの成分の復号されたバージョン
Figure 2017017684
は、ビットストリームF1を復号することにより直接取得される。
ステップ106でモジュールMAPは、少なくとも1つのトーンマッピングされる成分Resj vを、残差フレームResの少なくとも1つの成分Resjをトーンマッピングすることにより取得するものであり、そのことは、その少なくとも1つのトーンマッピングされる成分Resj vから築造される、視認可能な残差フレームResvを得るためのものである。
残差フレームResは、そのダイナミックレンジが高すぎるために、および、この残差フレームResの復号されたバージョンが高い可視アーチファクトを示すために、視認可能でない場合があるように思われるかもしれない。残差フレームの少なくとも1つの成分をトーンマッピングすることは、トーンマッピングされる残差フレームが、符号化されるフレーム内の元のシーンと比較して、シーンの、適度に良好な堅実にトーンマッピングされるバージョンを芸術的にレンダリングするという意味で、視認可能な残差フレームを提供する。したがって、この方法は、視認可能な残差フレームが、高ダイナミックレンジを扱うことができない従前の装置により復号および/または表示され得るため、後方互換性を有する。
視認可能なSDRフレームを、符号化される残差フレームから自動的に提供する能力は重要な利点である。なぜならそれは、バックライトフレームおよび残差フレームの両方を後処理して、HDRフレーム(ビデオ)を復号することに専用化されていない、標準SDR TVセットおよび受信デバイスを持っている顧客に、HDRフレーム(ビデオ)を配信することを可能とするためである。
さらに、高度に空間的に相関される(および、フレームの同じシーケンスの他のフレームに時間的に相関される)トーンマッピングされる残差フレームRes、およびバックライトフレームが、別々に符号化されるため、そのような方法によりHDRフレームを符号化することは、効率的な符号化方式につながる。したがって、符号化利得は、トーンマッピングされる残差フレームの高い圧縮率の、および、バックライトフレームを符号化するためのデータのわずかな量のために達せられる。
本開示は、任意の特定のマッピング演算子に制限されない。この単一の条件は、トーンマッピング演算子は可逆的なものとするということである。
例えば、Reinhardにより定義されるトーンマッピング演算子が使用され得る(Reinhard, E., Stark, M., Shirley, P., and Ferwerda, J.,「Photographic tone reproduction for digital frames,」 ACM Transactions on Graphics 21 (July 2002)、または、Boitard, R., Bouatouch, K., Cozot, R., Thoreau, D., & Gruson, A. (2012)。Temporal cohereny for tone video mapping。A. M. J. van Eijk, C. C. Davis, S. M. Hammel, & A. K. Majumdar (Eds.), Proc. SPIE 8499, Applications of Digital Frame Processing (p. 84990D−84990D−10)において)。
ステップ106の実施形態によると、残差フレームの成分Resjをマッピングすることは、残差フレームの成分Res1の画素値に応じたガンマ補正またはSLog補正のいずれかを含む。
視認可能な残差フレームResvの成分
Figure 2017017684
が次いで、例えば、
Figure 2017017684
により与えられ、ここでAは定数値であり、γjは、例えば1/2.4に等しい、ガンマ曲線の係数である。
あるいは、視認可能な残差フレームResvの成分
Figure 2017017684
は、例えば、
Figure 2017017684
により与えられ、ここでaj、bj、cjは、0および1が不変であるように決定されるSLog曲線の係数であり、SLog曲線の導関数は、1より下でガンマ曲線により延長されるときに、1において連続的である。したがってaj、bj、cjは、パラメータγjの関数である。
一実施形態によると、残差フレームの成分に関係のあるガンマ−Slog曲線のパラメータγjは、符号化器ENC1により符号化され、ビットストリームF1内に追加される。
ガンマ補正を残差フレームResのルミナンス成分に適用することは、暗い領域を引き上げるが、明るい画素の焼き付きを回避できるほどにはハイライトを低下させない。
SLog補正を残差フレームResのルミナンス成分上で供給することは、ハイライトを十分低下させるが、暗い領域を引き上げない。
したがって、ステップ106の好ましい実施形態によると、モジュールMAPは、残差フレームResの成分の画素値によって、ガンマ補正またはSLog補正のいずれかを適用する。
暗い、および明るい情報の損失がないような、ガンマおよびSLog補正は、高い精密度を伴う、残差フレームおよびバックライトフレームからのHDRフレームの再構築につながる。さらにガンマおよびS−log補正は、再構築されるHRDフレーム、および、視認可能な残差フレームの両方で、平坦にクリッピングされるエリアを回避する。
例えば、残差フレームResの成分の画素値が、(1に等しい)閾値より下であるとき、ガンマ補正が適用され、そうでない場合、SLog補正が適用される。
構築により、視認可能な残差フレームResvの成分は通常、上記のガンマ−Slog組み合わせの使用を特に効率的になすと、フレームIの関連付けられる成分の明るさに依存して、1により近い、またはより近くない平均値を有する。
方法の実施形態によると、ステップ107でモジュールSCAは、残差フレームの少なくとも1つの成分Resjまたは
Figure 2017017684
を、符号化(ステップ110)の前に、その成分をスケール化因子cstscalingにより乗算することによりスケール化する。
残差フレームの成分jをスケール化することは、残差フレームから取得されたフレームの平均灰色を、視認および符号化の両方に対する妥当な値にする。
次いで、残差フレームRessの、結果として生じる成分
Figure 2017017684
が、方法の実施形態によると、
Figure 2017017684
により与えられる。
好ましくは、スケール化因子cstscalingは、残差フレームの成分の値を0から最大値2N−1にマッピングするように定義され、ここでNは、符号化器ENC2による符号化のための入力として可能とされるビットの数である。
これは当然ながら、ルミナンス値1(おおよそ、残差フレームの成分の平均値である)を、中間灰色ルミナンス値2N-1にマッピングすることにより取得される。したがって、標準数のビットN=8を伴う残差フレームの成分に対して、120に等しいスケール化因子は、27=128での中性灰色に非常に近付けられるため、非常に堅実な値である。
方法の実施形態によると、ステップ108でモジュールCLIは、残差フレームの少なくとも1つの成分を、符号化の前にクリッピングして、そのダイナミックレンジを、例えば符号化器ENC2の能力によって定義される、目標とされるダイナミックレンジTDRに制限する。
残差フレームをクリッピングすることは、ビット数の制限を確実にし、それを符号化するための従前の符号化/復号方式の使用を可能とする。さらには符号化/復号方式は、既存のインフラストラクチャ(コーデック、ディスプレイ、配信チャネル、その他)との後方互換性がある。なぜなら、低ダイナミックレンジ、典型的には8〜10ビットを有する残差フレームのみが、フレームの低ダイナミックレンジバージョンを表示するために、そのようなインフラストラクチャによって送信され得るためである。バックライトデータを内包する小さなビットストリームが、フレームの元のバージョン(すなわち、HDRフレーム)を配信するために、専用のインフラストラクチャによってサイドコンテナ(side container)内で搬送され得る。
この最後の実施形態によると、結果として生じる残差フレームRescの成分
Figure 2017017684
が、例えば、方法の実施形態によると、
Figure 2017017684
により与えられる。
本開示は、そのようなクリッピング(max(.))に制限されるものではなく、任意の種類のクリッピングに拡張される。
方法の実施形態によると、スケール化実施形態およびクリッピング実施形態を組み合わせると、
Figure 2017017684
により与えられる残差フレームResscの成分
Figure 2017017684
をもたらす。
残差フレームの成分のマッピングおよびスケール化は、パラメトリックプロセスである。パラメータは、固定される、またはされない場合があり、後者の例ではそれらは、符号化器ENC1によりビットストリームF1内で符号化され得る。
方法の実施形態によると、ガンマ補正の定数値γ、スケール化因子cstscalingは、ビットストリームF1内で符号化されるパラメータであり得る。
パラメータα、cstmod、cstscaling、γj、βの選定は、ポストプロダクションおよびカラーグレーディングでの専門家の嗜好(taste)に従って、コンテンツに最も良好に適するマッピングの選定のための余地を与えることが留意され得る。
他方でユニバーサルパラメータが、多種多様なフレームのすべてに受け入れ可能となるように定義される場合がある。その場合、ビットストリームF1内で符号化されるパラメータはない。
本開示によると、ステップ110で残差フレームRes(Resv、Ress、またはResc)は、符号化器ENC2により、予測子Predを使用して予測符号化され、ビットストリームF2内に追加され、そのビットストリームF2は、記憶され、および/または、通信ネットワークを介して送信され得る。
本開示によると、ステップ109で、残差フレームRes(Resv、Ress、またはResc)の予測子Predは、インポーズされるフレームIMFの復号されたバージョン
Figure 2017017684
、すなわちステップ112の出力から算出される。
用語「インポーズされる」は、フレームIMFが残差フレームRes(Resv、Ress、またはResc)に関して異なることを表す。フレームIMFは、フレームIの低ダイナミックレンジバージョンである。フレームIMFおよびフレームIは、芸術家により異なってカラーグレーディングされている、および/または、異なる色空間(例えば、フレームIMFに対するRec.709、および、フレームIに対するREC.2020色空間)で表現される場合がある。
ステップ109の実施形態によると、予測子Predを算出することは、インポーズされるフレームIMFの復号されたバージョン
Figure 2017017684
を、残差フレームRes(Resv、Ress、またはResc)に、カラーマッピング関数(CMF)によりマッピングすることを含む。
これは、予測符号化器ENC2の符号化効率を改善するものである。なぜなら、この場合、残差フレームと予測子Predとの間で算出される残差のダイナミックが低減されるためである。
カラーマッピング関数CMFは、フレームIおよびIMFの色空間に、ならびに、コンテンツそれ自体にもまた依存し得る。実際、フレームコンテンツ創作では、一部の色補正が、フレームIもしくはフレームIMFのいずれか、または両方に関して、コンテンツ創作者芸術的意図に応じて動作させられる(カラーグレーディング、その他…)。フレームIおよびIMFの成分に適用されるこれらの色変換は異なり得る。したがって一般的な例では、カラーマッピング関数CMFは、単純な決定論的色空間変換に低減されない。
実施形態によると、カラーマッピング関数CMFは、シンタックスに対するHEVCサブセクションF.7.3.2.3.5 「Colour mapping octants syntax」、および、セマンティクスに対するサブセクションF.7.4.3.3.5 「Colour mapping octants semantics」で定義されるような、3Dカラールックアップテーブル(3DカラーLUT)を使用する。
3DカラーLUTは通常、3D色空間に対する、図7で描写されるようなオクタントのグリッドとして表される。グリッドは、色空間をN個の領域Riに分割するものであり、ここでi∈[0,N−1]であり、Nは整数である。領域区分は、対称または非対称(等しくなく割られる)のいずれかであり得る。領域は、オクタントとも言う。少なくとも1つのパラメータが、HEVCのサブセクションF.7.3.2.3.4 「General colour mapping table syntax」、および、F.7.3.2.3.5 「Colour mapping octants syntax」で説明されるように、各々のオクタントに関連付けられる。カラーマッピング関数CMFは次いで、すべてのオクタントが、少なくとも1つの関連付けられるパラメータを有するときに定義される。通常、カラーマッピング関数CMFは、HEVCで、サブセクションH.8.1.4.3.1 「Colour mapping process of luma sample values」、および、H.8.1.4.3.2 「Colour mapping process of chroma sample values」で説明される補間関数にさらに関連付けられる。
図2で例示される方法の実施形態によると、ステップ100でモジュールICは、フレームIMFの少なくとも成分IMFjを取得する。
残差フレームResvの少なくとも1つの成分がスケール化されるとき(ステップ107)、ステップ200でモジュールISCAは、逆スケール化をフレームIMFの少なくとも1つの成分IMFjに、その成分をパラメータ
Figure 2017017684
で除算することにより適用し、そのパラメータは、ローカルメモリから、または、復号器DEC1によるビットストリームF1の少なくとも部分的な復号によってのいずれかで取得される。
ステップ113でモジュールIMAPは、ステップ100から、またはステップ200からのいずれかで取得された少なくとも1つの成分の逆マッピングされたバージョンを、その少なくとも1つの取得された成分に逆マッピング演算子を適用することにより取得する。その逆マッピング演算子は、ステップ106での残差フレームの成分に適用されるマッピング演算子の逆である。
パラメータ
Figure 2017017684
は、ローカルメモリから、または、復号器DEC1によるビットストリームF1の少なくとも部分的な復号によってのいずれかで取得される。
以下では、フレームIMFの成分の逆スケール化されるバージョン(ステップ200の出力)、または、その逆マッピングされるバージョン(ステップ113の出力)は、成分IIMFjと呼ばれる。
ステップ103で成分Dj、ステップ101の入力が、次いで、フレームIの各々の成分Ijを成分IIMFjで除算することにより算出される。
ステップ101でモジュールBAMは、バックライトフレームBaの成分Bajを、各々の成分Dから、フレームIの成分Ijに対して上述したように決定する。
図6は、本開示の例示的な実施形態による3DカラーLUTを創作するための方法のフローチャートを示す。
ステップ60で、3DカラーLUTの構造が決定される。ここで3DカラーLUTは通常、3D色空間に対して、上記で説明されたような、および、図7上で示されるようなオクタントを表すパラメータにより表される。
ステップ61で、一部の領域は、ことによると複数のオクタントRkに分離され得る。
ステップ62で、各々の領域Rkに対して、少なくとも1つのパラメータが、各々のオクタントに対して、フレームIMFの復号されたバージョンの画素pから、または、カラー値がその領域Rkに属するそれらの画素pの一部から、および、残差フレームRes(または、本開示の実施形態によるResv、Ress、もしくはResc)内の空間的に対応する画素p’から決定される。
変形形態によると、フレームIMFの復号されたバージョンの画素のサブセット(例えば、2つからの1つ)のみが、プロセスを加速するために考えられる。
変形形態によると、空間的に対応する画素p’は、同じ位置に配置される(colocated)画素、または、空間的変換(例えば、アップサンプリングされる、並進、その他)を受ける対応する空間的位置を有する画素のいずれかである。
したがって、オクタントに関連付けられるパラメータは、より低い数のパラメータが1回でのハンドルであるために、計算を容易にする領域ごとにローカルに決定される。
ステップ62の実施形態によると、現在の領域Rkのオクタントに関連付けられる少なくとも1つのパラメータを決定することはカラーマッピング関数CMFkのパラメータを決定することを含み、そのパラメータは、フレームIMFの復号されたバージョンの画素p(または、それらのサブセット)であって、それらのカラー値がその領域Rkに属する、画素p(または、それらのサブセット)のカラー値
Figure 2017017684
の(カラーマッピング関数CMFkにより)再マッピングされるバージョンと、残差フレームRes(Resv、またはRess、またはResc)内の空間的に対応する画素p’のカラー値Res(p)との間の距離を最小化する。例えば、領域Rkに対するCMFkのパラメータは、以下の式を最小化するものである。
Figure 2017017684
ここでdistは距離計量である。例えば、distはL1ノルムまたはL2ノルムである。
変形形態によると、distは、重み付けされる差である。
例によると、CMFkのパラメータは、よく知られている最小二乗誤差最小化技法により決定される。
CMFkのパラメータが決定されると、次いで領域Rkのオクタントのパラメータが決定される。オクタントOc(x,y,z)に対して、その関連付けられるパラメータ値は、CMFk(Oc(x,y,z))としてセットされる。
数学的に言えば、残差フレームResが3つの成分を備えるとき、カラーマッピング関数CMFkは、3x3マトリックスパラメータ
Figure 2017017684
、および、3つのオフセットパラメータ
Figure 2017017684
を伴うパラメトリックモデルであり得るものであり、その場合、領域Rkに対する予測子Predkの成分
Figure 2017017684
は、
Figure 2017017684
により与えられ、ここでΔ1(p)、Δ2(p)、およびΔ3(p)は、成分Res1(それぞれ、Res2およびRes3)の値と、現在のオクタント座標の関係のある成分との間の差である。パラメータ
Figure 2017017684
は、3DカラーLUTから取得される。
SHVCセクションH.8.1.4.3で説明されるような変形形態では、Δ1(p)、Δ2(p)、およびΔ3(p)は、成分Res1(それぞれ、Res2およびRes3)の値である。
本開示は、オフセット関数を伴う3x3マトリックスの使用に制限されるものではなく、それらの偏導関数を提供する任意のパラメトリックマッピング関数への拡張となり得る。
フレームIMFの復号されたバージョンはフレームの第1のシーケンスにより置き換えられ得ること、および、残差フレームはフレームの第2のシーケンスにより置き換えられ得ることに留意されたい。この例では、各々の領域またはオクタントRkに対して、パラメータは、フレームの第1のシーケンスの画素p(それらのカラー値がその領域Rkに属する)のカラー値の再マッピングされるバージョンから、および、フレームの第2のシーケンス内の空間的に対応する画素p’のカラー値から決定される。この例では、フレームの第2のシーケンス内の空間的に対応する画素p’は、画素pが属するフレームに時間的に整合するフレームに属する。
いくつかのカラーパラメータが、3DカラーLUTの各々のオクタント、例えば、RGBカラー値、Y’CbCr、またはYUVなどの4つのカラー値に関連付けられ得る。
式(3)の最小化は、常に解を有するとは限らない。実際、最小化はマトリックス逆変換を使用する。一部の例では、マトリックスは悪く構成され、逆変換は失敗する(例えば、マトリックスの行列式は零である)。さらに、画素であって、それらのカラー値が、与えられる領域内に在る、画素の数が、閾値より下であるとき、最小化は正確でない。この例では、その距離を最小化することがその領域Rkに対して失敗するとき、カラーパラメータを取得することは、その領域のパラメータを、Rkを包囲する領域のパラメータから補間すること、または、それらを直接、その現在の領域を包囲する領域に関して算出される色変換のパラメータから算出することを含む。例えば、Rkのカラーパラメータは、図8上で例示されるような、領域Rkを包囲する領域R’kに対して決定されるパラメータによって、3x3マトリックスおよびオフセット関数から算出される。
変形形態によると、領域Rkのカラーパラメータは、領域R’kのカラーパラメータから補間される。
変形形態によると、領域Rkのカラーパラメータは、領域R’kのカラーパラメータから予測され、残差が符号化される。
実施形態によると、パラメータParamは、符号化器ENC1により符号化され、ビットストリームF1内に追加される。これらのパラメータParamは、3DカラーLUTのオクタント、残差フレームの各々の画素が属するオクタントを決定するデータ、および、各々のカラーマッピング関数のパラメータ
Figure 2017017684
に関連付けられ得る。変形形態では、3DカラーLUTのオクタント、および/または、各々のカラーマッピング関数のパラメータ
Figure 2017017684
に関連付けられるパラメータは符号化されない。
本開示の変形形態によると、同じパラメータ{aj,bj,cj,dj ∀j=1,2,3}が、各々のカラーマッピング関数CMFkに対して使用される。
図9は、カラーマッピング関数CMFが、画素pのマッピングされるカラー値を決定するために3DカラーLUTを使用するときの、ステップ109のサブステップの図を示す。
ステップ1090で、フレームIMFの復号されたバージョンの与えられる画素pに対して、画素pが属するオクタントCOが決定される。これは、3DカラーLUTの各々の次元が2項に(dyadically)区分されるときに、画素pの色成分の第1のN個のMSB(最上位ビット)の値をベースに容易に決定され得る。
オプションとして、ステップ1091で、HEVCの章H.8.1.4.3.1で、および、JCTVC−Q0048_r1で、章「2.1 (y,u,v) triplet adjustment when phase alignment is enabled」で説明されるように、成分の一部の調整が適用される。例えば、輝度およびクロミナンス成分の画素が整合しないとき(典型的には、4:2:0フォーマットが使用されるとき)、輝度およびクロミナンス成分の画素の空間的場所が調整され(テクスチャおよび動きの再サンプリング)、または、ビット深度が同じでないとき、成分のビット深度がさらには適応させられる。例えば、JCTVC−R1030_v6の章H.8.1.4.3.1で示されるように、ビット深度は、以下の量だけシフトさせられ得る。
nMappingShift = 10 + BitDepthCmInputY − BitDepthCmOutputY
したがって、ステップ1092で、残差フレームの画素に関連付けられる予測されるカラー値が、式(4)により与えられる。
オプションとして、ステップ1091での整合および/または適応が行われたとき、ステップ1093で、逆整合および/または適応が、予測される(マッピングされる)カラー値に適用される。
図10は、フレームをバックライトフレームで除算することにより算出される残差フレームを表すビットストリームを復号するための、本開示の実施形態による方法のステップのブロック図を示す。
上述したように、ステップ104および105で、復号されたバックライトフレーム
Figure 2017017684
が、復号器DEC1によるビットストリームF1の少なくとも部分的な復号により取得される。ビットストリームF1は、ローカルに記憶され、または、通信ネットワークから受信されている場合がある。
ステップ112で、復号されたフレーム
Figure 2017017684
が、ビットストリームF3の少なくとも部分的な復号により取得される。
ステップ1100で、予測子
Figure 2017017684
が、フレーム
Figure 2017017684
、および、3DカラーLUTに関係のある一部のパラメータ
Figure 2017017684
から取得される。パラメータ
Figure 2017017684
は、メモリから、または、ビットストリームF1の少なくとも部分的な復号によってのいずれかで取得される。
これらのパラメータParamは、3DカラーLUTのオクタント、残差フレームの各々の画素が属するオクタントを決定するデータ、および、各々のカラーマッピング関数のパラメータ
Figure 2017017684
に関連付けられ得る。
変形形態では、3DカラーLUT(のオクタント)、および/または、各々のカラーマッピング関数のパラメータ
Figure 2017017684
に関連付けられるカラーパラメータは、ローカルメモリから取得される。
次いで、予測子
Figure 2017017684
がグリッド構造を有する3DカラーLUTの各々の領域Rkのオクタント、および、領域Rkに関係のある各々のカラーマッピング関数のパラメータ
Figure 2017017684
に関連付けられるパラメータから取得される。
ステップ1101で、復号された残差フレーム
Figure 2017017684
が、復号器DEC2によるビットストリームF2の少なくとも部分的な復号により、および、予測子
Figure 2017017684
を使用することにより予測復号される。ビットストリームF2は、ローカルに記憶され、または、通信ネットワークから受信されている場合がある。
ステップ1101の実施形態によると、予測子は、3DカラーLUTの各々の領域Rkに対する特定の予測子
Figure 2017017684
を備える。
次いで方法は、残差フレームの各々の画素p’が属するオクタントCOを決定するデータを、ビットストリームF1を少なくとも部分的に復号することにより取得し、領域Rkに属する、復号された残差フレーム
Figure 2017017684
の各々の画素p’のカラー値が、復号器DEC2によりビットストリームF2を少なくとも部分的に予測復号することにより、および、領域Rkに関連する予測子
Figure 2017017684
を使用することにより復号される。
ステップ1102で、復号されたフレーム
Figure 2017017684
の成分が、復号された残差フレーム
Figure 2017017684
の成分
Figure 2017017684
を、復号されたバックライトフレーム
Figure 2017017684
の成分
Figure 2017017684
により乗算することにより取得される。
ステップ104の実施形態によると、パラメータ
Figure 2017017684
および/または
Figure 2017017684
がさらには、ローカルメモリから、または、復号器DEC1によるビットストリームB1の少なくとも部分的な復号によってのいずれかで取得される。
方法によると、ステップ200でモジュールISCAは、復号された残差フレーム
Figure 2017017684
の少なくとも1つの成分
Figure 2017017684
を、その成分をパラメータ
Figure 2017017684
で除算することにより供給している。
ステップ113でモジュールIMAPは、ステップ1101の出力、または、ステップ200の出力のいずれかである、取得される少なくとも1つの成分の逆マッピングされたバージョンを、その少なくとも1つの取得された成分に逆マッピング演算子を適用することにより取得する。
実施形態によると、モジュールIMAPはパラメータγjを使用する。
例えば、パラメータγjはガンマ曲線を定義し、逆トーンマッピングは、ガンマ曲線から、復号された残差フレーム
Figure 2017017684
の画素値に対応する値を見出すことにある。
復号器DEC1、DEC2、およびDEC3は、それぞれ符号化器ENC1、ENC2、およびENC3により符号化されているデータを復号するように構成される。
符号化器ENC1、ENC2、およびENC3(ならびに、復号器DEC1、DEC2、およびDEC3)は、特定の符号化器(復号器)に制限されるものではなく、エントロピー符号化器(復号器)が必要な場合、Huffmann符号器、算術符号器、または、H.264/AVCもしくはHEVCで使用されるCabacに類するコンテキスト適応符号器などのエントロピー符号化器が有利である。
符号化器ENC1およびENC3(ならびに、復号器DEC1およびDEC3)は、例えば、JPEG、JPEG2000、MPEG2、h264/AVC、またはHEVCのような、損失を伴うフレーム/ビデオ符号器とすることができる特定の符号化器には制限されない。
符号化器ENC2(および復号器DEC2)は、JPEG、JPEG2000、MPEG2、H.264/AVC、またはHEVCなどの予測子を使用する任意の予測符号化器に制限されない。
符号化器ENC1、ENC2、およびENC3(復号器DEC1、DEC2、およびDEC3)は、例えば、符号化器(復号器)が標準SHVCに準拠するなど、同じ符号化器(それぞれ、同じ復号器)であり得る。単一のビットストリームが次いで、ビットストリームF1、F2、およびF3により搬送されるデータを備えて生成される。
本開示の実施形態によると、ビットストリームF1により搬送されるデータ、および/または、ビットストリームF3により搬送されるデータは、補助画像であって、そのシンタックスがH264/AVC、HEVC、またはSHVC標準のいずれかに準拠する、補助画像として符号化される。補助画像は、コンテンツのメインストリーム(メインビデオ)に実際に対応する、いわゆる「主符号化画像」への追加で、H264/AVC、またはHEVC、またはSHVC標準で定義されている。補助画像は通常、3Dアプリケーションに対する、アルファ合成、クロミナンス強調情報、または深度情報などの追加的なフレーム情報のトランスポートを可能にする。
本開示の実施形態によると、予測符号化される残差フレームは、ビットストリームF2に、主画像であって、そのシンタックスがH.264/AVCまたはHEVC標準のいずれかに準拠する、主画像として組み込まれる。
これは、H.264/AVCまたはHEVC標準のいずれかを完全に順守する、ならびに、3DカラーLUTを使用して、予測符号化される残差フレームを復号するために必要とされるデータ、符号化されるインポーズされるフレームIMF、および、バックライトフレームBalを決定するために必要とされるデータを備える、単一のビットストリームを得ることを可能とする。表示の前に行われる補助データの復号方法は、HEVC仕様に準拠し、したがって、手を加えずに、そのすでに指定された形式で使用される。
本開示の実施形態によると、ステップ101から出力されるバックライトフレームBal、およびフレームIMFは、特定のフレームパッキング構成方式によって単一のフレームSFにパックされる。符号化器は、フレームSFをビットストリーム内に符号化する。
実施形態によると、単一のフレームSFは、特定のフレームパッキング構成方式に依存する符号化パラメータによって符号化される。
この実施形態の変形形態によると、符号化パラメータは、単一のフレームSFが2つの別個のスライス、すなわちフレームIMFを含むスライスと、バックライトフレームBalを含む他のスライスとに符号化されるように定義される。これらのスライスはさらには、用いられる標準符号化方式(H.264/AVC、HEVC、JPEG2000)によって、スライス群、タイル、タイル群、プレシンクト(precinct)の形式をとり得る。
この変形形態は有利である。なぜならそれは、特定の処理、すなわちそのような特定の符号化が、バックライトフレームまたはフレームIMFのそれぞれに適用されること、およびフレームIMFまたはバックライトフレームのそれぞれに適用されないことを可能とするためである。
したがって、ビットストリームは、2つの別個のパックされる構成フレーム:フレームIMFおよびバックライトフレームのサンプルを含む単一のフレームSFを備える。復号器は、ビットストリームを少なくとも部分的に復号し、フレームIMF、および、必要とされるならばバックライトフレームを、復号された単一のフレームSFから取得する。
図1〜5および9〜10上では、モジュールは、区別可能な物理ユニットと関連してもよく、または関連しなくてもよい機能ユニットである。例えばこれらのモジュール、またはそれらの一部は、まとめて固有の構成要素もしくは回路に導入されてもよく、または、ソフトウェアの機能性に寄与してもよい。一方、一部のモジュールは可能性として、別々の物理エンティティから構成され得る。本開示と互換性がある装置は、純粋なハードウェアを使用して、例えばASIC、もしくはFPGA、もしくはVLSI、すなわちそれぞれ≪特定用途向け集積回路≫、≪フィールドプログラマブルゲートアレイ≫、≪超大型集積回路≫等の専用のハードウェアを使用して、または、デバイスに組み込まれるいくつかの集積された電子構成要素から、または、ハードウェア構成要素およびソフトウェア構成要素の組み合わせから、実装される。
図11は、図1〜5および9〜10との関係で説明される方法を実装するように構成され得る、デバイス120の例示的なアーキテクチャを表す。
デバイス120は、データおよびアドレスバス121により一体にリンクされる、以下の要素:
− 例えばDSP(または、ディジタル信号プロセッサー)であるマイクロプロセッサ122(または、CPU)、
− ROM(または、読出し専用メモリ)123、
− RAM(または、ランダムアクセスメモリ)124、
− アプリケーションからの送信するデータの受信のためのI/Oインターフェイス125、および、
− バッテリ126、
を備える。
変形形態によると、バッテリ126はデバイスの外部にある。図11のこれらの要素の各々は、当業者によりよく知られており、さらには開示されない。上述したメモリの各々において、本明細書で使用される単語≪レジスタ≫は、小さな容量のエリア(いくらかのビット)に、または、非常に大きなエリア(例えば、全体のプログラム、または、大きな量の受信もしくは復号されたデータ)に対応し得る。ROM123は、少なくともプログラムおよびパラメータを備える。本開示による方法のアルゴリズムは、ROM123に記憶される。スイッチオンされるとき、CPU122は、プログラムをRAMにアップロードし、対応する命令を実行する。
RAM124はレジスタ内に、CPU122により実行され、デバイス120のスイッチオンの後にアップロードされるプログラムと、レジスタ内の入力データと、レジスタ内の方法の異なる状態での中間データと、レジスタ内の方法の実行のために使用される他の変数と、を備える。
本明細書で説明される実装は、例えば、方法もしくはプロセス、装置、ソフトウェアプログラム、データストリーム、または信号で実装され得る。実装の単一の形式の文脈でのみ議論した(例えば、方法またはデバイスとしてのみ議論した)場合でも、議論した特徴の実装は、他の形式(例えば、プログラム)でも実装され得る。装置は例えば、適切なハードウェア、ソフトウェア、およびファームウェアで実装され得る。方法は例えば、例えばコンピュータ、マイクロプロセッサ、集積回路、またはプログラマブル論理デバイスを一般的に含む処理デバイスを指す、例えばプロセッサーなどの装置で実装され得る。プロセッサーはさらには、例えば、エンドユーザ間の情報の通信を容易にする、コンピュータ、セル電話、ポータブル/パーソナルディジタルアシスタント(「PDA」)、および他のデバイスなどの、通信デバイスを含む。
符号化または符号化器の特定の実施形態によると、フレームIは発生源から取得される。例えば発生源は、
− ローカルメモリ(123または124)、例えば、ビデオメモリ、またはRAM(または、ランダムアクセスメモリ)、フラッシュメモリ、ROM(または、読出し専用メモリ)、ハードディスク、
− ストレージインターフェイス(125)、例えば、マスストレージ、RAM、フラッシュメモリ、ROM、光学ディスク、または磁気支持体とのインターフェイス、
− 通信インターフェイス(125)、例えば、ワイヤラインインターフェイス(例えば、バスインターフェイス、ワイドエリアネットワークインターフェイス、ローカルエリアネットワークインターフェイス)、またはワイヤレスインターフェイス(IEEE802.11インターフェイス、またはBluetooth(登録商標)インターフェイスなど)、および、
− フレーム取り込み回路(例えば、例えばCCD(または、電荷結合素子)、またはCMOS(または、相補型金属酸化物半導体)などのセンサ)、
を備えるセットに属する。
復号または復号器の異なる実施形態によると、復号されたフレーム
Figure 2017017684
は送り先に送出され、具体的には送り先は、
− ローカルメモリ(123または124)、例えば、ビデオメモリ、またはRAM、フラッシュメモリ、ハードディスク、
− ストレージインターフェイス(125)、例えば、マスストレージ、RAM、フラッシュメモリ、ROM、光学ディスク、または磁気支持体とのインターフェイス、
− 通信インターフェイス(125)、例えば、ワイヤラインインターフェイス(例えば、バスインターフェイス(例えばUSB(または、ユニバーサルシリアルバス))、ワイドエリアネットワークインターフェイス、ローカルエリアネットワークインターフェイス、HDMI(登録商標)(高精細度マルチメディアインターフェイス(High Definition Multimedia Interface))インターフェイス)、またはワイヤレスインターフェイス(IEEE802.11インターフェイス、WiFi(登録商標)、またはBluetooth(登録商標)インターフェイスなど)、および、
− ディスプレイ、
を備えるセットに属する。
符号化または符号化器の異なる実施形態によると、ビットストリームBFおよび/またはFは送り先に送出される。例えば、ビットストリームFおよびBFの1つ、または、ビットストリームFおよびBFの両方は、ローカルまたはリモートメモリ、例えば、ビデオメモリ(124)、またはRAM(124)、ハードディスク(123)に記憶される。変形形態では、1つまたは両方のビットストリームは、ストレージインターフェイス(125)、例えば、マスストレージ、フラッシュメモリ、ROM、光学ディスク、もしくは磁気支持体とのインターフェイスに送出され、および/または、通信インターフェイス(125)、例えば、ポイントツーポイントリンク、通信バス、ポイントツーマルチポイントリンク、もしくはブロードキャストネットワークへのインターフェイスを介して送信される。
復号または復号器の異なる実施形態によると、ビットストリームBFおよび/またはFは発生源から取得される。例示的にはビットストリームは、ローカルメモリ、例えば、ビデオメモリ(124)、RAM(124)、ROM(123)、フラッシュメモリ(123)、またはハードディスク(123)から読出される。変形形態では、ビットストリームは、ストレージインターフェイス(125)、例えば、マスストレージ、RAM、ROM、フラッシュメモリ、光学ディスク、もしくは磁気支持体とのインターフェイスから受信され、および/または、通信インターフェイス(125)、例えば、ポイントツーポイントリンク、バス、ポイントツーマルチポイントリンク、もしくはブロードキャストネットワークへのインターフェイスから受信される。
異なる実施形態によると、図1〜6および10との関係で説明される符号化方法を実装するように構成されるデバイス120は、
− 移動可能デバイス、
− 通信デバイス、
− ゲームデバイス、
− タブレット(または、タブレットコンピュータ)、
− ラップトップ、
− 静止画カメラ、
− ビデオカメラ、
− 符号化チップ、
− 静止イメージサーバー、および、
− ビデオサーバー(例えば、ブロードキャストサーバー、ビデオオンデマンドサーバー、またはウェブサーバー)、
を備えるセットに属する。
異なる実施形態によると、図10との関係で説明される復号方法を実装するように構成されるデバイス60は、
− 移動可能デバイス、
− 通信デバイス、
− ゲームデバイス、
− セットトップボックス、
− TVセット、
− タブレット(または、タブレットコンピュータ)、
− ラップトップ、
− ディスプレイ、および、
− 復号チップ、
を備えるセットに属する。
図12で例示される実施形態によると、通信ネットワークNETを介しての2つのリモートデバイスAとBとの間の送信コンテキストで、デバイスAは、図1または2との関係で説明されるようなフレームを符号化するための方法を実装するように構成される手段を備え、デバイスBは、図10との関係で説明されるような復号するための方法を実装するように構成される手段を備える。
本明細書で説明される様々なプロセスおよび機能の実装は、多様な異なる機器またはアプリケーション、特に例えば、機器またはアプリケーションで実施され得る。そのような機器の例は、符号化器、復号器、復号器からの出力を処理するポストプロセッサー、符号化器への入力を提供するプリプロセッサー、ビデオ符号器、ビデオ復号器、ビデオコーデック、ウェブサーバー、セットトップボックス、ラップトップ、パーソナルコンピュータ、セル電話、PDA、および他の通信デバイスを含む。明らかなように、機器は移動可能であり、さらには、移動可能な乗物に設置され得る。
さらに、方法は、プロセッサーにより実行される命令により実装され得るものであり、そのような命令(および/または、実装により生み出されるデータ値)は、例えば、集積回路、ソフトウェア搬送波、または、例えば、ハードディスク、コンパクトディスケット(「CD」)、光学ディスク(例えば、しばしばディジタルバーサタイルディスクまたはディジタルビデオディスクと呼ばれるDVDなど)、ランダムアクセスメモリ(「RAM」)、もしくは読出し専用メモリ(「ROM」)などの、他のストレージデバイスなどの、プロセッサー可読媒体上に記憶され得る。命令は、プロセッサー可読媒体上で有形に実施されるアプリケーションプログラムを形成し得る。命令は例えば、ハードウェア、ファームウェア、ソフトウェア、または組み合わせでのものであり得る。命令は例えば、オペレーティングシステム、別々のアプリケーション、または、その2つの組み合わせに見出され得る。プロセッサーは、したがって例えば、プロセスを実行するように構成されるデバイス、および、プロセスを実行するための命令を有する(ストレージデバイスなどの)プロセッサー可読媒体を含むデバイスの両方として特徴付けられ得る。さらにプロセッサー可読媒体は、命令に加えて、または命令の代わりに、実装により生み出されるデータ値を記憶し得る。
当業者には明らかになるように、実装は、例えば記憶または送信され得る情報を搬送するためにフォーマットされる多様な信号を生成し得る。情報は例えば、方法を実行するための命令、または、上述した実装の1つにより生成されるデータを含み得る。例えば信号は、データとして、上述した実施形態のシンタックスを書込むため、もしくは読出すための規則を搬送するために、または、データとして、上述した実施形態により書込まれる実際のシンタックス値を搬送するためにフォーマットされ得る。そのような信号は例えば、電磁波(例えば、スペクトルの無線周波数小部分を使用する)として、または、ベースバンド信号としてフォーマットされ得る。フォーマットすることは例えば、データストリームを符号化すること、および、搬送波を、符号化されるデータストリームによって変調することを含み得る。信号が搬送する情報は例えば、アナログまたはディジタル情報であり得る。信号は、知られているように、多様な異なるワイヤードまたはワイヤレスリンクを介して送信され得る。信号は、プロセッサー可読媒体上に記憶され得る。
いくつかの実装が説明された。それでも、様々な変更がなされ得ることが理解されよう。例えば異なる実装の要素は、他の実装を生み出すために、組み合わされ、補完され、変更され、または除去され得る。さらに、当業者は、他の構造およびプロセスが、開示されるものの代わりになり得るものであり、結果として生じる実装は、開示される実装と、少なくとも実質的に同じ機能を、少なくとも実質的に同じ方途で実行して、少なくとも実質的に同じ結果を達成することを理解するであろう。したがって、これらおよび他の実装は、本出願により企図されるものである。

Claims (21)

  1. フレームを符号化するための方法であって、
    − バックライトフレームを前記フレームから決定する(101)ステップと、
    − 前記フレームおよび前記バックライトフレームに対応する残差フレームを算出する(103)ステップと、
    − 前記残差フレームを、インポーズされるフレーム(IMF)から算出される(109)前記残差フレームの予測子を使用して予測符号化する(110)ステップであって、前記インポーズされるフレームは、符号化される前記フレームの低ダイナミックバージョンである、前記予測符号化する(110)ステップと、
    を含むことを特徴とする、前記方法。
  2. 前記インポーズされるフレーム、および、符号化される前記フレームは、異なってカラーグレーディングを有する、請求項1に記載の方法。
  3. 前記インポーズされるフレーム、および、符号化される前記フレームは、異なる色空間で表現される、請求項1に記載の方法。
  4. 前記残差フレームの前記予測子は、前記インポーズされるフレームの復号されたバージョンから算出される、請求項1〜3のいずれか一項に記載の方法。
  5. 前記残差フレームの前記予測子を算出するステップは、カラーマッピング関数(CMF)を使用することにより、前記インポーズされるフレームの前記復号されたバージョンを前記残差フレームにマッピングするステップを含む、請求項1〜4のいずれか一項に記載の方法。
  6. 前記カラーマッピング関数は、3Dカラールックアップテーブルを使用する、請求項5に記載の方法。
  7. 前記バックライトフレームは、前記インポーズされるフレームからさらに決定される、請求項1〜6のいずれか一項に記載の方法。
  8. 前記バックライトフレームを決定するステップは、前記フレームの各々の成分を、前記フレームIMFの成分で除算するステップを含む、請求項7に記載の方法。
  9. 予測符号化する(110)前に、前記残差フレームをマッピングする(106)ステップと、前記バックライトフレームを決定する前に、前記インポーズされるフレームの各々の成分を逆マッピングする(113)ステップと、をさらに含む、請求項1〜8のいずれか一項に記載の方法。
  10. 前記残差フレームを予測符号化する(110)ステップは、SHVC標準に準拠する、請求項1〜9のいずれか一項に記載の方法。
  11. フレームを少なくとも1つのビットストリームから復号するための方法であって、
    − バックライトフレームを、ビットストリームを少なくとも部分的に復号することにより取得する(104、105)ステップと、
    − ビットストリームを少なくとも部分的に復号することにより、復号されるインポーズされるフレームを取得する(112)ステップであって、前記復号されるインポーズされるフレームは、復号される前記フレームの低ダイナミックバージョンである、前記取得する(112)ステップと、
    − 予測子
    Figure 2017017684
    を、前記復号されるインポーズされるフレームから取得するステップと、
    − ビットストリームを少なくとも部分的に復号することにより、および、前記復号されるインポーズされるフレームから取得された前記予測子を使用することにより、復号される残差フレームを予測復号する(1101)ステップと、
    − 前記復号される残差フレーム、および前記復号されるバックライトフレームに対応する前記フレームを復号するステップと、
    を含む、前記方法。
  12. − 3DカラーLUTに関するパラメータを、ビットストリームを少なくとも部分的に復号することにより取得するステップと、
    − 前記予測子を、前記復号されるインポーズされるフレーム、および前記取得されたパラメータから取得するステップと、
    をさらに含む、請求項11に記載の方法。
  13. 前記予測子は、3DカラーLUTの各々の領域に対する特定の予測子
    Figure 2017017684
    を含む、請求項11または12に記載の方法。
  14. 復号される残差フレームを予測復号する(1101)ステップは、SHVC標準に準拠する、請求項11〜13のいずれか一項に記載の方法。
  15. フレームを符号化するためのデバイスであって、
    − バックライトフレームを前記フレームから決定することと、
    − 前記フレームおよび前記バックライトフレームに対応する残差フレームを算出することと、
    − 前記残差フレームを、インポーズされるフレームから算出された前記残差フレームの予測子を使用して予測符号化することであって、前記インポーズされるフレームは、符号化される前記フレームの低ダイナミックバージョンである、前記予測符号化することと、
    を行うように構成されたプロセッサーを備えることを特徴とする、前記デバイス。
  16. フレームを少なくとも1つのビットストリームから復号するためのデバイスであって、
    − バックライトフレームを、ビットストリームを少なくとも部分的に復号することにより取得する(104、105)ことと、
    − フレーム、復号されるインポーズされるフレームを、ビットストリームを少なくとも部分的に復号することにより取得する(112)ことであって、前記復号されるインポーズされるフレームは、復号される前記フレームの低ダイナミックバージョンである、前記取得する(112)ことと、
    − 予測子
    Figure 2017017684
    を、前記復号されるインポーズされるフレームから取得することと、
    − 復号される残差フレームを、ビットストリームを少なくとも部分的に復号することにより、および、前記復号されるインポーズされるフレームから取得された前記予測子を使用することにより予測復号する(1101)ことと、
    − 前記復号される残差フレーム、および前記復号されるバックライトフレームに対応する前記フレームを復号することと、
    を行うように構成されたプロセッサーを備えることを特徴とする、前記デバイス。
  17. コンピュータプログラム製品であって、このプログラムがコンピュータ上で実行されるときに、請求項1に記載の符号化方法の前記ステップを実行するためのプログラムコードの命令を備える、前記コンピュータプログラム製品。
  18. コンピュータプログラム製品であって、このプログラムがコンピュータで実行されるときに、請求項11に記載の復号方法の前記ステップを実行するためのプログラムコードの命令を備える、前記コンピュータプログラム製品。
  19. プロセッサー可読媒体であって、プロセッサーに、請求項1に記載の符号化方法の少なくとも前記ステップを実行させるための命令が記憶される、前記プロセッサー可読媒体。
  20. プロセッサー可読媒体であって、プロセッサーが、請求項11に記載の復号方法の少なくとも前記ステップを実行させるための命令が記憶される、前記プロセッサー可読媒体。
  21. プログラムコードの命令を保持する非一時的ストレージ媒体であって、前記プログラムがコンピューティングデバイスで実行されるときに、請求項1〜14のいずれか一項に記載の方法のステップを実行する、前記非一時的ストレージ媒体。
JP2016119120A 2015-06-15 2016-06-15 高ダイナミックレンジフレームおよびインポーズされる低ダイナミックレンジフレームの両方を符号化するための方法およびデバイス Active JP7043164B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15305926.6 2015-06-15
EP15305926.6A EP3107300A1 (en) 2015-06-15 2015-06-15 Method and device for encoding both a high-dynamic range frame and an imposed low-dynamic range frame

Publications (3)

Publication Number Publication Date
JP2017017684A true JP2017017684A (ja) 2017-01-19
JP2017017684A5 JP2017017684A5 (ja) 2019-07-04
JP7043164B2 JP7043164B2 (ja) 2022-03-29

Family

ID=53487319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016119120A Active JP7043164B2 (ja) 2015-06-15 2016-06-15 高ダイナミックレンジフレームおよびインポーズされる低ダイナミックレンジフレームの両方を符号化するための方法およびデバイス

Country Status (6)

Country Link
US (1) US10250893B2 (ja)
EP (2) EP3107300A1 (ja)
JP (1) JP7043164B2 (ja)
KR (1) KR20160147670A (ja)
CN (1) CN106412595B (ja)
TW (1) TWI740830B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9979895B2 (en) * 2015-09-04 2018-05-22 Disney Enterprises, Inc. High dynamic range tone mapping
EP3386198A1 (en) * 2017-04-07 2018-10-10 Thomson Licensing Method and device for predictive picture encoding and decoding
CN108769677B (zh) * 2018-05-31 2021-07-30 宁波大学 一种基于感知的高动态范围视频动态范围可分级编码方法
CN114430901A (zh) * 2019-09-20 2022-05-03 北京字节跳动网络技术有限公司 带有色度缩放的亮度映射
CN114222187B (zh) * 2021-08-12 2023-08-29 荣耀终端有限公司 视频编辑方法和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012520619A (ja) * 2009-03-13 2012-09-06 ドルビー ラボラトリーズ ライセンシング コーポレイション 高ダイナミックレンジ、視覚ダイナミックレンジ及び広色域のビデオの階層化圧縮
US20150098510A1 (en) * 2013-10-07 2015-04-09 Vid Scale, Inc. Combined scalability processing for multi-layer video coding

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPR890201A0 (en) * 2001-11-16 2001-12-06 Silverbrook Research Pty. Ltd. Methods and systems (npw005)
EP1478189A3 (en) * 2003-05-16 2004-12-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding image using image residue prediction
KR101356548B1 (ko) * 2006-01-23 2014-01-28 막스-플랑크-게젤샤프트 츄어 푀르더룽 데어 비쎈샤프텐 에.파우. 하이 다이나믹 레인지 코덱들
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
KR101365441B1 (ko) * 2007-10-11 2014-02-19 삼성전자주식회사 영상 부호화장치 및 방법과 그 영상 복호화장치 및 방법
PL2543181T3 (pl) * 2010-03-03 2016-03-31 Koninklijke Philips Nv Urządzenia i sposoby definiowania systemu kolorów
US9754629B2 (en) * 2010-03-03 2017-09-05 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
EP2445214A1 (en) * 2010-10-19 2012-04-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Video coding using temporally coherent dynamic range mapping
EP2702766B1 (en) * 2011-04-28 2017-06-14 Koninklijke Philips N.V. Apparatuses and methods for hdr image encoding and decoding
EP2774361B1 (en) 2011-11-01 2015-09-16 Dolby Laboratories Licensing Corporation Adaptive false contouring prevention in layered coding of images with extended dynamic range
WO2013068132A1 (en) * 2011-11-09 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Inter-layer prediction between layers of different dynamic sample value range
EP2613532A1 (en) * 2012-01-06 2013-07-10 Thomson Licensing Method of and device for encoding an HDR video together with an LDR video, method of and device for reconstructing one of an HDR video and an LDR video coded together and non-transitory storage medium
CN102708810B (zh) * 2012-06-27 2014-11-12 南京大学(苏州)高新技术研究院 一种自适应led动态背光方法
PL2941872T3 (pl) * 2013-01-02 2019-03-29 Dolby Laboratories Licensing Corporation Kompatybilne wstecznie kodowanie dla sygnałów wideo o ultra wysokiej rozdzielczości z rozszerzonym zakresem dynamicznym
US9177393B2 (en) * 2013-02-04 2015-11-03 Qualcomm Incorporated Mixed mode for frame buffer compression
EP2959672B1 (en) * 2013-02-21 2019-12-04 Koninklijke Philips N.V. Improved hdr image encoding and decoding methods and devices
EP2819414A3 (en) 2013-06-28 2015-02-25 Samsung Electronics Co., Ltd Image processing device and image processing method
EP3056007A4 (en) * 2013-10-11 2017-05-24 Sharp Kabushiki Kaisha Color information and chromaticity signaling
EP2890129A1 (en) 2013-12-27 2015-07-01 Thomson Licensing Method and device for encoding a high-dynamic range image and/or decoding a bitstream
WO2015097118A1 (en) 2013-12-27 2015-07-02 Thomson Licensing Method and device for encoding a high-dynamic range image into a bitstream and/or decoding a bitstream representing a high-dynamic range image
US10003809B2 (en) * 2013-12-27 2018-06-19 Thomson Licensing Method and device for tone-mapping a high dynamic range image
GB201408618D0 (en) * 2014-05-15 2014-06-25 Univ Warwick Compressing high dynamic range images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012520619A (ja) * 2009-03-13 2012-09-06 ドルビー ラボラトリーズ ライセンシング コーポレイション 高ダイナミックレンジ、視覚ダイナミックレンジ及び広色域のビデオの階層化圧縮
US20150098510A1 (en) * 2013-10-07 2015-04-09 Vid Scale, Inc. Combined scalability processing for multi-layer video coding

Also Published As

Publication number Publication date
US10250893B2 (en) 2019-04-02
CN106412595A (zh) 2017-02-15
KR20160147670A (ko) 2016-12-23
EP3107301A1 (en) 2016-12-21
TWI740830B (zh) 2021-10-01
US20160366423A1 (en) 2016-12-15
JP7043164B2 (ja) 2022-03-29
CN106412595B (zh) 2022-01-25
EP3107300A1 (en) 2016-12-21
TW201707454A (zh) 2017-02-16

Similar Documents

Publication Publication Date Title
US10015491B2 (en) In-loop block-based image reshaping in high dynamic range video coding
CN105657425B (zh) 编码方法、系统和编码器、解码方法、系统和解码器
JP2018525883A (ja) カラー・ピクチャを符号化および復号する方法およびデバイス
JP2018507619A (ja) カラー・ピクチャを符号化および復号する方法および装置
JP6719391B2 (ja) ビットストリーム内で、ldrピクチャのピクチャ/ビデオ・フォーマットと、このldrピクチャおよびイルミネーション・ピクチャから取得された復号済みのhdrピクチャのピクチャ/ビデオ・フォーマットとをシグナリングする方法および装置
JP7043164B2 (ja) 高ダイナミックレンジフレームおよびインポーズされる低ダイナミックレンジフレームの両方を符号化するための方法およびデバイス
US9924178B2 (en) Method and device for encoding a high-dynamic range image and/or decoding a bitstream
JP2019513323A (ja) 高ダイナミックレンジピクチャを符号化する方法及び装置、対応する符号化方法及並びに符号化装置
KR102537393B1 (ko) Hdr 이미지를 재구성하기 위한 방법 및 디바이스
CN110754085B (zh) 用于非4:4:4格式视频内容的颜色重映射
KR20190132399A (ko) 컬러 영역 매핑을 위한 방법 및 디바이스
US10560695B2 (en) Encoding and decoding of pictures in a video
WO2019203973A1 (en) Method and device for encoding an image or video with optimized compression efficiency preserving image or video fidelity
WO2017093188A1 (en) Encoding and decoding of pictures in a video
US10462478B2 (en) Method of video generation
JP2019097013A (ja) ディスプレイ適合hdr画像を再構成する方法およびデバイス
KR20190059006A (ko) 디스플레이 적응형 hdr 이미지를 재구성하기 위한 방법 및 디바이스
JP6990172B2 (ja) Hdr符号化/復号のための色成分サンプルの共に配置される輝度サンプルの決定
WO2015097135A1 (en) Method and device for encoding a high-dynamic range image
WO2015097124A1 (en) Method and device for encoding a high-dynamic range image and/or decoding a bitstream
WO2015097129A1 (en) Method and device for encoding a high-dynamic range image
WO2015097131A1 (en) Method and device for encoding a high-dynamic range image
WO2015097134A1 (en) Method and device for encoding a high-dynamic range image and/or decoding a bitstream

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190529

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190529

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201211

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210408

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210317

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210819

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220316

R150 Certificate of patent or registration of utility model

Ref document number: 7043164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150