JP7074461B2 - How and Devices to Reconstruct Display-Compatible HDR Images - Google Patents

How and Devices to Reconstruct Display-Compatible HDR Images Download PDF

Info

Publication number
JP7074461B2
JP7074461B2 JP2017224232A JP2017224232A JP7074461B2 JP 7074461 B2 JP7074461 B2 JP 7074461B2 JP 2017224232 A JP2017224232 A JP 2017224232A JP 2017224232 A JP2017224232 A JP 2017224232A JP 7074461 B2 JP7074461 B2 JP 7074461B2
Authority
JP
Japan
Prior art keywords
image data
image
original image
information data
luma component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017224232A
Other languages
Japanese (ja)
Other versions
JP2019097013A (en
Inventor
オリビエ,ヤニツク
トウージ,デイビツド
カラメリ,ニコラス
アンドリボン,ピエール
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority to JP2017224232A priority Critical patent/JP7074461B2/en
Publication of JP2019097013A publication Critical patent/JP2019097013A/en
Application granted granted Critical
Publication of JP7074461B2 publication Critical patent/JP7074461B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

特許法第30条第2項適用 ETSI TS 103 433-1 V1.1.4 ステーブル草案、平成29年5月22日付技術仕様書 コンシューマ電子機器における使用のための高性能単層高ダイナミック・レンジ(HDR)システム;パート1:標準ダイナミック・レンジ(SDR)互換HDRシステム(SL-HDR1)、第41頁7.2.3.1.9節、第41頁7.2.3.2節、第43頁及び第44頁7.2.4節、付属文書E.2 第117頁(E.20)、ETSIPatent Law Article 30, Paragraph 2 Applicable ETSI TS 103 433-1 V1.1.4 Stable Draft, Technical Specifications Dated May 22, 2017 High Performance Single Layer High Dynamic Range for Use in Consumer Electronic Devices (HDR) System; Part 1: Standard Dynamic Range (SDR) Compatible HDR System (SL-HDR1), page 41, section 7.2.3.1.9, page 41, section 7.2.3.2, Pages 43 and 44, Section 7.2.4, Annex E.I. 2 Page 117 (E.20), ETSI

本発明の原理は、一般に、復号した画像/ビデオ・データからの画像/ビデオの再構成に関する。限定されるわけではないが、特に、本発明の原理の技術分野は、画像の特徴、再構成メタデータ、およびプレゼンテーション・ディスプレイの能力を考慮した、ある画像の別の画像からの再構成に関する。 Principles of the invention generally relate to image / video reconstruction from decoded image / video data. In particular, but not limited to, the technical field of the principles of the invention relates to the reconstruction of one image from another, taking into account the characteristics of the image, the reconstruction metadata, and the capabilities of the presentation display.

本項は、以下で述べ、且つ/または主張する本発明の原理の様々な態様に関係する可能性がある様々な技術的特徴を、読者に紹介するための項である。この記述は、本発明の原理の様々な態様に対するより深い理解を促す背景情報を読者に与えるのに有用であると考えられる。従って、以下の記述は、この点に照らして読まれるべきものであり、従来技術を承認するものとして読まれるべきものではないことを理解されたい。 This section is intended to introduce the reader to various technical features that may be relevant to various aspects of the principles of the invention described and / or claimed below. This description is believed to be useful in providing the reader with background information that facilitates a deeper understanding of the various aspects of the principles of the invention. Therefore, it should be understood that the following statements should be read in this regard and not as an endorsement of the prior art.

以下では、画像データは、画像(またはビデオ)の画素値に関する全ての情報と、ディスプレイおよび/またはその他の任意のデバイスが例えば画像(またはビデオ)を視覚化および/または復号するために使用することができる全ての情報とを指定する特定の画像/ビデオ・フォーマットのサンプル(画素値)の1つまたは複数のアレイを指す。画像は、通常は画像の輝度(またはルマ)を表す第1のサンプル・アレイの形状の第1の成分と、通常は画像の色(またはクロマ)を表す他のサンプル・アレイの形状の第2および第3の成分とを含む。あるいは、同じ情報を、等価に、従来の3色RGB表現などの色サンプルのアレイのセットで表すこともできる。 In the following, the image data shall be used by the display and / or any other device to visualize and / or decode the image (or video), for example, with all information about the pixel value of the image (or video). Refers to one or more arrays of samples (pixel values) in a particular image / video format that specify all the information that can be made. The image is the first component of the shape of the first sample array, which usually represents the brightness (or Luma) of the image, and the second of the shapes of the other sample arrays, which usually represent the color (or chroma) of the image. And a third component. Alternatively, the same information can be equivalently represented by a set of arrays of color samples, such as a conventional three-color RGB representation.

画素値は、C個の値のベクトルで表され、ここで、Cは、成分の数である。ベクトルの各値は、画素値の最大ダイナミック・レンジを規定するいくつかのビットで表される。 The pixel value is represented by a vector of C values, where C is the number of components. Each value in the vector is represented by several bits that define the maximum dynamic range of the pixel values.

標準ダイナミック・レンジ画像(SDR画像)は、制限された数のビット(通常は8ビット)で表される輝度値を有する画像である。この制限された表現では、特に暗い輝度範囲および明るい輝度範囲で、小さな信号変動を正しくレンダリングすることができない。高ダイナミック・レンジ画像(HDR画像)では、信号表現を拡張して、信号の高い精度をその全範囲にわたって維持する。HDR画像では、輝度レベルを表す画素値は、通常は、最も一般的な形式がopenEXR半精度形式(RGB成分当たり16ビット、すなわち画素当たり48ビット)である浮動小数点形式(通常は成分当たり少なくとも10ビット、すなわちfloat型またはhalf-float型)、あるいは通常は少なくとも16ビットの長い表現を有する整数で表される。 A standard dynamic range image (SDR image) is an image having a luminance value represented by a limited number of bits (usually 8 bits). This limited representation does not allow small signal variations to be rendered correctly, especially in the dark and bright range of brightness. In high dynamic range images (HDR images), the signal representation is extended to maintain high accuracy of the signal over its entire range. In HDR images, pixel values representing brightness levels are usually in floating point format (usually at least 10 per component), the most common format being the openEXR half-precision format (16 bits per RGB component, i.e. 48 bits per pixel). It is represented by a bit (ie float type or half-float type), or an integer usually having a long representation of at least 16 bits.

高効率ビデオ・コード化(HEVC)標準(ITU-T H.265、ITU電気通信標準化部門(2014年10月)シリーズH:audiovisual and multimedia systems、infrastructure of audiovisual services- coding of moving video、High efficiency video coding、勧告ITU-T H.265)の登場は、Ultra HD同報通信サービスなど、表示体験が強化された新たなビデオ・サービスを展開することを可能にしている。空間解像度の向上に加えて、Ultra HDは、現在展開されている標準ダイナミック・レンジ(SDR)HD-TVより広い色域(WCG)およびより高いダイナミック・レンジ(HDR)をもたらすことができる。HDR/WCGビデオの表現およびコード化のための様々な解決策が提案されている(SMPTE 2014、「High Dynamic Range Electro-Optical Transfer Function of Mastering Reference Displays」、またはSMPTE ST 2084、2014、あるいはDiaz R、Blinstein S、およびQu Sによる「Integrating HEVC Video Compression with a High Dynamic Range Video Pipeline」、SMPTE Motion Imaging Journal、Vol. 125、Issue 1、2016年2月、pp.14~21)。 High Efficiency Video Coding (HEVC) Standards (ITU-TH.265, ITU Telecommunications Standardization Division (October 2014) Series H: audiovisual and multiple systems, infrastructure of audiovisual system The advent of coding, Recommendation ITU-TH.265) has made it possible to develop new video services with enhanced display experiences, such as the Ultra HD broadcast communication service. In addition to improving spatial resolution, Ultra HD can provide a wider color gamut (WCG) and a higher dynamic range (HDR) than the standard dynamic range (SDR) HD-TVs currently being deployed. Various solutions have been proposed for the representation and coding of HDR / WCG video (SMPTE 2014, "High Dynamic Range Electro-Optical Transfer Transformion of Masstering Reference of Mastering Reference Disprays", or SMPTE14, or SMPTE14. , Blinstein S, and Qu S, "Integrating HEVC Video Compression with a High Dynamic Range Video Pipeline," SMPTE Motion Image January 21, Vol. 21, Vol. 21, Vol.

復号およびレンダリング・デバイスとのSDR後方互換性は、同報通信システムまたはマルチキャスティングシステムなど、一部のビデオ配信システムでは、重要な特徴である。 SDR backward compatibility with decryption and rendering devices is an important feature in some video distribution systems, such as broadcast communication systems or multicasting systems.

単一レイヤコード化/復号プロセスに基づく解決策は、例えばSDR互換性など後方互換性であることがあり、既に存在するレガシー配信ネットワークおよびサービスを活用することができる。 Solutions based on the single layer encoding / decryption process may be backwards compatible, for example SDR compatibility, and can leverage existing legacy distribution networks and services.

このような単一レイヤ型配信の解決策は、HDR対応型大衆消費電子製品(CE)デバイス上での高品質なHDRレンダリングを可能にしながら、SDR対応型CEデバイス上での高品質のSDRレンダリングも提供する。 Such a single-layer delivery solution allows for high quality HDR rendering on HDR-enabled mass consumer electronics (CE) devices, while high quality SDR rendering on SDR-enabled CE devices. Also provide.

このような単一レイヤ型配信の解決策は、例えばSDR信号などの符号化信号と、例えばHDR信号などの別の信号を例えばSDR信号などの復号信号から再構成するために使用することができる関連するメタデータ(ビデオ・フレームまたはシーン当たり数バイト)とを生成する。 Such a single-layer delivery solution can be used to reconstruct a coded signal, such as an SDR signal, and another signal, such as an HDR signal, from a decoded signal, such as an SDR signal. Generate relevant metadata (video frames or a few bytes per scene).

メタデータは、信号の再構成に使用されるパラメータ値を記憶し、静的であっても動的であってもよい。静的メタデータとは、あるビデオ(画像のセット)および/またはプログラムについて同じままのメタデータを意味する。 The metadata stores the parameter values used to reconstruct the signal and may be static or dynamic. Static metadata means metadata that remains the same for a video (set of images) and / or a program.

静的メタデータは、ビデオ・コンテンツ全体(シーン、ムービー、クリップ、…)について有効であり、画像の内容に依存しないことがある。静的メタデータは、例えば、画像のフォーマット、色空間、色域を定義することがある。例えば、SMPTE ST 2086:2014、「Mastering Display Color Volume Metadata Supporting High Luminance and Wide Color Gamut Images」は、プロダクション環境で使用されるこのような種類の静的メタデータである。マスタリング・ディスプレイ・色ボリューム(MDCV)SEI(補足拡張情報)メッセージは、H.264/AVC(「Advanced video coding for generic audiovisual Service」、SERIES H:AUDIOVISUAL AND MULTIMEDIA SYSTEMS、勧告ITU-T H.264、ITUの電気通信標準化部門、2012年1月)およびHEVCの両方のビデオ・コーデックのST 2086の配信フレーバ(distribution flavor)である。 Static metadata is valid for the entire video content (scenes, movies, clips, ...) and may be independent of the content of the image. Static metadata may define, for example, the format, color space, and color gamut of an image. For example, SMPTE ST 2086: 2014, "Mastering Display Color Volume Metaltata Supporting High Luminance and Wide Color Gamut Images" is such kind of static metadata used in a production environment. The Mastering Display Color Volume (MDCV) SEI (Supplementary Extended Information) message is from H.M. 264 / AVC ("Advanced video coding for generic audiovisual service", SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Recommendation ITU-TH.264, ITU-T H.264, ITU, telecommunications standardization, ITU-T H.264, ITU, telecommunications standardization It is a distribution flavor of ST 2086.

動的メタデータは、コンテンツ依存性である。すなわち、このメタデータは、画像/ビデオの内容に応じて、例えば画像ごとに、または画像グループごとに、変化する可能性がある。一例として、SMPTE ST 2094:2016標準のファミリの「Dynamic Metadata for Color Volume Transform」は、プロダクション環境で使用される動的メタデータである。SMPTE ST 2094-30は、色再マッピング情報(CRI)SEIメッセージのおかげでHEVCコード化ビデオ・ストリームに沿って配信することができる。 Dynamic metadata is content dependent. That is, this metadata can change, for example, by image or by image group, depending on the content of the image / video. As an example, the SMPTE ST 2094: 2016 standard family of "Dynamic Metadata for Color Volume Transition" is dynamic metadata used in production environments. The SMPTE ST 2094-30 can be delivered along the HEVC coded video stream thanks to the Color Remapping Information (CRI) SEI message.

その他の単一レイヤ型配信の解決策は、ディスプレイ適合動的メタデータがレガシー・ビデオ信号と共に送達される配信ネットワーク上に存在する。これらの単一レイヤ型配信の解決策は、HDR10ビット画像データ(例えば、勧告ITU-R BT.2100-0「Recommendation ITU-R BT.2100-0、Image parameter values for high dynamic range television for use in production and international program exchange」に指定されるようにHLG10またはPQ10信号として信号が表現される画像データ)と、関連するメタデータとを入力信号(通常は12または16ビット)から生成することができ、例えばHEVC Main10プロファイル符号化方式を使用してこのHDR10ビット画像データを符号化し、復号したビデオ信号および上記の関連するメタデータからビデオ信号を再構成する。再構成信号のダイナミック・レンジは、対象ディスプレイの特徴に依存することがある関連するメタデータに従って適合される。 Other single-layer delivery solutions exist on the delivery network where display-fit dynamic metadata is delivered with legacy video signals. Solutions for these single-layer distributions are HDR10-bit image data (eg, Recommendation ITU-R BT. 2100-0, Image parameter values for high dynamic radiation). Image data in which the signal is represented as an HLG10 or PQ10 signal as specified in "production and international program exchange") and associated metadata can be generated from the input signal (usually 12 or 16 bits). For example, the HDR10 bit image data is encoded using the HEVC Main10 profile coding scheme to reconstruct the video signal from the decoded video signal and the associated metadata described above. The dynamic range of the reconstructed signal is adapted according to relevant metadata that may depend on the characteristics of the target display.

2016年8月に公開されたETSI TS 103 433 V1.1.1は、直接後方互換性に対応する、すなわち既に存在するSDR配信ネットワークおよびサービスを活用し、SDR CEデバイス上での高品質のSDRレンダリングを含む、HDR対応型CEデバイス上での高品質のHDRレンダリングを可能にする、単一レイヤ型配信の解決策を提案している。本明細書のいくつかの要素については、以下で、図2の説明において詳述する。 Published in August 2016, ETSI TS 103 433 V1.1.1 supports direct backward compatibility, i.e. leverages existing SDR distribution networks and services to leverage high quality SDRs on SDR CE devices. We are proposing a single-layer delivery solution that enables high quality HDR rendering on HDR-enabled CE devices, including rendering. Some elements of the specification are described in detail below in the description of FIG.

ディスプレイ適合方法が、この標準で提案されている。この方法は、再構成HDR信号を、ディスプレイの輝度能力に対応する輝度レベルに適合させることを目的としている。例えば、再構成HDRは、1000cd/m(ニト)にすることができるのに対して、その画像をレンダリングするために使用されるディスプレイは、最大で500ニトしかレンダリングすることができない。このディスプレイ適合の1つの目的は、SDRとHDRの間のマッピングで取り込まれる創造的意図を最大限に維持することである。このディスプレイ適合は、元のHDRのピーク輝度と、目標のSDRのピーク輝度(100ニトに固定)と、プレゼンテーション・ディスプレイの最大輝度との間の比に基づいてトーン・マッピング動作で使用される再計算したメタデータ値を使用している。このディスプレイ適合は、100ニトまで低下することができるので、SDRディスプレイに適合するSDR信号を提供することができる。ただし、この従来技術のディスプレイ適合方法では、低いピーク輝度を有するディスプレイで使用したときに、満足のいく結果を示さなかった。第1に、低いピーク輝度を有するディスプレイ上では、ある程度の色ずれが発生し、第2に、100ニトのピーク輝度を有するディスプレイでは、ポストプロセッサの出力で生成されたSDR信号が、ポストプロセッサの入力のSDR画像と異なり、ポストプロセッサはパススルーとして作用すべきであることから、これが許容できないことである。 Display adaptation methods are proposed in this standard. This method aims to adapt the reconstructed HDR signal to a luminance level corresponding to the luminance capability of the display. For example, reconstructed HDR can be 1000 cd / m 2 (nits), whereas the display used to render the image can only render up to 500 nits. One purpose of this display fit is to maximize the creative intent captured in the mapping between SDR and HDR. This display fit is re-used in tone mapping operations based on the ratio between the peak brightness of the original HDR and the peak brightness of the target SDR (fixed to 100 nits) to the maximum brightness of the presentation display. You are using the calculated metadata value. Since this display fit can be reduced to 100 nits, it is possible to provide an SDR signal that fits the SDR display. However, this prior art display adaptation method has not shown satisfactory results when used in displays with low peak brightness. First, some color shift occurs on a display with a low peak brightness, and second, on a display with a peak brightness of 100 nits, the SDR signal generated at the output of the post processor is the post processor. This is unacceptable as the post processor should act as a pass-through, unlike the input SDR image.

Diaz R、Blinstein S、およびQu Sによる「Integrating HEVC Video Compression with a High Dynamic Range Video Pipeline」、SMPTE Motion Imaging Journal、Vol. 125、Issue 1、2016年2月、pp.14~21"Integrating HEVC Video Compression with a High Dynamic Range Video Pipeline" by Diaz R, Blinstein S, and Qu S, SMPTE Motion Image, Journ. 125, Issue 1, February 2016, pp. 14-21

従って、従来技術の問題のうちの少なくとも一部に対処する、画像をそれがレンダリングされることになるディスプレイ、特に低いピーク輝度を有するディスプレイに適合させるようにHDRビデオを再構成する解決策が必要とされていることが分かる。 Therefore, there needs to be a solution that addresses at least some of the problems of the prior art and reconstructs the HDR video to fit the display on which it will be rendered, especially those with low peak brightness. It turns out that it is said.

以下、本発明の原理のいくつかの特徴の基本的な理解が得られるように、本発明の原理の簡単な概要を与える。この概要は、本発明の原理の広範な概要ではない。この概要は、本発明の原理の重要または不可欠な要素を特定するためのものではない。以下の概要は、単に、本発明の原理のいくつかの特徴を、以降に与えるさらに詳細な説明の前置きとして簡略な形態で与えるものである。 The following is a brief overview of the principles of the invention so that a basic understanding of some of the features of the principles of the invention can be obtained. This overview is not an extensive overview of the principles of the invention. This overview is not intended to identify important or essential elements of the principles of the invention. The following outline is merely provided in brief form as a prelude to a more detailed description given below, with some features of the principles of the invention.

本発明の原理は、元の画像データを表す画像データを、ビットストリームから得られる復号画像データおよびパラメータから再構成する方法およびデバイスであり、パラメータが、元の画像データから処理されている方法およびデバイスであり、ルマ成分の飽和度低下、飽和度低下ルマ成分の逆マッピング、およびクロマ成分の補正を含み、これらの動作が、再構成画像を表示しようとするプレゼンテーション・ディスプレイのピーク輝度、通常の標準ダイナミック・レンジ画像のピーク輝度、および元の画像データまたは元の画像データを等級付けするために使用されるマスタリング・ディスプレイのピーク輝度を表す単一の変調度modの値に応じて変調される、方法およびデバイスによって、従来技術の欠点のうちの少なくとも1つを解消しようとするものである。 The principle of the present invention is a method and device for reconstructing image data representing the original image data from decoded image data and parameters obtained from a bit stream, the method in which the parameters are processed from the original image data and A device that includes desaturation of the Luma component, desaturation desaturation of the Luma component, and correction of the chroma component, these actions are the peak brightness of the presentation display attempting to display the reconstructed image, normal. Modulated according to the peak brightness of a standard dynamic range image and the value of a single degree of modulation mod that represents the original image data or the peak brightness of the mastering display used to grade the original image data. , Methods and devices, seek to eliminate at least one of the shortcomings of prior art.

本明細書では、ピーク輝度の特徴を使用するが、この原理は、ピーク輝度に限定されるわけではなく、例えば平均輝度または中央輝度など、ディスプレイを特徴付けるその他の任意の値に適用される。 Although the peak brightness feature is used herein, this principle is not limited to peak brightness and applies to any other value that characterizes the display, such as average brightness or center brightness.

第1の態様では、本開示は、元の画像データ(I)を表す画像データ(I)を、ビットストリームから得られる復号画像データ(I)およびパラメータから再構成する方法であり、パラメータが、元の画像データ(I)から処理されており、再構成画像が、プレゼンテーション・ディスプレイの特徴に適合される方法であり、飽和度低下ルマ成分および再構成ルマ成分に従って2つのクロマ成分を補正して2つの再構成クロマ成分を得ることを含む方法であって、クロマ補正が、プレゼンテーション・ディスプレイの輝度情報データ(D_PL)、通常の標準ダイナミック・レンジ画像の輝度情報データ(SDR_PL)、および元の画像データ(I)または元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データ(C_PL)を表す単一の変調度modの値に応じたものであることを特徴とする、方法を対象とする。 In the first aspect, the present disclosure is a method of reconstructing image data (I 3 ) representing the original image data (I 1 ) from decoded image data (I 2 ) and parameters obtained from a bit stream. The parameters are processed from the original image data (I 1 ) and the reconstructed image is a method adapted to the characteristics of the presentation display, with two chroma components according to the reduced saturation Luma component and the reconstructed Luma component. A method comprising correcting two reconstructed chroma components, wherein the chroma correction includes brightness information data (D_PL) for a presentation display, brightness information data (SDR_PL) for a normal standard dynamic range image, And according to the value of a single degree of modulation mod representing the original image data (I 1 ) or the brightness information data (C_PL) of the mastering display used to grade the original image data. The target is a method characterized by.

第1の態様の変形形態では、変調度の値は、 In the modified form of the first aspect, the value of the degree of modulation is

Figure 0007074461000001
に従って計算され、ここで、D_PLは、プレゼンテーション・ディスプレイの輝度情報データであり、SDR_PLは、通常の標準ダイナミック・レンジ画像の輝度情報データであり、C_PLは、元の画像データ(I)または元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データであり、invPQは、逆伝達関数である。
Figure 0007074461000001
Where D_PL is the brightness information data of the presentation display, SDR_PL is the brightness information data of the normal standard dynamic range image, and C_PL is the original image data (I 1 ) or the original. It is the brightness information data of the mastering display used for grading the image data of, and invPQ is an inverse transfer function.

第1の態様の第2の変形形態では、この方法は、飽和度低下を調整するパラメータに応じてルマ成分を飽和度低下させることと、飽和度低下ルマ成分を逆マッピングして再構成ルマ成分を得ることと、圧縮補正を実行することとをさらに含み、飽和度低下、逆マッピング、圧縮補正、およびクロマ補正は、単一の変調度modの値に応じたものであることを特徴とする。変形形態では、変調度の値は、 In the second variant of the first aspect, this method reduces the saturation of the Luma component according to a parameter that adjusts the reduction of saturation, and reverse-maps the reduced saturation Luma component to reconstruct the Luma component. Further including obtaining and performing compression correction, the desaturation, inverse mapping, compression correction, and chroma correction are characterized by being in response to a single modulation modding value. .. In the modified form, the modulation degree value is

Figure 0007074461000002
に従って計算され、ここで、D_PLは、プレゼンテーション・ディスプレイの輝度情報データであり、SDR_PLは、通常の標準ダイナミック・レンジ画像の輝度情報データであり、C_PLは、元の画像データ(I)または元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データである。
Figure 0007074461000002
Where D_PL is the brightness information data of the presentation display, SDR_PL is the brightness information data of the normal standard dynamic range image, and C_PL is the original image data (I 1 ) or the original. It is the brightness information data of the mastering display used for grading the image data of.

第1の態様の変形実施形態では、SDR_PLの値は、100ニトであり、
飽和度低下(120)動作は、
y’=y’+Max(0,a×mod×u’+b×mod×v’)
に従って飽和度低下ルマ成分y’を得ること(31)をさらに含み、ここで、aおよびbは、飽和度低下を調整する2つの制御パラメータであり、y’は、ルマ成分であり、u’、v’は、クロマ成分であり、
逆マッピング(121)は、
γ=2.0+0.4×(1-mod)
に従って変調度によって変調されたガンマ関数を使用して構築された参照テーブルを使用し、
色補正(122)動作は、所与のルマ成分でクロマ成分に適用する補正を定義する参照テーブルlutCCを使用し、参照テーブルlutCCは、
lutCC(Y)=f(Y).(1/Y)
に従って変調度によって変調される影響を有する飽和度利得関数sgf()に基づいて導出され、ここで、f(Y)=1/(R.(sgf(1/Y).mod+(1-mod)/R)であり、Rは2に等しい定数値であり、
フォーマットは、
γ=2.0+0.4×(1-mod)
に従って変調度によって変調されたガンマ関数を適合し、
結合圧縮補正は、パラメータのセットSPから得られるパラメータk0、k1、k2に基づいてパラメータTを計算することであり、パラメータTが、T=k0×U’×V’+k1×U’×U’+k2×V’×V’に従って単一の変調度の値に応じたものであることと、パラメータTが1より小さいときに、結合圧縮補正をS=√(1-T)、U=U’、およびV=V’に従って計算することと、パラメータTが1以上であるときに、結合圧縮補正をS=0、U=U’/√T、およびV=V’/√Tに従って計算することとを含む。
In the modified embodiment of the first aspect, the value of SDR_PL is 100 nits.
Saturation reduction (120) operation
y'1 = y'+ Max (0, a x mod x u'+ b x mod x v')
Further includes (31) to obtain the saturation reduction Luma component y'1 according to, where a and b are two control parameters for adjusting the saturation reduction, y'is the Luma component and u. ', V'is a chroma component,
Inverse mapping (121)
γ = 2.0 + 0.4 × (1-mod)
Using a reference table constructed using a gamma function modulated by the degree of modulation according to
The color correction (122) operation uses the reference table lutCC, which defines the correction applied to the chroma component at a given luma component, and the reference table lutCC
lutCC (Y) = f (Y). (1 / Y)
Derived based on the saturation gain function sgf (), which has the effect of being modulated by the degree of modulation according to, where f (Y) = 1 / (R. (sgf (1 / Y) .mod + (1-mod)). / R), where R is a constant value equal to 2 and
The format is
γ = 2.0 + 0.4 × (1-mod)
Fits the gamma function modulated by the degree of modulation according to
The combined compression correction is to calculate the parameter T based on the parameters k0, k1, k2 obtained from the parameter set SP, where the parameter T is T = k0 × U'× V'+ k1 × U'× U'. According to + k2 × V'× V', it corresponds to the value of a single degree of modulation, and when the parameter T is smaller than 1, the coupling compression correction is S = √ (1-T), U = U'. , And V = V', and when the parameter T is greater than or equal to 1, the coupling compression correction is calculated according to S = 0, U = U'/ √T, and V = V'/ √T. And include.

第2の態様では、本開示は、元の画像データ(I)を表す画像データ(I)を、ビットストリームから得られる復号画像データ(I)およびパラメータから再構成するデバイスであり、パラメータが、元の画像データ(I)から処理されており、再構成画像が、プレゼンテーション・ディスプレイの特徴に適合されるデバイスであり、飽和度低下ルマ成分および再構成ルマ成分に従って2つのクロマ成分を補正して2つの再構成クロマ成分を得るように構成されたプロセッサを含むデバイスであって、クロマ補正が、プレゼンテーション・ディスプレイの輝度情報データ、通常の標準ダイナミック・レンジ画像の輝度情報データ、および元の画像データ(I)または元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データを表す単一の変調度modの値に応じたものであることを特徴とする、デバイスを対象とする。 In a second aspect, the disclosure is a device that reconstructs image data (I 3 ) representing the original image data (I 1 ) from decoded image data (I 2 ) and parameters obtained from a bit stream. The parameters are processed from the original image data (I 1 ) and the reconstructed image is a device adapted to the characteristics of the presentation display, with two chroma components according to the desaturation reduced Luma component and the reconstructed Luma component. A device that includes a processor configured to correct for and obtain two reconstructed chroma components, where the chroma correction is used for presentation display brightness information data, normal standard dynamic range image brightness information data, and It is characterized by depending on the value of a single degree of modulation mod representing the original image data (I 1 ) or the brightness information data of the mastering display used to grade the original image data. , Target devices.

第2の態様の変形形態では、変調度の値が、 In the modified form of the second aspect, the value of the degree of modulation is

Figure 0007074461000003
に従って計算され、ここで、D_PLは、プレゼンテーション・ディスプレイの輝度情報データであり、SDR_PLは、通常の標準ダイナミック・レンジ画像の輝度情報データであり、C_PLは、元の画像データ(I)または元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データであり、invPQは、逆伝達関数である。
Figure 0007074461000003
Where D_PL is the brightness information data of the presentation display, SDR_PL is the brightness information data of the normal standard dynamic range image, and C_PL is the original image data (I 1 ) or the original. It is the brightness information data of the mastering display used for grading the image data of, and invPQ is an inverse transfer function.

第2の態様の第2の変形形態では、プロセッサは、飽和度低下を調整するパラメータに応じてルマ成分を飽和度低下させ、飽和度低下ルマ成分を逆マッピングして再構成ルマ成分を得、圧縮補正を実行するようにさらに構成され、
飽和度低下、逆マッピング、圧縮補正、およびクロマ補正が、単一の変調度modの値に応じたものであることを特徴とする。
In the second variant of the second aspect, the processor desaturates the Luma component according to the parameter that adjusts the desaturation, and reverse maps the desaturated Luma component to obtain the reconstructed Luma component. Further configured to perform compression correction,
Saturation reduction, demapping, compression correction, and chroma correction are characterized by being in response to a single modulation modding value.

第2の態様の変形実施形態では、変調度の値は、 In the modified embodiment of the second aspect, the value of the degree of modulation is

Figure 0007074461000004
に従って計算され、ここで、D_PLは、プレゼンテーション・ディスプレイの輝度情報データであり、SDR_PLは、通常の標準ダイナミック・レンジ画像の輝度情報データであり、C_PLは、元の画像データ(I)または元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データである。
Figure 0007074461000004
Where D_PL is the brightness information data of the presentation display, SDR_PL is the brightness information data of the normal standard dynamic range image, and C_PL is the original image data (I 1 ) or the original. It is the brightness information data of the mastering display used for grading the image data of.

第3の態様では、本開示は、このプログラムがコンピュータで実行されたときに請求項1から8のいずれか一項に記載の方法のステップを実行するプログラム・コード命令を含むコンピュータ・プログラム製品を対象とする。 In a third aspect, the present disclosure comprises a computer program product comprising program code instructions that perform the steps of the method according to any one of claims 1-8 when the program is run on a computer. set to target.

第4の態様では、本開示は、このプログラムがコンピュータで実行されたときに請求項1から8のいずれか一項に記載の方法のステップを実行するプログラム・コード命令を有する非一時的プロセッサ可読媒体を対象とする。 In a fourth aspect, the present disclosure is non-temporary processor readable with program code instructions that perform the steps of the method according to any one of claims 1-8 when the program is run on a computer. Target the medium.

図面に、本発明の原理の実施例を示す。 The drawings show examples of the principles of the invention.

本発明の原理の実施例による改良されたディスプレイ適合機構を備えたディスプレイへのコンテンツの送達をサポートするエンド・ツー・エンド・ワークフローを示すハイレベル図である。FIG. 6 is a high-level diagram illustrating an end-to-end workflow that supports delivery of content to a display with an improved display fit mechanism according to an embodiment of the principles of the invention. 従来技術の解決策によるコンテンツの生成ならびにHDRおよびSDRのCEディスプレイへの送達をサポートするエンド・ツー・エンド・ワークフローを示す図である。FIG. 6 illustrates an end-to-end workflow that supports content generation and delivery of HDR and SDR to CE displays with prior art solutions. 本発明の原理の実施形態による改良したディスプレイ適合機能を含む図2のエンド・ツー・エンド・ワークフローの例示的な実施形態を示す図である。It is a figure which shows the exemplary embodiment of the end-to-end workflow of FIG. 2 including the improved display conformance function by the embodiment of the principle of this invention. 本発明の原理の別の実施形態による改良したディスプレイ適合機能を含む図2のエンド・ツー・エンド・ワークフローの例示的な実施形態を示す図である。FIG. 6 illustrates an exemplary embodiment of the end-to-end workflow of FIG. 2, which includes an improved display conformance feature according to another embodiment of the principles of the invention. 知覚伝達関数を示す図である。It is a figure which shows the perceptual transfer function. マッピングに使用される区分的曲線(piece-wise curve)の例を示す図である。It is a figure which shows the example of the piecewise curve (piece-wise curve) used for mapping. 信号を変換して線形光領域に戻すために使用される曲線の例を示す図である。It is a figure which shows the example of the curve used to transform a signal and return to a linear light region. 本発明の原理の実施例によるデバイスのアーキテクチャの例を示す図である。It is a figure which shows the example of the architecture of the device by the embodiment of the principle of this invention.

同様の、または同じ要素は、同じ参照番号で示してある。 Similar or same elements are indicated by the same reference number.

以下、本発明の原理の実施例を示す添付の図面を参照して、本発明の原理についてさらに完全に説明する。ただし、本発明の原理は、多くの代替の形態でも実施することができるので、本明細書に記載する実施例に限定されるものと解釈すべきではない。従って、本発明の原理は様々な修正および代替形態の余地があるが、本発明の原理の具体的な実施例を、例示を目的として図面に示し、本明細書で詳細に説明する。ただし、本発明の原理を開示する特定の形態に限定する意図はなく、逆に、本開示は、特許請求の範囲によって定義する本発明の原理の趣旨および範囲内に含まれる全ての修正形態、等価形態、および代替形態をカバーするものであることを理解されたい。 Hereinafter, the principle of the present invention will be described in more detail with reference to the accompanying drawings showing examples of the principle of the present invention. However, the principles of the invention can also be practiced in many alternative embodiments and should not be construed as being limited to the examples described herein. Therefore, although the principles of the present invention have room for various modifications and alternatives, specific examples of the principles of the present invention are shown in the drawings for illustration purposes and will be described in detail herein. However, there is no intention to limit the principle of the present invention to a specific embodiment, and conversely, the present disclosure is based on the spirit and scope of the principle of the present invention as defined by the claims. It should be understood that it covers the equivalent form and the alternative form.

本明細書で使用する用語は、単に特定の実施例を説明するためのものに過ぎず、本発明の原理を限定するためのものではない。本明細書で使用する単数形「a」、「an」、および「the」は、文脈が明白にそうでないと示していない限り、複数も含むものとして意図されている。さらに、本明細書で使用される「備える」、「備えている」「含む」、および/または「含んでいる」という用語は、記載されている機構、整数、ステップ、動作、要素、および/または構成要素が存在することを指定するものであり、1つまたは複数のその他の機構、整数、ステップ、動作、要素、構成要素、および/またはそれらのグループが存在すること、あるいは追加されることを排除するものではない。さらに、ある要素が別の要素に「応答可能である」または「接続されている」と述べられているときには、その要素がその別の要素に直接応答可能である、または接続されていることもあるし、あるいは介在する要素が存在することもある。これに対して、ある要素が他の要素に対して「直接応答可能である」または「直接接続されている」と述べられているときには、介在する要素は存在しない。本明細書で使用する「および/または」という用語は、関連して列挙されている項目のうちの1つまたは複数のうちのいずれか、または全ての組合せを含み、また、この用語は「/」と略記されることもある。 The terminology used herein is merely to describe a particular embodiment and is not intended to limit the principles of the invention. As used herein, the singular forms "a," "an," and "the" are intended to include more than one, unless the context explicitly indicates otherwise. Further, as used herein, the terms "prepared", "prepared", "contains", and / or "contains" are the mechanisms, integers, steps, actions, elements, and / described. Or that it specifies the existence of a component and that one or more other mechanisms, integers, steps, actions, elements, components, and / or groups thereof exist or are added. Does not exclude. Furthermore, when an element is described as "responsive" or "connected" to another element, that element may be directly responsive or connected to that other element. There may or may be intervening elements. In contrast, when one element is stated to be "directly responsive" or "directly connected" to another, there is no intervening element. As used herein, the term "and / or" includes any or all combinations of one or more of the items listed in connection, and the term "/". It may be abbreviated as.

本明細書では様々な要素を説明するために第1や第2などの用語を使用することがあるが、これらの要素は、これらの用語によって限定されないことは理解されるであろう。これらの用語は、単にある要素を別の要素と区別するために使用されているに過ぎない。例えば、本発明の原理の教示を逸脱することなく、第1の要素を第2の要素と呼ぶこともでき、同様に、第2の要素を第1の要素と呼ぶこともできる。 Although terms such as first and second may be used herein to describe various elements, it will be appreciated that these elements are not limited by these terms. These terms are only used to distinguish one element from another. For example, the first element can be referred to as a second element, and similarly, the second element can be referred to as a first element without deviating from the teaching of the principle of the present invention.

一部の図面は、通信経路上に矢印を含んで、通信の主要な方向を示しているが、通信は、図示の矢印とは反対の方向に行われることもあることを理解されたい。 Although some drawings include arrows on the communication path to indicate the main direction of communication, it should be understood that communication may occur in the opposite direction of the arrows shown.

いくつかの実施例は、ブロック図および動作流れ図に関連して説明するが、これらの図面では、それぞれのブロックが回路要素、モジュール、または指定された1つまたは複数の論理機能を実施するための1つまたは複数の実行可能命令を含むコードの一部分を表している。また、他の実施態様では、これらのブロックに記載される1つまたは複数の機能が、記載されている以外の順序で行われることもあることにも留意されたい。例えば、連続して示されている2つのブロックが、関連する機能に応じて、実際には実質的に同時に実行されることも、あるいは逆の順序で実行されることもある。 Some embodiments will be described in connection with block diagrams and flow charts, in which each block performs a circuit element, module, or one or more designated logical functions. Represents a portion of code that contains one or more executable instructions. It should also be noted that in other embodiments, the functions described in these blocks may be performed in an order other than that described. For example, two blocks shown in succession may actually be executed at substantially the same time, or in reverse order, depending on the associated function.

本明細書において「実施例によれば」または「実施例では」と述べている場合、それは、その実施例に関連して記載される特定の機構、構造、または特徴が、本発明の原理の少なくとも1つの実施態様に含まれる可能性があるということを意味する。本明細書の様々な箇所に「実施例によれば」または「実施例では」という文言が見られるが、それらの全てが必ずしも同じ実施例を指しているとは限らず、また、別個の実施例または代替の実施例も、必ずしも相互に排他的であるとは限らない。 When referred to herein as "according to an example" or "in an example," it is the particular mechanism, structure, or feature described in connection with that embodiment of the principles of the invention. It means that it may be included in at least one embodiment. The words "according to the Examples" or "in the Examples" can be found in various parts of the specification, but not all of them necessarily refer to the same Example and are separate practices. The examples or alternative embodiments are also not necessarily mutually exclusive.

特許請求の範囲に見られる参照番号は、例示のみを目的としたものであり、特許請求の範囲を限定する効果は有していないものとする。 The reference numbers found in the claims are for illustration purposes only and shall not have the effect of limiting the scope of the claims.

明示的には述べていないが、本発明の実施例および変形例は、任意の組合せまたは部分組合せで利用することができる。 Although not explicitly stated, examples and variations of the present invention may be used in any combination or partial combination.

以下では、例えば(C1、C2、C3)などの大文字の符号は、第1の画像の成分を示し、例えば(c1、c2、c3)などの小文字の符号は、第1の画像の輝度のダイナミック・レンジより低い輝度のダイナミック・レンジを有する別の画像の成分を示す。 In the following, upper reference numerals such as (C1, C2, C3) indicate components of the first image, and lower reference numerals such as (c1, c2, c3) indicate the dynamics of the luminance of the first image. • Shows components of another image with a dynamic range of brightness lower than the range.

画像の輝度のダイナミック・レンジとは、その画像の輝度値の最小値に対する最大値の比である。通常は、SDR画像の輝度のダイナミック・レンジは、500(0.2cd/m2に対して100cd/m2)であり、HDR画像では10000(0.1cd/m2に対して1000cd/m2)である。 The dynamic range of the brightness of an image is the ratio of the maximum value to the minimum value of the brightness value of the image. Normally, the dynamic range of the brightness of the SDR image is 500 (100 cd / m2 for 0.2 cd / m2) and 10000 (1000 cd / m2 for 0.1 cd / m2) for the HDR image.

以下では、プライム付き符号は、例えば In the following, the primed sign is, for example,

Figure 0007074461000005
など、大文字の符号である場合には、第1の画像のガンマ圧縮成分を示し、例えば(y’、u’、v’)など、小文字の符号である場合には、第2の画像のガンマ圧縮成分を示す。
Figure 0007074461000005
When it is an uppercase code, it indicates the gamma compression component of the first image, and when it is a lowercase code such as (y', u', v'), it indicates the gamma of the second image. Shows the compressed component.

画像のコード化/復号/再構成について本発明の原理を説明するが、本発明の原理は、画像のシーケンス(ビデオ)のコード化/復号/再構成にも拡張される。これは、シーケンス中の各画像が、以下で述べるように順次符号化/復号/再構成されるからである。 Although the principles of the present invention will be described for image coding / decoding / reconstruction, the principles of the present invention are also extended to coding / decoding / reconstruction of image sequences (videos). This is because each image in the sequence is sequentially encoded / decoded / reconstructed as described below.

図1は、本発明の原理の実施例による改良したディスプレイ適合機構を備えるディスプレイへのコンテンツ送達をサポートするエンド・ツー・エンド・ワークフローを示すハイレベル図である。デバイスAは、画像またはビデオ・ストリームを符号化する方法を実施するように構成され、デバイスBは、以下で述べる画像またはビデオ・ストリームを復号する方法を実施するように構成され、デバイスCは、復号された画像またはビデオ・ストリームを表示するように構成される。2つの遠隔デバイスAおよびBは、少なくともデバイスAからデバイスBに符号化された画像またはビデオ・ストリームを提供するように構成された配信ネットワークNETを介して通信している。 FIG. 1 is a high-level diagram showing an end-to-end workflow that supports content delivery to a display with an improved display fit mechanism according to an embodiment of the principles of the invention. Device A is configured to implement a method of encoding an image or video stream, device B is configured to implement a method of decoding an image or video stream as described below, and device C is configured to perform. It is configured to display the decrypted image or video stream. The two remote devices A and B communicate via a distribution network NET configured to provide at least an encoded image or video stream from device A to device B.

符号化方法を実施するように構成されているデバイスAは、モバイル・デバイス、通信デバイス、ゲーム・デバイス、タブレット(またはタブレット・コンピュータ)、ラップトップなどのコンピュータ・デバイス、静止画像カメラ、ビデオ・カメラ、符号化チップ、静止画像サーバ、およびビデオ・サーバ(例えば同報通信サーバ、ビデオ・オン・デマンド・サーバ、またはウェブ・サーバ)を含むセットに属する。 Device A configured to implement the encoding method is a mobile device, a communication device, a game device, a tablet (or tablet computer), a computer device such as a laptop, a still image camera, a video camera. , Encoding chips, still image servers, and video servers (eg, broadcast communication servers, video-on-demand servers, or web servers).

本明細書に記載する復号方法を実施するように構成されているデバイスBは、モバイル・デバイス、通信デバイス、ゲーム・デバイス、コンピュータ・デバイス、およびセット・トップ・ボックスを含むセットに属する。 Device B configured to implement the decryption methods described herein belongs to a set that includes mobile devices, communication devices, gaming devices, computer devices, and set-top boxes.

本明細書に記載する表示方法を実施するように構成されているデバイスCは、TVセット(またはテレビジョン)、タブレット(またはタブレット・コンピュータ)、ラップトップなどのコンピュータ・デバイス、ディスプレイ、ヘッド・マウント・ディスプレイ、復号チップを含むセットに属する。 Devices C configured to implement the display methods described herein include computer devices such as television sets (or televisions), tablets (or tablet computers), laptops, displays, and head mounts. -Belongs to a set including a display and a decoding chip.

実施例によれば、ネットワークは、デバイスAからデバイスBを含む複数の復号デバイスに静止画像またはビデオ画像を同報通信するように適合された同報通信ネットワークである。DVBおよびATSCに基づくネットワークは、このような同報通信ネットワークの例である。別の実施例によれば、ネットワークは、デバイスAからデバイスBを含む複数の復号デバイスに静止画像またはビデオ画像を送達するように適合されたブロードバンド・ネットワークである。インターネットに基づくネットワーク、GSM(登録商標)ネットワーク、またはTV-over-IPネットワークは、このようなブロードバンド・ネットワークの例である。 According to an embodiment, the network is a broadcast communication network adapted to broadcast a still image or video image from device A to a plurality of decoding devices including device B. Networks based on DVB and ATSC are examples of such broadcast communications networks. According to another embodiment, the network is a broadband network adapted to deliver still or video images from device A to multiple decoding devices including device B. Internet-based networks, GSM® networks, or TV-over-IP networks are examples of such broadband networks.

好ましい実施形態では、デバイスBは、デバイスCのピーク輝度能力と、表示する静止画像またはビデオ画像のピーク輝度特徴とを取得する。デバイスBは、次いで、このピーク輝度情報を結合して単一の値にする。以下、この値を変調度と呼び、modと略記する。この単一の値を使用して、静止画像またはビデオ画像の再構成中に使用される複数のパラメータを変調して、従来技術のディスプレイ適合の色ずれおよびカラー・ミスマッチを補正する。従って、このエンド・ツー・エンド・ワークフローでは、静止画像またはビデオ画像がディスプレイの能力およびコンテンツの特徴に応じて最適に表示されることが保証される。 In a preferred embodiment, the device B acquires the peak luminance capability of the device C and the peak luminance characteristics of the still or video image to be displayed. Device B then combines this peak luminance information into a single value. Hereinafter, this value is referred to as a modulation degree and is abbreviated as mod. This single value is used to modulate multiple parameters used during still or video image reconstruction to correct color shifts and color mismatches for prior art display fits. Therefore, this end-to-end workflow ensures that still or video images are optimally displayed depending on the capabilities of the display and the characteristics of the content.

この好ましい実施形態では、このエンド・ツー・エンド・ワークフローでは、デバイスAとして同報通信サーバを使用し、デバイスBとしてセット・トップ・ボックスを使用し、デバイスCとしてテレビジョンを使用し、またDVB地上波放送ネットワークを使用する。代替の実施形態では、デバイスBおよびデバイスCは、例えばセット・トップ・ボックスの復号機能を一体化したテレビジョンなど、1つのデバイスに結合される。 In this preferred embodiment, the end-to-end workflow uses a broadcast communication server as device A, a set-top box as device B, television as device C, and DVB. Use a terrestrial broadcast network. In an alternative embodiment, device B and device C are combined into one device, for example a television with integrated set-top box decoding capabilities.

代替の実施形態では、配信ネットワークNETは、符号化された画像またはビデオ・ストリームを記憶した物理的パッケージ媒体で置き換えられる。物理的パッケージ媒体は、Blu-ray(登録商標)ディスクおよびUHD Blu-rayなどの光学パッケージ媒体だけでなく、メモリ型パッケージ媒体も含む。 In an alternative embodiment, the distribution network NET is replaced with a physical packaging medium that stores the encoded image or video stream. Physical packaging media include not only optical packaging media such as Blu-ray® discs and UHD Blu-ray, but also memory-type packaging media.

図2は、ETSI勧告TS103 403 V1.1.1に規定される従来技術の解決策による、コンテンツの生成ならびにHDRおよびSDRのCEディスプレイへの送達をサポートするエンド・ツー・エンド・ワークフローを示す図である。 FIG. 2 illustrates an end-to-end workflow that supports content generation and delivery of HDR and SDR to CE displays according to prior art solutions as defined in ETSI Recommendation TS103 403 V1.1.1. Is.

このワークフローは、関連するメタデータを用いる単一レイヤ型配信の解決策を含むものであり、復号画像データIおよびパラメータのセットSPから元の画像データIを表す画像Iを再構成する方法の使用の実施例を示している。 This workflow includes a solution for single-layer delivery with relevant metadata and reconstructs image I 3 representing the original image data I 1 from the decoded image data I 2 and the parameter set SP. Examples of the use of the method are shown.

基本的には、この単一レイヤ型配信の解決策は、符号化部分と復号部分とを含む。 Basically, this single-layer delivery solution includes a coding part and a decoding part.

前処理部分において、前処理ステージ20で、元の画像Iを、出力画像 In the preprocessing portion, the original image I1 is output as an output image in the preprocessing stage 20.

Figure 0007074461000006
およびパラメータのセットSPに分解し、切替えステップ24で、元の画像Iまたは出力画像I12のいずれをビットストリームBに符号化する(ステップ23)かを決定する。
Figure 0007074461000006
And the parameter set SP, and in the switching step 24, it is determined whether the original image I 1 or the output image I 12 is encoded in the bitstream B (step 23).

ステップ23では、画像Iを、任意のレガシー・ビデオ・コーデックで符号化することができ、ビットストリームBは、既存のレガシー配信ネットワーク内を搬送され、添付の関連するメタデータ(パラメータのセットSP)は、特定のチャネルで、またはビットストリームBに埋め込まれた状態で搬送される。 In step 23, image I 2 can be encoded with any legacy video codec, and bitstream B is transported within the existing legacy distribution network and has associated associated metadata (set of parameters SP). ) Is carried on a specific channel or embedded in the bitstream B.

変形形態では、添付のメタデータを有するビットストリームBは、Blu-rayディスクまたは例えばセット・トップ・ボックスのディスクなどの記憶媒体に記憶される。 In the modified form, the bitstream B with the attached metadata is stored on a storage medium such as a Blu-ray disc or a set-top box disc.

変形形態では、添付の関連するメタデータは、別の特定のチャネルで搬送されるか、または別個の記憶媒体に記憶される。 In a variant, the associated metadata attached is either transported on another particular channel or stored on a separate storage medium.

好ましくは、コード化されたビデオは、H.265/HEVCコーデック(ITU-T H.265、ITU電気通信標準化部門(2014年10月)シリーズH:audiovisual and multimedia systems、infrastructure of audiovisual services- coding of moving video、High efficiency video coding、勧告ITU-T H.265)、またはH.264/AVC(「Advanced video coding for generic audiovisual Services」、シリーズH:AUDIOVISUAL AND MULTIMEDIA SYSTEMS、勧告ITU-T H.264、ITU電気通信標準化部門、2012年1月)などのHEVCコーデックである。 Preferably, the coded video is H.I. 265 / HEVC Codec (ITU-TH.265, ITU Telecommunication Standardization Division (October 2014) Series H: audiovisual and multidimedia systems, infrastructure of audiovistic H.265), or H. 264 / AVC (“Advanced video coding for generic audiovisual Services”, Series H: AUDIOVISUMAL AND MULTIMEDIA SYSTEMS, Recommendation ITU-TH.264, ITU-TH.264, ITU-T H.264, ITU Telecommunications Standardization Division, etc.

情報データIDが、元の画像I(場合によっては成分(C1、U’、V’)あるいはY’CbCr4:2:0PQ10またはHLG10ビデオ信号で表される)がステップ23で符号化されると決定した場合には、この元の画像Iは、HEVC Main10プロファイルで符号化することができる。 When the information data ID is encoded in step 23 the original image I 1 (possibly represented by a component (C1, U', V') or Y'CbCr4: 2: 0PQ10 or HLG10 video signal). If determined, this original image I 1 can be encoded with the HEVC Main 10 profile.

情報データIDが出力画像I12がステップ23で符号化されると決定した場合には、Y’CbCr4:2:0ガンマ転送特性(標準ダイナミック・レンジ)信号として表すことができる出力画像I12は、Main10プロファイルまたはMainプロファイルなど任意のHEVCプロファイルで符号化することができる。 If the information data ID determines that the output image I 12 is encoded in step 23, then the output image I 12 can be represented as a Y'CbCr 4: 2: 0 gamma transfer characteristic (standard dynamic range) signal. , Main10 profile or any HEVC profile such as Main profile.

情報データIDは、関連するメタデータとして搬送することもできる(ステップ23)。後処理部分において、復号画像 The information data ID can also be carried as related metadata (step 23). Decoded image in the post-processing part

Figure 0007074461000007
を、ビットストリームBから得(ステップ11)、パラメータのセットSPを、図1で説明したように得(ステップ10)、前処理ステージ20の機能を逆にしたものである後処理ステージ12で、復号画像
Figure 0007074461000007
Was obtained from the bitstream B (step 11), the parameter set SP was obtained as described with reference to FIG. 1 (step 10), and in the post-processing stage 12, which is the reverse of the functions of the pre-processing stage 20. Decrypted image

Figure 0007074461000008
およびパラメータのセットSPから画像Iを再構成する。
Figure 0007074461000008
And the image I3 is reconstructed from the parameter set SP.

この単一レイヤ型配信の解決策は、任意選択のフォーマット適合ステップ21、22、25、26を含むこともある。 This single-layer delivery solution may also include optional format conformance steps 21, 22, 25, 26.

例えば、ステップ21(任意選択)で、元の画像Iのフォーマットを、前処理ステージ20の入力の特定のフォーマット(C1、U’、V’)に適合させることができ、ステップ22(任意選択)で、出力画像I12のフォーマット(c、u’、v’)を符号化前に特定の出力フォーマットに適合させることもできる。ステップ25で、復号画像 For example, in step 21 (arbitrary selection), the format of the original image I 1 can be adapted to the specific format (C1, U', V') of the input of the preprocessing stage 20 and step 22 (arbitrary selection). ), The format of the output image I 12 (c, u', v') can also be adapted to a particular output format before encoding. Decrypted image in step 25

Figure 0007074461000009
のフォーマットを後処理ステージ12の入力の特定のフォーマットに適合させることができ、ステップ26で、画像Iを目標の装置(例えばセット・トップ・ボックス、接続されているTV、HDR/SDR対応型CEデバイス、Blu-rayディスク・プレイヤ)の少なくとも1つの特徴に適合させ、且つ/あるいは復号画像
Figure 0007074461000009
The format of the image I3 can be adapted to the specific format of the input of the post-processing stage 12, and in step 26, the image I3 is converted to a target device (eg, set-top box, connected TV, HDR / SDR compatible type). A CE device, a Blu-ray disc player) and / or a decoded image adapted to at least one feature.

Figure 0007074461000010
と画像Iまたは元の画像Iとが異なる色空間および/または色域で表現されているときには、逆色域マッピングを使用することができる。
Figure 0007074461000010
And when the image I 3 or the original image I 1 is represented in a different color space and / or color gamut, reverse color gamut mapping can be used.

上記のフォーマット適合ステップ(21、22、25、26)は、色空間変換および/または色域マッピングを含むことがある。RGB/YUV変換、RGB/YUVまたはYUV/RGB変換、BT.709/BT.2020またはBT.2020/BT.709、クロマ成分のダウンサンプリングまたはアップサンプリングなど、通常のフォーマット適合プロセスを使用することができる。周知のYUV色空間が、従来技術の周知のVCbCrも指すことに留意されたい。ETSI勧告TS103 433 V1.1.1リリース2016-8は、フォーマット適合プロセスおよび逆色域マッピングの一例を提供している(Annex D)。 The above format matching steps (21, 22, 25, 26) may include color space conversion and / or color gamut mapping. RGB / YUV conversion, RGB / YUV or YUV / RGB conversion, BT. 709 / BT. 2020 or BT. 2020 / BT. Normal format conforming processes such as 709, chroma component downsampling or upsampling can be used. Note that the well-known YUV color space also refers to the well-known VCbCr of the prior art. ETSI Recommendation TS103 433 V1.1.1 Release 2016-8 provides an example of a format conformance process and reverse color gamut mapping (Annex D).

上記の入力フォーマット適合ステップ21は、元の画像Iに伝達関数を適用することによって、元の画像Iのビット深度を例えば10ビットなど特定のビット深度に適合させることを含むこともある。例えば、PQまたはHLG伝達関数を使用することができる(勧告ITU-R BT.2100-0)。 The input format matching step 21 may include adapting the bit depth of the original image I 1 to a specific bit depth, for example 10 bits, by applying a transfer function to the original image I 1 . For example, the PQ or HLG transfer function can be used (Recommendation ITU-R BT. 2100-0).

さらに詳細には、前処理ステージ20は、ステップ200から202を含む。 More specifically, the pretreatment stage 20 includes steps 200-202.

ステップ200で、元の画像Iの第1の成分C1を
=TM(C1)
でマッピングすることによって、出力画像I12の第1の成分c1を得る。ここで、TMは、マッピング関数である。マッピング関数TMは、元の画像Iの輝度のダイナミック・レンジを低減または増大させることができ、その逆関数は、画像の輝度のダイナミック・レンジを増大または低減することができる。
In step 200, the first component C1 of the original image I 1 is c 1 = TM (C1).
By mapping with, the first component c1 of the output image I 12 is obtained. Here, TM is a mapping function. The mapping function TM can reduce or increase the dynamic range of the luminance of the original image I 1 , and its inverse function can increase or decrease the dynamic range of the luminance of the image.

ステップ201で、第1の成分cに応じて元の画像Iの第2および第3の成分U’、V’を補正することによって、出力画像I12の第2および第3の成分u’、v’を導出する。 In step 201, the second and third components U', V'of the original image I 1 are corrected according to the first component c 1 , so that the second and third components u of the output image I 12 are u. Derive', v'.

クロマ成分の補正は、マッピングのパラメータを調整することによって制御状態に維持することができる。従って、色飽和度および色相も制御状態にある。 Chroma component correction can be maintained in control by adjusting the mapping parameters. Therefore, the color saturation and hue are also in the controlled state.

ステップ201の実施形態によれば、第2および第3の成分U’およびV’を、第1の成分cによって決まる値を有するスケーリング関数β(c)で割る。 According to the embodiment of step 201, the second and third components U'and V'are divided by a scaling function β 0 (c 1 ) having a value determined by the first component c 1 .

数学的には、第2および第3の成分u’、v’は、 Mathematically, the second and third components u', v'are

Figure 0007074461000011
で与えられる。
Figure 0007074461000011
Given in.

任意選択で、ステップ202で、以下のように第1の成分cを調整して、知覚飽和度をさらに制御することができる。
c=c-max(0,a.u’+b.v’)
ここで、aおよびbは、パラメータのセットSPの2つのパラメータである。
Optionally, in step 202, the first component c1 can be adjusted as follows to further control perceptual saturation.
c = c 1 -max (0, a.u'+ b.v')
Here, a and b are two parameters of the parameter set SP.

このステップ202により、出力画像I12の輝度を制御して、出力画像I12の色と元の画像Iの色との間の知覚色のマッチングを保証することができる。 By this step 202, the brightness of the output image I 12 can be controlled to ensure the matching of the perceived color between the color of the output image I 12 and the color of the original image I 1 .

パラメータのセットSPは、マッピング関数TMまたはその逆関数ITM、スケーリング関数β(c)に関するパラメータを含むことができる。これらのパラメータは、動的メタデータと関連付けられ、例えばビットストリームBなどのビットストリームに含めて搬送される。パラメータaおよびbも、ビットストリームに含めて搬送することができる。 The set of parameters SP can include parameters relating to the mapping function TM or its inverse function ITM, the scaling function β 0 (c 1 ). These parameters are associated with dynamic metadata and are carried in a bitstream, such as bitstream B. The parameters a and b can also be included in the bitstream and carried.

さらに詳細には、後処理部分において、ステップ10で、パラメータのセットSPを得る。 More specifically, in the post-processing portion, in step 10, the parameter set SP is obtained.

ステップ10の実施形態によれば、パラメータのセットSPは、特定のチャネルから、またはビットストリームBなどのビットストリームから得られる静的/動的メタデータによって搬送される、あるいは場合によっては記憶媒体に記憶される。 According to the embodiment of step 10, the set of parameters SP is carried by static / dynamic metadata obtained from a particular channel or from a bitstream such as bitstream B, or in some cases to a storage medium. It will be remembered.

ステップ11で、ビットストリームBを復号することによって復号画像Iを得、これで、復号画像IがSDRまたはHDR対応型CEディスプレイで利用可能になる。 In step 11, the decoded image I 2 is obtained by decoding the bitstream B, which makes the decoded image I 2 available on the SDR or HDR capable CE display.

さらに詳細には、後処理ステージ12は、ステップ120から122を含む。 More specifically, the post-processing stage 12 includes steps 120-122.

任意選択のステップ120で、復号画像Iの第1の成分cを、以下のように調整することができる。
=c+max(0,a.u’+b.v’)
ここで、aおよびbは、パラメータのセットSPの2つのパラメータである。
In the optional step 120, the first component c of the decoded image I 2 can be adjusted as follows.
c 1 = c + max (0, a.u'+ b.v')
Here, a and b are two parameters of the parameter set SP.

ステップ121で、以下のように第1の成分cを逆マッピングすることによって、画像Iの第1の成分C1を得る。
=ITM(c
In step 121, the first component C1 of the image I 3 is obtained by back-mapping the first component c 1 as follows.
C 1 = ITM (c 1 )

ステップ122で、第1の成分cに応じて復号画像Iの第2および第3の成分u’、v’を逆補正することによって、画像Iの第2および第3の成分U’、V’を導出する。 In step 122, the second and third components u', v'of the decoded image I 2 are back-corrected according to the first component c 1 to make the second and third components U'of the image I 3 . , V'is derived.

ステップ122の実施形態によれば、第2および第3の成分u’およびv’に、第1の成分cによって決まる値を有するスケーリング関数β(c)を掛ける。 According to the embodiment of step 122, the second and third components u'and v'are multiplied by a scaling function β 0 (c 1 ) having a value determined by the first component c 1 .

数学的には、第2および第3の成分U’、Vは、 Mathematically, the second and third components U', V are:

Figure 0007074461000012
で与えられる。
Figure 0007074461000012
Given in.

図2のエンド・ツー・エンド・ワークフローは、さらに、ETSI TS103 433 V1.1.1のannex Eに規定されるディスプレイ適合機能を提供する。この機能では、元のHDRピーク輝度と、100cd/m2に固定された目標のSDRピーク輝度と、プレゼンテーション・ディスプレイの最大輝度との間の比に基づく再計算したメタデータ値を使用する。このディスプレイ適合は、ステップ121のみで行われる。このディスプレイ適合は、背景技術の項で述べたように、満足のいく結果を示さなかった。 The end-to-end workflow of FIG. 2 further provides the display conformance feature specified in annex E of ETSI TS103 433 V1.1.1. This feature uses recalculated metadata values based on the ratio between the original HDR peak brightness, the target SDR peak brightness fixed at 100 cd / m2, and the maximum brightness of the presentation display. This display adaptation is done only in step 121. This display fit did not give satisfactory results, as mentioned in the Background Techniques section.

図3の前処理部分に示す改良したディスプレイ適合機能をさらに含む図2の方法の第1の例示的な実施形態によれば、元の画像Iの第1の成分C1は、 According to a first exemplary embodiment of the method of FIG. 2, further comprising the improved display fit function shown in the pre-processed portion of FIG. 3, the first component C1 of the original image I1 is the first component C1.

Figure 0007074461000013
によって元の画像IのRGB成分から得られる線形光輝度成分Lであり、第2および第3の成分U’、V’は、以下のように平方根(BT.709OETFに近い)を用いる擬似ガンマ化を元の画像IのRGB成分に適用することによって導出される。
Figure 0007074461000013
Is a linear luminance component L obtained from the RGB component of the original image I 1 , and the second and third components U'and V'are pseudogamma using a square root (close to BT.709OETF) as follows. It is derived by applying the conversion to the RGB component of the original image I1 .

Figure 0007074461000014
Figure 0007074461000014

ステップ200で、上記の線形光輝度成分Lを以下のようにマッピングすることによって、出力画像I12の第1の成分yを得る。
=TM(L)
In step 200, the first component y 1 of the output image I 12 is obtained by mapping the linear light luminance component L as follows.
y 1 = TM (L)

ステップ201で、第1の成分yに応じて第2および第3の成分U’、V’を補正することによって、出力画像I12の第2および第3の成分u’、v’を導出する。 In step 201, the second and third components u'and v'of the output image I 12 are derived by correcting the second and third components U'and V'according to the first component y1. do.

後処理部分において、ステップ13で、出力画像を表示するディスプレイ・デバイスからプレゼンテーション・ディスプレイのピーク輝度(D_PL)パラメータを得る。復号画像から、またはパラメータのセットSPから、コンテンツまたはマスタリングのピーク輝度(C_PL)パラメータを得る。これらのパラメータを、通常は100ニトに対応するSDRプレゼンテーション・ディスプレイのピーク輝度(SDR_PL)と結合して、再構成プロセスで使用する変調度modを得る。 In the post-processing portion, in step 13, the peak luminance (D_PL) parameter of the presentation display is obtained from the display device displaying the output image. Obtain the peak luminance (C_PL) parameters for content or mastering from the decoded image or from the set of parameters SP. These parameters are combined with the peak luminance (SDR_PL) of the SDR presentation display, which typically corresponds to 100 nits, to obtain the modulation modding used in the reconstruction process.

Figure 0007074461000015
Figure 0007074461000015

ステップ120で、改良したディスプレイ適合を実現するために、復号画像Iの第1の成分を、変調度modに従って調整することができる。以下のように、線形変調を使用することができる。
=y+max(0,a.mod.u’+b.mod.v’)
In step 120, the first component of the decoded image I 2 can be adjusted according to the degree of modulation modding to achieve improved display fit. Linear modulation can be used as follows.
y 1 = y + max (0, a.mod.u'+ b.mod.v')

例えばガンマ化変調など、他のタイプの変調を使用することもできる。 Other types of modulation can also be used, for example gamma modulation.

ステップ121で、以下のように第1の成分cを逆マッピングすることによって、画像Iの線形光輝度成分Lを得る。
L=ITM(y
In step 121, the linear light luminance component L of the image I 3 is obtained by inversely mapping the first component c 1 as follows.
L = ITM (y 1 )

ステップ122で、第1の成分yに応じて出力画像Iの第2および第3の成分u’、v’を逆補正することによって、画像Iの第2および第3の成分U’、V’を導出する。 In step 122, the second and third components u', v'of the output image I 2 are back-corrected according to the first component y 1 , so that the second and third components U'of the image I 3 are used. , V'is derived.

ステップ122の実施形態によれば、第2および第3の成分u’およびv’に、第1の成分yによって決まる値を有するスケーリング関数β(y)を掛ける。 According to the embodiment of step 122, the second and third components u'and v'are multiplied by a scaling function β 0 (y 1 ) having a value determined by the first component y 1 .

数学的には、2つの第1および第2の成分U’、V’は、 Mathematically, the two first and second components U', V'are

Figure 0007074461000016
で与えられる。
Figure 0007074461000016
Given in.

ステップ12で、スケーリング関数β(.)(いわゆるlutCC)を、得られた色補正パラメータから再構成(導出)する(さらなる詳細については、勧告ETSI TS103 433 V1.1.1、条項7.2.3.2参照)。 In step 12, the scaling function β 0 (.) (So-called lutCC) is reconstructed (derived) from the obtained color correction parameters (for further details, recommendation ETSI TS103 433 V1.1.1, clause 7.2). See 3.3.2).

TS103 433 V1.1.1の条項6.2.6に指定されるように、lutCCの導出は、HDR分解プロセスで符号化され、パラメータのセットSPに含まれる、色補正に対応する飽和利得関数sgf(1/L)を使用している。この導出は、以下のように行われる。
lutCC(Y)=f(Y).(1/Y)、f(Y)=1/(R.sgf(1/Y))
ここで、Rは、2に等しい定数値である。
As specified in Clause 6.2.6 of TS103 433 V1.1.1, the derivation of lutCC is encoded in the HDR resolution process and is included in the parameter set SP, the saturation gain function corresponding to the color correction. sgf (1 / L) is used. This derivation is performed as follows.
lutCC (Y) = f (Y). (1 / Y), f (Y) = 1 / (R.sgf (1 / Y))
Here, R is a constant value equal to 2.

改良したディスプレイ適合を実現するために、更新したf関数
f(Y)=1/(R.(sgf(1/Y).mod+(1-mod)/R)
を使用して、変調度modに従って、このlutCC導出を調整して、D_PL=SDR_PL(ディスプレイがSDR)であるときには得られる変調値が1に等しく、D_PL=C_PL(コンテンツに適合されたディスプレイ)であるときには、得られる変調値が不変であり、SDR_PL<D_PL<C_PLであるときには1とその不変値の間であり、従って適合が必要となるようにすることができる。
Updated f function f (Y) = 1 / (R. (sgf (1 / Y) .mod + (1-mod) / R) to achieve improved display fit
To adjust this lutCC derivation according to the modding degree modding, the resulting modulation value is equal to 1 when D_PL = SDR_PL (display is SDR) and D_PL = C_PL (content-fitted display). At some point, the resulting modulation value is invariant, and when SDR_PL <D_PL <C_PL, it is between 1 and its invariant value, so that adaptation may be required.

ステップ12で、逆マッピング関数ITM(いわゆるlutMapY)を、得られたマッピング・パラメータから再構成(導出)する(さらなる詳細については、勧告ETSI TS103 433 V1.1.1、条項7.2.3.1参照)。 In step 12, the inverse mapping function ITM (so-called lutMapY) is reconstructed (derived) from the resulting mapping parameters (for further details, see Recommendation ETSI TS103 433 V1.1.1, Clause 7.2.3. See 1).

lutMapYの導出は、「ガンマ適用関数」を含む。改良したディスプレイ適合を実現するために、以下のように変調度によってガンマ関数を変調する。
γ=2.0+0.4.(1-mod)
The derivation of lutMapY includes a "gamma application function". To achieve improved display fit, the gamma function is modulated by the degree of modulation as follows.
γ = 2.0 + 0.4. (1-mod)

これにより、得られるガンマ変調値が、
プレゼンテーション・ディスプレイのピーク輝度(D_PL)=100ニト(SDR_PL)であるときには2.4に等しく、
プレゼンテーション・ディスプレイのピーク輝度(D_PL)=コンテンツまたはマスタリングのピーク輝度(C_PL)であるときには2.0に等しく、
SDR_PL<D_PL<C_PLであるときには2.4と2.0の間で変調される
ことが保証される。
As a result, the obtained gamma modulation value is
When the peak brightness (D_PL) of the presentation display is 100 nits (SDR_PL), it is equal to 2.4.
Equal to 2.0 when the peak brightness of the presentation display (D_PL) = the peak brightness of the content or mastering (C_PL).
When SDR_PL <D_PL <C_PL, it is guaranteed to be modulated between 2.4 and 2.0.

ステップ122で、結合圧縮補正を実行する。最初に、パラメータTを、
T=k0×U’×V’+k1×U’×U’+k2×V’×V’
のように計算する。
In step 122, the combined compression correction is performed. First, the parameter T,
T = k0 x U'x V'+ k1 x U'x U'+ k2 x V'x V'
Calculate as follows.

次いで、Tの値に応じて、以下のようにパラメータS、U、およびVを計算する。
(T<1)の場合には、S=√(1-T)、U=U’、V=V’
それ以外の場合には、S=0、U=U’/√T、V=V’/√T
Then, depending on the value of T, the parameters S, U, and V are calculated as follows.
In the case of (T <1), S = √ (1-T), U = U', V = V'
In other cases, S = 0, U = U'/ √T, V = V'/ √T

1つ目の場合は、通常の場合に対応する。2つ目の場合は、原理的にはあり得ないが、量子化および圧縮のために生じる可能性もある。 The first case corresponds to the normal case. The second case is not possible in principle, but it can also occur due to quantization and compression.

改良したディスプレイ適合を実現するために、パラメータk0、k1、およびk2を変調度で変調して、Tの値が
T=k0×mod×U’×V’+k1×mod×U’×U’+k2×mod×V’×V’
となるようにする。
To achieve improved display fit, the parameters k0, k1 and k2 are modulated by the degree of modulation and the value of T is T = k0 x mod x U'x V'+ k1 x mod x U'x U'+ k2. × mod × V'× V'
To be.

最後に、ステップ26は、ガンマ補正を含む。改良したディスプレイ適合を実現するために、ガンマ関数を、以下のように修正する。
γ=2.0+0.4.(1-mod)
Finally, step 26 includes gamma correction. To achieve improved display fit, modify the gamma function as follows:
γ = 2.0 + 0.4. (1-mod)

この変調の結果、得られるガンマは、SDRディスプレイでは2.4となり、プレゼンテーション・ディスプレイのピーク輝度がコンテンツのピーク輝度と同じであるときには2.0となり、それ以外の場合には2.0と2.4の間で適合される。 The resulting gamma of this modulation is 2.4 on the SDR display, 2.0 when the peak brightness of the presentation display is the same as the peak brightness of the content, and 2.0 and 2 otherwise. .. Fits between 4.

改良したディスプレイ適合機能をさらに含む図4の前処理部分に示す図2の方法の第2の例示的な実施形態によれば、元の画像Iの第1の成分C1は、 According to a second exemplary embodiment of the method of FIG. 2 shown in the pre-processed portion of FIG. 4, further comprising an improved display conformance feature, the first component C1 of the original image I1 is the first component C1.

Figure 0007074461000017
によって元の画像Iのガンマ圧縮RGB成分から得られる成分Y’であり、第2および第3の成分U’、V’は、以下のように、元の画像IのRGB成分にガンマ化を適用することによって得られる。
Figure 0007074461000017
Is a component Y'obtained from the gamma-compressed RGB component of the original image I 1 , and the second and third components U'and V'are gammaized to the RGB component of the original image I 1 as follows. Obtained by applying.

Figure 0007074461000018
ここで、γは、好ましくは2.4に等しいガンマ因子とすることができる。
Figure 0007074461000018
Here, γ can be a gamma factor preferably equal to 2.4.

非線形信号である成分Y’は、線形光輝度成分Lと異なることに留意されたい。 It should be noted that the component Y', which is a non-linear signal, is different from the linear light luminance component L.

ステップ200で、上記の成分Y’を以下のようにマッピングすることによって、出力画像I12の第1の成分y’を得る。
y’=TM(Y’)
In step 200, the first component y'1 of the output image I 12 is obtained by mapping the above component Y'as follows.
y'1 = TM (Y')

ステップ121で、以下のように第1の成分y’を逆マッピングすることによって、再構成成分 In step 121, the reconstructed component is obtained by inversely mapping the first component y'1 as follows.

Figure 0007074461000019
を得る。
Figure 0007074461000019
To get.

Figure 0007074461000020
ここで、ITMは、マッピング関数TMの逆関数である。
Figure 0007074461000020
Here, ITM is an inverse function of the mapping function TM.

従って、再構成成分 Therefore, the reconstituted component

Figure 0007074461000021
の値は、成分Y’の値のダイナミック・レンジに属する。
Figure 0007074461000021
The value of belongs to the dynamic range of the value of component Y'.

ステップ201で、第1の成分y’1および再構成成分 In step 201, the first component y'1 and the reconstituted component

Figure 0007074461000022
に従って第1および第2の成分U’、V’を補正することによって、出力画像I12の第2および第3の成分u’、v’を導出する。
Figure 0007074461000022
By correcting the first and second components U'and V'according to the above, the second and third components u'and v'of the output image I 12 are derived.

このステップ201によって、出力画像I12の色を制御することが可能になり、それらが元の画像Iの色と一致することが保証される。 This step 201 makes it possible to control the colors of the output image I 12 and ensure that they match the colors of the original image I 1 .

クロマ成分の補正は、マッピング(逆マッピング)のパラメータを調整することによって制御状態に維持することができる。従って、色飽和度および色相も制御状態にある。このような制御は、ノンパラメトリックな知覚伝達関数を使用するときには、通常は不可能である。 Chroma component correction can be maintained in control by adjusting the mapping (reverse mapping) parameters. Therefore, the color saturation and hue are also in the controlled state. Such control is usually not possible when using nonparametric perceptual transfer functions.

ステップ201の実施形態によれば、第2および第3の成分u’およびv’を、成分 According to the embodiment of step 201, the second and third components u'and v'are the components.

Figure 0007074461000023
に対する再構成成分
Figure 0007074461000023
Reconstruction component for

Figure 0007074461000024
の比によって決まる値を有するスケーリング関数β(y’)で割る。ここで、Ωは、元の画像Iの原色によって決まる定数値(例えばBT.2020では1.3に等しい)である。
Figure 0007074461000024
Divide by the scaling function β 0 ( y'1 ), which has a value determined by the ratio of. Here, Ω is a constant value determined by the primary colors of the original image I 1 (for example, equal to 1.3 in BT.2020).

復号側では、ステップ13で、プレゼンテーション・ディスプレイのピーク輝度(D_PL)パラメータを、出力画像を表示するディスプレイ・デバイスから得る。コンテンツまたはマスタリングのピーク輝度(C_PL)パラメータは、復号画像から、またはパラメータのセットSPから得る。これらのパラメータを、通常は100ニトに対応するSDRプレゼンテーション・ディスプレイのピーク輝度(SDR_PL)と結合して、以下のように定義される再構成プロセスで使用する変調度modを得る。 On the decoding side, in step 13, the peak luminance (D_PL) parameter of the presentation display is obtained from the display device displaying the output image. The peak luminance (C_PL) parameter for content or mastering is obtained from the decoded image or from the set of parameters SP. These parameters are combined with the peak luminance (SDR_PL) of the SDR presentation display, which typically corresponds to 100 nits, to give the modding modding used in the reconstruction process as defined below.

Figure 0007074461000025
Figure 0007074461000025

ステップ120で、改良したディスプレイ適合を実現するために、復号画像Iの第1の成分を、変調度modに従って調整することができる。以下のように、線形変調を使用することができる。
=y+max(0,a.mod.u’+b.mod.v’)
In step 120, the first component of the decoded image I 2 can be adjusted according to the degree of modulation modding to achieve improved display fit. Linear modulation can be used as follows.
y 1 = y + max (0, a.mod.u'+ b.mod.v')

例えばガンマ化変調など、他のタイプの変調を使用することもできる。 Other types of modulation can also be used, for example gamma modulation.

後処理部分において、ステップ121で、以下のように第1の成分y’を逆マッピングすることによって、画像Iの成分Y’を得る。 In the post-processing portion, in step 121, the component Y'of the image I 3 is obtained by back-mapping the first component y'1 as follows.

Figure 0007074461000026
Figure 0007074461000026

ステップ122で、第1の成分y’および成分Y’に応じて復号画像Iの第2および第3の成分u’、v’を逆補正することによって、画像Iの第2および第3の成分U’、V’を導出する。 In step 122, the second and third components u', v'of the decoded image I 2 are reverse-corrected according to the first component y'1 and the component Y'. The components U'and V'of 3 are derived.

ステップ122の実施形態によれば、第2および第3の成分u’およびv’に、スケーリング関数β(y’)を掛ける。 According to the embodiment of step 122, the second and third components u'and v'are multiplied by the scaling function β 0 ( y'1 ).

数学的には、2つの第1および第2の成分U’、V’は、 Mathematically, the two first and second components U', V'are

Figure 0007074461000027
で与えられる。
Figure 0007074461000027
Given in.

図2、図3、および図4のマッピング関数TMは、元の画像Iの成分を出力画像I12の成分に変換し、それによりそれらの輝度の値のダイナミック・レンジを低減(または増大)するという目的を有する知覚伝達関数に基づく。従って、出力画像I12の成分の値は、元の画像Iの成分の値より低い(または大きい)ダイナミック・レンジに属する。 The mapping function TM of FIGS. 2, 3 and 4 converts the components of the original image I 1 into the components of the output image I 12 thereby reducing (or increasing) the dynamic range of their luminance values. Based on a perceptual transfer function with the purpose of doing. Therefore, the value of the component of the output image I 12 belongs to a dynamic range that is lower (or larger) than the value of the component of the original image I 1 .

上記の知覚伝達関数は、限られたセットの制御パラメータを使用する。 The above perceptual transfer function uses a limited set of control parameters.

図5aは、輝度成分をマッピングするために使用することができる知覚伝達関数を示す図であるが、ルマ成分をマッピングするための同様の知覚伝達関数を使用することができる。 FIG. 5a is a diagram showing a perceptual transfer function that can be used to map the luminance component, but a similar perceptual transfer function for mapping the Luma component can be used.

マッピングは、マスタリング・ディスプレイのピーク輝度パラメータ(図5aでは5000cd/mに等しい)によって制御される。黒レベルおよび白レベルをより良好に制御するために、コンテンツ依存の黒レベルと白レベルの間の信号伸長を適用する。次いで、図5bに示すように、3つの部分で構成される区分的曲線(piece-wise curve)を使用して変換信号をマッピングする。下側区間および上側区間は線形であり、その峻度は、それぞれshadowGainパラメータおよびhighlightGainパラメータによって決定される。中間区間は、2つの線形区間の間に滑らかなブリッジを形成する放物線である。クロスオーバの幅は、midToneWidthAdjFactorパラメータによって決定される。 The mapping is controlled by the peak luminance parameter of the mastering display (equal to 5000 cd / m 2 in FIG. 5a). Apply content-dependent signal elongation between black and white levels for better control of black and white levels. Then, as shown in FIG. 5b, the conversion signal is mapped using a piecewise curve composed of three parts. The lower section and the upper section are linear, and their steepness is determined by the shadowGain parameter and the highlightGain parameter, respectively. The intermediate section is a parabola that forms a smooth bridge between the two linear sections. The width of the crossover is determined by the midToneWidthAdjFactor parameter.

マッピングを制御する全てのパラメータは、例えばSMPTE ST2094-20メタデータを搬送するものとしてJCTVC-W0133に規定されるSEIメッセージを使用してメタデータとして搬送することができる。 All parameters that control the mapping can be carried as metadata using, for example, the SEI message specified in JCTVC-W0133 as carrying SMPTE ST2094-20 metadata.

図5cは、知覚伝達関数TM(図5a)の逆関数の例を示す図であり、どのようにすれば知覚最適ビデオ信号を例えば100cd/mなど目標のレガシー・ディスプレイの最大輝度に基づいて線形光領域に変換して戻すことができるかを示している。 FIG. 5c is a diagram showing an example of the inverse of the perceptual transmission function TM (FIG. 5a), based on how the perceptual optimal video signal is based on the maximum brightness of the target legacy display, eg 100 cd / m 2 . It shows whether it can be converted back to the linear optical region.

ステップ10(図1)で、パラメータのセットSPを取得して、復号画像 In step 10 (FIG. 1), the parameter set SP is acquired and the decoded image is obtained.

Figure 0007074461000028
から画像Iを再構成する。
Figure 0007074461000028
Image I 3 is reconstructed from.

これらのパラメータは、例えばビットストリームBなどのビットストリームから得られるメタデータから得ることができる。 These parameters can be obtained from metadata obtained from a bitstream, such as bitstream B.

勧告ETSI TS103 433 V1.1.1、条項6、2016-08が、このメタデータの構文の例を提供している。 Recommendation ETSI TS103 433 V1.1.1, Clause 6, 2016-08 provides an example of the syntax of this metadata.

勧告ETSI TS103 433 v1.1.1の構文は、SDRビデオからHDRビデオを再構成するために記述されたものであるが、この構文を、任意の復号画像 The syntax of Recommendation ETSI TS103 433 v1.1.1 was written to reconstruct HDR video from SDR video, but this syntax can be any decoded image.

Figure 0007074461000029
からの任意の画像Iの再構成に拡張することができる。
Figure 0007074461000029
Can be extended to the reconstruction of any image I 3 from.

後処理(ステップ12)は、動的メタデータから導出される逆マッピング関数ITMおよびスケーリング関数β(.)に対して作用する。これは、それらが第1の成分cによって決まるからである。 The post-processing (step 12) acts on the inverse mapping function ITM and the scaling function β 0 (.) Derived from the dynamic metadata. This is because they are determined by the first component c1.

勧告ETSI TS103 433 V1.1.1によれば、上記の動的メタデータは、いわゆるパラメータ型モードまたはテーブル型モードのいずれかに従って搬送することができる。 According to Recommendation ETSI TS103 433 V1.1.1, the above dynamic metadata can be carried according to either so-called parameter-type mode or table-type mode.

パラメータ型モードは、その主な目的が動的メタデータを搬送するための追加のペイロードまたは帯域幅仕様が非常に低い直接SDR後方互換サービスを提供することである配信ワークフローで有益である可能性がある。テーブル型モードは、ロー・エンド端末を備えたワークフローで、またはHDRストリームおよびHDRストリームの両方を適切に表現するためにより高いレベルの適合が必要であるときに、有益である可能性がある。 Parameterized mode can be useful in delivery workflows whose main purpose is to provide a direct SDR backwards compatible service with very low additional payload or bandwidth specifications for carrying dynamic metadata. be. Tableed modes can be useful in workflows with low-end terminals, or when higher levels of adaptation are needed to properly represent both HDR and HDR streams.

パラメータ型モードでは、搬送される動的メタデータは、逆関数ITMを表す輝度マッピング・パラメータ、すなわち
tmInputSignalBlackLevelOffset、
tmInputSignalWhiteLevelOffset、
shadowGain、
highlightGain、
midToneWidthAdjFactor、
tmOutputFineTuning parametersである。
In parameterized mode, the conveyed dynamic metadata is the luminance mapping parameter representing the inverse function ITM, ie tmInputSignalBlackLevelOffset,
tmInputSignalWhiteLevelOffset,
shadowGain,
highlightGain,
midToneWidthAdjFactor,
tmAutoFineTuning parameters.

さらに、搬送されるその他の動的メタデータは、関数β(.)を定義するために使用される色補正パラメータ(saturationGainNumVal、saturationGainX(i)、およびsaturationGainY(i))である(ETSI勧告ETSI TS 103 433 V1.1.1、条項6.3.5および6.3.6)。 In addition, the other dynamic metadata carried is the color correction parameters (saturationGainNumVal, saturationGainX (i), and saturationGainY (i)) used to define the function β 0 (.) (ETSI Recommendation ETSI). TS 103 433 V1.1.1, Clauses 6.3.5 and 6.3.6).

パラメータaおよびbは、上記で説明したように、それぞれsaturationGain関数パラメータに含めて搬送する/隠すことができることに留意されたい。 Note that the parameters a and b can be carried / hidden, respectively, in the saturationGain function parameters as described above.

これらの動的メタデータは、SMPTE ST 2094-20仕様(勧告ETSI TS 103 433 V1.1.1 Annex A.3)に基づく構文を有するHEVC色ボリューム再構成情報(CVRI)ユーザデータ登録SEIメッセージを使用して搬送することができる。 These dynamic metadata provide HEVC color volume reconstruction information (CVRI) user data registration SEI messages with syntax based on the SMPTE ST 2094-20 specification (Recommendation ETSI TS 103 433 V1.1.1 Annex A.3). Can be used and transported.

通常の動的メタデータ・ペイロードは、シーン当たり約25バイトである。 A typical dynamic metadata payload is about 25 bytes per scene.

ステップ101で、CVRI SEIメッセージを構文解析して、マッピング・パラメータおよび色補正パラメータを得る。 At step 101, the CVRI SEI message is parsed to obtain mapping and color correction parameters.

ステップ12で、逆マッピング関数ITM(いわゆるlutMapY)を、得られたマッピング・パラメータから再構成(導出)する(さらなる詳細については、勧告ETSI TS103 433 V1.1.1、条項7.2.3.1参照)。 In step 12, the inverse mapping function ITM (so-called lutMapY) is reconstructed (derived) from the resulting mapping parameters (for further details, see Recommendation ETSI TS103 433 V1.1.1, Clause 7.2.3. See 1).

ステップ12で、スケーリング関数β(.)(いわゆるlutCC)も、得られた色補正パラメータから再構成(導出)する(さらなる詳細については、勧告ETSI TS103 433 V1.1.1、条項7.2.3.2参照)。 In step 12, the scaling function β 0 (.) (So-called lutCC) is also reconstructed (derived) from the obtained color correction parameters (for further details, recommendation ETSI TS103 433 V1.1.1, Clause 7.2. See 3.3.2).

lutCCの導出は、HDR分解プロセスで符号化される、パラメータのセットSPに含まれる色補正に対応する関数sgf(1/L)を使用している。この導出は、以下のように行われる。
lutCC(Y)=f(Y).(1/Y)、f(Y)=1/(R.sgf(1/Y))
The derivation of lutCC uses the function sgf (1 / L) corresponding to the color correction included in the parameter set SP, which is encoded by the HDR resolution process. This derivation is performed as follows.
lutCC (Y) = f (Y). (1 / Y), f (Y) = 1 / (R.sgf (1 / Y))

改良したディスプレイ適合を実現するために、以下のように、更新したf関数
f(Y)=1/(R.(sgf(1/Y).mod+(1-mod)/R)
を使用して、変調度modに従って、このlutCC導出を調整して、D_PL=SDR_PL(ディスプレイがSDR)であるときには得られる変調値が1に等しく、D_PL=C_PL(コンテンツに適合されたディスプレイ)であるときには、得られる変調値が不変であり、それ以外の場合には1とその不変値の間となるようにすることができる。
Updated f function f (Y) = 1 / (R. (sgf (1 / Y) .mod + (1-mod) / R) to achieve improved display fit:
To adjust this lutCC derivation according to the modding degree modding, the resulting modulation value is equal to 1 when D_PL = SDR_PL (display is SDR) and D_PL = C_PL (content-fitted display). In some cases, the resulting modulation value is invariant, otherwise it can be between 1 and its invariant value.

テーブル型モードでは、搬送される動的データは、逆マッピング関数ITMを表す区分的曲線のピボット点である。例えば、動的メタデータは、ピボット点の数を示すluminanceMappingNumVal、ピボット点のx値を示すluminanceMappingX、およびピボット点のy値を示すluminanceMappingYである(さらなる詳細については、勧告ETSI TS 103 433 V1.1.1、条項6.2.7および6.3.7参照)。 In table mode, the dynamic data carried is the pivot point of the piecewise curve representing the inverse mapping function ITM. For example, the dynamic metadata is luminanceMappingNumVal, which indicates the number of pivot points, luminanceMappingX , which indicates the x value of the pivot point, and luminanceMappingY, which indicates the y value of the pivot point (for further details, Recommendation ETSI TS 103 433 V1.1. 1. See Articles 6.2.7 and 6.3.7).

さらに、搬送されるその他の動的メタデータは、スケーリング関数β(.)を表す区分ごとの線形曲線のピボット点とすることができる。例えば、動的メタデータは、ピボット点の数を示すcolorCorrectionNumVal、ピボット点のx値を示すcolorCorrectionX、およびピボット点のy値を示すcolorCorrectionYである(さらなる詳細については、勧告ETSI TS 103 433 V1.1.1、条項6.2.8および6.3.8参照)。 In addition, the other dynamic metadata carried can be the pivot point of a linear curve for each section representing the scaling function β 0 (.). For example, the dynamic metadata is colorCorrectionNumVal, which indicates the number of pivot points, colorCorrectionX, which indicates the x value of the pivot point, and colorCorrectionY, which indicates the y value of the pivot point (for further details, recommendation ETSI TS 103 433 V1.1. 1. See Articles 6.2.8 and 6.3.8).

これらの動的メタデータは、SMPTE ST 2094-30仕様(勧告ETSI TS 103 433 V1.1.1、Annex A.4)に基づく構文を有するHEVC色再マッピング情報(CRI)SEIメッセージを使用して搬送することができる。 These dynamic metadata use HEVC color remapping information (CRI) SEI messages with syntax based on the SMPTE ST 2094-30 specification (Recommendation ETSI TS 103 433 V1.1.1, Annex A.4). Can be transported.

通常のペイロードは、シーン当たり約160バイトである。 A typical payload is about 160 bytes per scene.

ステップ102で、CRI(色再マッピング情報)SEIメッセージ(2016年12月に公開されたHEVC/H.265バージョンに指定される)を構文解析して、逆マッピング関数ITMを表す区分ごとの線形曲線のピボット点、およびスケーリング関数β(.)を表す区分ごとの線形曲線のピボット点、ならびにクロマ/ルマ注入パラメータaおよびbを得る。 In step 102, the CRI (color remapping information) SEI message (specified in the HEVC / H.265 version published in December 2016) is parsed and a segmentally linear curve representing the inverse mapping function ITM. The pivot point of, and the pivot point of the linear curve for each section representing the scaling function β 0 (.), And the chroma / luma injection parameters a and b are obtained.

ステップ12で、逆マッピング関数ITMを、逆マッピング関数ITMを表す区分ごとの線形曲線に関するピボット点の関数から導出する(さらなる詳細については、勧告ETSI TS103 433 V1.1.1、条項7.2.3.3参照)。 In step 12, the inverse mapping function ITM is derived from the function of the pivot points for the linear curve for each section representing the inverse mapping function ITM (for further details, recommendation ETSI TS103 433 V1.1.1, Clause 7.2. See 3.3).

ステップ12で、スケーリング関数β(.)も、スケーリング関数β(.)を表す区分ごとの線形曲線に関するピボット点の関数から導出する(さらなる詳細については、勧告ETSI TS103 433 V1.1.1、条項7.2.3.4参照)。 In step 12, the scaling function β 0 (.) Is also derived from the function of the pivot points for the divisional linear curve representing the scaling function β 0 (.) (For more details, see Recommendation ETSI TS103 433 V1.1.1. , See clause 7.2.3.4).

後処理ステージでも使用される静的メタデータは、SEIメッセージによって搬送することができることに留意されたい。例えば、パラメータ型モードまたはテーブル型モードのいずれかの選択は、勧告ETSI TS103 433 V1.1.1(条項A.2.2)に規定される情報(TSI)ユーザデータ登録SEIメッセージ(payloadMode)によって搬送することができる。例えば原色またはマスタリング・ディスプレイの最大表示輝度などの静的メタデータは、AVC、HEVCに規定されるマスタリング・ディスプレイ色ボリューム(MDCV)SEIメッセージによって搬送される。 Note that static metadata that is also used in the post-processing stage can be carried by SEI messages. For example, the choice between parameter-type mode and table-type mode is made by the information (TSI) user data registration SEI message (payloadMode) specified in Recommendation ETSI TS103 433 V1.1.1 (Clause A.2.2). Can be transported. Static metadata, such as primary colors or the maximum display luminance of the mastering display, is carried by the Mastering Display Color Volume (MDCV) SEI message as defined in AVC, HEVC.

ステップ103の実施形態によれば、情報データIDは、ビットストリーム中の構文要素によって明示的に信号通信されるので、ビットストリームを構文解析することによって得られる。 According to the embodiment of step 103, the information data ID is explicitly signal-communicated by the syntactic elements in the bitstream and is therefore obtained by parsing the bitstream.

例えば、上記の構文要素は、SEIメッセージの一部である。 For example, the above syntax elements are part of the SEI message.

実施形態によれば、上記の情報データIDは、パラメータのセットSPを処理するために元の画像Iに適用された処理が何であるかを識別する。 According to embodiments, the information data IDs identify what processing was applied to the original image I1 to process the parameter set SP.

この実施形態によれば、次いで、情報データIDを使用して、画像Iを再構成するためにパラメータをどのように使用するかを推測することができる(ステップ12)。 According to this embodiment, the information data ID can then be used to infer how the parameters are used to reconstruct the image I 3 (step 12).

例えば、1に等しいときには、情報データIDは、前処理ステージ(ステップ20)を元のHDR画像Iに適用することによってパラメータのセットSPが得られていること、および復号画像IがSDR画像であることを示す。 For example, when equal to 1, the information data ID has a parameter set SP obtained by applying the preprocessing stage (step 20) to the original HDR image I 1 , and the decoded image I 2 is an SDR image. Indicates that.

2に等しいときには、情報データIDは、前処理ステージ(ステップ20)をHDR10ビット画像(ステップ20の入力)に適用することによってパラメータが得られていること、復号画像 When equal to 2, the information data ID has parameters obtained by applying the preprocessing stage (step 20) to the HDR10 bit image (input in step 20), the decoded image.

Figure 0007074461000030
がHDR10画像であること、およびマッピング関数TMがPQ伝達関数であることを示す。
Figure 0007074461000030
Indicates that is an HDR10 image and that the mapping function TM is a PQ transfer function.

3に等しいときには、情報データIDは、前処理ステージ(ステップ20)をHDR10画像(ステップ20の入力)に適用することによってパラメータが得られていること、復号画像 When equal to 3, the information data ID has parameters obtained by applying the preprocessing stage (step 20) to the HDR10 image (input in step 20), the decoded image.

Figure 0007074461000031
がHLG10画像であること、およびマッピング関数TMが元の画像Iに対するHLG伝達関数であることを示す。
Figure 0007074461000031
Indicates that is an HLG10 image and that the mapping function TM is an HLG transfer function for the original image I1.

情報データIDが2に等しい別の実施形態によれば、変調度の値は According to another embodiment where the information data ID is equal to 2, the modulation degree value is

Figure 0007074461000032
であり、ここで、invPQ(C)は、ST-2084の数式5.1および5.2によって指定されるPQ EOTFの逆関数である。この実施形態では、圧縮補正は、修正したパラメータk0=k1=k2=0を使用し、飽和度低下は、修正したパラメータa=b=0を使用する。
Figure 0007074461000032
Here, invPQ (C) is the inverse function of PQ EOTF specified by the formulas 5.1 and 5.2 of ST-2084. In this embodiment, the compression correction uses the modified parameter k0 = k1 = k2 = 0, and the saturation reduction uses the modified parameter a = b = 0.

情報データIDが3に等しい別の実施形態によれば、変調度の値は According to another embodiment where the information data ID is equal to 3, the modulation degree value is

Figure 0007074461000033
であり、ここで、invHLG(C)は、勧告ITU-T H.265 v4(2017年3月)の§E.3.1、表E-4、p.378に、または等価にARIB STD-B67に規定されるHLG EOTFの逆関数である。この実施形態では、圧縮補正は、修正したパラメータk0=k1=k2=0を使用し、飽和度低下は、修正したパラメータa=b=0を使用する。
Figure 0007074461000033
And here, invHLG (C) is the recommendation ITU-T H. et al. §E. Of 265 v4 (March 2017). 3.1, Table E-4, p. It is the inverse function of HLG EOTF specified in ARIB STD-B67 in 378 or equivalently. In this embodiment, the compression correction uses the modified parameter k0 = k1 = k2 = 0, and the saturation reduction uses the modified parameter a = b = 0.

ステップ103の実施形態によれば、情報データIDは、暗黙的に信号通信される。 According to the embodiment of step 103, the information data ID is implicitly signal-communicated.

例えば、HEVC(annex E)またはAVC(annex E)のVUIに存在する構文要素transfer-characteristicsは、通常は、使用される伝達関数(マッピング関数TM)を識別する。異なる単一レイヤ型配信の解決策は異なる伝達関数(PQ、HLG、…)を使用するので、構文要素transfer-characteristicsを使用して、使用される回復モードを暗黙的に識別することができる。 For example, the syntax element transfer-chartactics present in the VUI of HEVC (annex E) or AVC (annex E) usually identifies the transfer function (mapping function TM) used. Since different single-layer delivery solutions use different transfer functions (PQ, HLG, ...), the syntax element transfer-perceptualistics can be used to implicitly identify the recovery mode used.

情報データIDは、より上位のトランスポートまたはシステム・レイヤで定義されるサービスによって暗黙的に信号通信することもできる。 The information data ID can also be implicitly signaled by a service defined at a higher level transport or system layer.

別の実施例によれば、画像Iのピーク輝度値および色空間は、ビットストリームによって搬送されるMDCV SEIメッセージを構文解析することによって得ることができ、情報データIDは、ピーク輝度値と色空間(原色)の具体的な組合せから推測することができる。 According to another embodiment, the peak luminance value and color space of image I 3 can be obtained by syntactic analysis of the MDCV SEI message carried by the bit stream, and the information data ID is the peak luminance value and color. It can be inferred from the specific combination of spaces (primary colors).

図1から図4では、モジュールは機能単位であり、これらの機能単位は、区別可能な物理的単位に関係することも、関係しないこともある。例えば、これらのモジュール、またはそれらの一部を1つの構成要素または回路にまとめることもでき、あるいはこれらのモジュール、またはそれらの一部が1つのソフトウェアの機能性をもたらすこともある。これに対して、一部のモジュールは、複数の別個の物理的エンティティで構成されることもある。本発明の原理に適合する装置は、例えばASIC(特定用途向け集積回路)またはFPGA(フィールド・プログラマブル・ゲート・アレイ)またはVLSI(超大規模集積回路)などの専用ハードウェアを用いるなど、純粋なハードウェアを用いて実装される、あるいはデバイスに埋め込まれたいくつかの集積電子構成要素、またはハードウェア構成要素とソフトウェア構成要素の組合せを用いて実装される。 In FIGS. 1 to 4, modules are functional units, and these functional units may or may not be related to distinguishable physical units. For example, these modules, or parts thereof, may be combined into a single component or circuit, or these modules, or parts thereof, may provide the functionality of a piece of software. In contrast, some modules may consist of multiple separate physical entities. Devices conforming to the principles of the invention are pure hardware, such as using dedicated hardware such as ASICs (Application Specific Integrated Circuits) or FPGAs (Field Programmable Gate Arrays) or VLSIs (Very Large Scale Integration Circuits). It is implemented using some integrated electronic components that are implemented using hardware or embedded in a device, or a combination of hardware and software components.

図6は、図1から図4に関連して説明した方法を実施するように構成することができるデバイス60の例示的なアーキテクチャを示す図である。 FIG. 6 is a diagram illustrating an exemplary architecture of a device 60 that can be configured to implement the methods described in connection with FIGS. 1 to 4.

デバイス60は、データおよびアドレス・バス61によってリンクされた以下の要素を含む。
例えばDSP(すなわちデジタル信号プロセッサ)である、マイクロプロセッサ62(またはCPU)。
ROM(すなわち読取り専用メモリ)63。
RAM(すなわちランダム・アクセス・メモリ)64。
伝送するデータをアプリケーションから受信するI/Oインタフェース65。
および バッテリ66。
Device 60 includes the following elements linked by data and address bus 61:
For example, a microprocessor 62 (or CPU), which is a DSP (ie, a digital signal processor).
ROM (ie, read-only memory) 63.
RAM (ie, random access memory) 64.
An I / O interface 65 that receives data to be transmitted from an application.
And battery 66.

実施例によれば、バッテリ66は、デバイスの外部にある。言及したメモリのそれぞれにおいて、本明細書で使用する「レジスタ」という単語は、小容量(数ビット)の領域、または非常に大きな領域(例えばプログラム全体、あるいは大量の受信または復号データ)に対応する可能性がある。ROM63は、少なくともプログラムおよびパラメータを含む。ROM63は、本発明の原理による技術を実行するアルゴリズムおよび命令を記憶することができる。CPU62は、オンになると、RAM64にプログラムをアップロードして、対応する命令を実行する。 According to the embodiment, the battery 66 is outside the device. In each of the memories referred to herein, the word "register" as used herein corresponds to a small area (several bits) or a very large area (eg, the entire program, or a large amount of received or decoded data). there is a possibility. ROM 63 includes at least programs and parameters. The ROM 63 can store algorithms and instructions that execute the techniques according to the principles of the invention. When turned on, the CPU 62 uploads a program to the RAM 64 and executes the corresponding instruction.

RAM64は、デバイス60がオンになった後にCPU62によってアップロードされて実行されるプログラムをレジスタに含み、入力データをレジスタに含み、方法の様々な状態における中間データをレジスタに含み、方法を実行するためのその他の変数をレジスタに含む。 The RAM 64 contains a program uploaded and executed by the CPU 62 after the device 60 is turned on in a register, input data in the register, and intermediate data in various states of the method in the register to execute the method. The other variables of are included in the register.

本明細書に記載する実施態様は、例えば、方法またはプロセス、装置、ソフトウェア・プログラム、データ・ストリーム、または信号として実施することができる。単一の形態の実施態様の文脈でしか述べていない(例えば方法またはデバイスとしてしか述べていない)場合でも、そこに述べられている特徴の実施態様は、他の形態(例えばプログラム)で実施することもできる。装置は、例えば、適当なハードウェア、ソフトウェア、およびファームウェアで実施することができる。方法は、例えばプロセッサなどの装置で実施することができ、ここで、このプロセッサとは、例えばコンピュータ、マイクロプロセッサ、集積回路、またはプログラマブル論理デバイスなど、処理デバイス一般を指している。プロセッサは、例えばコンピュータ、携帯電話、携帯型/個人情報端末(「PDA」)、およびエンドユーザ間の情報の通信を容易にするその他のデバイスなどの通信デバイスも含む。 The embodiments described herein can be implemented, for example, as a method or process, device, software program, data stream, or signal. Even if only described in the context of a single embodiment embodiment (eg, only as a method or device), embodiments of the features described therein are performed in other embodiments (eg, programs). You can also do it. The device can be implemented, for example, with the appropriate hardware, software, and firmware. The method can be implemented in a device such as, for example, a processor, where the processor refers to processing devices in general, such as, for example, computers, microprocessors, integrated circuits, or programmable logic devices. Processors also include communication devices such as computers, mobile phones, personal digital assistants (“PDAs”), and other devices that facilitate the communication of information between end users.

実施例によれば、入力ビデオまたは入力ビデオの元の画像は、ソースから得られる。例えば、ソースは、
例えばビデオ・メモリまたはRAM(すなわちランダム・アクセス・メモリ)、フラッシュ・メモリ、ROM(すなわち読取り専用メモリ)、ハード・ディスクなどのローカル・メモリ(63または64)、
例えば大容量記憶装置、RAM、フラッシュ・メモリ、ROM、光ディスク、磁気サポートなどの記憶インタフェース(65)、
例えば有線インタフェース(例えばバス・インタフェース、広域ネットワークインタフェース、ローカル・エリア・ネットワーク・インタフェース)またはワイヤレス・インタフェース(IEEE802.11インタフェース、またはBluetooth(登録商標)インタフェースなど)などの通信インタフェース(65)、ならびに
画像取込み回路(例えばCCD(すなわち電荷結合素子)、またはCMOS(すなわち相補形金属酸化膜半導体などのセンサ)
を含むセットに属する。
According to the embodiment, the input video or the original image of the input video is obtained from the source. For example, the source is
Local memory (63 or 64), such as video memory or RAM (ie, random access memory), flash memory, ROM (ie, read-only memory), hard disk, etc.
For example, a storage interface (65) such as a large-capacity storage device, RAM, flash memory, ROM, optical disk, magnetic support, etc.
Communication interfaces (65), such as wired interfaces (eg, bus interface, wide area network interface, local area network interface) or wireless interface (such as IEEE802.11 interface, or Bluetooth® interface), as well as images. Intake circuits (eg, CCDs (ie, charge-binding elements), or CMOS (ie, sensors such as complementary metal oxide semiconductors)).
Belongs to a set containing.

実施例によれば、メタデータを搬送するビットストリームが、宛先に送信される。一例として、これらのビットストリームのうちの1つまたは両方が、例えばビデオ・メモリまたはRAM(64)、ハード・ディスクなどのローカルまたは遠隔のメモリに記憶される。変形例では、ビットストリームのうちの少なくとも1つが、例えば大容量記憶装置、フラッシュ・メモリ、ROM、光ディスク、または磁気サポートなどの記憶インタフェース(65)に送信され、且つ/あるいは例えばポイント・ツー・ポイント・リンク、通信バス、ポイント・ツー・マルチポイント・リンク、または同報通信ネットワークへのインタフェースなどの通信インタフェース(65)を介して伝送される。 According to the embodiment, a bitstream carrying metadata is sent to the destination. As an example, one or both of these bitstreams are stored in local or remote memory, such as video memory or RAM (64), hard disk. In the variant, at least one of the bitstreams is transmitted to a storage interface (65), such as a mass storage device, flash memory, ROM, optical disk, or magnetic support, and / or, for example point-to-point. It is transmitted via a communication interface (65) such as a link, a communication bus, a point-to-multipoint link, or an interface to a broadcast communication network.

他の実施例によれば、メタデータを搬送するビットストリームは、ソースから得られる。例えば、ビットストリームは、ビデオ・メモリ(64)、RAM(64)、ROM(63)、フラッシュ・メモリ(63)、またはハード・ディスク(63)などのローカル・メモリから読み取られる。変形例では、ビットストリームは、例えば大容量記憶装置、RAM、ROM、フラッシュ・メモリ、光ディスク、または磁気サポートなどの記憶インタフェース(65)から受信し、且つ/あるいは例えばポイント・ツー・ポイント・リンク、バス、ポイント・ツー・マルチポイント・リンク、または同報通信ネットワークへのインタフェースなどの通信インタフェース(65)から受信する。 According to another embodiment, the bitstream carrying the metadata is obtained from the source. For example, the bitstream is read from local memory such as video memory (64), RAM (64), ROM (63), flash memory (63), or hard disk (63). In a variant, the bitstream is received from a storage interface (65), such as a mass storage device, RAM, ROM, flash memory, optical disk, or magnetic support, and / or, for example, a point-to-point link. Received from a communication interface (65), such as a bus, point-to-multipoint link, or interface to a broadcast communication network.

実施例によれば、上述の方法を実施するように構成されているデバイス60は、
モバイル・デバイス、
通信デバイス、
ゲーム・デバイス、
タブレット(またはタブレット・コンピュータ)、
ラップトップ、
静止画像カメラ、
ビデオ・カメラ、
符号化/復号チップ、
TVセット、
セット・トップ・ボックス、
ディスプレイ、
静止画像サーバ、および
ビデオ・サーバ(例えば同報通信サーバ、ビデオ・オン・デマンド・サーバ、またはウェブ・サーバ)
を含むセットに属する。
According to the embodiment, the device 60 configured to carry out the method described above is
Mobile device,
Communication device,
Game device,
Tablet (or tablet computer),
Laptop,
Still image camera,
Video camera,
Coding / decoding chip,
TV set,
Set-top box,
display,
Still image servers, and video servers (eg, broadcast communication servers, video-on-demand servers, or web servers).
Belongs to a set containing.

本明細書に記載する様々なプロセスおよび機構の実施態様は、様々な異なる機器またはアプリケーションで実施することができる。このような機器の例は、エンコーダ、デコーダ、デコーダの出力を処理するポストプロセッサ、エンコーダに入力を提供するプリプロセッサ、ビデオ・コーダ、ビデオ・デコーダ、ビデオ・コーデック、ウェブ・サーバ、セット・トップ・ボックス、ラップトップ、パーソナル・コンピュータ、携帯電話、PDA、および画像またはビデオを処理するその他の任意のデバイスあるいはその他の通信デバイスを含む。この機器は、モバイルであっても、移動車両に設置するものであってもよいことは明らかであろう。 The various processes and mechanisms described herein can be implemented in a variety of different devices or applications. Examples of such devices are encoders, decoders, postprocessors that process the output of the decoder, preprocessors that provide inputs to the encoder, video coders, video decoders, video codecs, web servers, set top boxes. , Laptops, personal computers, mobile phones, PDA, and any other device or other communication device that processes images or videos. It will be clear that this device may be mobile or installed in a mobile vehicle.

さらに、方法は、プロセッサによって実行される命令によって実施することができ、このような命令(および/または実施によって生成されるデータ値)は、コンピュータ可読記憶媒体に記憶することができる。コンピュータ可読記憶媒体は、コンピュータによって実行可能な、1つまたは複数のコンピュータ可読媒体に実施された、それらのコンピュータ可読媒体上に実施されたコンピュータ可読プログラム・コードを有するコンピュータ可読プログラム製品の形態をとることができる。本明細書で使用するコンピュータ可読記憶媒体は、情報を記憶する固有の能力、および情報の取出しを提供する固有の能力を有する、非一時的記憶媒体と考えられる。コンピュータ可読記憶媒体は、これらに限定されるわけではないが、例えば、電子的、磁気的、光学的、電磁気的、赤外線、または半導体のシステム、装置、またはデバイス、あるいはそれらの任意の適当な組合せとすることができる。以下に、本発明の原理を適用することができるコンピュータ可読記憶媒体のさらに具体的な例を示すが、当業者なら容易に理解するように、これらは単に例示的なものであり、網羅的なリストではないことを理解されたい。具体例とは、すなわち、携帯型コンピュータ・ディスケット、ハード・ディスク、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROMまたはフラッシュ・メモリ)、携帯型コンパクト・ディスク読取り専用メモリ(CD-ROM)、光記憶デバイス、磁気記憶デバイス、または上記のものの任意の適当な組合せである。 Further, the method can be carried out by instructions executed by the processor, and such instructions (and / or data values generated by the execution) can be stored in a computer-readable storage medium. A computer-readable storage medium takes the form of a computer-readable program product having computer-readable program code implemented on one or more computer-readable media running on a computer. be able to. The computer-readable storage medium used herein is considered to be a non-temporary storage medium having a unique ability to store information and a unique ability to provide the retrieval of information. Computer-readable storage media are, but are not limited to, electronic, magnetic, optical, electromagnetic, infrared, or semiconductor systems, devices, or devices, or any suitable combination thereof. Can be. Below are more specific examples of computer-readable storage media to which the principles of the invention can be applied, but these are merely exemplary and exhaustive, as will be readily appreciated by those skilled in the art. Please understand that it is not a list. Specific examples are portable computer disksets, hard disks, read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory), portable compact disk read-only memory (CD-ROM). ), Optical storage device, magnetic storage device, or any suitable combination of the above.

命令は、プロセッサ可読媒体に有形に実施されるアプリケーション・プログラムを形成することができる。 Instructions can form an application program that is tangibly implemented on a processor-readable medium.

命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに含めることができる。命令は、例えば、オペレーティング・システム、別個のアプリケーション、またはその2つの組合せに見ることができる。プロセッサは、従って、例えば、プロセスを実行するように構成されたデバイス、およびプロセスを実行する命令を有するプロセッサ可読媒体(記憶デバイスなど)を含むデバイスの両方の特徴を有することができる。さらに、プロセッサ可読媒体は、命令に加えて、または命令の代わりに、実施によって生成されたデータ値を記憶することができる。 Instructions can be included, for example, in hardware, firmware, software, or a combination thereof. Instructions can be seen, for example, in the operating system, separate applications, or a combination of the two. A processor can therefore have the characteristics of both a device, for example, a device configured to perform a process and a device including a processor readable medium (such as a storage device) having instructions to execute the process. In addition, processor-readable media can store data values generated by the implementation in addition to or in place of the instructions.

実施により、例えば記憶または伝送することができる情報を搬送するようにフォーマット化された様々な信号が生成される可能性があることは、当業者には明らかであろう。この情報は、例えば、方法を実行するための命令、または記載した実施態様のうちの1つで生成されるデータを含む可能性がある。例えば、信号は、本発明の原理の記載した実施例の構文の書込みまたは読取りを行うための規則をデータとして搬送するように、あるいは本発明の原理の記載した実施例で書き込まれた実際の構文値をデータとして搬送するようにフォーマット化することができる。このような信号は、例えば、電磁波(例えば無線周波数のスペクトル部分)として、またはベースバンド信号としてフォーマット化することができる。フォーマット化は、例えば、データ・ストリームを符号化すること、および符号化したデータ・ストリームで搬送波を変調することを含むことがある。信号が搬送する情報は、例えば、アナログ情報またはデジタル情報とすることができる。信号は、既知の様々な異なる有線またはワイヤレス・リンクを介して伝送することができる。信号は、プロセッサ可読媒体に記憶することができる。 It will be apparent to those skilled in the art that the practice may produce various signals formatted to carry, for example, information that can be stored or transmitted. This information may include, for example, instructions for performing the method, or data generated by one of the described embodiments. For example, the signal carries the rules for writing or reading the syntax of the embodiments described in the principles of the invention as data, or the actual syntax written in the examples described in the principles of the invention. The value can be formatted to be carried as data. Such signals can be formatted, for example, as electromagnetic waves (eg, spectral portions of radio frequencies) or as baseband signals. Formatting may include, for example, encoding a data stream and modulating a carrier wave with the encoded data stream. The information carried by the signal can be, for example, analog information or digital information. The signal can be transmitted over a variety of different known wired or wireless links. The signal can be stored on a processor readable medium.

いくつかの実施態様について説明した。しかし、様々な修正を加えることができることは理解されるであろう。例えば、異なる実施態様の要素を組み合わせたり、補足したり、修正したり、あるいは除去したりして、他の実施態様を生じることもできる。さらに、開示した構造およびプロセスを他の構造およびプロセスで代用することもでき、その結果得られる実施態様は、開示した実施態様と少なくとも実質的には同じ機能を、少なくとも実質的には同様に実行して、少なくとも実質的には同じ結果を実現することになることを、当業者なら理解するであろう。従って、上記その他の実施態様は、本願で企図されている。 Some embodiments have been described. However, it will be understood that various modifications can be made. For example, elements of different embodiments may be combined, supplemented, modified, or removed to give rise to other embodiments. Further, the disclosed structures and processes can be substituted with other structures and processes, and the resulting embodiments perform at least substantially the same functions as the disclosed embodiments, at least substantially in the same manner. Those skilled in the art will then understand that at least substantially the same result will be achieved. Therefore, the other embodiments described above are contemplated in the present application.

Claims (14)

元の画像データ(I1)を表す画像データ(I3)を、ビットストリーム(101)から得られる復号画像データ(I2)およびパラメータから再構成する方法であり、前記パラメータが、前記元の画像データ(I1)から処理されており、再構成画像が、プレゼンテーション・ディスプレイの特徴に適合される方法であり、
飽和度低下ルマ成分および再構成ルマ成分に従って2つのクロマ成分を補正して2つの再構成クロマ成分を得ること(122)を含む方法であって、
クロマ補正(120)が、
前記プレゼンテーション・ディスプレイの輝度情報データ(D_PL)、
通常の標準ダイナミック・レンジ画像の輝度情報データ(SDR_PL)、および
前記元の画像データ(I1)または前記元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データ(C_PL)
を表す単一の変調度modの値に応じたものであることを特徴とする、方法。
It is a method of reconstructing the image data (I3) representing the original image data (I1) from the decoded image data (I2) and the parameters obtained from the bit stream (101), wherein the parameters are the original image data (I). Processed from I1), the reconstructed image is a method that fits the characteristics of the presentation display.
A method comprising correcting two chroma components according to a reduced saturation Luma component and a reconstituted Luma component to obtain two reconstituted Chroma components (122).
Chroma correction (120),
Luminance information data (D_PL) of the presentation display,
Luminance information data (SDR_PL) of a normal standard dynamic range image, and luminance information data (C_PL) of a mastering display used to grade the original image data (I1) or the original image data.
A method, characterized in that it corresponds to a single modulation modding value representing.
飽和度低下を調整するパラメータに応じてルマ成分を飽和度低下させること(120)と、
前記飽和度低下ルマ成分を逆マッピング(121)して再構成ルマ成分を得ることと、
圧縮補正を実行することとをさらに含み、
前記飽和度低下(120)、前記逆マッピング(22)、前記圧縮補正、および前記クロマ補正(120)が、前記単一の変調度modの値に応じたものであることを特徴とする、請求項1に記載の方法。
To reduce the saturation of the Luma component according to the parameters for adjusting the reduction of saturation (120),
Inverse mapping (121) of the saturated Luma component to obtain a reconstructed Luma component,
Further including performing compression corrections,
Claimed, wherein the saturation reduction (120), the inverse mapping (22), the compression correction, and the chroma correction (120) correspond to the value of the single modulation modding. Item 1. The method according to Item 1.
前記変調度の値が、
Figure 0007074461000034

に従って計算され、ここで、D_PLが、前記プレゼンテーション・ディスプレイの輝度情報データであり、SDR_PLが、通常の標準ダイナミック・レンジ画像の輝度情報データであり、C_PLが、前記元の画像データ(I1)または前記元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データである、請求項に記載の方法。
The value of the degree of modulation is
Figure 0007074461000034

Where D_PL is the brightness information data of the presentation display, SDR_PL is the brightness information data of a normal standard dynamic range image, and C_PL is the original image data (I1) or The method of claim 2 , which is the brightness information data of the mastering display used to grade the original image data.
SDR_PLの値が、100ニトである、請求項1からのいずれか一項に記載の方法。 The method according to any one of claims 1 to 3 , wherein the value of SDR_PL is 100 nits. 前記飽和度低下(120)動作が、
y’1=y’+Max(0,a×mod×u’+b×mod×v’)
に従って飽和度低下ルマ成分y’1を得ること(31)をさらに含み、ここで、aおよびbが、飽和度低下を調整する2つの制御パラメータであり、y’が、前記ルマ成分であり、u’、v’が、前記クロマ成分である、請求項1からのいずれか一項に記載の方法。
The saturation reduction (120) operation
y'1 = y'+ Max (0, a x mod x u'+ b x mod x v')
Further includes (31) to obtain the saturation reduction Luma component y'1 according to the above, where a and b are two control parameters for adjusting the saturation reduction, and y'is the Luma component. The method according to any one of claims 1 to 4 , wherein u'and v'are the chroma components.
前記逆マッピング(121)が、
γ=2.0+0.4×(1-mod)
に従って変調度によって変調されたガンマ関数を使用して構築された参照テーブルを使用する、請求項に記載の方法。
The reverse mapping (121)
γ = 2.0 + 0.4 × (1-mod)
The method of claim 2 , wherein the reference table is constructed using a gamma function modulated by the degree of modulation according to.
色補正(122)動作が、所与のルマ成分で前記クロマ成分に適用する補正を定義する参照テーブルlutCCを使用し、前記参照テーブルlutCCが、
lutCC(Y)=f(Y)(1/Y)
に従って変調度によって変調される影響を有する飽和度利得関数sgf()に基づいて導出され、ここで、f(Y)=1/(R(sgf(1/Y)mod+(1-mod)/R)であり、Rが2に等しい定数値である、請求項1からのいずれか一項に記載の方法。
The color correction (122) operation uses a reference table lutCC that defines the correction applied to the chroma component at a given luma component, said reference table lutCC.
lutCC (Y) = f (Y) · (1 / Y)
Derived based on the saturation gain function sgf (), which has the effect of being modulated by the degree of modulation according to, where f (Y) = 1 / (R · (sgf (1 / Y) · mod + (1-mod)). / R), the method according to any one of claims 1 to 6 , wherein R is a constant value equal to 2.
フォーマットが、
γ=2.0+0.4×(1-mod)
に従って変調度によって変調されたガンマ関数を適合する、請求項1からのいずれか一項に記載の方法。
The format is
γ = 2.0 + 0.4 × (1-mod)
The method according to any one of claims 1 to 7 , wherein the gamma function modulated according to the degree of modulation is adapted.
結合圧縮補正が、
パラメータのセットSPから得られるパラメータk0、k1、k2に基づいてパラメータTを計算することであり、前記パラメータTが、
T=k0×U’×V’+k1×U’×U’+k2×V’×V’
に従って前記単一の変調度の値に応じたものであることと、
前記パラメータTが1より小さいときに、前記結合圧縮補正を
S=√(1-T)、U=U’、およびV=V’
に従って計算することと、
前記パラメータTが1以上であるときに、前記結合圧縮補正を
S=0、U=U’/√T、およびV=V’/√T
に従って計算することとを含む、請求項1からのいずれか一項に記載の方法。
Combined compression correction,
The parameter T is calculated based on the parameters k0, k1 and k2 obtained from the parameter set SP.
T = k0 x U'x V'+ k1 x U'x U'+ k2 x V'x V'
According to the value of the single degree of modulation according to
When the parameter T is less than 1, the combined compression correction is S = √ (1-T), U = U', and V = V'.
To calculate according to
When the parameter T is 1 or more, the combined compression correction is applied to S = 0, U = U'/ √T, and V = V'/ √T.
The method of any one of claims 1-8 , comprising calculating according to.
元の画像データ(I1)を表す画像データ(I3)を、ビットストリーム(101)から得られる復号画像データ(I2)およびパラメータから再構成するデバイスであり、前記パラメータが、前記元の画像データ(I1)から処理されており、再構成画像が、プレゼンテーション・ディスプレイの特徴に適合されるデバイスであり、
飽和度低下ルマ成分および再構成ルマ成分に従って2つのクロマ成分を補正して2つの再構成クロマ成分を得る(122)ように構成されたプロセッサを含むデバイスであって、
クロマ補正(120)が、
前記プレゼンテーション・ディスプレイの輝度情報データ(D_PL)、
通常の標準ダイナミック・レンジ画像の輝度情報データ(SDR_PL)、および
前記元の画像データ(I1)または前記元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データ(C_PL)
を表す単一の変調度modの値に応じたものであることを特徴とする、デバイス。
A device that reconstructs image data (I3) representing the original image data (I1) from decoded image data (I2) and parameters obtained from the bit stream (101), wherein the parameters are the original image data (I). Processed from I1), the reconstructed image is a device that fits the characteristics of the presentation display.
A device comprising a processor configured to correct two chroma components according to a reduced saturation Luma component and a reconstructed Luma component to obtain two reconstructed Chroma components (122).
Chroma correction (120),
Luminance information data (D_PL) of the presentation display,
Luminance information data (SDR_PL) of a normal standard dynamic range image, and luminance information data (C_PL) of a mastering display used to grade the original image data (I1) or the original image data.
A device, characterized in that it corresponds to a single modulation modding value representing.
前記プロセッサが、
飽和度低下を調整するパラメータに応じてルマ成分を飽和度低下させ(120)、
前記飽和度低下ルマ成分を逆マッピング(121)して再構成ルマ成分を得、
圧縮補正を実行するようにさらに構成され、
前記飽和度低下(120)、前記逆マッピング(22)、前記圧縮補正、および前記ク
ロマ補正(120)が、前記単一の変調度modの値に応じたものであることを特徴とす
る、請求項10に記載のデバイス。
The processor
The Luma component is reduced in saturation according to the parameters that adjust for the reduction in saturation (120).
The saturated Luma component was reverse-mapped (121) to obtain a reconstructed Luma component.
Further configured to perform compression correction,
Claimed, wherein the saturation reduction (120), the inverse mapping (22), the compression correction, and the chroma correction (120) correspond to the value of the single modulation modding. Item 10. The device according to item 10.
前記変調度の値が、
Figure 0007074461000035

に従って計算され、ここで、D_PLが、前記プレゼンテーション・ディスプレイの輝度情報データであり、SDR_PLが、通常の標準ダイナミック・レンジ画像の輝度情報データであり、C_PLが、前記元の画像データ(I1)または前記元の画像データを等級付けするために使用されるマスタリング・ディスプレイの輝度情報データである、請求項11に記載のデバイス。
The value of the degree of modulation is
Figure 0007074461000035

Where D_PL is the brightness information data of the presentation display, SDR_PL is the brightness information data of a normal standard dynamic range image, and C_PL is the original image data (I1) or 11. The device of claim 11 , which is the brightness information data of the mastering display used to grade the original image data.
コンピュータで実行されたときに請求項1からのいずれか一項に記載の方法のステップを実行するプログラム・コード命令を含むコンピュータ・プログラム。 A computer program comprising program code instructions that perform the steps of the method according to any one of claims 1-9 when executed on a computer . コンピュータで実行されたときに請求項1からのいずれか一項に記載の方法のステップを実行するプログラム・コード命令を有する非一時的プロセッサ可読媒体。 A non-temporary processor readable medium having program code instructions that perform the steps of the method according to any one of claims 1-9 when executed on a computer.
JP2017224232A 2017-11-22 2017-11-22 How and Devices to Reconstruct Display-Compatible HDR Images Active JP7074461B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017224232A JP7074461B2 (en) 2017-11-22 2017-11-22 How and Devices to Reconstruct Display-Compatible HDR Images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017224232A JP7074461B2 (en) 2017-11-22 2017-11-22 How and Devices to Reconstruct Display-Compatible HDR Images

Publications (2)

Publication Number Publication Date
JP2019097013A JP2019097013A (en) 2019-06-20
JP7074461B2 true JP7074461B2 (en) 2022-05-24

Family

ID=66972139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017224232A Active JP7074461B2 (en) 2017-11-22 2017-11-22 How and Devices to Reconstruct Display-Compatible HDR Images

Country Status (1)

Country Link
JP (1) JP7074461B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115883810A (en) * 2020-04-30 2023-03-31 华为技术有限公司 Method and device for acquiring mapping curve parameters

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016091406A1 (en) 2014-12-11 2016-06-16 Koninklijke Philips N.V. Optimizing high dynamic range images for particular displays
WO2016120330A1 (en) 2015-01-30 2016-08-04 Thomson Licensing Method and device for decoding a color picture
WO2017108906A1 (en) 2015-12-21 2017-06-29 Koninklijke Philips N.V. Optimizing high dynamic range images for particular displays
WO2017157845A1 (en) 2016-03-18 2017-09-21 Thomson Licensing A method and a device for encoding a high dynamic range picture, corresponding decoding method and decoding device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016091406A1 (en) 2014-12-11 2016-06-16 Koninklijke Philips N.V. Optimizing high dynamic range images for particular displays
WO2016120330A1 (en) 2015-01-30 2016-08-04 Thomson Licensing Method and device for decoding a color picture
WO2017108906A1 (en) 2015-12-21 2017-06-29 Koninklijke Philips N.V. Optimizing high dynamic range images for particular displays
WO2017157845A1 (en) 2016-03-18 2017-09-21 Thomson Licensing A method and a device for encoding a high dynamic range picture, corresponding decoding method and decoding device

Also Published As

Publication number Publication date
JP2019097013A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP7340659B2 (en) Method and apparatus for reconstructing image data from decoded image data
KR102458747B1 (en) Method and device for reconstructing image data from decoded image data
CN111316625B (en) Method and apparatus for generating a second image from a first image
JP6946325B2 (en) Methods and devices for encoding high dynamic range pictures, corresponding coding methods and devices
KR102537393B1 (en) Method and device for reconstructing HDR image
JP7483634B2 (en) Method and device for processing a medium dynamic range video signal in SL-HDR2 format - Patents.com
US10600163B2 (en) Method and device for reconstructing a display adapted HDR image
CN111434114B (en) Processing images
TWI740830B (en) Method and device for encoding both a high-dynamic range frame and an imposed low-dynamic range frame
WO2019203973A1 (en) Method and device for encoding an image or video with optimized compression efficiency preserving image or video fidelity
JP7074461B2 (en) How and Devices to Reconstruct Display-Compatible HDR Images
CN111434113B (en) Saturation control for high dynamic range reconstruction
BR112020010703A2 (en) processing an image
KR102369771B1 (en) Method and device for reconstructing a display adapted hdr image
CA2986520A1 (en) Method and device for reconstructing a display adapted hdr image
JP7464537B2 (en) Method and apparatus for encoding an image - Patents.com
RU2776101C1 (en) Method and device for recovering hdr image adapted to the display
KR102538197B1 (en) Determination of co-located luminance samples of color component samples for HDR coding/decoding
EP3528201A1 (en) Method and device for controlling saturation in a hdr image
CN113228670A (en) Decoding images
BR102017025044A2 (en) METHOD AND DEVICE FOR RECONSTRUCTING AN HDR IMAGE ADAPTED FOR DISPLAY

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20171204

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180223

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210830

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220512

R150 Certificate of patent or registration of utility model

Ref document number: 7074461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150