JP2018191269A - Method and device of reconstructing image data from decoded image data - Google Patents

Method and device of reconstructing image data from decoded image data Download PDF

Info

Publication number
JP2018191269A
JP2018191269A JP2017239281A JP2017239281A JP2018191269A JP 2018191269 A JP2018191269 A JP 2018191269A JP 2017239281 A JP2017239281 A JP 2017239281A JP 2017239281 A JP2017239281 A JP 2017239281A JP 2018191269 A JP2018191269 A JP 2018191269A
Authority
JP
Japan
Prior art keywords
image data
parameter
parameters
image
corrupted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017239281A
Other languages
Japanese (ja)
Other versions
JP2018191269A5 (en
JP7086587B2 (en
Inventor
アンドリボン,ピエール
Andrivon Pierre
トウージ,デイビツド
Touze David
カラメリ,ニコラス
Caramelli Nicolas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP17305212.7A external-priority patent/EP3367684A1/en
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to US15/868,111 priority Critical patent/US11310532B2/en
Publication of JP2018191269A publication Critical patent/JP2018191269A/en
Publication of JP2018191269A5 publication Critical patent/JP2018191269A5/ja
Priority to US17/669,218 priority patent/US20220167019A1/en
Priority to JP2022093177A priority patent/JP7340659B2/en
Application granted granted Critical
Publication of JP7086587B2 publication Critical patent/JP7086587B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4344Remultiplexing of multiplex streams, e.g. by modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem generated in the case where a metadata is not matched to an image to which a graphic or an overlay is applied.SOLUTION: A method or a device of reconstructing image data indicating original image data from a parameter acquired by decoded image data and a bit stream includes: a step (102) of checking the parameter; a step (104) of selecting a decoding mode (RMi) in accordance with information data (ID and 103) indicating whether how the parameter is processed in the case where at least one parameter is lost, damaged, or is not matched to the decoded image data to which the graphic or the overlay is applied; and a step (105) of decoding the parameter by adapting reconstruction of the selected decoding mode (RMi) and image data (I3), and considering the decoded parameter (12).SELECTED DRAWING: Figure 1

Description

本願の原理は、一般的には、復号された画像/映像(ビデオ)データからの画像/映像データの再構成に関する。具体的には、限定するものではないが、本願の原理の技術分野は、別の画像から画像を再構成するためのパラメータを復元することに関する。   The principles of the present application generally relate to the reconstruction of image / video data from decoded image / video (video) data. Specifically, without limitation, the technical field of the present principles relates to restoring parameters for reconstructing an image from another image.

この項は、読者に対し、様々な技術的な態様を紹介することを意図している。これらの技術的な態様は、以下に説明する、さらに/または、以下の請求項に記載する本願の原理の様々な態様に関連するであろう。この説明が本願の原理の様々な態様をより良好に理解しやすくするための背景情報を読者に対して提供するのに役立つと確信する。したがって、それぞれの記載は、この点に鑑みて読まれるべきものであり、先行技術を自認するものではないことを理解すべきである。   This section is intended to introduce the reader to various technical aspects. These technical aspects will relate to various aspects of the present principles as described below and / or as set forth in the following claims. We believe that this description will help provide readers with background information to better understand various aspects of the present principles. Accordingly, it should be understood that each description is to be read in light of this point and is not an admission of prior art.

以下において、画像データは、画像(または映像)の画素値に関連する全ての情報、且つ、例えば、画像(または映像)を視覚化および/または復号するためにディスプレイおよび/または他の装置によって使用される可能性のある全ての情報を特定する特定の画像/映像フォーマットにおけるサンプル(画素値)の1つまたは幾つかのアレイを指す。画像は、通常は、画像の輝度(またはルマ)を表す第1のサンプルのアレイの形状である、第1の成分と、通常は、画像の色(またはクロマ)を表すサンプルの他のアレイの形態である、第2および第3の成分と、を含む。または、同じように、同一の情報を従来の三色のRGB表現などで、色サンプルのアレイの組で表すこともできる。   In the following, image data is used by a display and / or other device to visualize and / or decode all information related to the pixel values of the image (or video) and, for example, the image (or video) Refers to one or several arrays of samples (pixel values) in a particular image / video format that identifies all the information that may be done. The image is usually in the shape of an array of first samples that represents the brightness (or luma) of the image, and the first component and other arrays of samples that typically represent the color (or chroma) of the image. And second and third components in the form. Alternatively, similarly, the same information can be represented by a set of color sample arrays, such as the conventional three-color RGB representation.

画素値は、C個の値のベクトルによって表され、ここでCは、成分の数である。ベクトルの各値は、画素値の最大ダイナミック範囲を規定するビットの数で表される。   The pixel value is represented by a vector of C values, where C is the number of components. Each value of the vector is represented by the number of bits that define the maximum dynamic range of the pixel value.

標準ダイナミック・レンジの画像(SDR画像)は、輝度値が限定された数(通常は、8)のビットで表される画像である。この限定された表現は、特に、暗輝度範囲および明輝度範囲における、小さな信号の変化を正確にレンダリングできるようにするものではない。ハイダイナミックレンジの画像(HDR画像)においては、レンジ(範囲)全体にわたって高い信号精度を維持するために、信号表現が拡張される。HDR画像において、画素値は、通常、浮動小数点フォーマット(各成分に対し、少なくとも10ビット、すなわち、単精度浮動小数点(float)または半精度浮動小数点(half−float))で表される輝度レベルを表す値である。最も人気があるフォーマットは、openEXR半精度浮動小数点フォーマット(RGB成分毎に16ビット、すなわち、画素毎に48ビット)であるか、または、通常は、少なくとも16ビットの、“long”型表現の整数値である。   A standard dynamic range image (SDR image) is an image represented by a limited number (usually 8) of bits of luminance values. This limited representation does not allow small signal changes to be accurately rendered, particularly in the dark and bright luminance ranges. In high dynamic range images (HDR images), the signal representation is extended to maintain high signal accuracy throughout the range. In HDR images, pixel values typically represent a luminance level expressed in a floating-point format (at least 10 bits for each component, ie, single-precision floating point (float) or half-precision floating point (half-float)). The value to represent. The most popular format is the openEXR half-precision floating point format (16 bits per RGB component, ie 48 bits per pixel), or an arrangement of “long” type representations, usually at least 16 bits. It is a numerical value.

高効率映像符号化(HEVC:High Efficiency Video Coding)規格の到来(ITUのITU−T H.265電気通信標準化部門(10/2014)、シリーズH:オーディオビジュアルおよびマルチメディア・システムズ、オーディオビジュアル・サービスのインフラストラクチャ−動画の符号化、高効率映像符号化、勧告ITU−T H.265)は、Ultra HDブロードキャスト・サービスなど、強化された視聴体験を用いた新たな映像サービスの展開を可能としている。現在展開されている標準ダイナミック・レンジと比較して、Ultra HDは、空間解像度の増大とともに、Ultra HDは、広色域(WCG)およびハイダイナミックレンジ(HDR)を向上させることができる。HDR/WCG映像の表現および符号化に様々な解決法が提案されている(SMPTE 2014、「マスタリング・参照ディスプレイのハイダイナミックレンジ電光伝達関数(High Dynamic Range Electro−Optical Transfer Function of Mastering Reference Displays)」または、SMPTE ST 2084、 2014、またはDiaz,R.,Blinstein,S.およびQu,S.「ハイダイナミックレンジ映像パイプラインを用いたHEVC映像圧縮の統合(Integrating HEVC Video Compression with a High Dynamic Range Video Pipeline)」、SMPTE動画像ジャーナル、125巻、1号、2016年2月、第14〜21頁)。   The arrival of the High Efficiency Video Coding (HEVC) standard (ITU-T H.265 Telecommunication Standardization Division (10/2014) of ITU, Series H: Audiovisual and Multimedia Systems, Audiovisual Services Infrastructure-Video Coding, High-Efficiency Video Coding, Recommendation ITU-T H.265) enables the deployment of new video services using enhanced viewing experiences such as Ultra HD broadcast services . Compared to the currently deployed standard dynamic range, Ultra HD can improve wide color gamut (WCG) and high dynamic range (HDR) with increasing spatial resolution. Various solutions have been proposed for the representation and coding of HDR / WCG video (SMPTE 2014, "High Dynamic Range Electro-Optical Transfer of Mastering & Reference Display"). Alternatively, SMPTE ST 2084, 2014, or Diaz, R., Blinstein, S. and Qu, S. “Integrating HEVC Video Compression with High Dynamic Vampine Random Vigne Dynamic Randomness” ) ", SMPTE motion (Image Journal, Vol. 125, No. 1, February 2016, pp. 14-21).

復号装置およびレンダリング装置とのSDR後方互換性は、ブロードキャスティング・システムやマルチキャスティング・システムなど、ビデオ配信システムによっては、重要な機能となる。   SDR backward compatibility with a decoding device and a rendering device is an important function depending on a video distribution system such as a broadcasting system or a multicasting system.

単一レイヤの符号化/復号処理に基づく解決法は、後方互換性、例えば、SDR互換性を有することができ、旧来の配信ネットワークおよび既存のサービスを利用することができる。   A solution based on a single layer encoding / decoding process can have backward compatibility, eg, SDR compatibility, and can utilize legacy distribution networks and existing services.

このような単一レイヤに基づく配信の解決法は、HDRに対応したコンシューマ電子(CE)装置上での高品質のHDRレンダリングを可能とする一方で、SDRに対応したCE装置上での高品質のSDRレンダリングを提供する。   Such a single layer based delivery solution enables high quality HDR rendering on consumer electronics (CE) devices that support HDR, while high quality on CE devices that support SDR. Provides SDR rendering.

このような単一レイヤに基づく配信の解決法は、符号化された信号、例えば、SDR信号および(ビデオ・フレームまたはシーン毎に数バイトの)関連するメタデータを生成する。メタデータは、復号された信号、例えば、SDR信号から別の信号、例えば、HDR信号を再構成するために使用することができる。   Such a single layer based distribution solution generates an encoded signal, eg, an SDR signal and associated metadata (a few bytes per video frame or scene). The metadata can be used to reconstruct another signal, eg, an HDR signal, from a decoded signal, eg, an SDR signal.

信号の再構成に使用することができるメタデータが記憶されたパラメータ値は、スタティックである場合もあるし、ダイナミックである場合もある。スタティックなメタデータとは、ビデオ(画像の組)および/またはプログラムに対して変化のないメタデータを意味する。   Parameter values stored with metadata that can be used for signal reconstruction may be static or dynamic. Static metadata means metadata that does not change for video (a set of images) and / or programs.

スタティックなメタデータは、ビデオ・コンテンツ(シーン、動画、クリップ・・・)全体に対して有効であり、画像コンテンツに依存しないことがある。スタティックなメタデータは、例えば、画像フォーマットまたは色空間、色域を定義することがある。例えば、SMPTE ST 2086:2014、「高輝度および広色域画像をサポートするマスタリング・ディスプレイ色ボリューム・メタデータ(Mastering Display Color Volume Metadata Supporting High Luminance and Wide Color Gamut Images)」は、制作環境において使用されるこの種のスタティックなメタデータである。マスタリング・ディスプレイ色ボリューム(MDCV:Mastering Display Colour Volume)補助拡張情報(SEI)メッセージは、H.264/AVC(「ジェネリック・オーディオビジュアル・サービスのための先進ビデオ符号化(Advanced video coding for generic audiovisual Services)」、シリーズH:オーディオビジュアルおよびマルチメディア・システムズ、勧告ITU−T H.264、ITU電気通信標準化部門、2012年1月)およびHEVCビデオコーデックの双方のために、ST2086で配信されるものである。   Static metadata is valid for the entire video content (scenes, movies, clips ...) and may not depend on the image content. Static metadata may define, for example, an image format, color space, or color gamut. For example, SMPTE ST 2086: 2014, “Mastering Display Color Volume Metadata Supporting High Luminance and Wide Color Gamut Images, used in Mastering Display Color Volume Supporting High Color and Gamut Images Environments” This kind of static metadata. The Mastering Display Color Volume (MDCV) Auxiliary Extended Information (SEI) message is H.264. H.264 / AVC ("Advanced Video Coding for Generic Audiovisual Services"), Series H: Audiovisual and Multimedia Systems, Recommendation ITU-T H.264, ITU Electric The communication standardization department, January 2012) and the HEVC video codec will be delivered in ST2086.

ダイナミック・メタデータは、コンテンツ依存である。すなわち、メタデータは、例えば、画像毎に、または、各画像のグループ毎に変化することがある。例えば、SMPTE ST 2094:2016規格のファミリー「色ボリューム変換のためのダイナミック・メタデータ(Dynamic Metadata for Color Volume Transform)」は、制作環境で使用されるダイナミック・メタデータである。カラー・リマッピング情報(CRI:Colour Remapping Information)SEIメッセージのおかげで、SMPTE ST 2094−30は、HEVC符号化ビデオ・ストリームと一緒に配信することができる。   Dynamic metadata is content dependent. That is, the metadata may change, for example, for each image or for each group of images. For example, the SMPTE ST 2094: 2016 standard family “Dynamic Metadata for Color Volume Transform” is dynamic metadata used in the production environment. Thanks to Color Remapping Information (CRI) SEI messages, SMPTE ST 2094-30 can be delivered with HEVC encoded video streams.

他の単一レイヤに基づく配信の解決法は、ディスプレイ適応化ダイナミック・メタデータが旧来のビデオ信号と一緒に配信される配信ネットワーク上に存在する。これらの単一レイヤに基づく解決法は、HDR10ビット画像データ(例えば、信号がITU−R BT.2100−0で特定されるHLG10またはPQ10信号として表される画像データ「勧告ITU−R BT.2100−0、制作および国際番組交換に使用するためのハイダイナミック・レンジ・テレビジョンのための画像パラメータ値(Image parameter values for high dynamic range television for use in production and international program exchange)」)および入力信号からの関連するメタデータ(通常は、12または16ビット)を作成することができ、例えば、HEVCメイン10プロフィール符号化スキームを使用してこのHDR10ビット画像を符号化し、復号されたビデオ信号および上記関連するメタデータからビデオ信号を再構成する。再構成された信号のダイナミック・レンジは、対象のディスプレイの特徴に依存することがある、関連するメタデータに従って適応化される。   Another single layer based distribution solution exists on distribution networks where display-adaptive dynamic metadata is distributed along with legacy video signals. These single-layer based solutions provide HDR 10-bit image data (eg, image data “Recommended ITU-R BT.2100 where the signal is represented as an HLG10 or PQ10 signal as specified in ITU-R BT.2100-0). -0, image parameter values for high dynamic range television for use in production and international program exchange (from image parameter values for high dynamic range television for use in production and international program signals) Related metadata (usually 12 or 16 bits), eg HEVC main 10 profile code The HDR 10-bit image is encoded using an encoding scheme and the video signal is reconstructed from the decoded video signal and the associated metadata. The dynamic range of the reconstructed signal is adapted according to associated metadata that may depend on the characteristics of the display of interest.

実際の現実世界の制作および配信設備におけるダイナミック・メタデータ送信は、スプライシング、オーバーレイ・レイヤ挿入、プロフェッショナル装置プルーニング・ビットストリーム、アフィリエートによるストリーム処理、そして、ポストプロダクション/プロフェッショナル・プラントにわたったメタデータの搬送のための標準規格が現在存在しないことにより、保証が困難であり、損失や破損の懸念がある。   Dynamic metadata transmission in real-world production and distribution facilities includes splicing, overlay layer insertion, professional equipment pruning bitstreams, affiliate stream processing, and post production / professional plant metadata Due to the current lack of standards for transport, guarantees are difficult and there are concerns about loss and damage.

単一レイヤに基づく配信の解決法は、異なる束のダイナミック・メタデータが存在すること無しには機能しないが、ビデオ信号の再構成の成功を保証するためには、これらのダイナミック・メタデータの幾らかが重要となる   The delivery solution based on a single layer does not work without the existence of different bundles of dynamic metadata, but in order to guarantee the successful reconstruction of the video signal, these dynamic metadata Some are important

ダイナミック・メタデータがグラフィックスまたはオーバーレイが付与されている画像と一致していない場合には、同様の問題も発生する。これは、例えば、グラフィックス(オーバーレイ、OSD、・・・)が配信チェインの外側の画像に挿入される(付与される)場合に発生する。その理由は、この画像に対して算出されたメタデータも、グラフィックスが画像に対して挿入される(付与される)と適用されるためである。その理由は、この画像に対して算出されたメタデータも、グラフィックスが画像に対して挿入される(付与される)と適用されるため、そしてメタデータは、グラフィックスまたはオーバーレイが付与されている画像と一致していないとみなされる。その理由は、メタデータは、グラフィックスまたはオーバーレイを含むこの画像の部分に適応されていないことがあるためである。   A similar problem occurs when the dynamic metadata does not match the image with graphics or overlays. This occurs, for example, when graphics (overlay, OSD,...) Are inserted (applied) into an image outside the distribution chain. This is because the metadata calculated for this image is also applied when graphics are inserted (applied) to the image. The reason is that the metadata calculated for this image is also applied when graphics are inserted (applied) to the image, and the metadata is given graphics or overlays Is considered not to match the existing image. The reason is that the metadata may not be adapted to the part of this image that contains graphics or overlays.

このような問題は、復号された画像が長期にわたって表示された際に、または不適切なメタデータ(例えば、暗所のコンテンツ用に生成されたメタデータによって処理された高輝度のOSD)を用いて処理されたグラフィックスまたはオーバーレイを含む画像の部分における所望しない効果(飽和、クリッピング・・・)によってグラフィックスの決まった場所に画像のちらつきが発生するという特徴を有することがある。   Such problems can occur when the decoded image is displayed over time or with inappropriate metadata (eg, high-intensity OSD processed by metadata generated for dark content). The image may flicker at a fixed location in the graphics due to undesired effects (saturation, clipping,...) In the portion of the image containing the processed graphics or overlay.

以下において、本願の原理の幾らかの態様についての基本的な理解が得られるように、本願の原理を簡略化した概要を提供する。本概要は、本願の原理を網羅するような概要ではない。本願の原理のキー要素、または重要な要素を特定するようには意図されていない。以下の要約は、単に、以下に提供するより詳細な説明の前置きとして、本願の原理の幾つかの態様を簡略化して示しているものにすぎない。   In the following, a simplified overview of the present principles is provided so that a basic understanding of some aspects of the present principles may be obtained. This summary is not an exhaustive overview of the principles of the application. It is not intended to identify key elements or key elements of the present principles. The following summary merely presents some simplified aspects of the present principles as a prelude to the more detailed description provided below.

復号された画像データおよびビットストリームから取得されたパラメータから原画像データ(original image data)を表す画像データを再構成する(reconstructing)方法または方法を用いて従来技術の欠点のうちの少なくとも1つを克服する本願の原理について述べる。上記パラメータは、上記原画像データから処理されている。この方法は、
上記パラメータが失われている(lost)、破損している(corrupted)、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致して(aligned)いないかどうかをチェックするステップと、
上記パラメータのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していない場合に、
どのように上記パラメータが処理されているかを示す情報データに従って復元モード(recovery mode)を選択するステップと、
上記少なくとも1つの失われている、破損している、または、一致していないパラメータを、選択した復元モード、画像データの上記再構成を適用し、さらに、上記復元されたパラメータを考慮することによって復元するステップと、を含む。
At least one of the disadvantages of the prior art using a method or method of reconstructing image data representing original image data from decoded image data and parameters obtained from a bitstream The principle of the present application to overcome is described. The parameters are processed from the original image data. This method
Checking whether the above parameters are lost, corrupted, or aligned with the decoded image data to which graphics or overlays have been applied; ,
If at least one of the above parameters is missing, corrupted, or does not match the decoded image data with graphics or overlays attached,
Selecting a recovery mode according to information data indicating how the above parameters are being processed;
By applying the selected reconstruction mode, the reconstruction of the image data to the at least one missing, corrupted or inconsistent parameter, and further considering the restored parameter Restoring.

一実施形態によれば、情報データがビットストリームにおけるシンタックス要素によって明示的に信号伝達される。   According to one embodiment, the information data is explicitly signaled by syntax elements in the bitstream.

一実施形態によれば、情報データ(ID)が黙示的に信号伝達される。   According to one embodiment, information data (ID) is implicitly signaled.

一実施形態によれば、情報データは、パラメータを処理するために原画像データに適用される処理の内容を識別する。   According to one embodiment, the information data identifies the content of the process applied to the original image data to process the parameters.

一実施形態によれば、パラメータは、このパラメータがビットストリームから取得されない場合に失われているとみなされる。   According to one embodiment, the parameter is considered lost if this parameter is not obtained from the bitstream.

一実施形態によれば、
パラメータは、
上記パラメータの値が値範囲から外れている、
上記パラメータが他のパラメータ値に従ったコヒーレント値を有していない、
の条件のうちの少なくとも1つを満たしている場合に破損しているとみなされる。
According to one embodiment,
The parameter is
The value of the above parameter is out of the value range,
The above parameters do not have coherent values according to other parameter values,
It is considered broken if at least one of the following conditions is met.

一実施形態によれば、
復元モードはパラメータのうちの幾つかのみが失われていない、破損していない、または、グラフィックスまたはオーバーレイが付与された復号された画像データと一致していないとしても、復元されたパラメータによってパラメータの全てを置き換えるものである。
According to one embodiment,
The restoration mode is a parameter that depends on the restored parameters, even if only some of the parameters are not lost, corrupted, or inconsistent with the decoded image data with graphics or overlays applied. It replaces all of.

一実施形態によれば、
復元モードは、各失われている、破損している、または、一致していないパラメータを復元されたパラメータによって置き換えるものである。
According to one embodiment,
The restore mode replaces each lost, corrupted, or mismatched parameter with the restored parameter.

一実施形態によれば、復元モードは、各失われている、破損している、または、一致していないパラメータを既に記憶された所定のパラメータ値の組のうちの値によって置き換えるものである。   According to one embodiment, the restoration mode replaces each missing, corrupted or mismatched parameter with a value from a set of predetermined parameter values already stored.

一実施形態によれば、復元モードは、原画像データの少なくとも1つの特性、または、原画像または再構成されるべき画像データをグレーディングするために使用されるマスタリング・ディスプレイの特性、または、再構成された画像データの少なくとも1つの特性、または、対象のディスプレイの少なくとも1つの特性に従って選択される。   According to one embodiment, the restoration mode is characterized by at least one characteristic of the original image data or a characteristic or reconstruction of the mastering display used to grade the original image or the image data to be reconstructed. Selected according to at least one characteristic of the captured image data or at least one characteristic of the target display.

これらの別の態様によれば、本願の原理は、上述した方法を実行する手段を含む装置およびこのプログラムがコンピュータ上で実行されたときに上記方法のステップを実行するプログラム・コード命令を記憶した非一時的プロセッサ読み取り可能媒体にも関する。   In accordance with these other aspects, the present principles store apparatus including means for performing the above-described method and program code instructions for performing the method steps when the program is executed on a computer. It also relates to non-transitory processor readable media.

図面において、本願の原理の例が示されている。   In the drawings, examples of the principles of the present application are shown.

本願の原理の例に従った、復号された画像から原画像I1を表す画像I3を再構成する方法のステップを示す図である。FIG. 4 shows steps of a method for reconstructing an image I3 representing an original image I1 from a decoded image according to an example of the principles of the present application. 本願の原理の例に従った、コンテンツ制作およびHDRおよびSDRに対応したCEディスプレイに対する配信をサポートするエンドトゥエンド・ワークフローを示す図である。FIG. 4 is a diagram illustrating an end-to-end workflow that supports content production and delivery to CE displays that support HDR and SDR, in accordance with an example of the principles of the present application. 本願の原理の例に従った、図2のエンドトゥエンド・ワークフローの変形例を示す図である。FIG. 3 is a diagram illustrating a variation of the end-to-end workflow of FIG. 2 in accordance with an example of the principles of the present application. 本願の別の実施形態に従った、図2のエンドトゥエンド・ワークフローの変形例を示す図である。FIG. 6 is a diagram illustrating a variation of the end-to-end workflow of FIG. 2 in accordance with another embodiment of the present application. 知覚変換関数を例示する図である。It is a figure which illustrates a perceptual conversion function. マッピングのために使用される区分的な曲線を示す図である。FIG. 4 shows a piecewise curve used for mapping. 信号を線形光領域に戻す変換に使用される曲線の例を示す図である。It is a figure which shows the example of the curve used for the conversion which returns a signal to a linear light area | region. 本願の原理の例に従った、復号された画像データおよびビットストリームから取得されたパラメータから画像を再構成する方法の使用の別の例を示す図である。FIG. 4 illustrates another example of the use of a method for reconstructing an image from decoded image data and parameters obtained from a bitstream, in accordance with an example of the present principles. 本願の原理の例に従った装置のアーキテクチャの例を示す図である。FIG. 3 illustrates an example of an architecture of a device according to an example of the principles of the present application.

同様の要素または同一の要素は、同一の参照符号を用いて示されている。   Similar or identical elements are denoted using the same reference signs.

以下、本願の原理の例が示された添付図面を参照して、本願の原理をより完全に説明する。しかしながら、本願の原理は、多くの代替的な形態において実施することができ、本願の明細書において示された例に限定するように解釈されるべきではない。したがって、本願の原理は、様々な改変例や代替的な形態で実施することができる。本願の原理の特定の実施形態を図面において例示し、本明細書中で詳細に説明する。しかしながら、本願の原理を開示する特定の形態に限定することは意図されておらず、むしろ、開示内容には、請求の範囲によって規定された本願の原理の精神および範囲の中で、全ての改変例、均等物、変形例が包含されることが理解できよう。   The principles of the present application will be described more fully hereinafter with reference to the accompanying drawings, in which examples of the principles of the present application are shown. However, the principles of the present application may be implemented in many alternative forms and should not be construed as limited to the examples shown in the specification of the present application. Accordingly, the principles of the present application can be implemented in various modifications and alternative forms. Particular embodiments of the present principles are illustrated in the drawings and are described in detail herein. However, it is not intended that the principles of the application be limited to the particular forms disclosed, but rather that the disclosure be subject to all modifications within the spirit and scope of the principles of the application as defined by the claims. It will be understood that examples, equivalents, and variations are encompassed.

本明細書中で使用されている用語は、特定の実施形態を説明することを目的としており、本開示内容を限定するようには意図されていない。本明細書において、文脈上、他の明示的な記載がなければ、単数として記載されている表現「或る」、「一つ」、「この(その)」は、複数の表現を含むようにも意図されている。さらに、用語「からなる」、「含む」、および/または、「備える」が本明細書中で使用されている場合、これは、記載されている特徴事項、整数値、ステップ、処理、要素、および/またはコンポーネント(構成部品、成分)が存在することを示しているが、1つ以上の他の特徴事項、整数値、ステップ、処理、要素、コンポーネント(構成部品、成分)、および/またはそのグループが存在すること、または、追加されることを排除するものではないことが理解できよう。さらに、要素が他の要素に「応答する」、または、「接続されている」と記載されている場合、他の要素に直接的に応答する、または、接続されることもあれば、介在する要素が存在することもある。これに対し、要素が他の要素に「直接応答する」、または、「直接接続されている」と記載されている場合、介在する要素は存在しない。本明細書において使用されている用語「および/または」は、1つ以上の関連して列挙された項目の任意の全ての組み合わせを含み、「/」と省略されることがある。   The terminology used herein is for the purpose of describing particular embodiments and is not intended to limit the present disclosure. In this specification, unless stated otherwise in the context, the expressions “a”, “one”, “this” (or “an”) include plural expressions unless the context clearly dictates otherwise. Is also intended. Further, where the terms “consisting of”, “including”, and / or “comprising” are used herein, this means that the described feature, integer value, step, process, element, And / or components (components, components) are present, but one or more other features, integer values, steps, processes, elements, components (components, components), and / or their It will be understood that it does not exclude the presence or addition of groups. Further, when an element is described as “responding” or “connected” to another element, it may respond directly to or be connected to another element There may be elements. In contrast, when an element is described as “directly responding” or “directly connected” to another element, there are no intervening elements present. As used herein, the term “and / or” includes any and all combinations of one or more of the associated listed items and may be abbreviated as “/”.

本明細書中において、様々な要素について記載するために、第1、第2などの用語が使用されているが、これらの要素は、これらの用語によって限定されるべきものではないことが理解できよう。これらの用語は、或る用語と別の用語とを区別する目的のみで使用されている。例えば、本願の原理の教示内容を逸脱することなく、第1の要素を第2の要素と定義してもよいし、同様に、第2の要素を第1の要素として定義してもよい。   In this specification, terms such as first and second are used to describe various elements, but it should be understood that these elements should not be limited by these terms. Like. These terms are only used to distinguish one term from another. For example, the first element may be defined as the second element without departing from the teachings of the present principles, and similarly, the second element may be defined as the first element.

図面の中には、通信の主方向を示す通信経路上に矢印を含むものがあるが、通信は、描かれている矢印とは逆の方向に行なわれる場合があることが理解できよう。   Although some drawings include an arrow on a communication path indicating the main direction of communication, it can be understood that communication may be performed in a direction opposite to the depicted arrow.

実施形態の中には、ブロック図および動作フローチャートに関して説明されているものがあり、各ブロックは、特定の論理的な機能を実施するための、回路要素、モジュール、または、1つ以上の実行可能な命令を含むコードの部分を表す。なお、他の実施態様では、ブロック内で示される機能は、示しているものとは異なる順番となることもある。例えば、2つのブロックが連続して示されている場合であっても、関連する機能によっては、実際には、ブロックが、実質的に並列して実行されることがあり、または、ブロックが、逆の順番で実行されることがある。   Some embodiments are described with reference to block diagrams and operational flowcharts, where each block is a circuit element, module, or one or more executables for performing a particular logical function. Represents a portion of code that contains a simple instruction. Note that in other embodiments, the functions shown in the blocks may be in a different order than shown. For example, even if two blocks are shown in succession, depending on the function involved, the blocks may actually be executed substantially in parallel, or May be executed in reverse order.

本明細書において、「一実施形態」または「実施形態」と言及されている場合、これは、実施形態との関連で説明されている特定の特徴事項、構造、または特性が本願の原理の少なくとも1つの実施態様に含まれる場合があることを意味する。明細書中の様々な箇所に存在する「一実施形態において」または「実施形態に従って(実施形態によれば)」という表現は、必ずしも、全てが同一の実施形態について言及するものではなく、別個の実施形態または代替的な実施形態が相互に他の実施形態に対して排他的となるものではない。   In this specification, references to “one embodiment” or “an embodiment” may mean that a particular feature, structure, or characteristic described in connection with the embodiment is at least a part of the present principles. It means that it may be included in one embodiment. The expressions “in one embodiment” or “in accordance with an embodiment (according to an embodiment)” in various places in the specification are not necessarily all referring to the same embodiment, and Neither embodiments nor alternative embodiments are mutually exclusive with respect to other embodiments.

請求の範囲に存在する参照符号は、例示的な目的のみのものであり、請求の範囲に対して限定的な影響を及ぼすものではない。   Reference numerals appearing in the claims are by way of illustration only and shall have no limiting effect on the scope of the claims.

明示的に記載していないが、本実施形態および変形例を、任意に組み合わせて、または部分的に組み合わせて使用することができる。   Although not explicitly described, this embodiment and the modified examples can be used in any combination or in partial combination.

以下において、大文字の記号、例えば、(C1、C2、C3)は、第1の画像の成分を示し、小文字の記号、例えば、(c1、c2、c3)は、輝度のダイナミック・レンジが第1の画像の輝度のダイナミック・レンジよりも小さな別の画像の成分を示す。   In the following, uppercase symbols, for example, (C1, C2, C3) indicate components of the first image, and lowercase symbols, for example, (c1, c2, c3) have the first dynamic range of luminance. The components of another image that are smaller than the dynamic range of the luminance of the other image are shown.

画像の輝度のダイナミック・レンジは、この画像の輝度の最小値に対する最大値の比率である。通常、SDR画像の輝度のダイナミック・レンジは、500(0.2cd/mに対する100cd/m)であり、HDR画像の輝度のダイナミック・レンジは、10000(0.1cd/mに対する1000cd/m)である。 The dynamic range of the brightness of the image is the ratio of the maximum value to the minimum value of the brightness of the image. Usually, the dynamic range of the luminance of the SDR image 500 is (100 cd / m 2 for 0.2 cd / m 2), the dynamic range of the luminance of the HDR image is 1000 cd for 10000 (0.1cd / m 2 / m 2 ).

以下において、プライム記号は、これらのプライム記号が大文字の記号およびプライム記号であるとき、例えば、

Figure 2018191269

は、第1の画像のガンマ圧縮された成分を指し、これらのプライム記号が小文字の記号であるとき、例えば、(y’,u’,v’)は、第2の画像のガンマ圧縮された成分を指す。 In the following, the prime symbols are, when these prime symbols are uppercase symbols and prime symbols, for example:
Figure 2018191269

Refers to the gamma compressed component of the first image, and when these prime symbols are lowercase symbols, for example, (y ′, u ′, v ′) is a gamma compressed component of the second image Refers to ingredients.

本願の原理は、画像の符号化/復号/再構成について説明されるが、以下に説明するように、画像のシーケンスにおける各画像が順次符号化/復号/再構成されるため、画像(映像(ビデオ))のシーケンスの符号化/復号/再構成に拡張される。   The principle of the present application will be described with respect to image encoding / decoding / reconstruction. As described below, since each image in a sequence of images is sequentially encoded / decoded / reconstructed, an image (video ( Video)) sequence encoding / decoding / reconstruction.

図1は、本願の原理の例に従って、復号された画像
(外1)

Figure 2018191269
から原画像Iを現す画像Iを再構成する方法のステップを示す図である。 FIG. 1 illustrates a decoded image (outside 1) according to an example of the present principles.

Figure 2018191269
FIG. 6 shows the steps of a method for reconstructing an image I 3 representing an original image I 1 from

ステップ10において、パラメータSPの組が画像Iを再構成するために取得される。これらのパラメータは、ビットストリームBから取得されるパラメータP、または少なくとも1つのパラメータPが失われている、破損している、または、グラフィックスまたはオーバーレイが付与された復号された画像
(外2)

Figure 2018191269
と一致していない場合に復元されたパラメータPである。 In step 10, the set of parameter SP is obtained in order to reconstruct the image I 3. These parameters are the parameters P obtained from the bitstream B, or the decoded image with at least one parameter P missing, corrupted, or given graphics or overlay (outside 2)
Figure 2018191269
Is the restored parameter Pr .

ステップ11において、モジュールM1は、復号された画像
(外3)

Figure 2018191269
を取得し、ステップ12において、モジュールM2は、パラメータSPの組を使用して復号された画像
(外4)
Figure 2018191269
から画像I3を再構成する。 In step 11, the module M1 decodes the decoded image (outside 3).
Figure 2018191269
In step 12, the module M2 determines that the decoded image (outer 4) using the set of parameters SP
Figure 2018191269
To reconstruct the image I3.

復号された画像データ
(外5)

Figure 2018191269
は、ビットストリーム(信号)Bまたは他の任意のビットストリームから取得され、場合によっては、このビットストリームは、ローカル・メモリまたは他の任意の記憶媒体に記憶することができる。 Decoded image data (outside 5)
Figure 2018191269
Is obtained from the bitstream (signal) B or any other bitstream, and in some cases this bitstream can be stored in local memory or any other storage medium.

(ステップ10)のサブステップ101において、モジュールM3は、画像I3を再構成するために必要なパラメータPを取得する。   In sub-step 101 of (Step 10), the module M3 acquires a parameter P necessary for reconstructing the image I3.

(ステップ10)のサブステップ102において、モジュールM4は、パラメータPのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像
(外6)

Figure 2018191269
と一致していないかどうかをチェックする。 In sub-step 102 of (Step 10), the module M4 determines that at least one of the parameters P has been lost, corrupted, or has been given a decoded image (external 6). )
Figure 2018191269
Check whether it matches.

パラメータPの中に
失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像
(外7)

Figure 2018191269
と一致していないものが存在しない場合には、パラメータSPの組は、パラメータPのみを含む。 Decoded image (outside 7) missing, corrupted, or with graphics or overlay in parameter P
Figure 2018191269
If there is no match, the set of parameters SP includes only the parameter P.

パラメータPのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像
(外8)

Figure 2018191269
と一致していない場合には、(ステップ10)のサブステップ103において、モジュールM5は、どのように上記パラメータが処理されているかを示す情報データIDを取得し、(ステップ10)のサブステップ104において、モジュールM6は、上記情報データIDに従って、復元モジュールRMを選択し、(ステップ10)のサブステップ105において、モジュールM7は、選択された復元モジュールRMを適用することによって、上記少なくとも1つの失われている、破損している、または一致していないパラメータを復元する。少なくとも1つの復元されたパラメータPrは、パラメータSPの組に追加される。 Decoded image (outside 8) where at least one of the parameters P is missing, corrupted, or provided with graphics or overlay
Figure 2018191269
If not, in sub-step 103 of (Step 10), the module M5 obtains an information data ID indicating how the parameters are processed, and the sub-step 104 of (Step 10). The module M6 selects the restoration module RM i according to the information data ID, and in the sub-step 105 of (Step 10), the module M7 applies the selected restoration module RM i to at least 1 Restore one missing, corrupt, or mismatched parameter. At least one restored parameter Pr is added to the set of parameters SP.

ステップ12において、そして、上記少なくとも1つの復元されたパラメータPrを考慮して、画像Iが再構成される。 In step 12 and taking into account the at least one restored parameter Pr, the image I 3 is reconstructed.

この方法は、複数の単一レイヤに基づく配信の解決法がパラメータの共通の組を搬送するシンタックス要素の同一の組を共有する場合に、さらに、この単一レイヤに基づく配信の解決法が、失われている、破損している、または一致していないパラメータを復元するために、様々な復元モード(処理)を必要とする場合に、単一レイヤに基づく配信の解決法のためのパラメータを取得できるようにすることによって、上記単一レイヤに基づく配信の解決法に対して画像Iの再構成の成功を保証するという利点がある。 This method is further used when multiple single-layer based delivery solutions share the same set of syntax elements that carry a common set of parameters. Parameters for single-layer based delivery solutions when you need various restoration modes (processing) to restore parameters that are missing, corrupted or mismatched Can be obtained with the advantage of ensuring the success of the reconstruction of the image I 3 over the delivery solution based on the single layer.

この方法は、さらに、CE装置、通常は、セットトップ・ボックスまたはプレイヤが復号された画像
(外9)

Figure 2018191269
の上にグラフィックスを挿入する場合に、この方法は、一致していないパラメータを復号された画像Iにグラフィックス(またはオーバーレイ)を加えたものに適応したパラメータで置き換えるための特定の復元モードを選択し、グラフィックスまたはオーバーレイが付与された上記復号された画像
(外10)
Figure 2018191269
から上記復元されたパラメータを使用することによって画像Iを再構成するため、これにより、何らかのちらつきのアーティファクトや所望しない効果によって再構成された画像の品質に影響が与えられることを回避するという利点がある。 This method further includes a CE device, usually a set-top box or player decoded image (outside 9)
Figure 2018191269
When inserting graphics on top of this, this method uses a specific restoration mode to replace inconsistent parameters with parameters adapted to the decoded image I 2 plus graphics (or overlay) And select the above decoded image (outside 10) with graphics or overlay
Figure 2018191269
The advantage of reconstructing the image I 3 by using the restored parameters from is that it avoids affecting the quality of the reconstructed image due to some flickering artifacts or unwanted effects There is.

図1を参照して説明した方法は、画像が復号された画像から再構成されなければならない場合に、様々なアプリケーションで使用することができる。   The method described with reference to FIG. 1 can be used in various applications where the image has to be reconstructed from the decoded image.

図2は、本願の原理の例に従った、コンテンツ制作および、HDRおよびSDRに対応したCEディスプレイに対する配信をサポートするエンドトゥエンド・ワークフローを示している。   FIG. 2 illustrates an end-to-end workflow that supports content production and distribution to CE displays that support HDR and SDR, in accordance with an example of the present principles.

このワークフローは、関連するメタデータを用いた単一レイヤに基づく配信に関わり、図1に例示された本願の原理の例に従って、復号された画像データ
(外11)

Figure 2018191269
および取得されたパラメータSPの組から原画像データIを表す画像Iを再構成する方法を使用した例を示している。 This workflow involves delivery based on a single layer with associated metadata, and in accordance with the example of the present principles illustrated in FIG.
Figure 2018191269
And an example using a method of reconstructing an image I 3 representing original image data I 1 from a set of acquired parameters SP.

基本的には、この単一レイヤに基づく配信の解決法は、前処理部分と後処理部分とを含む。   Basically, this single layer based delivery solution includes a pre-processing part and a post-processing part.

前処理部分では、前処理段階20は、原画像Iを出力画像I12およびパラメータSPの組に分解し、スイッチング段階24は、原画像I1または出力画像I12がビットストリームBに符号化されているかどうかを判定する(ステップ23)。 In the preprocessing part, the preprocessing stage 20 decomposes the original image I 1 into a set of output images I 12 and parameters SP, and the switching stage 24 encodes the original image I 1 or the output image I 12 into a bitstream B. (Step 23).

ステップ23において、画像Iを、従来のビデオコーデックを用いて符号化することができ、ビットストリームBは、特定のチャンネル上で伝送される、または、ビットストリームB内に埋め込まれる関連するメタデータ(パラメータSPのセット)を伴って、既存の従来の配信ネットワークにわたって搬送される。 In step 23, the image I 2 can be encoded using a conventional video codec, and the bitstream B is transmitted on a particular channel or associated metadata embedded in the bitstream B. Carried over an existing conventional distribution network with (a set of parameters SP).

変形例においては、付随するメタデータを伴ったビットストリームBは、例えば、ブルーレイ・ディスク、または、セットトップ・ボックスのメモリまたはレジスタなどの記憶媒体に記憶される。   In a variation, the bitstream B with accompanying metadata is stored on a storage medium such as a Blu-ray disc or a memory or register of a set top box, for example.

変形例においては、付随する関連するメタデータは、別の特定のチャンネルによって搬送される、または、別個の記憶媒体に記憶される。   In a variant, the associated associated metadata is carried by another specific channel or stored on a separate storage medium.

好ましくは、ビデオは、H.265/HEVCコーデック(ITUのITU−T H.265電気通信標準化部門(10/2014)、シリーズH:オーディオビジュアルおよびマルチメディア・システムズ、オーディオビジュアル・サービスのインフラストラクチャ−動画の符号化、高効率映像符号化、勧告ITU−T H.265)または、H.264/AVC(「ジェネリック・オーディオビジュアル・サービスのための先進ビデオ符号化(Advanced video coding for generic audiovisual Services)」、シリーズH:オーディオビジュアルおよびマルチメディア・システムズ、勧告ITU−T H.264、ITU電気通信標準化部門、2012年1月)を用いて符号化される。   Preferably, the video is H.264. 265 / HEVC codec (ITU-T H.265 Telecommunications Standards Division (10/2014) of ITU, Series H: Audiovisual and Multimedia Systems, Audiovisual Services Infrastructure-Video Coding, High Efficiency Video Encoding, recommendation ITU-T H.265) or H.264. H.264 / AVC ("Advanced Video Coding for Generic Audiovisual Services"), Series H: Audiovisual and Multimedia Systems, Recommendation ITU-T H.264, ITU Electric It is encoded using the communication standardization department, January 2012).

情報データIDにより、原画像I(場合によっては、成分(C1,U’,V’)、または、Y’CbCr 4:2:0 PQ10、または、HLG10ビデオ信号によって表される)がステップ23において符号化されていることが判定されると、この原画像I1を、HEVCメイン10プロファイルで符号化することができる。 Depending on the information data ID, the original image I 1 (possibly represented by components (C1, U ′, V ′) or Y′CbCr 4: 2: 0 PQ10 or HLG10 video signal) is step 23. If it is determined that the original image I1 is encoded, the original image I1 can be encoded with the HEVC main 10 profile.

情報データIDにより、出力画像I12がステップ23で符号化されていることが判定されると、出力画像I12(Y’CbCr 4:2:0 ガンマ伝達特性(標準ダイナミック・レンジ)信号として表すことができる)を、Main 10 またはMainプロファイルを含む、任意のHEVCプロファイルで符号化することができる。 If it is determined by the information data ID that the output image I 12 is encoded in step 23, the output image I 12 (Y′CbCr 4: 2: 0) is represented as a gamma transfer characteristic (standard dynamic range) signal. Can be encoded with any HEVC profile, including the Main 10 or Main profile.

情報データIDを、関連するメタデータとして伝送することができる(ステップ23)。後処理の部分では、ビットストリームBから復号された画像
(外12)

Figure 2018191269
が取得され(ステップ11)、パラメータSPの組は、図1に説明されているように取得される(ステップ10)。そして、前処理段階10とは機能的に逆である、後処理段階20は、復号された画像
(外13)
Figure 2018191269
およびパラメータSPの組から画像Iを再構成する。 The information data ID can be transmitted as related metadata (step 23). In the post-processing part, the image decoded from the bit stream B (outside 12)
Figure 2018191269
Are obtained (step 11), and the set of parameters SP is obtained as described in FIG. 1 (step 10). The post-processing stage 20, which is functionally opposite to the pre-processing stage 10, is a decoded image (outside 13).
Figure 2018191269
And reconstruct the image I 3 from the set of parameters SP.

この単一レイヤに基づく配信の解決法には、場合によっては、フォーマット適応化ステップ21、22、25、26(オプション)を含めることができる。   This single layer based delivery solution can optionally include format adaptation steps 21, 22, 25, 26 (optional).

例えば、ステップ21(オプション)において、原画像Iのフォーマットは、前処理段階20の入力の特定のフォーマット(C1,U’,V’)に適応されることができ、ステップ22(オプション)において、出力画像I12のフォーマット(c,u’,v’)もまた、符号化の前に特定の出力フォーマットに適応化させることができる。ステップ25において、復号された画像
(外14)

Figure 2018191269
のフォーマットを後処理段階12の入力の特定のフォーマットに適応化させることができ、ステップ26において、画像Iを、対象の装置(例えば、セットトップ・ボックス、コネクテッドTV、HDR/SDR対応CE装置、ブルーレイ・ディスク・プレイヤ)の少なくとも1つの特性に適応化させることができ、且つ/または、復号された画像
(外15)
Figure 2018191269
および画像Iまたは原画像Iが異なる色空間および/または色域で表される場合に、逆色域マッピングを使用することができる。 For example, in step 21 (optional), the format of the original image I 1 can be adapted to the particular format (C1, U ′, V ′) of the input of the preprocessing stage 20, and in step 22 (optional) The format (c, u ′, v ′) of the output image I 12 can also be adapted to a specific output format before encoding. In step 25, the decoded image (outside 14)
Figure 2018191269
Can be adapted to the specific format of the input of the post-processing stage 12, and in step 26 the image I 3 is converted to the target device (eg set-top box, connected TV, HDR / SDR compliant CE device). , Blu-ray Disc player) and / or decoded image (outside 15)
Figure 2018191269
And, if the image I 3, or the original image I 1 is represented by a different color space and / or color gamut, it is possible to use the inverse color gamut mapping.

このフォーマット適応化ステップ(21、22、25、26)には、色空間変換および/または色域マッピングを含めることができる。通常のフォーマット適応化処理は、RGBからYUVまたはYUVからRGBの変換、BT.709からBT.2020、またはBT.2020からBT.709、彩度成分のダウンサンプリングまたはアップサンプリングのなどに使用することができる。なお、公知のYUV色空間は、従来技術における公知のYCbCrも指す。勧告ETSIの附属書E 勧告ETSI TS 103 433 V1.1.1、リリース2016−8は、フォーマット適応化処理および逆色域マッピング(附属書D)を提供する。   This format adaptation step (21, 22, 25, 26) may include color space conversion and / or gamut mapping. Normal format adaptation processing includes RGB to YUV or YUV to RGB conversion, BT. 709 to BT. 2020, or BT. 2020 to BT. 709, can be used for down-sampling or up-sampling of the saturation component. The known YUV color space also refers to a known YCbCr in the prior art. Annex E to Recommendation ETSI Recommendation ETSI TS 103 433 V1.1.1, Release 2016-8 provides format adaptation processing and inverse gamut mapping (Annex D).

上記入力フォーマット適応化ステップ21には、さらに、原画像Iに伝達関数を適用することによって、例えば、10ビットなどの特定のビット深度に対してオリジナルの画像Iのビット深度を適応化させることを含めることができる。例えば、PQまたはHLG伝達関数を使用することができる(勧告ITU−R BT.2100−0)。 To the input format adaptation step 21 further by applying a transfer function to the original image I 1, for example, to adapt the original image I 1 of the bit depth for a particular bit-depth such as 10 bit Can be included. For example, PQ or HLG transfer functions can be used (Recommendation ITU-R BT.2100-0).

より詳細には、前処理段階20は、ステップ200〜202を含む。   More particularly, the preprocessing stage 20 includes steps 200-202.

ステップ200において、出力画像I12の第1の成分c1は、原画像Iの第1の成分C1をマッピングすることによって取得される。

Figure 2018191269

ここで、TMは、マッピング関数である。マッピング関数TMは、原画像Iの輝度のダイナミック・レンジを減少または増加させることができ、その逆の処理は、画像の輝度のダイナミック・レンジを増加または減少させることになるであろう。 In step 200, a first component c1 of the output image I 12 are obtained by mapping the first component C1 of the original image I 1.
Figure 2018191269

Here, TM is a mapping function. The mapping function TM can decrease or increase the dynamic range of the luminance of the original image I 1 , and vice versa, will increase or decrease the dynamic range of the luminance of the image.

ステップ201において、出力画像I12の第2および第3の成分u’、v’が、第1の成分cに従って、原画像Iの第2および第3の成分U’、V’を補正することによって導出される。 In step 201, the second and third components u ′, v ′ of the output image I 12 correct the second and third components U ′, V ′ of the original image I 1 according to the first component c 1. Is derived by

彩度成分の補正は、マッピングのパラメータのチューニングによる制御の下で管理することができる。よって色飽和度(彩度)および色相は、制御されている。   The correction of the saturation component can be managed under control by tuning the mapping parameters. Therefore, color saturation (saturation) and hue are controlled.

ステップ201に実施形態に従って、第2および第3の成分U’およびV’は、
第1の成分cに依存した値を有するスケーリング関数
(外16)

Figure 2018191269
によって除算される。 According to the embodiment in step 201, the second and third components U ′ and V ′ are
A scaling function (outside 16) having a value dependent on the first component c 1
Figure 2018191269
Divided by.

数学的に述べると、第2および第3の成分u’、v’は、

Figure 2018191269

によって与えられる。 Mathematically speaking, the second and third components u ′, v ′ are
Figure 2018191269

Given by.

場合によっては、ステップ202において、第1の成分c1は、以下のように、知覚された飽和度をさらに制御するように調節することができる。

Figure 2018191269

ここで、aおよびbは、パラメータSPの組の2つのパラメータである。 In some cases, in step 202, the first component c1 can be adjusted to further control the perceived saturation, as follows.
Figure 2018191269

Here, a and b are two parameters of the set of parameters SP.

このステップ202は、出力画像I12の輝度を制御できるようして、出力画像I12の色と原画像Iの色との間で知覚される色の一致を保証する。 This step 202 allows the brightness of the output image I 12 to be controlled to ensure a perceived color match between the color of the output image I 12 and the color of the original image I 1 .

パラメータSPの組は、マッピング関数TMまたはその逆関数ITM、スケーリング関数
(外17)

Figure 2018191269
に関連するパラメータを含むことができる。これらのパラメータは、ダイナミック・メタデータに関連しており、ビットストリームにおいて、例えば、ビットストリームBにおいて搬送される。パラメータaおよびbもまた、ビットストリームにおいて搬送することができる。 The set of parameters SP is the mapping function TM or its inverse function ITM, scaling function (outside 17)
Figure 2018191269
Can include parameters related to. These parameters are related to the dynamic metadata and are carried in the bitstream, eg, bitstream B. Parameters a and b can also be carried in the bitstream.

より詳細には、後処理部分で、ステップ10において、パラメータSPの組が図1に説明したように取得される。   More specifically, in the post-processing portion, in step 10, a set of parameters SP is acquired as described in FIG.

ステップ10の実施形態に従って、パラメータSPの組が、特定のチャンネルまたは、ビットストリームBを含む、ビットストリームから取得されたスタティック/ダイナミック・メタデータによって搬送され、場合によっては、記憶媒体に記憶される。   According to the embodiment of step 10, the set of parameters SP is carried by static / dynamic metadata obtained from a bitstream, including a specific channel or bitstream B, and possibly stored in a storage medium. .

ステップ11において、モジュールM1は、ビットストリームBを復号することによって復号された画像
(外18)

Figure 2018191269
を取得し、復号された画像
(外19)
Figure 2018191269
は、そして、SDRまたはHDR対応CEディスプレイのために利用可能となる。 In step 11, the module M1 decodes the bitstream B to decode the image (outside 18).
Figure 2018191269
Obtained and decoded image (outside 19)
Figure 2018191269
Will then be available for SDR or HDR compliant CE displays.

より詳細には、後処理段階12は、ステップ120〜122を含む。   More particularly, the post-processing stage 12 includes steps 120-122.

オプションのステップ120において、復号された画像
(外20)

Figure 2018191269
の第1の成分cが以下のように調節される。
Figure 2018191269

ここで、aおよびbは、パラメータSPの組のうちの2つのパラメータである。 In optional step 120, the decoded image (outside 20)
Figure 2018191269
The first component c 1 is adjusted as follows.
Figure 2018191269

Here, a and b are two parameters in the set of parameters SP.

ステップ121において、画像Iの第1の成分C1は、第1の成分cを逆マッピングすることによって取得される。

Figure 2018191269
In step 121, the first component C1 of the image I 3 is obtained by inverse mapping the first component c 1.
Figure 2018191269

ステップ122において、画像Iの第2および第3の成分U’、V’が成分cに従って復号された画像
(外21)

Figure 2018191269
の第2および第3の成分u’、v’を逆補正することによって導出される。 In step 122, an image obtained by decoding the second and third components U ′ and V ′ of the image I 3 according to the component c 1 (outside 21)
Figure 2018191269
Of the second and third components u ′ and v ′ of FIG.

一実施形態に従えば、第2および第3の成分u’およびv’は、第1の成分cに依存する値を有するスケーリング関数
(外22)

Figure 2018191269
によって乗算される。 According to one embodiment, the second and third components u ′ and v ′ have a scaling function (outer 22) having a value that depends on the first component c 1.
Figure 2018191269
Multiplied by

数学的に述べると、2つの第1および第2の成分U’、V’は、以下によって与えられる。

Figure 2018191269
Mathematically speaking, the two first and second components U ′, V ′ are given by:
Figure 2018191269

図3に例示されているように、図2の方法の第1の実施形態に従って、前処理部分で、原画像Iの第1の成分C1は、以下によって、原画像IのRGB成分から取得された線形光輝度成分Lであり、

Figure 2018191269
第2および第3の成分U’、V’は、(BT.709 OETFに近い)平方根を使用した擬似ガンマ化を原画像IのRGB成分に適用することによって導出される。
Figure 2018191269
As illustrated in FIG. 3, according to the first embodiment of the method of FIG. 2, the preprocessing portion, the first component C1 of the original image I 1 is less by the RGB components of the original image I 1 The acquired linear light intensity component L,
Figure 2018191269
The second and third components U ′, V ′ are derived by applying pseudogammaization using a square root (close to BT.709 OETF) to the RGB components of the original image I 1 .
Figure 2018191269

ステップ200において、出力画像I12の第1の成分y1が上記線光成分Lをマッピングすることによって取得される。
=TM(L)
In step 200, the first component y1 of the output image I12 is obtained by mapping the line light component L.
y 1 = TM (L)

ステップ201において、出力画像I12の第2および第3の成分u’、v’が、第1の成分yに従って、第1および第2の成分U’、V’を補正することによって導出される。 In step 201, the second and third components u ′, v ′ of the output image I 12 are derived by correcting the first and second components U ′, V ′ according to the first component y 1. The

後処理部分で、ステップ121において、画像Iの線光輝度成分Lが第1の成分cを逆マッピングすることによって取得される。

Figure 2018191269
In the post-processing portion, in step 121, the line light luminance component L of the image I 3 is obtained by inverse mapping the first component c 1.
Figure 2018191269

ステップ122において、画像Iの第2および第3の成分U’、V’が第1の成分yに従って出力画像I12の第2および第3の成分を逆補正することによって導出される。 In step 122, the second and third component U of the image I 3 ', V' is derived by inverse correction of the second and third components of the output image I 12 according to the first component y 1.

ステップ122の一実施形態に従って、第2および第3の成分u’およびv’は、第1の成分yに値が依存するスケーリング関数
(外23)

Figure 2018191269
によって乗算される。 According to one embodiment of step 122, the second and third components u ′ and v ′ are scaled functions (outside 23) whose values depend on the first component y 1.
Figure 2018191269
Multiplied by

数学的に述べると、2つの第1および第2の成分U’、V’は、

Figure 2018191269

によって与えられる。 Mathematically speaking, the two first and second components U ′, V ′ are
Figure 2018191269

Given by.

図4に例示されているような、図2の方法の第2の実施形態に従って、前処理部で、原画像Iの第1の成分C1は、

Figure 2018191269
によって、原画像I1のガンマ圧縮されたRGBから取得された成分Y’であり、第2および第3の成分U’、V’は、原画像IのRGB成分に対してガンマ処理を適用したものである。
Figure 2018191269

ここでγは、好ましくは、2.4である、ガンマ係数とすることができる。 According to the second embodiment of the method of FIG. 2, as illustrated in FIG. 4, in the preprocessing part, the first component C1 of the original image I 1 is
Figure 2018191269
Accordingly, 'a, the second and third component U' original image gamma compressed component obtained from RGB Y of I1, V 'applied a gamma processing to the RGB components of the original image I 1 Is.
Figure 2018191269

Here, γ can be a gamma coefficient, preferably 2.4.

なお、非線形信号である、成分Y’は、線光輝度成分Lとは異なる。   The component Y ′, which is a non-linear signal, is different from the line light luminance component L.

ステップ200において、出力画像I12の第1の成分y’1は、上記成分Y’をマッピングすることによって取得される。

Figure 2018191269
In step 200, the first component y′1 of the output image I12 is obtained by mapping the component Y ′.
Figure 2018191269

ステップ121において、再構成された成分
(外24)

Figure 2018191269
が第1の成分y’1を逆マッピングすることによって取得される。
Figure 2018191269

ここで、ITMは、マッピング関数TMの逆関数である。 In step 121, the reconstructed component (outside 24)
Figure 2018191269
Is obtained by inverse mapping the first component y′1.
Figure 2018191269

Here, ITM is an inverse function of the mapping function TM.

再構成された成分
(外25)

Figure 2018191269
は、よって、成分Y’の値のダイナミック・レンジに属する。 Reconstituted ingredients (outside 25)
Figure 2018191269
Therefore belongs to the dynamic range of the value of the component Y ′.

ステップ201において、出力画像I12の第2および第3の成分u’、v’が第1の成分y’および再構成された成分
(外26)

Figure 2018191269
に従って、第1および第2の成分U’、V’を補正することによって導出される。 In step 201, the second and third components u ′, v ′ of the output image I 12 are the first component y ′ 1 and the reconstructed component (outer 26).
Figure 2018191269
And is derived by correcting the first and second components U ′, V ′.

このステップ201により、出力画像I12の色を制御し、原画像Iの色との一致を保証できるようになる。 This step 201 to control the color of the output image I 12, it becomes possible to ensure a match between the color of the original image I 1.

彩度成分の補正は、マッピングのパラメータのチューニングによる制御の下で管理することができる。よって、色の飽和度(彩度)および色相は、制御されている。このような制御は、通常、非パラメトリック知覚伝達関数が使用される場合には可能ではない。   The correction of the saturation component can be managed under control by tuning the mapping parameters. Therefore, color saturation (saturation) and hue are controlled. Such control is usually not possible when non-parametric perceptual transfer functions are used.

ステップ201の実施形態に従って、第2および第3の成分U’が、成分y’に対する再構成された成分
(外27)

Figure 2018191269
の比に値が依存するスケーリング関数
(外28)
Figure 2018191269
によって除算される。
Figure 2018191269

ここで、Ωは、原画像Iの原色に依存する定数値である(例えば、BT.2020では、1.3となる)。 According to the embodiment of step 201, the second and third components U ′ are reconstructed components (outside 27) for component y ′ 1
Figure 2018191269
Scaling function whose value depends on the ratio of (outside 28)
Figure 2018191269
Divided by.
Figure 2018191269

Here, Ω is a constant value depending on the primary color of the original image I 1 (for example, 1.3 in BT.2020).

後処理部分では、ステップ121において、画像Iの成分
(外29)

Figure 2018191269
が第1の成分y’を逆マッピングすることによって取得される。
Figure 2018191269
In the post-processing portion, in step 121, the components (outside 29) of the image I 3 are displayed.
Figure 2018191269
Is obtained by inverse mapping the first component y ′ 1 .
Figure 2018191269

ステップ122において、画像Iの第2および第3の成分U’、V’が第1の成分
y’および成分
(外30)

Figure 2018191269
に従って、復号された画像
(外31)
Figure 2018191269
の第2および第3の成分u’、v’を逆補正することによって導出される。 In step 122, the second and third components U ′, V ′ of the image I 3 are changed to the first component y ′ 1 and the component (outside 30).
Figure 2018191269
According to the decoded image (outside 31)
Figure 2018191269
Of the second and third components u ′ and v ′ of FIG.

ステップ122の実施形態に従って、第2および第3の成分u’およびv’がスケーリング関数
(外32)

Figure 2018191269
によって乗算される。 According to the embodiment of step 122, the second and third components u ′ and v ′ are scaled functions (outside 32).
Figure 2018191269
Multiplied by

数学的に述べると、2つの第1および第2の成分U’、V’は、

Figure 2018191269

によって与えられる。 Mathematically speaking, the two first and second components U ′, V ′ are
Figure 2018191269

Given by.

マッピング関数TMは、知覚伝達関数に基づいており、その目的は、原画像Iの成分を出力画像I12の成分に変換することにより、輝度の値のダイナミック・レンジを減少(または増加)させることにある。よって、出力画像I12の成分の値は、原画像Iの成分の値よりもより低い(またはより高い)ダイナミック・レンジを有する。 The mapping function TM is based on a perceptual transfer function, the purpose of which is to reduce (or increase) the dynamic range of luminance values by converting the components of the original image I 1 into the components of the output image I 12 . There is. Thus, the component values of the output image I 12 have a lower (or higher) dynamic range than the component values of the original image I 1 .

この知覚伝達関数は、限られた組の制御パラメータを使用する。   This perceptual transfer function uses a limited set of control parameters.

図5aは、知覚伝達関数を例示している。この知覚伝達関数は、輝度成分のマッピングに使用することができるが、輝度成分のマッピングには、同様の知覚伝達関数を使用することができる。   FIG. 5a illustrates the perceptual transfer function. This perceptual transfer function can be used for luminance component mapping, but a similar perceptual transfer function can be used for luminance component mapping.

マッピングは、(図5aにおいて5000cd/mである)マスタリング・ディスプレイ・ピーク輝度パラメータによって制御される。ブラック・レベルおよびホワイト・レベルをより良好に制御するために、コンテンツ依存したブラック・レベルとホワイト・レベルとの間の信号ストレッチングが適用される。そして、変換された信号は、図5bに例示されているような、3つの部分から構成される区分的な曲線を使用してマッピングされる。下側および上側の部分は、線形であり、険しさがshadowGainパラメータおよびhighlightGainパラメータの各々を用いて求められる。中間の部分は、2つの線形部分の間のスムーズなブリッジを提供する放物線である。クロスオーバの幅は、midToneWidthAdjFactorパラメータによって求められる。 The mapping is controlled by a mastering display peak luminance parameter (which is 5000 cd / m 2 in FIG. 5a). In order to better control the black and white levels, signal-stretching between content-dependent black and white levels is applied. The transformed signal is then mapped using a piecewise curve composed of three parts, as illustrated in FIG. 5b. The lower and upper parts are linear and the steepness is determined using the shadowGain parameter and the highlightGain parameter, respectively. The middle part is a parabola that provides a smooth bridge between the two linear parts. The width of the crossover is determined by the midToneWidthAdjFactor parameter.

マッピングを制御するパラメータの全ては、例えば、SMPTE ST 2094−20メタデータを搬送するJCTVC−W0133によって定義されるSEIメッセージを使用して搬送することができる。   All of the parameters that control the mapping can be carried using, for example, SEI messages defined by JCTVC-W0133 carrying SMPTE ST 2094-20 metadata.

図5cは、対象の従来のディスプレイ最大輝度、例えば、100cd/mに基づいて、どのように知覚的に最適化されたビデオ信号が再び線光領域に変換されるかを示す、知覚伝達関数TM(図5a)の逆関数の例を示している。 FIG. 5c shows a perceptual transfer function showing how a perceptually optimized video signal is converted back into the linear region based on the conventional display maximum brightness of the object, eg 100 cd / m 2. An example of the inverse function of TM (FIG. 5a) is shown.

ステップ10(図1)において、パラメータSPの組が復号された画像
(外33)

Figure 2018191269
から画像Iを再構成するために取得される。 In step 10 (FIG. 1), an image obtained by decoding a set of parameters SP (outside 33)
Figure 2018191269
It is obtained in order to reconstruct the image I 3 from.

これらのパラメータは、ビットストリーム、例えば、ビットストリームBから取得されるメタデータから取得することができる。   These parameters can be obtained from metadata obtained from a bitstream, eg, bitstream B.

勧告ETSI TS 103 433 V1.1.1第6節、2016−08は、上記メタデータのシンタックスの例を提供している。   Recommendation ETSI TS 103 433 V1.1.1 Section 6, 2016-08 provides examples of the syntax of the metadata.

勧告ETSI TS 103 433 v1.1.1のシンタックスは、HDRビデオからSDRビデオを再構成するために記述されているが、このシンタックスは、任意の復号された画像
(外34)

Figure 2018191269
から任意の画像Iを再構成することに拡張することができる。 The syntax of Recommendation ETSI TS 103 433 v1.1.1 has been described for reconstructing SDR video from HDR video, but this syntax can be used for any decoded image (outside 34).
Figure 2018191269
It can be extended to reconstruct any image I 3 from.

後処理(ステップ12)は、ダイナミック・メタデータから導出される逆マッピング関数ITMおよびスケーリング関数
(外35)

Figure 2018191269
の処理を行う。これは、これらの関数が第1の成分cに依存するためである。 Post-processing (step 12) consists of inverse mapping function ITM and scaling function (outside 35) derived from dynamic metadata.
Figure 2018191269
Perform the process. This is because these functions depend on the first component c1.

勧告ETSI TS 103 433 V1.1.1によれば、上記ダイナミック・メタデータは、いわゆるパラメータ・ベースのモードまたはテーブル・ベースのモードに従って搬送することができる。   According to the recommendation ETSI TS 103 433 V1.1.1, the dynamic metadata can be carried according to a so-called parameter-based mode or a table-based mode.

パラメータ・ベースのモードは、配信ワークフローにとって有益であり、その主な目的は、ダイナミック・メタデータを搬送するために、極めて低い追加的なペイロードまたは帯域幅の使用で、直接的なSDR後方互換性サービスを提供することにある。テーブル・ベースのモードは、ローエンド端末を備えたワークフローにとって、または、HDRストリームおよびSDRストリームの双方を適切に表現するために高レベルの適応化が必要である場合に有益である。   Parameter-based mode is beneficial for delivery workflows and its main purpose is direct SDR backward compatibility with the use of very low additional payload or bandwidth to carry dynamic metadata To provide services. Table-based mode is beneficial for workflows with low-end terminals or when a high level of adaptation is required to properly represent both HDR and SDR streams.

パラメータ・ベースのモードの場合には、搬送されるべきダイナミック・メタデータは、逆関数ITMを表す輝度マッピング・パラメータ、すなわち、
tmInputSignalBlackLevelOffset、
tmInputSignalWhiteLevelOffset、
shadowGain、
highlightGain、
midToneWidthAdjFactor、
tmOutputFineTuning parameters、
である。
In the case of parameter-based mode, the dynamic metadata to be conveyed is a luminance mapping parameter representing the inverse function ITM, ie
tmInputSignalBlackLevelOffset,
tmInputSignalWhiteLevelOffset,
shadowGain,
highlightGain,
midToneWidthAdjFactor,
tmOutputFineTuning parameters,
It is.

さらに搬送されるべき他のダイナミック・メタデータは、関数
(外36)

Figure 2018191269
を定義するために使用される色補正パラメータ((saturationGainNumVal、saturationGainX(i)およびsaturationGainY(i))である(ETSI勧告ETSI TS 103 433 V1.1.1節6.3.5および6.3.6)。 Other dynamic metadata to be further transported is a function (outside 36)
Figure 2018191269
Are the color correction parameters ((saturationGainNumVal, saturationGainX (i) and saturationGainY (i)) (ETSI recommendations ETSI TS 103 433 V1.1.1 section 6.3.5 and 6.3. 6).

なお、パラメータaおよびbは各々、上述したsaturationGain関数パラメータにおいて搬送される/隠されている。   Note that the parameters a and b are each carried / hidden in the above-described saturationGain function parameter.

これらのダイナミック・メタデータをSMPTE ST 2094−20仕様(勧告ETSI TS 103 433 V1.1.1 附属書A.3)にシンタックスが基づくHEVC色ボリューム再構成情報(CVRI)ユーザ・データ登録SEIメッセージを使用して伝送することができる。   These dynamic metadata are stored in the HEVC color volume reconfiguration information (CVRI) user data registration SEI message based on the SMPTE ST 2094-20 specification (Recommendation ETSI TS 103 433 V1.1.1 Annex A.3). Can be used for transmission.

通常のダイナミック・メタデータ・ペイロードは、シーン毎に約25バイトである。   A typical dynamic metadata payload is about 25 bytes per scene.

ステップ101において、マッピング・パラメータおよび色補正パラメータを取得するめにCVRI SEIメッセージがパージングされる。   In step 101, a CVRI SEI message is parsed to obtain mapping parameters and color correction parameters.

ステップ12において、取得されたマッピング・パラメータから逆マッピング関数ITM(いわゆるIutMapY)が再構成される(導出される)(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節7.2.3.1を参照)。   In step 12, an inverse mapping function ITM (so-called IutMapY) is reconstructed (derived) from the acquired mapping parameters (see Recommendation ETSI TS103 433V1.1.1 section 7.2.3. For further details). 1).

ステップ12において、スケーリング関数
(外37)

Figure 2018191269
(IutCC)もまた、取得された色補正パラメータから再構成される(導出される)(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節7.2.3.2を参照)。 In step 12, the scaling function (outside 37)
Figure 2018191269
(IutCC) is also reconstructed (derived) from the acquired color correction parameters (see recommendation ETSI TS103 433V1.1.1 section 7.2.3.2 for further details).

テーブル・ベースのモードにおいては、搬送されるべきダイナミック・データは、逆マッピング関数ITMを表す区分的な線形曲線のピボット・ポイントである。例えば、ダイナミック・メタデータは、ピボット・ポイントの数を示すluminanceMappingNumVal、ピボット・ポイントのx値を示すLuminanceMappingX、ピボット・ポイントのy値を示すLuminanceMappingYである(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節6.2.7および節6.3.7を参照)。 In the table-based mode, the dynamic data to be conveyed is a piecewise linear curve pivot point representing the inverse mapping function ITM. For example, the dynamic metadata is a luminance MappingNumVal indicating the number of pivot points, a LuminanceMappingX indicating the x value of the pivot point, and a Luminance MappingY indicating the y value of the pivot point (for further details, see Recommendation ETSI TS103 433 V1.1). .1 see section 6.2.7 and section 6.3.7).

さらに、他の搬送するべきダイナミック・メタデータを、スケーリング関数
(外38)

Figure 2018191269
を表す区分的な線形曲線のピボット・ポイントとすることができる。例えば、ダイナミック・メタデータは、ピボット・ポイントの数を示すcolorCorrectioNumVal、ピボット・ポイントのx値を示すcolorCorrectionX、ピボット・ポイントのy値を示すcolorCorrectionYである(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節6.2.8および節6.3.8を参照)。 In addition, other dynamic metadata to be transported is converted into a scaling function (outside 38).
Figure 2018191269
Can be a pivot point of a piecewise linear curve representing. For example, the dynamic metadata is colorCollectionNumVal indicating the number of pivot points, colorCollectionX indicating the x value of the pivot point, and colorCollectionY indicating the y value of the pivot point (for further details, see Recommendation ETSI TS103 433 V1.1). .1 see section 6.2.8 and section 6.3.8).

これらのダイナミック・メタデータを、SMPTE ST 2094−30仕様(勧告ETSI TS 103 433 V1.1.1 附属書A.4)にシンタックスが基づくHEVC色リマッピング情報(CRI)SEIメッセージを使用して伝送することができる。   These dynamic metadata can be converted using the HEVC color remapping information (CRI) SEI message, whose syntax is based on the SMPTE ST 2094-30 specification (Recommendation ETSI TS 103 433 V1.1.1 Annex A.4). Can be transmitted.

通常のペイロードは、シーン毎に約160バイトである。   A typical payload is about 160 bytes per scene.

ステップ102において、(2016年12月に公開されたHEVC/H.265バージョンにおいて規定されている)CRI(カラー・リマッピング情報)SEIメッセージのパージングにより、逆マッピング関数ITMを表す区分的な線形曲線のピボット・ポイント、スケーリング関数
(外39)

Figure 2018191269
を表す区分的な線形曲線のピボット・ポイントおよび彩度から輝度への入射パラメータaおよびbが取得される。 In step 102, a piecewise linear curve representing the inverse mapping function ITM by parsing a CRI (color remapping information) SEI message (as defined in the HEVC / H.265 version published in December 2016). Pivot point, scaling function (outside 39)
Figure 2018191269
Pivot points of the piecewise linear curve representing and the incident parameters a and b from saturation to luminance are obtained.

ステップ12において、逆マッピング関数ITMが、この逆マッピング関数ITMを表す区分的な線形曲線に関するピボット・ポイントのものより導出される(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節7.2.3.3を参照)。   In step 12, the inverse mapping function ITM is derived from that of the pivot point for the piecewise linear curve representing this inverse mapping function ITM (for further details see Recommendation ETSI TS103 433V1.1.1 section 7.2). See 3.3.).

ステップ12において、スケーリング関数
(外40)

Figure 2018191269
もまた、このスケーリング関数
(外41)
Figure 2018191269
を表す区分的な線形曲線に関するピボット・ポイントのものより導出される(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節7.2.3.4を参照)。 In step 12, the scaling function (outside 40)
Figure 2018191269
Also this scaling function (outside 41)
Figure 2018191269
Is derived from that of the pivot point for piecewise linear curves representing (see recommendation ETSI TS103 433V1.1.1 section 7.2.3.4 for more details).

なお、後処理段階によって使用されるスタティック・メタデータもまた、SEIメッセージによって搬送することができる。例えば、パラメータ・ベースのモードまたはテーブル・ベースのモードのいずれかの選択を、勧告ETSI 103 433 V1.1.1(節A.2.2)によって定義されているような情報(TSI)ユーザ・データ登録SEIメッセージ(payloadMode)によって搬送することができる。例えば、原色または最大のディスプレイ・マスタリング表示輝度がAVC、HEVCによって定義されているようなマスタリング・ディスプレイ色ボリューム(MDCV)メッセージによって搬送される。   Note that the static metadata used by the post-processing stage can also be carried by the SEI message. For example, the choice of either a parameter-based mode or a table-based mode may be selected based on the information (TSI) user user as defined by Recommendation ETSI 103 433 V1.1.1 (section A.2.2). It can be carried by a data registration SEI message (payloadMode). For example, the primary color or maximum display mastering display luminance is carried by a mastering display color volume (MDCV) message as defined by AVC, HEVC.

ステップ103の実施形態に従って、ビットストリームにおいて、情報データIDがビットストリームにおいてシンタックス要素によって明示的に信号伝達され、よって、ビットストリームをパージングすることによって取得される。   According to the embodiment of step 103, in the bitstream, the information data ID is explicitly signaled by a syntax element in the bitstream and is thus obtained by parsing the bitstream.

例えば、上記シンタックス要素は、SEIメッセージの部分である。   For example, the syntax element is part of an SEI message.

一実施形態によれば、上記情報データIDは、パラメータSPの組を処理するために原画像Iに何の処理が適用されるかを識別する。 According to one embodiment, the information data ID identifies what processing is applied to the original image I 1 to process the set of parameters SP.

この実施形態によれば、そして、情報データIDを使用して、パラメータをどのように使用するかを導き、画像Iを再構成することができる(ステップ12)。 According to this embodiment, and, using the information data ID, it leads to how to use the parameters, it is possible to reconstruct the image I 3 (step 12).

例えば、情報データIDが1であれば、この情報データIDは、原HDR画像Iに対して前処理段階(ステップ20)を適用することによってパラメータSPが取得されており、復号された画像
(外42)

Figure 2018191269
がSDR画像であることを示す。 For example, if the information data ID is 1, the information data ID is acquired parameter SP by applying a pre-processing stage (step 20) with respect to the original HDR image I 1, the decoded image ( 42)
Figure 2018191269
Indicates an SDR image.

情報データIDが2であれば、この情報データIDは、HDR10ビット画像(ステップ20の入力)に対して前処理段階(ステップ20)を適用することによってパラメータが取得されており、復号された画像
(外43)

Figure 2018191269
がHDR10画像であり、マッピング関数TMがPQ伝達関数であることを示す。 If the information data ID is 2, this information data ID is obtained by applying the preprocessing stage (step 20) to the HDR 10-bit image (input of step 20), and the decoded image (Outside 43)
Figure 2018191269
Indicates an HDR10 image and the mapping function TM is a PQ transfer function.

情報データIDが3であれば、この情報データIDは、HDR10ビット画像(ステップ20の入力)に対して前処理段階(ステップ20)を適用することによってパラメータが取得されており、復号された画像
(外44)

Figure 2018191269
がHLG10画像であり、マッピング関数TMが原画像Iに対するHLG伝達関数であることを示す。 If the information data ID is 3, the information data ID is obtained by applying the preprocessing stage (step 20) to the HDR 10-bit image (input of step 20), and the decoded image (Outside 44)
Figure 2018191269
There is HLG10 image, indicating that the mapping function TM is HLG transfer function for the original image I 1.

ステップ103の実施形態によれば、情報データIDが黙示的に信号伝達される。   According to the embodiment of step 103, the information data ID is implicitly signaled.

例えば、HEVC(附属書E)またはAVC(附属書E)のVUIに存在するシンタックス要素伝達特性は、通常、使用されるべき伝達関数(マッピング関数TM)を識別する。相異なる単一レイヤの配信の解決法は、異なる伝達関数(PQ、HLG、・・・)を使用するため、シンタックス要素伝達特性を使用して使用するべき復元モードを黙示的に識別することができる。   For example, the syntax element transfer characteristic present in the VUI of HEVC (Annex E) or AVC (Annex E) usually identifies the transfer function (mapping function TM) to be used. Different single layer delivery solutions use different transfer functions (PQ, HLG,...) And therefore implicitly identify the restoration mode to use using the syntax element transfer characteristics. Can do.

情報データIDは、より上位のトランスポートまたはシステム・レイヤにおいて定義されたサービスによって黙示的に信号伝達することもできる。   The information data ID can also be implicitly signaled by services defined in higher transports or system layers.

別の例に従えば、画像Iのピーク輝度値および色空間は、ビットストリームによって搬送されるMDCV SEIメッセージをパージングすることによって取得することができ、情報データIDは、ピーク輝度値および色空間(原色)の特定の組み合わせから導くことができる。 According to another example, the peak luminance value and color space of image I 3 can be obtained by parsing the MDCV SEI message carried by the bitstream, and the information data ID is the peak luminance value and color space. It can be derived from a specific combination of (primary colors).

ステップ102の実施形態に従えば、パラメータPがビットストリームに存在しない(ビットストリームから取得されない)場合には、このパラメータPは、失われているとみなされる。   According to the embodiment of step 102, if the parameter P is not present in the bitstream (not obtained from the bitstream), this parameter P is considered lost.

例えば、パラメータPが上述したようなCVRIまたはCRI SEIメッセージのようなSEIメッセージによって搬送される場合、SEIメッセージがビットストリーム内で送信されない、または、SEIメッセージのパージングが失敗した場合には、パラメータPは、失われている(または存在しない)とみなされる。   For example, if the parameter P is carried by a SEI message such as a CVRI or CRI SEI message as described above, the parameter P if the SEI message is not sent in the bitstream or the parsing of the SEI message fails. Is considered lost (or absent).

ステップ103の実施形態に従って、以下の条件のうちの少なくとも1つが満たされた場合に、パラメータが破損しているとみなされる。
・パラメータの値が所定の値の範囲から外れている(例えば、適合範囲が0〜6である場合、saturation_gain_num_valは、10である)
・上記パラメータが他のパラメータ値に従ったコヒーレント値を有していない(例えば、saturation_gain_y[i]は、外れ値、すなわち、他のsaturation_gain_y[i]の値から遠く離れた値を含む。通常saturation_gain[0]からsaturation_gain[4]までは、0〜16の範囲にある値であり、saturation_gain[1]=255である。)
In accordance with the embodiment of step 103, a parameter is considered corrupted if at least one of the following conditions is met:
The value of the parameter is out of the predetermined value range (for example, when the conforming range is 0 to 6, the saturation_gain_num_val is 10)
The parameter does not have a coherent value according to other parameter values (eg, saturation_gain_y [i] includes outliers, ie, values far away from other saturation_gain_y [i] values). (From [0] to saturation_gain [4] is a value in the range of 0 to 16, and saturation_gain [1] = 255.)

本方法の実施形態に従って、復元モジュールRMは、パラメータのうちの幾つかのみが破損していない、失われていない、または、グラフィックスまたはオーバーレイが付与されている復号された画像と一致していないとしても、復元されたパラメータPによって全てのパラメータPを置き換える。 According to an embodiment of the method, the restoration module RM i is consistent with a decoded image in which only some of the parameters are not corrupted, lost or have graphics or overlays attached. if not, replace all parameters P by reconstructed parameter P r.

本方法の実施形態に従って、別の復元モードRMは、失わている、破損している、または、一致していない各パラメータPを復元したパラメータPによって置き換える。 In accordance with an embodiment of the method, different restore mode RM i is lost, corrupted, or replaced by restoring the parameters P does not match the parameter P r.

本方法の実施形態に従って、復元モードRMは、既に記憶された所定のパラメータ値の組のうちの値によって、失われている、破損している、または、一致していないパラメータPを置き換えるものである。 According to an embodiment of the method, the restoration mode RM i replaces a lost, corrupted or inconsistent parameter P with a value from a set of predetermined parameter values already stored. It is.

例えば、所定のパラメータ値の組には、CRIおよび/またはCVRI SEIメッセージによって搬送される少なくとも1つのメタデータに対する所定の値を集めることができる。   For example, the predetermined set of parameter values may collect a predetermined value for at least one metadata carried by a CRI and / or CVRI SEI message.

所定のパラメータ値の特定の組を、例えば、情報IDによって識別される各単一レイヤに基づくの配信の解決法に対して決定することができる。   A particular set of predetermined parameter values can be determined, for example, for a delivery solution based on each single layer identified by the information ID.

表1は、3つの異なる単一レイヤに基づく配信の解決法に対する所定の値の特定の組の、非限定的な例を示している。

Figure 2018191269
Table 1 shows a non-limiting example of a specific set of predetermined values for a delivery solution based on three different single layers.
Figure 2018191269

表1によれば、所定の値の3つの異なる組が、情報データIDに従って定義されている。これらの所定の値の組は、後処理段階によって使用される幾らかのパラメータに対して定義された復元された値である。他のパラメータは、様々な単一レイヤの解決法に対して共通の固定値に設定されている。   According to Table 1, three different sets of predetermined values are defined according to the information data ID. These predetermined value sets are the reconstructed values defined for some parameters used by the post-processing stage. The other parameters are set to a common fixed value for the various single layer solutions.

ステップ104の実施形態に従って、復元モジュールRMが原画像(画像I)の少なくとも1つの特性、通常は、原コンテンツのピーク輝度、または、入力画像データまたは再構成するべき画像データをグレーディングするために使用されるマスタリング・ディスプレイのピーク輝度、または、別のビデオの少なくとも1つの特性、通常は、再構成された画像Iまたは対象のディスプレイのピーク輝度に従って選択される。 According to the embodiment of step 104, the restoration module RM i grades at least one characteristic of the original image (image I 1 ), usually the peak brightness of the original content, or the input image data or the image data to be reconstructed. mastering display peak luminance to be used for, or at least one property of another video, it is typically selected according to the peak brightness of the reconstructed image I 3, or target display.

一実施形態に従えば、復元モードRMは、原ビデオ(I)の特性、または入力画像データまたは再構成するべき画像データをグレーディングするために使用されるマスタリング・ディスプレイの特性(例えば、ST2086で定義されているような特性)が存在しているかどうかをチェックし、上記特性から少なくとも1つの復元されたパラメータを算出するものである。入力ビデオの上記特性が存在せずに、マスタリング・デバイスの特性が存在しない場合には、再構成された画像Iまたは対象のディスプレイの特性が存在するかどうかをチェックし(例えば、CTA−861.3で定義されているようなピーク輝度)、そして、上記特性から少なくとも1つの復元されたパラメータを算出する。再構成された画像Iの上記特性が存在せず、対象のディスプレイの上記特性が存在しない場合には、少なくとも1つの復元されたパラメータは、(例えば、1000cd/mなど、ビデオ標準化委員会または産業フォーラムによって定められた)固定値である。 According to one embodiment, the restoration mode RM i is a characteristic of the original video (I 1 ) or a mastering display used for grading input image data or image data to be reconstructed (eg, ST2086). Whether or not there is a characteristic defined in (1) above, and at least one restored parameter is calculated from the characteristic. In the absence the characteristics of the input video, in the absence of the characteristics of mastering device checks whether the reconstructed image I 3, or characteristics of the object of display is present (e.g., CTA-861 .. peak luminance as defined in .3) and at least one restored parameter is calculated from the above characteristics. If the characteristic of the reconstructed image I 3 does not exist and the characteristic of the target display does not exist, the at least one restored parameter is a video standardization committee (eg, 1000 cd / m 2). Or a fixed value (as determined by the industry forum).

限定を意図しない例に従って、表2は、入力/出力コンテンツおよびマスタリング/対象のディスプレイについての利用可能な情報の存在に依存する後処理段階によって使用される幾らかのパラメータに対する復元値の例を提供する。

Figure 2018191269
In accordance with a non-limiting example, Table 2 provides examples of restoration values for some parameters used by post-processing steps that depend on the presence of available information about input / output content and mastering / target displays. To do.
Figure 2018191269

パラメータmatrix_coefficient_value[i]が存在する場合には、このパラメータを、MDCV SEI/ST2086メッセージをパージングすることによって取得される入力/出力ビデオ色空間、BT.709またはBT.2020(入力または出力ビデオの特性)に従って設定することができる。復元モードは、上記色空間に依存する。   If the parameter matrix_coefficient_value [i] is present, this parameter is input to the input / output video color space obtained by parsing the MDCV SEI / ST2086 message, BT. 709 or BT. Can be set according to 2020 (input or output video characteristics). The restoration mode depends on the color space.

shadow_gain_controlが存在する場合には、このパラメータを、MDCV SEI/ST 2086メッセージをパージングすることによって取得される値に従って算出することができる。   If shadow_gain_control is present, this parameter can be calculated according to the value obtained by parsing the MDCV SEI / ST 2086 message.

例えば、マスタリング・ディスプレイのピーク輝度を表す情報は、上記MDCV SEI/ST 2086メッセージから取得され、パラメータshadow_gain_controlは、(復元モード1)によって算出される。
shadow_gain_control =Clip)(0; 255; Floor(rs(hdrDisplayMaxLuminance) x 127,5 +0,5)
ここで、

Figure 2018191269

である。 For example, information indicating the peak luminance of the mastering display is obtained from the MDCV SEI / ST 2086 message, and the parameter shadow_gain_control is calculated by (restoration mode 1).
shadow_gain_control = Clip) (0; 255; Floor (rs (hdrDisplayMaxLuminance) x 127,5 +0,5)
here,
Figure 2018191269

It is.

サービス・レベル情報で、または特定のワークフローに対し、hdrDisplayMaxLuminanceの値が知られている可能性が高い。この値は、この特性を利用可能な場合に、対象の(出力再生する)ディスプレイのピーク輝度に設定することができる。そうでない場合(復元モード2)には、任意なデフォルト値、通常は、1000cd/mが設定される。デフォルト値は、現行の大抵のHDR市場において、現在見かけることのある参照最大ディプレイ・マスタリング輝度に対応する。 It is likely that the value of hdrDisplayMaxLuminance is known in the service level information or for a specific workflow. This value can be set to the peak luminance of the target display (for output reproduction) when this characteristic is available. Otherwise (restoration mode 2), an arbitrary default value, usually 1000 cd / m 2 is set. The default value corresponds to the reference maximum display mastering brightness that is currently found in most current HDR markets.

図6は、本願の原理の例に従った、復号された画像データ
(外45)

Figure 2018191269
およびビットストリームBから取得されたパラメータSPの組から画像Iを再構成する方法を使用した別の例を示している。 FIG. 6 illustrates decoded image data (outside 45) according to an example of the present principles.
Figure 2018191269
And another example using a method of reconstructing an image I 3 from a set of parameters SP obtained from the bitstream B.

この例は、少なくとも部分的には、オーバーレイ挿入およびミキシングを行うメカニズム(例えば、セットトップ・ボックスまたはUltra Hdブルーレイ・プレイヤ)を実施し、復号された画像
(外46)

Figure 2018191269
にオーバーレイが追加されなければならない旨のイベントを決定モジュールに信号伝達/送信する(通常は、overlay_present_flagを1に設定する)任意の(中間)装置で実施されるように意図されている。 This example implements, at least in part, an overlay insertion and mixing mechanism (eg, a set-top box or an Ultra Hd Blu-ray player) and a decoded image (outside 46)
Figure 2018191269
It is intended to be implemented on any (intermediate) device that signals / sends an event that an overlay must be added to the decision module (usually setting overlay_present_flag to 1).

オーバーレイ(グラフィックス)が復号された画像に付与される必要がない場合には、図1に記載されているように、パラメータSPの組が取得され(ステップ10)、復号された画像
(外47)

Figure 2018191269
が取得され(ステップ11)、画像Iが再構成される(ステップ12)。 If no overlay (graphics) needs to be applied to the decoded image, a set of parameters SP is obtained (step 10) and the decoded image (outside 47) as described in FIG. )
Figure 2018191269
There is obtained (step 11), the image I 3 is reconstructed (step 12).

オーバーレイが復号された画像
(外48)

Figure 2018191269
に付与されるべき場合には、復号された画像
(外49)
Figure 2018191269
が取得され(ステップ11)、ステップ60において、合成画像I’が復号された画像
(外50)
Figure 2018191269
にグラフィックス(オーバーレイ)を付与することによって取得される。 Image with overlay decoded (outside 48)
Figure 2018191269
Decoded image (outside 49)
Figure 2018191269
(Step 11), and in step 60, the composite image I ′ 2 is decoded (outside 50).
Figure 2018191269
Is obtained by adding graphics (overlay) to.

そして、情報データIDが取得され(ステップ103)、復元モジュールが選択され(ステップ104)、選択された復元モードRMiが適用されて(ステップ105)復元されたパラメータPが取得される。 The information data ID is acquired (step 103), the restoration module is selected (step 104), is applied Restore Mode RMi selected (step 105) the reconstructed parameter P r is obtained.

そして、画像Iは、復元されたパラメータPおよび復号された画像
(外51)

Figure 2018191269
から再構成される Then, the image I 3 includes the restored parameter P r and the decoded image (outside 51)
Figure 2018191269
Reconstructed from

一実施形態に従って、様々な態様(明るい、位、ロゴ有り・・・)の大量の画像のトレーニングを行うことによってパラメータPrが取得される。   According to one embodiment, the parameter Pr is obtained by training a large number of images of various aspects (bright, rank, logo ...).

場合によっては(図6に示されていないが)、ステップ12は、TVセットなどの遠隔装置において実施することができる。その場合、復号された画像
(外52)

Figure 2018191269
にパラメータPを加えたもの、または、合成画像I’にパラメータPを加えたものが上記TVセットに送信される。 In some cases (not shown in FIG. 6), step 12 may be performed on a remote device such as a TV set. In that case, the decoded image (outside 52)
Figure 2018191269
To which the parameter P is added or the composite image I ′ 2 to which the parameter Pr is added is transmitted to the TV set.

図1〜図6において、モジュールは、機能ユニットであり、区別可能な物理的ユニットに関連している場合もあるし、物理的ユニットに関連していない場合もある。例えば、これらのモジュールまたはこれらモジュールの中には、ユニークな成分または回路を集合させたものもあれば、ソフトウェアの機能に寄与するものもある。これとは逆に、モジュールの中には、物理的に別体で構成されるものが存在することもある。本願の原理に準拠した装置は、純粋なハードウェア、例えば、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、フィールド・プログラマブル・ゲート・アレイ(FPGA:Field−Programmable Gate Array)、超大規模集積回路(VLSI:Very Large Scale Integration)のような専用のハードウェアを使用して実施してもよいし、装置に埋め込まれた幾つかの集積された電子部品によって実施してもよいし、ハードウェアおよびソフトウェアのコンポーネントを組み合わせることによって実施してもよい。   In FIGS. 1-6, a module is a functional unit and may be associated with a distinct physical unit or may not be associated with a physical unit. For example, some of these modules or these modules are a collection of unique components or circuits, while others contribute to software functionality. On the other hand, some modules may be physically configured separately. Devices in accordance with the principles of the present application may be pure hardware, such as Application Specific Integrated Circuits (ASICs), Field-Programmable Gate Arrays (FPGAs), and very large scale integrations. It may be implemented using dedicated hardware such as a circuit (VLSI: Very Large Scale Integration), or may be implemented with some integrated electronic components embedded in the device, or hardware And may be implemented by combining software components.

図7は、図1〜図6との関連で説明された方法を実施するように構成された装置70の例示的なアーキテクチャを表している。   FIG. 7 represents an exemplary architecture of an apparatus 70 configured to implement the method described in connection with FIGS.

装置70は、データおよびアドレス・バス71によって互いにリンクされた要素として、
例えば、DSP(Digital Signal Processor)である、プロセッサ72(またはCPU)と、
ROM(Read Only Memory)73と、
RAM(Random Access Memory)74と、
アプリケーションに対してデータを送受信するためのI/Oインタフェース75と、
バッテリ76と、を含む。
Device 70 is an element linked to each other by data and address bus 71,
For example, a processor 72 (or CPU) that is a DSP (Digital Signal Processor),
ROM (Read Only Memory) 73,
RAM (Random Access Memory) 74,
An I / O interface 75 for transmitting and receiving data to and from the application;
A battery 76.

一例によれば、バッテリ76は、装置の外部に存在する。上述したメモリの各々において、明細書中で「レジスタ」という用語が使用されている場合には、これは、小さな容量の領域(幾らかのビット)に対応することもあれば、非常に大きな容量の領域(例えば、プログラム全体または大容量の受信または復号されたデータ)に対応することもある。ROM73は、少なくともプログラムおよびパラメータを含む。ROM73は、本願の原理に従った技術を実行するためのアルゴリズムおよび命令を記憶することができる。電源が投入されると、CPU72は、RAM内のプログラムをアップロードし、対応する命令を実行する。   According to one example, the battery 76 is external to the device. In each of the above-mentioned memories, where the term “register” is used in the specification, this may correspond to a small capacity area (some bits) or a very large capacity. (For example, the entire program or a large amount of received or decoded data). The ROM 73 includes at least a program and parameters. The ROM 73 can store an algorithm and instructions for executing a technique according to the principle of the present application. When the power is turned on, the CPU 72 uploads the program in the RAM and executes the corresponding command.

RAM74は、レジスタ内のCPU72によって実行され、装置70の電源が投入された後にアップロードされたプログラム、レジスタ内の入力データ、レジスタ内の本方法の様々な状態での中間データ、さらに、レジスタ内の本方法の実行のために使用される様々な変数を含む。   The RAM 74 is executed by the CPU 72 in the register and uploaded after the device 70 is powered on, input data in the register, intermediate data in various states of the method in the register, and further in the register Contains various variables used for execution of the method.

本明細書中に記載されている実施態様は、例えば、方法またはプロセス、装置、ソフトウェア・プログラム、データストリーム、または信号の形態で実施することができる。実施態様が単一の形態の文脈でのみ説明されている場合であっても(例えば、1つの方法または1つの装置としてのみ説明されている場合であっても)、説明した特徴事項を他の形態(例えば、プログラム)で実施することもできる。装置は、例えば、適切なハードウェア、ソフトウェア、およびファームウェアで実施することができる。本方法は、例えば、装置で実施することができる。装置は、例えば、プロセッサであり、プロセッサは、一般的には、例えば、コンピュータ、マイクロプロセッサ、集積回路、または、プログラマブル・ロジック・デバイスを含む、処理装置を指す。プロセッサは、さらに、例えば、コンピュータ、携帯電話、ポータブル/パーソナル・ディジタル・アシスタント(「PDA」)、および、エンド・ユーザ間の情報の通信を容易にする他の装置などの、通信装置を含む。   The implementations described herein can be implemented, for example, in the form of a method or process, an apparatus, a software program, a data stream, or a signal. Whether an embodiment is described only in the context of a single form (eg, only described as a method or apparatus), the described features may be It can also be implemented in a form (for example, a program). The device can be implemented, for example, with suitable hardware, software, and firmware. The method can be implemented, for example, on an apparatus. An apparatus is, for example, a processor, which generally refers to a processing apparatus including, for example, a computer, a microprocessor, an integrated circuit, or a programmable logic device. The processor further includes communication devices such as, for example, computers, cell phones, portable / personal digital assistants (“PDAs”), and other devices that facilitate communication of information between end users.

一例によれば、入力ビデオまたは入力ビデオの原画像が送信元から取得される。例えば、送信元は、
ローカル・メモリ(73または74)、例えば、ビデオ・メモリまたはRAM(またはRandom Access Memory)、フラッシュ・メモリ、ROM(またはRead Only Memory)、ハードディスクと、
ストレージ・インタフェース(75)、例えば、大容量記憶装置、RAM、フラッシュ・メモリ、ROM、光学ディスクまたは磁気サポートとのインタフェースと、
通信インタフェース(75)、例えば、有線インタフェース(例えば、バス・インタフェース、広域ネットワーク・インタフェース、ローカルエリア・ネットワーク・インタフェース)または無線インタフェース(IEEE802.11インタフェースまたはBlurtooth(商標)インタフェース)などと、
ピクチャ取り込み回路(例えば、CCD(Charge−Coupled Device)またはCMOS(Complementary Metal−Oxide−Semiconductor)などのセンサ)と、
を含む要素を組み合わせたものである。
According to one example, the input video or the original image of the input video is obtained from the source. For example, the source is
Local memory (73 or 74), for example, video memory or RAM (or Random Access Memory), flash memory, ROM (or Read Only Memory), hard disk,
A storage interface (75), for example, an interface to mass storage, RAM, flash memory, ROM, optical disk or magnetic support;
A communication interface (75), for example, a wired interface (eg, a bus interface, a wide area network interface, a local area network interface) or a wireless interface (IEEE 802.11 interface or Bluetooth ™ interface);
A picture capturing circuit (for example, a sensor such as a charge-coupled device (CCD) or a complementary metal-oxide-semiconductor (CMOS));
Is a combination of elements including

例によれば、メタデータを搬送するビットストリームは、送信先に送信される。例として、これらのビットストリームのうちの1つ、または両方は、ローカル・またはリモート・メモリ、例えば、ビデオ・メモリ(74)またはRAM(74)、ハードディスク(73)に記憶される。変形例においては、ビットストリームのうちの少なくとも1つは、ストレージ・インタフェース(75)、例えば、大容量記憶装置、フラッシュ・メモリ、ROM、光学ディスクまたは磁気サポートとのインタフェースに送信され、且つ/または、通信インタフェース(75)、例えば、ポイントトゥポイント・リンク、通信バス、ポイントトゥマルチポイント・リンク、またはブロードキャスト・ネットワークとのインタフェースを介して送信される。   According to an example, a bitstream carrying metadata is transmitted to a destination. By way of example, one or both of these bitstreams are stored in local or remote memory, eg, video memory (74) or RAM (74), hard disk (73). In a variant, at least one of the bitstreams is sent to a storage interface (75), for example an interface with a mass storage device, flash memory, ROM, optical disk or magnetic support, and / or , Transmitted over a communication interface (75), eg, an interface with a point-to-point link, a communication bus, a point-to-multipoint link, or a broadcast network.

別の例によれば、メタデータを搬送するビットストリームが送信元から取得される。例示的には、ビットストリームは、ローカル・メモリ、例えば、ビデオ・メモリ(74)、RAM(74)、ROM(73)、フラッシュ・メモリ(73)、またはハードディスク(73)から読み出される。変形例においては、ビットストリームは、ストレージ・インタフェース(75)、例えば、大容量ストレージ、RAM、ROM、フラッシュ・メモリ、光学ディスクまたは磁気サポートとのインタフェースから受信され、且つ/または、通信インタフェース(75)、例えば、ポイントトゥポイント・リンク、バス、ポイントトゥマルチポイント・リンク、またはブロードキャスト・ネットワークとのインタフェースから受信される。   According to another example, a bitstream carrying metadata is obtained from a source. Illustratively, the bitstream is read from local memory, eg, video memory (74), RAM (74), ROM (73), flash memory (73), or hard disk (73). In a variant, the bitstream is received from a storage interface (75), for example an interface with mass storage, RAM, ROM, flash memory, optical disk or magnetic support and / or a communication interface (75). ), For example, from a point-to-point link, bus, point-to-multipoint link, or interface with a broadcast network.

例によれば、装置70は、上述した方法を実施するように構成され、
モバイル・デバイスと、
通信デバイスと、
ゲーム・デバイスと、
タブレット(またはタブレット・コンピュータ)と、
ラップトップと、
静止画像カメラと、
ビデオ・カメラと、
符号化チップ/復号チップと、
TVセットと、
セットトップ・ボックスと、
ディスプレイと、
静止画像サーバと、
ビデオ・サーバ(例えば、ブロードキャスト・サーバ、ビデオオンデマンド・サーバ、または、ウェブサーバ)と、
を含む要素を組み合わせたものである。
According to an example, the device 70 is configured to perform the method described above,
A mobile device,
A communication device;
Game devices,
A tablet (or tablet computer),
With laptop,
A still image camera,
A video camera,
An encoding chip / decoding chip;
TV set,
A set-top box,
Display,
A still image server;
A video server (eg, broadcast server, video-on-demand server, or web server);
Is a combination of elements including

本明細書中で記載された様々な処理の実施態様は、様々な異なる機器やアプリケーションで実施することができる。このような機器の例は、符号化器、復号器、復号器からの出力を処理するポストプロセッサ、符号化器に入力を提供するプリプロセッサ、ビデオ符号化器、ビデオ復号器、ビデオコーデック、ウェブサーバ、セットトップ・ボックス、ラップトップ、パーソナル・コンピュータ、携帯電話、PDA、さらに、画像またはビデオを処理する他の任意の装置、または他の通信装置を含む。機器は、携帯機器でもよく、移動車両に据え付けられるものでさえよいことは明らかであろう。   The various processing embodiments described herein may be implemented in a variety of different devices and applications. Examples of such equipment are encoders, decoders, post processors that process the output from the decoder, preprocessors that provide input to the encoder, video encoders, video decoders, video codecs, web servers , Set-top boxes, laptops, personal computers, mobile phones, PDAs, and any other device that processes images or video, or other communication devices. It will be clear that the device may be a portable device and may even be installed in a moving vehicle.

さらに、方法は、プロセッサによって実行される命令によって実施されていてもよく、このような命令(および/または実施態様によって生成されるデータ)は、コンピュータ読み取り可能記憶媒体に記憶することができる。コンピュータ読み取り可能記憶媒体は、1つ以上のコンピュータ読み取り可能媒体上で実施され、コンピュータによって実行可能な、コンピュータ読み取り可能プログラム・コードが実装されたコンピュータ読み取り可能プログラム・プロダクトの形態をとることができる。本明細書中で使用されるコンピュータ読み取り可能記憶媒体は、情報を記憶する固有の機能とともに、記憶した情報を取得する固有の機能を与えられた非一時的記憶媒体であると考えられる。コンピュータ読み取り可能記憶媒体は、例えば、限定するものではないが、電子的、磁気的、光学的、電磁的、赤外線、または、半導体システム、装置、デバイスとすることができ、上記に挙げたものを任意に適宜組み合わせることができる。本願の原理を適用可能なコンピュータ読み取り可能記憶媒体のより具体的な例を以下に提供するが、列挙されている例は、例示的なものに過ぎず、網羅的なものではないことが、当業者であれば容易に理解できるであろう。ポータブル・コンピュータ・ディスク、ハードディスク、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュ・メモリ)、ポータブル・コンパクト・ディスク、読み出し専用メモリ(CD−ROM)、光学記憶装置、磁気記憶装置、または、上記に挙げたものを任意に適宜組み合わせたもの。   Further, the method may be implemented by instructions executed by a processor, and such instructions (and / or data generated by an implementation) may be stored on a computer readable storage medium. A computer readable storage medium may take the form of a computer readable program product having computer readable program code implemented thereon and executed by one or more computer readable media. As used herein, a computer-readable storage medium is considered to be a non-transitory storage medium that is provided with a unique function of storing information as well as a unique function of storing information. The computer readable storage medium can be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, device, such as those listed above. Any combination can be used as appropriate. More specific examples of computer readable storage media to which the present principles can be applied are provided below, but the listed examples are illustrative only and are not exhaustive. It can be easily understood by a trader. Portable computer disk, hard disk, read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), portable compact disk, read only memory (CD-ROM), optical storage, magnetic storage A device, or any combination of the above.

命令は、プロセッサ読み取り可能媒体上に現実的に実装されるアプリケーション・プログラムの形態をとることができる。   The instructions can take the form of application programs that are actually implemented on a processor-readable medium.

例えば、命令は、ハードウェア、ファームウェア、ソフトウェア、またはこれらを組み合わせたものとすることができる。命令は、例えば、オペレーティング・システム、別個のアプリケーション、またはこの2つを組み合わせたものに存在させることができる。よって、プロセッサは、例えば、処理を実行するように構成された装置と、処理を実行する命令を有する(記憶装置などの)プロセッサ読み取り可能媒体を含む装置の両方として特徴付けられる。さらに、プロセッサ読み取り可能媒体は、命令に追加して、または、命令の代わりに、実施態様により生成されるデータ値を記憶することができる。   For example, the instructions can be hardware, firmware, software, or a combination thereof. The instructions can reside, for example, in the operating system, a separate application, or a combination of the two. Thus, a processor is characterized, for example, as both a device configured to perform processing and a device including a processor-readable medium (such as a storage device) having instructions to perform processing. Further, the processor readable medium may store data values generated by the implementation in addition to or instead of the instructions.

実施態様により、例えば、記憶、送信可能な情報を搬送するようにフォーマットされた様々な信号を生成できることは当業者によって自明であろう。情報は、例えば、方法を実行する命令、または、上記の実施態様のうちの1つによって生成されたデータを含む。例えば、信号は、データとして、本願の原理の記載した例のシンタックスの読み書きのためのルールを保持するように、または、本願の原理の記載した例によって記述された実際のシンタックス値をデータとして保持するようにフォーマットすることができる。このような信号は、例えば、(例えば、スペクトルの無線周波数部分を使用した)電磁波として、または、ベースバンド信号としてフォーマットすることができる。フォーマット化には、例えば、データストリームを符号化することおよび符号化されたデータストリームを用いてキャリアを変調することを含めることができる。信号が搬送する情報は、例えば、アナログ情報またはディジタル情報である。信号は、公知である様々な有線リンクまたは無線リンクを介して送信することができる。信号は、プロセッサ読み取り可能媒体に記憶することができる。   It will be apparent to those skilled in the art that, depending on the implementation, various signals may be generated that are formatted to carry, for example, information that can be stored and transmitted. The information includes, for example, instructions for performing the method or data generated by one of the above embodiments. For example, the signal may have data as the actual syntax value described by the described example of the present principle, so as to hold the rules for reading and writing the syntax of the described example of the present principle. Can be formatted to hold as Such a signal can be formatted, for example, as an electromagnetic wave (eg, using the radio frequency portion of the spectrum) or as a baseband signal. Formatting can include, for example, encoding a data stream and modulating the carrier with the encoded data stream. The information carried by the signal is, for example, analog information or digital information. The signal can be transmitted over various known wired or wireless links. The signal can be stored on a processor-readable medium.

幾つかの実施態様について説明を行った。しかしながら、様々な改変を施すことができることが理解できよう。例えば、複数の異なる実施態様を組み合わせたり、補ったり、変更したり、除去したりすることで他の実施態様を生み出すことができる。さらに、当業者であれば、開示した内容を他の構造や処理で置き換えることができ、結果として得られる実施態様が、少なくとも実質的に同一の方法で、少なくとも実質的に同一の機能を実行し、少なくとも開示した実施態様と実質的に同一の効果を生み出すことが理解できよう。したがって、本出願によってこれらの実施態様およびその他の実施態様が企図される。   Several embodiments have been described. However, it will be understood that various modifications can be made. For example, other embodiments can be created by combining, supplementing, changing, or removing a plurality of different embodiments. Moreover, those skilled in the art can replace the disclosed content with other structures and processes, and the resulting embodiments perform at least substantially the same function in at least substantially the same way. It will be understood that this produces at least substantially the same effects as the disclosed embodiments. Accordingly, these and other embodiments are contemplated by this application.

Claims (13)

復号された画像データ(
(外53)
Figure 2018191269
)およびビットストリームから取得された(101)パラメータから原画像データ(I)を表す画像データ(I)を再構成する方法であって、前記パラメータは、前記原画像データ(I)から処理されており、
前記パラメータが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していないかどうかをチェックするステップ(102)と、
前記パラメータのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していない場合に、
どのように前記パラメータが処理されているかを示す情報データ(ID、103)に従って復元モード(RMi)を選択するステップ(104)と、
前記少なくとも1つの失われている、破損している、または、一致していないパラメータを、前記選択した復元モード(RMi)、画像データ(I)の前記再構成を適用し、さらに、復元されたパラメータ(12)を考慮することによって復元するステップ(105)と、
を含む、前記方法。
Decoded image data (
(Outside 53)
Figure 2018191269
) And image data (I 3 ) representing original image data (I 1 ) from (101) parameters acquired from the bitstream, wherein the parameters are derived from the original image data (I 1 ). Has been processed,
Checking (102) whether the parameters are missing, corrupted, or inconsistent with decoded image data to which graphics or overlays have been applied;
If at least one of the parameters is missing, corrupted, or does not match the decoded image data to which graphics or overlay is applied,
Selecting a restoration mode (RMi) according to information data (ID, 103) indicating how the parameter is being processed;
Applying the reconstruction of the selected restoration mode (RMi), image data (I 3 ) to the at least one missing, corrupted or mismatched parameter and further restored Reconstructing by taking into account parameters (12),
Said method.
復号された画像データおよびビットストリームから取得されたパラメータから原画像データを表す画像データを再構成する装置であって、前記パラメータは、前記原画像データから処理されており、
前記装置は、
前記パラメータが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していないかどうかをチェックする手段と、
前記パラメータのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していない場合に、
どのように前記パラメータが処理されているかを示す情報データに従って復元モードを選択する手段と、
前記失われている、破損している、または、一致していないパラメータを、前記選択した復元モード、画像データの前記再構成を適用し、さらに、復元されたパラメータを考慮することによって復元する手段と、を含む、前記装置。
An apparatus for reconstructing image data representing original image data from decoded image data and parameters obtained from a bitstream, wherein the parameters are processed from the original image data;
The device is
Means for checking whether the parameters are missing, corrupted, or inconsistent with the decoded image data to which graphics or overlays have been applied;
If at least one of the parameters is missing, corrupted, or does not match the decoded image data to which graphics or overlay is applied,
Means for selecting a restoration mode according to the information data indicating how the parameter is being processed;
Means for restoring the lost, corrupted or inconsistent parameters by applying the selected restoration mode, the reconstruction of image data, and further considering the restored parameters And the apparatus.
前記情報データ(ID)がビットストリームにおけるシンタックス要素によって明示的に信号伝達される、請求項1に記載の方法または請求項2に記載の装置。   The method of claim 1 or the apparatus of claim 2, wherein the information data (ID) is explicitly signaled by syntax elements in a bitstream. 前記情報データ(ID)が黙示的に信号伝達される、請求項1に記載の方法または請求項2に記載の装置。   The method of claim 1 or the apparatus of claim 2, wherein the information data (ID) is implicitly signaled. 前記情報データ(ID)は、パラメータを処理するために原画像データ(I)に適用される処理の内容を識別する、請求項1〜4のいずれか1項に記載の方法または装置。 The method or apparatus according to any one of claims 1 to 4, wherein the information data (ID) identifies the content of processing applied to the original image data (I 1 ) to process parameters. 前記パラメータは、当該パラメータがビットストリームから取得されない場合に失われているとみなされる、請求項1および3〜5のいずれか1項に記載の方法または請求2〜5のいずれか1項に記載の装置。   The method according to any one of claims 1 and 3-5 or any one of claims 2-5, wherein the parameter is considered lost if the parameter is not obtained from the bitstream. Equipment. パラメータは、
前記パラメータの値が値範囲から外れている、
前記パラメータが他のパラメータ値に従ったコヒーレント値を有していない、
の条件のうちの少なくとも1つを満たしている場合に破損しているとみなされる、請求項1および3〜6のいずれか1項に記載の方法または請求2〜6のいずれか1項に記載の装置。
The parameter is
The value of the parameter is outside the value range;
The parameter does not have a coherent value according to other parameter values;
7. A method according to any one of claims 1 and 3-6 or any one of claims 2-6, which is considered to be broken if at least one of the following conditions is met. Equipment.
復元モードは、前記パラメータのうちの幾つかのみが失われていない、破損していない、または、グラフィックスまたはオーバーレイが付与された復号された画像データと一致していないとしても、復元されたパラメータによって前記パラメータの全てを置き換えるものである、請求項1および3〜7のいずれか1項に記載の方法または請求2〜7のいずれか1項に記載の装置。   The restoration mode is a parameter that is restored even if only some of the parameters are not lost, corrupted or not consistent with the decoded image data with graphics or overlays applied. The method according to any one of claims 1 and 3 to 7, or the apparatus according to any one of claims 2 to 7, wherein all of the parameters are replaced by: 復元モードは、各失われている、破損している、または、一致していないパラメータを復元されたパラメータによって置き換えるものである、請求項1および3〜8のいずれか1項に記載の方法または請求2〜8のいずれか1項に記載の装置。   9. The method or any one of claims 1 and 3-8, wherein the restoration mode is to replace each lost, corrupted or mismatched parameter with a restored parameter. Apparatus according to any one of claims 2-8. 復元モードは、各失われている、破損している、または、一致していないパラメータを既に記憶された所定のパラメータ値の組のうちの値によって置き換えるものである、請求項1および3〜9のいずれか1項に記載の方法または請求2〜9のいずれか1項に記載の装置。   10. The restoration mode replaces each missing, corrupted or mismatched parameter with a value from a predetermined set of parameter values already stored. 10. A method according to any one of the preceding claims or an apparatus according to any one of claims 2-9. 復元モードは、原画像データの少なくとも1つの特性、または、前記原画像データまたは再構成されるべき画像データをグレーディングするために使用されるマスタリング・ディスプレイの少なくとも1つの特性、または、再構成された画像データの少なくとも1つの特性、または、対象のディスプレイの少なくとも1つの特性に従って選択される、請求項1および3〜10のいずれか1項に記載の方法または請求2〜10のいずれか1項に記載の装置。   The restoration mode is at least one characteristic of the original image data, or at least one characteristic of the mastering display used to grade the original image data or the image data to be reconstructed, or reconstructed 11. A method according to any one of claims 1 and 3-10 or any one of claims 2-10, selected according to at least one characteristic of image data or at least one characteristic of a display of interest. The device described. プログラムがコンピュータ上で実行されるとき、請求項1、3〜11のうちのいずれか1項に記載の方法のステップを実行するプログラム・コード命令を含む、コンピュータ・プログラム・プロダクト。   A computer program product comprising program code instructions for performing the steps of the method according to any of claims 1, 3 to 11, when the program is executed on a computer. プログラムがコンピュータ上で実行されるとき、請求項1、3〜11のうちのいずれか1項に記載の方法のステップを実行するプログラム・コード命令が記憶された非一時的プロセッサ読み取り可能媒体。   A non-transitory processor readable medium having stored thereon program code instructions for performing the steps of the method according to any one of claims 1, 3 to 11, when the program is executed on a computer.
JP2017239281A 2017-02-24 2017-12-14 Method and device for reconstructing image data from decoded image data Active JP7086587B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/868,111 US11310532B2 (en) 2017-02-24 2018-01-11 Method and device for reconstructing image data from decoded image data
US17/669,218 US20220167019A1 (en) 2017-02-24 2022-02-10 Method and device for reconstructing image data from decoded image data
JP2022093177A JP7340659B2 (en) 2017-02-24 2022-06-08 Method and apparatus for reconstructing image data from decoded image data

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP17305212.7 2017-02-24
EP17305212.7A EP3367684A1 (en) 2017-02-24 2017-02-24 Method and device for decoding a high-dynamic range image
EP17158481.6 2017-02-28
EP17158481 2017-02-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022093177A Division JP7340659B2 (en) 2017-02-24 2022-06-08 Method and apparatus for reconstructing image data from decoded image data

Publications (3)

Publication Number Publication Date
JP2018191269A true JP2018191269A (en) 2018-11-29
JP2018191269A5 JP2018191269A5 (en) 2021-01-28
JP7086587B2 JP7086587B2 (en) 2022-06-20

Family

ID=60811990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017239281A Active JP7086587B2 (en) 2017-02-24 2017-12-14 Method and device for reconstructing image data from decoded image data

Country Status (10)

Country Link
US (1) US11257195B2 (en)
EP (2) EP3367685B1 (en)
JP (1) JP7086587B2 (en)
KR (2) KR102458747B1 (en)
CN (2) CN108513134B (en)
BR (2) BR102017027195A2 (en)
CA (2) CA2989134A1 (en)
MX (2) MX2017016554A (en)
RU (2) RU2021128023A (en)
WO (1) WO2018153800A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11310532B2 (en) 2017-02-24 2022-04-19 Interdigital Vc Holdings, Inc. Method and device for reconstructing image data from decoded image data
US11928796B2 (en) * 2017-12-01 2024-03-12 Interdigital Patent Holdings, Inc. Method and device for chroma correction of a high-dynamic-range image
CN109598671A (en) * 2018-11-29 2019-04-09 北京市商汤科技开发有限公司 Image generating method, device, equipment and medium
CN111654707B (en) * 2020-06-03 2022-03-15 福建师范大学福清分校 Information hiding method and terminal based on Russian blocks
CN112188179B (en) * 2020-08-28 2022-07-08 北京小米移动软件有限公司 Image thumbnail display method, image thumbnail display device, and storage medium
CN113592770B (en) * 2021-06-23 2024-02-23 中国科学院南京地理与湖泊研究所 Algal bloom remote sensing identification method for removing influence of aquatic weeds
US11606605B1 (en) 2021-09-30 2023-03-14 Samsung Electronics Co., Ltd. Standard dynamic range (SDR) / hybrid log-gamma (HLG) with high dynamic range (HDR) 10+
CN115564659B (en) * 2022-02-28 2024-04-05 荣耀终端有限公司 Video processing method and device
CN114936174B (en) * 2022-06-09 2024-01-30 中国兵器工业计算机应用技术研究所 Image processing and fusion computing method based on ground unmanned platform

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279388A (en) * 2005-03-29 2006-10-12 Matsushita Electric Ind Co Ltd Apparatus and method for decoding moving picture
US20150117551A1 (en) * 2013-10-24 2015-04-30 Dolby Laboratories Licensing Corporation Error Control in Multi-Stream EDR Video Codec
WO2017114016A1 (en) * 2015-12-31 2017-07-06 中兴通讯股份有限公司 Image encoding and decoding method, encoding and decoding device, encoder and decoder

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5856973A (en) * 1996-09-10 1999-01-05 Thompson; Kenneth M. Data multiplexing in MPEG server to decoder systems
US8406569B2 (en) * 2009-01-19 2013-03-26 Sharp Laboratories Of America, Inc. Methods and systems for enhanced dynamic range images and video from multiple exposures
CN102498720B (en) * 2009-06-24 2015-09-02 杜比实验室特许公司 The method of captions and/or figure lamination is embedded in 3D or multi-view video data
EP2375751A1 (en) * 2010-04-12 2011-10-12 Panasonic Corporation Complexity reduction of edge-detection based spatial interpolation
TWI479898B (en) * 2010-08-25 2015-04-01 Dolby Lab Licensing Corp Extending image dynamic range
GB2500330A (en) * 2010-12-03 2013-09-18 Lg Electronics Inc Receiving device and method for receiving multiview three-dimensional broadcast signal
TWI733583B (en) * 2010-12-03 2021-07-11 美商杜比實驗室特許公司 Audio decoding device, audio decoding method, and audio encoding method
US9075806B2 (en) * 2011-02-22 2015-07-07 Dolby Laboratories Licensing Corporation Alignment and re-association of metadata for media streams within a computing device
JP6009538B2 (en) * 2011-04-28 2016-10-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus and method for encoding and decoding HDR images
JP2013066075A (en) * 2011-09-01 2013-04-11 Sony Corp Transmission device, transmission method and reception device
MX2014003556A (en) * 2011-09-27 2014-05-28 Koninkl Philips Nv Apparatus and method for dynamic range transforming of images.
CN109064433B (en) * 2013-02-21 2022-09-13 皇家飞利浦有限公司 Improved HDR image encoding and decoding method and apparatus
MY178217A (en) * 2014-01-02 2020-10-07 Vid Scale Inc Methods and systems for scalable video coding with mixed interlace and progressive content
CN111526350B (en) 2014-02-25 2022-04-05 苹果公司 Adaptive video processing
US20150264345A1 (en) * 2014-03-13 2015-09-17 Mitsubishi Electric Research Laboratories, Inc. Method for Coding Videos and Pictures Using Independent Uniform Prediction Mode
JP6358718B2 (en) * 2014-05-28 2018-07-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for encoding HDR images, and method and apparatus for use of such encoded images
EP3051486A1 (en) * 2015-01-30 2016-08-03 Thomson Licensing Method and apparatus for encoding and decoding high dynamic range (HDR) videos
EP3304881B1 (en) * 2015-06-05 2022-08-10 Apple Inc. Rendering and displaying high dynamic range content
EP3113496A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Method and device for encoding both a hdr picture and a sdr picture obtained from said hdr picture using color mapping functions
WO2017019818A1 (en) 2015-07-28 2017-02-02 Vid Scale, Inc. High dynamic range video coding architectures with multiple operating modes
EP3131284A1 (en) * 2015-08-13 2017-02-15 Thomson Licensing Methods, systems and aparatus for hdr to hdr inverse tone mapping
US11277610B2 (en) * 2015-09-23 2022-03-15 Arris Enterprises Llc Single layer high dynamic range coding with standard dynamic range backward compatibility

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279388A (en) * 2005-03-29 2006-10-12 Matsushita Electric Ind Co Ltd Apparatus and method for decoding moving picture
US20150117551A1 (en) * 2013-10-24 2015-04-30 Dolby Laboratories Licensing Corporation Error Control in Multi-Stream EDR Video Codec
WO2017114016A1 (en) * 2015-12-31 2017-07-06 中兴通讯股份有限公司 Image encoding and decoding method, encoding and decoding device, encoder and decoder

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PANKAJ TOPIWALA, WEI DAI, AND MADHU KRISHNAN: "AHG14: Tone Mapping Information and Related SEIs for HDR Coding", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-Y0042r4, JPN6022002769, November 2016 (2016-11-01), pages 1 - 10, ISSN: 0004688821 *

Also Published As

Publication number Publication date
US11257195B2 (en) 2022-02-22
WO2018153800A1 (en) 2018-08-30
KR102458747B1 (en) 2022-10-24
MX2022003583A (en) 2022-05-26
US20200394774A1 (en) 2020-12-17
MX2017016554A (en) 2018-11-09
CA3054488A1 (en) 2018-08-30
RU2017144024A3 (en) 2021-04-19
RU2017144024A (en) 2019-06-17
CN110574376B (en) 2022-10-21
RU2758035C2 (en) 2021-10-25
BR102017027195A2 (en) 2018-10-30
BR112019017651A2 (en) 2020-03-31
CA2989134A1 (en) 2018-08-24
CN108513134A (en) 2018-09-07
EP3586509A1 (en) 2020-01-01
EP3586509B1 (en) 2024-05-29
CN110574376A (en) 2019-12-13
RU2021128023A (en) 2021-10-28
JP7086587B2 (en) 2022-06-20
EP3367685A1 (en) 2018-08-29
KR20190117686A (en) 2019-10-16
CN108513134B (en) 2023-05-26
KR20180098117A (en) 2018-09-03
EP3367685B1 (en) 2024-04-24

Similar Documents

Publication Publication Date Title
JP7340659B2 (en) Method and apparatus for reconstructing image data from decoded image data
JP7086587B2 (en) Method and device for reconstructing image data from decoded image data
US11024017B2 (en) Tone mapping adaptation for saturation control
KR102537393B1 (en) Method and device for reconstructing HDR image
CN112400324B (en) Method and apparatus for processing video signal
US10600163B2 (en) Method and device for reconstructing a display adapted HDR image
KR102496345B1 (en) Method and Apparatus for Color Correction During HDR to SDR Conversion
WO2019203973A1 (en) Method and device for encoding an image or video with optimized compression efficiency preserving image or video fidelity
CN111434113B (en) Saturation control for high dynamic range reconstruction
JP7074461B2 (en) How and Devices to Reconstruct Display-Compatible HDR Images
CA2986520A1 (en) Method and device for reconstructing a display adapted hdr image
RU2776101C1 (en) Method and device for recovering hdr image adapted to the display
CN112425168B (en) Method and apparatus for encoding image
KR20190059006A (en) Method and device for reconstructing a display adapted hdr image
EP3528201A1 (en) Method and device for controlling saturation in a hdr image

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20171219

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180223

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220608

R150 Certificate of patent or registration of utility model

Ref document number: 7086587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150