JP2018191269A - Method and device of reconstructing image data from decoded image data - Google Patents
Method and device of reconstructing image data from decoded image data Download PDFInfo
- Publication number
- JP2018191269A JP2018191269A JP2017239281A JP2017239281A JP2018191269A JP 2018191269 A JP2018191269 A JP 2018191269A JP 2017239281 A JP2017239281 A JP 2017239281A JP 2017239281 A JP2017239281 A JP 2017239281A JP 2018191269 A JP2018191269 A JP 2018191269A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- parameter
- parameters
- image
- corrupted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000008569 process Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 230000001427 coherent effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 54
- 238000013507 mapping Methods 0.000 description 34
- 230000015654 memory Effects 0.000 description 20
- 238000003860 storage Methods 0.000 description 19
- 238000012546 transfer Methods 0.000 description 17
- 239000002356 single layer Substances 0.000 description 16
- 238000004891 communication Methods 0.000 description 13
- 238000012805 post-processing Methods 0.000 description 12
- 238000007781 pre-processing Methods 0.000 description 11
- 238000009826 distribution Methods 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 7
- 230000003068 static effect Effects 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000010410 layer Substances 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/65—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/98—Adaptive-dynamic-range coding [ADRC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4344—Remultiplexing of multiplex streams, e.g. by modifying time stamps or remapping the packet identifiers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/68—Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
- H04N9/69—Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
本願の原理は、一般的には、復号された画像/映像(ビデオ)データからの画像/映像データの再構成に関する。具体的には、限定するものではないが、本願の原理の技術分野は、別の画像から画像を再構成するためのパラメータを復元することに関する。 The principles of the present application generally relate to the reconstruction of image / video data from decoded image / video (video) data. Specifically, without limitation, the technical field of the present principles relates to restoring parameters for reconstructing an image from another image.
この項は、読者に対し、様々な技術的な態様を紹介することを意図している。これらの技術的な態様は、以下に説明する、さらに/または、以下の請求項に記載する本願の原理の様々な態様に関連するであろう。この説明が本願の原理の様々な態様をより良好に理解しやすくするための背景情報を読者に対して提供するのに役立つと確信する。したがって、それぞれの記載は、この点に鑑みて読まれるべきものであり、先行技術を自認するものではないことを理解すべきである。 This section is intended to introduce the reader to various technical aspects. These technical aspects will relate to various aspects of the present principles as described below and / or as set forth in the following claims. We believe that this description will help provide readers with background information to better understand various aspects of the present principles. Accordingly, it should be understood that each description is to be read in light of this point and is not an admission of prior art.
以下において、画像データは、画像(または映像)の画素値に関連する全ての情報、且つ、例えば、画像(または映像)を視覚化および/または復号するためにディスプレイおよび/または他の装置によって使用される可能性のある全ての情報を特定する特定の画像/映像フォーマットにおけるサンプル(画素値)の1つまたは幾つかのアレイを指す。画像は、通常は、画像の輝度(またはルマ)を表す第1のサンプルのアレイの形状である、第1の成分と、通常は、画像の色(またはクロマ)を表すサンプルの他のアレイの形態である、第2および第3の成分と、を含む。または、同じように、同一の情報を従来の三色のRGB表現などで、色サンプルのアレイの組で表すこともできる。 In the following, image data is used by a display and / or other device to visualize and / or decode all information related to the pixel values of the image (or video) and, for example, the image (or video) Refers to one or several arrays of samples (pixel values) in a particular image / video format that identifies all the information that may be done. The image is usually in the shape of an array of first samples that represents the brightness (or luma) of the image, and the first component and other arrays of samples that typically represent the color (or chroma) of the image. And second and third components in the form. Alternatively, similarly, the same information can be represented by a set of color sample arrays, such as the conventional three-color RGB representation.
画素値は、C個の値のベクトルによって表され、ここでCは、成分の数である。ベクトルの各値は、画素値の最大ダイナミック範囲を規定するビットの数で表される。 The pixel value is represented by a vector of C values, where C is the number of components. Each value of the vector is represented by the number of bits that define the maximum dynamic range of the pixel value.
標準ダイナミック・レンジの画像(SDR画像)は、輝度値が限定された数(通常は、8)のビットで表される画像である。この限定された表現は、特に、暗輝度範囲および明輝度範囲における、小さな信号の変化を正確にレンダリングできるようにするものではない。ハイダイナミックレンジの画像(HDR画像)においては、レンジ(範囲)全体にわたって高い信号精度を維持するために、信号表現が拡張される。HDR画像において、画素値は、通常、浮動小数点フォーマット(各成分に対し、少なくとも10ビット、すなわち、単精度浮動小数点(float)または半精度浮動小数点(half−float))で表される輝度レベルを表す値である。最も人気があるフォーマットは、openEXR半精度浮動小数点フォーマット(RGB成分毎に16ビット、すなわち、画素毎に48ビット)であるか、または、通常は、少なくとも16ビットの、“long”型表現の整数値である。 A standard dynamic range image (SDR image) is an image represented by a limited number (usually 8) of bits of luminance values. This limited representation does not allow small signal changes to be accurately rendered, particularly in the dark and bright luminance ranges. In high dynamic range images (HDR images), the signal representation is extended to maintain high signal accuracy throughout the range. In HDR images, pixel values typically represent a luminance level expressed in a floating-point format (at least 10 bits for each component, ie, single-precision floating point (float) or half-precision floating point (half-float)). The value to represent. The most popular format is the openEXR half-precision floating point format (16 bits per RGB component, ie 48 bits per pixel), or an arrangement of “long” type representations, usually at least 16 bits. It is a numerical value.
高効率映像符号化(HEVC:High Efficiency Video Coding)規格の到来(ITUのITU−T H.265電気通信標準化部門(10/2014)、シリーズH:オーディオビジュアルおよびマルチメディア・システムズ、オーディオビジュアル・サービスのインフラストラクチャ−動画の符号化、高効率映像符号化、勧告ITU−T H.265)は、Ultra HDブロードキャスト・サービスなど、強化された視聴体験を用いた新たな映像サービスの展開を可能としている。現在展開されている標準ダイナミック・レンジと比較して、Ultra HDは、空間解像度の増大とともに、Ultra HDは、広色域(WCG)およびハイダイナミックレンジ(HDR)を向上させることができる。HDR/WCG映像の表現および符号化に様々な解決法が提案されている(SMPTE 2014、「マスタリング・参照ディスプレイのハイダイナミックレンジ電光伝達関数(High Dynamic Range Electro−Optical Transfer Function of Mastering Reference Displays)」または、SMPTE ST 2084、 2014、またはDiaz,R.,Blinstein,S.およびQu,S.「ハイダイナミックレンジ映像パイプラインを用いたHEVC映像圧縮の統合(Integrating HEVC Video Compression with a High Dynamic Range Video Pipeline)」、SMPTE動画像ジャーナル、125巻、1号、2016年2月、第14〜21頁)。 The arrival of the High Efficiency Video Coding (HEVC) standard (ITU-T H.265 Telecommunication Standardization Division (10/2014) of ITU, Series H: Audiovisual and Multimedia Systems, Audiovisual Services Infrastructure-Video Coding, High-Efficiency Video Coding, Recommendation ITU-T H.265) enables the deployment of new video services using enhanced viewing experiences such as Ultra HD broadcast services . Compared to the currently deployed standard dynamic range, Ultra HD can improve wide color gamut (WCG) and high dynamic range (HDR) with increasing spatial resolution. Various solutions have been proposed for the representation and coding of HDR / WCG video (SMPTE 2014, "High Dynamic Range Electro-Optical Transfer of Mastering & Reference Display"). Alternatively, SMPTE ST 2084, 2014, or Diaz, R., Blinstein, S. and Qu, S. “Integrating HEVC Video Compression with High Dynamic Vampine Random Vigne Dynamic Randomness” ) ", SMPTE motion (Image Journal, Vol. 125, No. 1, February 2016, pp. 14-21).
復号装置およびレンダリング装置とのSDR後方互換性は、ブロードキャスティング・システムやマルチキャスティング・システムなど、ビデオ配信システムによっては、重要な機能となる。 SDR backward compatibility with a decoding device and a rendering device is an important function depending on a video distribution system such as a broadcasting system or a multicasting system.
単一レイヤの符号化/復号処理に基づく解決法は、後方互換性、例えば、SDR互換性を有することができ、旧来の配信ネットワークおよび既存のサービスを利用することができる。 A solution based on a single layer encoding / decoding process can have backward compatibility, eg, SDR compatibility, and can utilize legacy distribution networks and existing services.
このような単一レイヤに基づく配信の解決法は、HDRに対応したコンシューマ電子(CE)装置上での高品質のHDRレンダリングを可能とする一方で、SDRに対応したCE装置上での高品質のSDRレンダリングを提供する。 Such a single layer based delivery solution enables high quality HDR rendering on consumer electronics (CE) devices that support HDR, while high quality on CE devices that support SDR. Provides SDR rendering.
このような単一レイヤに基づく配信の解決法は、符号化された信号、例えば、SDR信号および(ビデオ・フレームまたはシーン毎に数バイトの)関連するメタデータを生成する。メタデータは、復号された信号、例えば、SDR信号から別の信号、例えば、HDR信号を再構成するために使用することができる。 Such a single layer based distribution solution generates an encoded signal, eg, an SDR signal and associated metadata (a few bytes per video frame or scene). The metadata can be used to reconstruct another signal, eg, an HDR signal, from a decoded signal, eg, an SDR signal.
信号の再構成に使用することができるメタデータが記憶されたパラメータ値は、スタティックである場合もあるし、ダイナミックである場合もある。スタティックなメタデータとは、ビデオ(画像の組)および/またはプログラムに対して変化のないメタデータを意味する。 Parameter values stored with metadata that can be used for signal reconstruction may be static or dynamic. Static metadata means metadata that does not change for video (a set of images) and / or programs.
スタティックなメタデータは、ビデオ・コンテンツ(シーン、動画、クリップ・・・)全体に対して有効であり、画像コンテンツに依存しないことがある。スタティックなメタデータは、例えば、画像フォーマットまたは色空間、色域を定義することがある。例えば、SMPTE ST 2086:2014、「高輝度および広色域画像をサポートするマスタリング・ディスプレイ色ボリューム・メタデータ(Mastering Display Color Volume Metadata Supporting High Luminance and Wide Color Gamut Images)」は、制作環境において使用されるこの種のスタティックなメタデータである。マスタリング・ディスプレイ色ボリューム(MDCV:Mastering Display Colour Volume)補助拡張情報(SEI)メッセージは、H.264/AVC(「ジェネリック・オーディオビジュアル・サービスのための先進ビデオ符号化(Advanced video coding for generic audiovisual Services)」、シリーズH:オーディオビジュアルおよびマルチメディア・システムズ、勧告ITU−T H.264、ITU電気通信標準化部門、2012年1月)およびHEVCビデオコーデックの双方のために、ST2086で配信されるものである。 Static metadata is valid for the entire video content (scenes, movies, clips ...) and may not depend on the image content. Static metadata may define, for example, an image format, color space, or color gamut. For example, SMPTE ST 2086: 2014, “Mastering Display Color Volume Metadata Supporting High Luminance and Wide Color Gamut Images, used in Mastering Display Color Volume Supporting High Color and Gamut Images Environments” This kind of static metadata. The Mastering Display Color Volume (MDCV) Auxiliary Extended Information (SEI) message is H.264. H.264 / AVC ("Advanced Video Coding for Generic Audiovisual Services"), Series H: Audiovisual and Multimedia Systems, Recommendation ITU-T H.264, ITU Electric The communication standardization department, January 2012) and the HEVC video codec will be delivered in ST2086.
ダイナミック・メタデータは、コンテンツ依存である。すなわち、メタデータは、例えば、画像毎に、または、各画像のグループ毎に変化することがある。例えば、SMPTE ST 2094:2016規格のファミリー「色ボリューム変換のためのダイナミック・メタデータ(Dynamic Metadata for Color Volume Transform)」は、制作環境で使用されるダイナミック・メタデータである。カラー・リマッピング情報(CRI:Colour Remapping Information)SEIメッセージのおかげで、SMPTE ST 2094−30は、HEVC符号化ビデオ・ストリームと一緒に配信することができる。 Dynamic metadata is content dependent. That is, the metadata may change, for example, for each image or for each group of images. For example, the SMPTE ST 2094: 2016 standard family “Dynamic Metadata for Color Volume Transform” is dynamic metadata used in the production environment. Thanks to Color Remapping Information (CRI) SEI messages, SMPTE ST 2094-30 can be delivered with HEVC encoded video streams.
他の単一レイヤに基づく配信の解決法は、ディスプレイ適応化ダイナミック・メタデータが旧来のビデオ信号と一緒に配信される配信ネットワーク上に存在する。これらの単一レイヤに基づく解決法は、HDR10ビット画像データ(例えば、信号がITU−R BT.2100−0で特定されるHLG10またはPQ10信号として表される画像データ「勧告ITU−R BT.2100−0、制作および国際番組交換に使用するためのハイダイナミック・レンジ・テレビジョンのための画像パラメータ値(Image parameter values for high dynamic range television for use in production and international program exchange)」)および入力信号からの関連するメタデータ(通常は、12または16ビット)を作成することができ、例えば、HEVCメイン10プロフィール符号化スキームを使用してこのHDR10ビット画像を符号化し、復号されたビデオ信号および上記関連するメタデータからビデオ信号を再構成する。再構成された信号のダイナミック・レンジは、対象のディスプレイの特徴に依存することがある、関連するメタデータに従って適応化される。 Another single layer based distribution solution exists on distribution networks where display-adaptive dynamic metadata is distributed along with legacy video signals. These single-layer based solutions provide HDR 10-bit image data (eg, image data “Recommended ITU-R BT.2100 where the signal is represented as an HLG10 or PQ10 signal as specified in ITU-R BT.2100-0). -0, image parameter values for high dynamic range television for use in production and international program exchange (from image parameter values for high dynamic range television for use in production and international program signals) Related metadata (usually 12 or 16 bits), eg HEVC main 10 profile code The HDR 10-bit image is encoded using an encoding scheme and the video signal is reconstructed from the decoded video signal and the associated metadata. The dynamic range of the reconstructed signal is adapted according to associated metadata that may depend on the characteristics of the display of interest.
実際の現実世界の制作および配信設備におけるダイナミック・メタデータ送信は、スプライシング、オーバーレイ・レイヤ挿入、プロフェッショナル装置プルーニング・ビットストリーム、アフィリエートによるストリーム処理、そして、ポストプロダクション/プロフェッショナル・プラントにわたったメタデータの搬送のための標準規格が現在存在しないことにより、保証が困難であり、損失や破損の懸念がある。 Dynamic metadata transmission in real-world production and distribution facilities includes splicing, overlay layer insertion, professional equipment pruning bitstreams, affiliate stream processing, and post production / professional plant metadata Due to the current lack of standards for transport, guarantees are difficult and there are concerns about loss and damage.
単一レイヤに基づく配信の解決法は、異なる束のダイナミック・メタデータが存在すること無しには機能しないが、ビデオ信号の再構成の成功を保証するためには、これらのダイナミック・メタデータの幾らかが重要となる The delivery solution based on a single layer does not work without the existence of different bundles of dynamic metadata, but in order to guarantee the successful reconstruction of the video signal, these dynamic metadata Some are important
ダイナミック・メタデータがグラフィックスまたはオーバーレイが付与されている画像と一致していない場合には、同様の問題も発生する。これは、例えば、グラフィックス(オーバーレイ、OSD、・・・)が配信チェインの外側の画像に挿入される(付与される)場合に発生する。その理由は、この画像に対して算出されたメタデータも、グラフィックスが画像に対して挿入される(付与される)と適用されるためである。その理由は、この画像に対して算出されたメタデータも、グラフィックスが画像に対して挿入される(付与される)と適用されるため、そしてメタデータは、グラフィックスまたはオーバーレイが付与されている画像と一致していないとみなされる。その理由は、メタデータは、グラフィックスまたはオーバーレイを含むこの画像の部分に適応されていないことがあるためである。 A similar problem occurs when the dynamic metadata does not match the image with graphics or overlays. This occurs, for example, when graphics (overlay, OSD,...) Are inserted (applied) into an image outside the distribution chain. This is because the metadata calculated for this image is also applied when graphics are inserted (applied) to the image. The reason is that the metadata calculated for this image is also applied when graphics are inserted (applied) to the image, and the metadata is given graphics or overlays Is considered not to match the existing image. The reason is that the metadata may not be adapted to the part of this image that contains graphics or overlays.
このような問題は、復号された画像が長期にわたって表示された際に、または不適切なメタデータ(例えば、暗所のコンテンツ用に生成されたメタデータによって処理された高輝度のOSD)を用いて処理されたグラフィックスまたはオーバーレイを含む画像の部分における所望しない効果(飽和、クリッピング・・・)によってグラフィックスの決まった場所に画像のちらつきが発生するという特徴を有することがある。 Such problems can occur when the decoded image is displayed over time or with inappropriate metadata (eg, high-intensity OSD processed by metadata generated for dark content). The image may flicker at a fixed location in the graphics due to undesired effects (saturation, clipping,...) In the portion of the image containing the processed graphics or overlay.
以下において、本願の原理の幾らかの態様についての基本的な理解が得られるように、本願の原理を簡略化した概要を提供する。本概要は、本願の原理を網羅するような概要ではない。本願の原理のキー要素、または重要な要素を特定するようには意図されていない。以下の要約は、単に、以下に提供するより詳細な説明の前置きとして、本願の原理の幾つかの態様を簡略化して示しているものにすぎない。 In the following, a simplified overview of the present principles is provided so that a basic understanding of some aspects of the present principles may be obtained. This summary is not an exhaustive overview of the principles of the application. It is not intended to identify key elements or key elements of the present principles. The following summary merely presents some simplified aspects of the present principles as a prelude to the more detailed description provided below.
復号された画像データおよびビットストリームから取得されたパラメータから原画像データ(original image data)を表す画像データを再構成する(reconstructing)方法または方法を用いて従来技術の欠点のうちの少なくとも1つを克服する本願の原理について述べる。上記パラメータは、上記原画像データから処理されている。この方法は、
上記パラメータが失われている(lost)、破損している(corrupted)、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致して(aligned)いないかどうかをチェックするステップと、
上記パラメータのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していない場合に、
どのように上記パラメータが処理されているかを示す情報データに従って復元モード(recovery mode)を選択するステップと、
上記少なくとも1つの失われている、破損している、または、一致していないパラメータを、選択した復元モード、画像データの上記再構成を適用し、さらに、上記復元されたパラメータを考慮することによって復元するステップと、を含む。
At least one of the disadvantages of the prior art using a method or method of reconstructing image data representing original image data from decoded image data and parameters obtained from a bitstream The principle of the present application to overcome is described. The parameters are processed from the original image data. This method
Checking whether the above parameters are lost, corrupted, or aligned with the decoded image data to which graphics or overlays have been applied; ,
If at least one of the above parameters is missing, corrupted, or does not match the decoded image data with graphics or overlays attached,
Selecting a recovery mode according to information data indicating how the above parameters are being processed;
By applying the selected reconstruction mode, the reconstruction of the image data to the at least one missing, corrupted or inconsistent parameter, and further considering the restored parameter Restoring.
一実施形態によれば、情報データがビットストリームにおけるシンタックス要素によって明示的に信号伝達される。 According to one embodiment, the information data is explicitly signaled by syntax elements in the bitstream.
一実施形態によれば、情報データ(ID)が黙示的に信号伝達される。 According to one embodiment, information data (ID) is implicitly signaled.
一実施形態によれば、情報データは、パラメータを処理するために原画像データに適用される処理の内容を識別する。 According to one embodiment, the information data identifies the content of the process applied to the original image data to process the parameters.
一実施形態によれば、パラメータは、このパラメータがビットストリームから取得されない場合に失われているとみなされる。 According to one embodiment, the parameter is considered lost if this parameter is not obtained from the bitstream.
一実施形態によれば、
パラメータは、
上記パラメータの値が値範囲から外れている、
上記パラメータが他のパラメータ値に従ったコヒーレント値を有していない、
の条件のうちの少なくとも1つを満たしている場合に破損しているとみなされる。
According to one embodiment,
The parameter is
The value of the above parameter is out of the value range,
The above parameters do not have coherent values according to other parameter values,
It is considered broken if at least one of the following conditions is met.
一実施形態によれば、
復元モードはパラメータのうちの幾つかのみが失われていない、破損していない、または、グラフィックスまたはオーバーレイが付与された復号された画像データと一致していないとしても、復元されたパラメータによってパラメータの全てを置き換えるものである。
According to one embodiment,
The restoration mode is a parameter that depends on the restored parameters, even if only some of the parameters are not lost, corrupted, or inconsistent with the decoded image data with graphics or overlays applied. It replaces all of.
一実施形態によれば、
復元モードは、各失われている、破損している、または、一致していないパラメータを復元されたパラメータによって置き換えるものである。
According to one embodiment,
The restore mode replaces each lost, corrupted, or mismatched parameter with the restored parameter.
一実施形態によれば、復元モードは、各失われている、破損している、または、一致していないパラメータを既に記憶された所定のパラメータ値の組のうちの値によって置き換えるものである。 According to one embodiment, the restoration mode replaces each missing, corrupted or mismatched parameter with a value from a set of predetermined parameter values already stored.
一実施形態によれば、復元モードは、原画像データの少なくとも1つの特性、または、原画像または再構成されるべき画像データをグレーディングするために使用されるマスタリング・ディスプレイの特性、または、再構成された画像データの少なくとも1つの特性、または、対象のディスプレイの少なくとも1つの特性に従って選択される。 According to one embodiment, the restoration mode is characterized by at least one characteristic of the original image data or a characteristic or reconstruction of the mastering display used to grade the original image or the image data to be reconstructed. Selected according to at least one characteristic of the captured image data or at least one characteristic of the target display.
これらの別の態様によれば、本願の原理は、上述した方法を実行する手段を含む装置およびこのプログラムがコンピュータ上で実行されたときに上記方法のステップを実行するプログラム・コード命令を記憶した非一時的プロセッサ読み取り可能媒体にも関する。 In accordance with these other aspects, the present principles store apparatus including means for performing the above-described method and program code instructions for performing the method steps when the program is executed on a computer. It also relates to non-transitory processor readable media.
図面において、本願の原理の例が示されている。 In the drawings, examples of the principles of the present application are shown.
同様の要素または同一の要素は、同一の参照符号を用いて示されている。 Similar or identical elements are denoted using the same reference signs.
以下、本願の原理の例が示された添付図面を参照して、本願の原理をより完全に説明する。しかしながら、本願の原理は、多くの代替的な形態において実施することができ、本願の明細書において示された例に限定するように解釈されるべきではない。したがって、本願の原理は、様々な改変例や代替的な形態で実施することができる。本願の原理の特定の実施形態を図面において例示し、本明細書中で詳細に説明する。しかしながら、本願の原理を開示する特定の形態に限定することは意図されておらず、むしろ、開示内容には、請求の範囲によって規定された本願の原理の精神および範囲の中で、全ての改変例、均等物、変形例が包含されることが理解できよう。 The principles of the present application will be described more fully hereinafter with reference to the accompanying drawings, in which examples of the principles of the present application are shown. However, the principles of the present application may be implemented in many alternative forms and should not be construed as limited to the examples shown in the specification of the present application. Accordingly, the principles of the present application can be implemented in various modifications and alternative forms. Particular embodiments of the present principles are illustrated in the drawings and are described in detail herein. However, it is not intended that the principles of the application be limited to the particular forms disclosed, but rather that the disclosure be subject to all modifications within the spirit and scope of the principles of the application as defined by the claims. It will be understood that examples, equivalents, and variations are encompassed.
本明細書中で使用されている用語は、特定の実施形態を説明することを目的としており、本開示内容を限定するようには意図されていない。本明細書において、文脈上、他の明示的な記載がなければ、単数として記載されている表現「或る」、「一つ」、「この(その)」は、複数の表現を含むようにも意図されている。さらに、用語「からなる」、「含む」、および/または、「備える」が本明細書中で使用されている場合、これは、記載されている特徴事項、整数値、ステップ、処理、要素、および/またはコンポーネント(構成部品、成分)が存在することを示しているが、1つ以上の他の特徴事項、整数値、ステップ、処理、要素、コンポーネント(構成部品、成分)、および/またはそのグループが存在すること、または、追加されることを排除するものではないことが理解できよう。さらに、要素が他の要素に「応答する」、または、「接続されている」と記載されている場合、他の要素に直接的に応答する、または、接続されることもあれば、介在する要素が存在することもある。これに対し、要素が他の要素に「直接応答する」、または、「直接接続されている」と記載されている場合、介在する要素は存在しない。本明細書において使用されている用語「および/または」は、1つ以上の関連して列挙された項目の任意の全ての組み合わせを含み、「/」と省略されることがある。 The terminology used herein is for the purpose of describing particular embodiments and is not intended to limit the present disclosure. In this specification, unless stated otherwise in the context, the expressions “a”, “one”, “this” (or “an”) include plural expressions unless the context clearly dictates otherwise. Is also intended. Further, where the terms “consisting of”, “including”, and / or “comprising” are used herein, this means that the described feature, integer value, step, process, element, And / or components (components, components) are present, but one or more other features, integer values, steps, processes, elements, components (components, components), and / or their It will be understood that it does not exclude the presence or addition of groups. Further, when an element is described as “responding” or “connected” to another element, it may respond directly to or be connected to another element There may be elements. In contrast, when an element is described as “directly responding” or “directly connected” to another element, there are no intervening elements present. As used herein, the term “and / or” includes any and all combinations of one or more of the associated listed items and may be abbreviated as “/”.
本明細書中において、様々な要素について記載するために、第1、第2などの用語が使用されているが、これらの要素は、これらの用語によって限定されるべきものではないことが理解できよう。これらの用語は、或る用語と別の用語とを区別する目的のみで使用されている。例えば、本願の原理の教示内容を逸脱することなく、第1の要素を第2の要素と定義してもよいし、同様に、第2の要素を第1の要素として定義してもよい。 In this specification, terms such as first and second are used to describe various elements, but it should be understood that these elements should not be limited by these terms. Like. These terms are only used to distinguish one term from another. For example, the first element may be defined as the second element without departing from the teachings of the present principles, and similarly, the second element may be defined as the first element.
図面の中には、通信の主方向を示す通信経路上に矢印を含むものがあるが、通信は、描かれている矢印とは逆の方向に行なわれる場合があることが理解できよう。 Although some drawings include an arrow on a communication path indicating the main direction of communication, it can be understood that communication may be performed in a direction opposite to the depicted arrow.
実施形態の中には、ブロック図および動作フローチャートに関して説明されているものがあり、各ブロックは、特定の論理的な機能を実施するための、回路要素、モジュール、または、1つ以上の実行可能な命令を含むコードの部分を表す。なお、他の実施態様では、ブロック内で示される機能は、示しているものとは異なる順番となることもある。例えば、2つのブロックが連続して示されている場合であっても、関連する機能によっては、実際には、ブロックが、実質的に並列して実行されることがあり、または、ブロックが、逆の順番で実行されることがある。 Some embodiments are described with reference to block diagrams and operational flowcharts, where each block is a circuit element, module, or one or more executables for performing a particular logical function. Represents a portion of code that contains a simple instruction. Note that in other embodiments, the functions shown in the blocks may be in a different order than shown. For example, even if two blocks are shown in succession, depending on the function involved, the blocks may actually be executed substantially in parallel, or May be executed in reverse order.
本明細書において、「一実施形態」または「実施形態」と言及されている場合、これは、実施形態との関連で説明されている特定の特徴事項、構造、または特性が本願の原理の少なくとも1つの実施態様に含まれる場合があることを意味する。明細書中の様々な箇所に存在する「一実施形態において」または「実施形態に従って(実施形態によれば)」という表現は、必ずしも、全てが同一の実施形態について言及するものではなく、別個の実施形態または代替的な実施形態が相互に他の実施形態に対して排他的となるものではない。 In this specification, references to “one embodiment” or “an embodiment” may mean that a particular feature, structure, or characteristic described in connection with the embodiment is at least a part of the present principles. It means that it may be included in one embodiment. The expressions “in one embodiment” or “in accordance with an embodiment (according to an embodiment)” in various places in the specification are not necessarily all referring to the same embodiment, and Neither embodiments nor alternative embodiments are mutually exclusive with respect to other embodiments.
請求の範囲に存在する参照符号は、例示的な目的のみのものであり、請求の範囲に対して限定的な影響を及ぼすものではない。 Reference numerals appearing in the claims are by way of illustration only and shall have no limiting effect on the scope of the claims.
明示的に記載していないが、本実施形態および変形例を、任意に組み合わせて、または部分的に組み合わせて使用することができる。 Although not explicitly described, this embodiment and the modified examples can be used in any combination or in partial combination.
以下において、大文字の記号、例えば、(C1、C2、C3)は、第1の画像の成分を示し、小文字の記号、例えば、(c1、c2、c3)は、輝度のダイナミック・レンジが第1の画像の輝度のダイナミック・レンジよりも小さな別の画像の成分を示す。 In the following, uppercase symbols, for example, (C1, C2, C3) indicate components of the first image, and lowercase symbols, for example, (c1, c2, c3) have the first dynamic range of luminance. The components of another image that are smaller than the dynamic range of the luminance of the other image are shown.
画像の輝度のダイナミック・レンジは、この画像の輝度の最小値に対する最大値の比率である。通常、SDR画像の輝度のダイナミック・レンジは、500(0.2cd/m2に対する100cd/m2)であり、HDR画像の輝度のダイナミック・レンジは、10000(0.1cd/m2に対する1000cd/m2)である。
The dynamic range of the brightness of the image is the ratio of the maximum value to the minimum value of the brightness of the image. Usually, the dynamic range of the luminance of the
以下において、プライム記号は、これらのプライム記号が大文字の記号およびプライム記号であるとき、例えば、
は、第1の画像のガンマ圧縮された成分を指し、これらのプライム記号が小文字の記号であるとき、例えば、(y’,u’,v’)は、第2の画像のガンマ圧縮された成分を指す。
In the following, the prime symbols are, when these prime symbols are uppercase symbols and prime symbols, for example:
Refers to the gamma compressed component of the first image, and when these prime symbols are lowercase symbols, for example, (y ′, u ′, v ′) is a gamma compressed component of the second image Refers to ingredients.
本願の原理は、画像の符号化/復号/再構成について説明されるが、以下に説明するように、画像のシーケンスにおける各画像が順次符号化/復号/再構成されるため、画像(映像(ビデオ))のシーケンスの符号化/復号/再構成に拡張される。 The principle of the present application will be described with respect to image encoding / decoding / reconstruction. As described below, since each image in a sequence of images is sequentially encoded / decoded / reconstructed, an image (video ( Video)) sequence encoding / decoding / reconstruction.
図1は、本願の原理の例に従って、復号された画像
(外1)
から原画像I1を現す画像I3を再構成する方法のステップを示す図である。
FIG. 1 illustrates a decoded image (outside 1) according to an example of the present principles.
FIG. 6 shows the steps of a method for reconstructing an image I 3 representing an original image I 1 from
ステップ10において、パラメータSPの組が画像I3を再構成するために取得される。これらのパラメータは、ビットストリームBから取得されるパラメータP、または少なくとも1つのパラメータPが失われている、破損している、または、グラフィックスまたはオーバーレイが付与された復号された画像
(外2)
と一致していない場合に復元されたパラメータPrである。
In
Is the restored parameter Pr .
ステップ11において、モジュールM1は、復号された画像
(外3)
を取得し、ステップ12において、モジュールM2は、パラメータSPの組を使用して復号された画像
(外4)
から画像I3を再構成する。
In
In
To reconstruct the image I3.
復号された画像データ
(外5)
は、ビットストリーム(信号)Bまたは他の任意のビットストリームから取得され、場合によっては、このビットストリームは、ローカル・メモリまたは他の任意の記憶媒体に記憶することができる。
Decoded image data (outside 5)
Is obtained from the bitstream (signal) B or any other bitstream, and in some cases this bitstream can be stored in local memory or any other storage medium.
(ステップ10)のサブステップ101において、モジュールM3は、画像I3を再構成するために必要なパラメータPを取得する。
In
(ステップ10)のサブステップ102において、モジュールM4は、パラメータPのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像
(外6)
と一致していないかどうかをチェックする。
In
Check whether it matches.
パラメータPの中に
失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像
(外7)
と一致していないものが存在しない場合には、パラメータSPの組は、パラメータPのみを含む。
Decoded image (outside 7) missing, corrupted, or with graphics or overlay in parameter P
If there is no match, the set of parameters SP includes only the parameter P.
パラメータPのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像
(外8)
と一致していない場合には、(ステップ10)のサブステップ103において、モジュールM5は、どのように上記パラメータが処理されているかを示す情報データIDを取得し、(ステップ10)のサブステップ104において、モジュールM6は、上記情報データIDに従って、復元モジュールRMiを選択し、(ステップ10)のサブステップ105において、モジュールM7は、選択された復元モジュールRMiを適用することによって、上記少なくとも1つの失われている、破損している、または一致していないパラメータを復元する。少なくとも1つの復元されたパラメータPrは、パラメータSPの組に追加される。
Decoded image (outside 8) where at least one of the parameters P is missing, corrupted, or provided with graphics or overlay
If not, in
ステップ12において、そして、上記少なくとも1つの復元されたパラメータPrを考慮して、画像I3が再構成される。
In
この方法は、複数の単一レイヤに基づく配信の解決法がパラメータの共通の組を搬送するシンタックス要素の同一の組を共有する場合に、さらに、この単一レイヤに基づく配信の解決法が、失われている、破損している、または一致していないパラメータを復元するために、様々な復元モード(処理)を必要とする場合に、単一レイヤに基づく配信の解決法のためのパラメータを取得できるようにすることによって、上記単一レイヤに基づく配信の解決法に対して画像I3の再構成の成功を保証するという利点がある。 This method is further used when multiple single-layer based delivery solutions share the same set of syntax elements that carry a common set of parameters. Parameters for single-layer based delivery solutions when you need various restoration modes (processing) to restore parameters that are missing, corrupted or mismatched Can be obtained with the advantage of ensuring the success of the reconstruction of the image I 3 over the delivery solution based on the single layer.
この方法は、さらに、CE装置、通常は、セットトップ・ボックスまたはプレイヤが復号された画像
(外9)
の上にグラフィックスを挿入する場合に、この方法は、一致していないパラメータを復号された画像I2にグラフィックス(またはオーバーレイ)を加えたものに適応したパラメータで置き換えるための特定の復元モードを選択し、グラフィックスまたはオーバーレイが付与された上記復号された画像
(外10)
から上記復元されたパラメータを使用することによって画像I3を再構成するため、これにより、何らかのちらつきのアーティファクトや所望しない効果によって再構成された画像の品質に影響が与えられることを回避するという利点がある。
This method further includes a CE device, usually a set-top box or player decoded image (outside 9)
When inserting graphics on top of this, this method uses a specific restoration mode to replace inconsistent parameters with parameters adapted to the decoded image I 2 plus graphics (or overlay) And select the above decoded image (outside 10) with graphics or overlay
The advantage of reconstructing the image I 3 by using the restored parameters from is that it avoids affecting the quality of the reconstructed image due to some flickering artifacts or unwanted effects There is.
図1を参照して説明した方法は、画像が復号された画像から再構成されなければならない場合に、様々なアプリケーションで使用することができる。 The method described with reference to FIG. 1 can be used in various applications where the image has to be reconstructed from the decoded image.
図2は、本願の原理の例に従った、コンテンツ制作および、HDRおよびSDRに対応したCEディスプレイに対する配信をサポートするエンドトゥエンド・ワークフローを示している。 FIG. 2 illustrates an end-to-end workflow that supports content production and distribution to CE displays that support HDR and SDR, in accordance with an example of the present principles.
このワークフローは、関連するメタデータを用いた単一レイヤに基づく配信に関わり、図1に例示された本願の原理の例に従って、復号された画像データ
(外11)
および取得されたパラメータSPの組から原画像データI1を表す画像I3を再構成する方法を使用した例を示している。
This workflow involves delivery based on a single layer with associated metadata, and in accordance with the example of the present principles illustrated in FIG.
And an example using a method of reconstructing an image I 3 representing original image data I 1 from a set of acquired parameters SP.
基本的には、この単一レイヤに基づく配信の解決法は、前処理部分と後処理部分とを含む。 Basically, this single layer based delivery solution includes a pre-processing part and a post-processing part.
前処理部分では、前処理段階20は、原画像I1を出力画像I12およびパラメータSPの組に分解し、スイッチング段階24は、原画像I1または出力画像I12がビットストリームBに符号化されているかどうかを判定する(ステップ23)。
In the preprocessing part, the
ステップ23において、画像I2を、従来のビデオコーデックを用いて符号化することができ、ビットストリームBは、特定のチャンネル上で伝送される、または、ビットストリームB内に埋め込まれる関連するメタデータ(パラメータSPのセット)を伴って、既存の従来の配信ネットワークにわたって搬送される。
In
変形例においては、付随するメタデータを伴ったビットストリームBは、例えば、ブルーレイ・ディスク、または、セットトップ・ボックスのメモリまたはレジスタなどの記憶媒体に記憶される。 In a variation, the bitstream B with accompanying metadata is stored on a storage medium such as a Blu-ray disc or a memory or register of a set top box, for example.
変形例においては、付随する関連するメタデータは、別の特定のチャンネルによって搬送される、または、別個の記憶媒体に記憶される。 In a variant, the associated associated metadata is carried by another specific channel or stored on a separate storage medium.
好ましくは、ビデオは、H.265/HEVCコーデック(ITUのITU−T H.265電気通信標準化部門(10/2014)、シリーズH:オーディオビジュアルおよびマルチメディア・システムズ、オーディオビジュアル・サービスのインフラストラクチャ−動画の符号化、高効率映像符号化、勧告ITU−T H.265)または、H.264/AVC(「ジェネリック・オーディオビジュアル・サービスのための先進ビデオ符号化(Advanced video coding for generic audiovisual Services)」、シリーズH:オーディオビジュアルおよびマルチメディア・システムズ、勧告ITU−T H.264、ITU電気通信標準化部門、2012年1月)を用いて符号化される。 Preferably, the video is H.264. 265 / HEVC codec (ITU-T H.265 Telecommunications Standards Division (10/2014) of ITU, Series H: Audiovisual and Multimedia Systems, Audiovisual Services Infrastructure-Video Coding, High Efficiency Video Encoding, recommendation ITU-T H.265) or H.264. H.264 / AVC ("Advanced Video Coding for Generic Audiovisual Services"), Series H: Audiovisual and Multimedia Systems, Recommendation ITU-T H.264, ITU Electric It is encoded using the communication standardization department, January 2012).
情報データIDにより、原画像I1(場合によっては、成分(C1,U’,V’)、または、Y’CbCr 4:2:0 PQ10、または、HLG10ビデオ信号によって表される)がステップ23において符号化されていることが判定されると、この原画像I1を、HEVCメイン10プロファイルで符号化することができる。
Depending on the information data ID, the original image I 1 (possibly represented by components (C1, U ′, V ′) or Y′CbCr 4: 2: 0 PQ10 or HLG10 video signal) is
情報データIDにより、出力画像I12がステップ23で符号化されていることが判定されると、出力画像I12(Y’CbCr 4:2:0 ガンマ伝達特性(標準ダイナミック・レンジ)信号として表すことができる)を、Main 10 またはMainプロファイルを含む、任意のHEVCプロファイルで符号化することができる。
If it is determined by the information data ID that the output image I 12 is encoded in
情報データIDを、関連するメタデータとして伝送することができる(ステップ23)。後処理の部分では、ビットストリームBから復号された画像
(外12)
が取得され(ステップ11)、パラメータSPの組は、図1に説明されているように取得される(ステップ10)。そして、前処理段階10とは機能的に逆である、後処理段階20は、復号された画像
(外13)
およびパラメータSPの組から画像I3を再構成する。
The information data ID can be transmitted as related metadata (step 23). In the post-processing part, the image decoded from the bit stream B (outside 12)
Are obtained (step 11), and the set of parameters SP is obtained as described in FIG. 1 (step 10). The
And reconstruct the image I 3 from the set of parameters SP.
この単一レイヤに基づく配信の解決法には、場合によっては、フォーマット適応化ステップ21、22、25、26(オプション)を含めることができる。 This single layer based delivery solution can optionally include format adaptation steps 21, 22, 25, 26 (optional).
例えば、ステップ21(オプション)において、原画像I1のフォーマットは、前処理段階20の入力の特定のフォーマット(C1,U’,V’)に適応されることができ、ステップ22(オプション)において、出力画像I12のフォーマット(c,u’,v’)もまた、符号化の前に特定の出力フォーマットに適応化させることができる。ステップ25において、復号された画像
(外14)
のフォーマットを後処理段階12の入力の特定のフォーマットに適応化させることができ、ステップ26において、画像I3を、対象の装置(例えば、セットトップ・ボックス、コネクテッドTV、HDR/SDR対応CE装置、ブルーレイ・ディスク・プレイヤ)の少なくとも1つの特性に適応化させることができ、且つ/または、復号された画像
(外15)
および画像I3または原画像I1が異なる色空間および/または色域で表される場合に、逆色域マッピングを使用することができる。
For example, in step 21 (optional), the format of the original image I 1 can be adapted to the particular format (C1, U ′, V ′) of the input of the
Can be adapted to the specific format of the input of the
And, if the image I 3, or the original image I 1 is represented by a different color space and / or color gamut, it is possible to use the inverse color gamut mapping.
このフォーマット適応化ステップ(21、22、25、26)には、色空間変換および/または色域マッピングを含めることができる。通常のフォーマット適応化処理は、RGBからYUVまたはYUVからRGBの変換、BT.709からBT.2020、またはBT.2020からBT.709、彩度成分のダウンサンプリングまたはアップサンプリングのなどに使用することができる。なお、公知のYUV色空間は、従来技術における公知のYCbCrも指す。勧告ETSIの附属書E 勧告ETSI TS 103 433 V1.1.1、リリース2016−8は、フォーマット適応化処理および逆色域マッピング(附属書D)を提供する。
This format adaptation step (21, 22, 25, 26) may include color space conversion and / or gamut mapping. Normal format adaptation processing includes RGB to YUV or YUV to RGB conversion, BT. 709 to BT. 2020, or BT. 2020 to BT. 709, can be used for down-sampling or up-sampling of the saturation component. The known YUV color space also refers to a known YCbCr in the prior art. Annex E to Recommendation ETSI
上記入力フォーマット適応化ステップ21には、さらに、原画像I1に伝達関数を適用することによって、例えば、10ビットなどの特定のビット深度に対してオリジナルの画像I1のビット深度を適応化させることを含めることができる。例えば、PQまたはHLG伝達関数を使用することができる(勧告ITU−R BT.2100−0)。
To the input
より詳細には、前処理段階20は、ステップ200〜202を含む。
More particularly, the
ステップ200において、出力画像I12の第1の成分c1は、原画像I1の第1の成分C1をマッピングすることによって取得される。
ここで、TMは、マッピング関数である。マッピング関数TMは、原画像I1の輝度のダイナミック・レンジを減少または増加させることができ、その逆の処理は、画像の輝度のダイナミック・レンジを増加または減少させることになるであろう。
In
Here, TM is a mapping function. The mapping function TM can decrease or increase the dynamic range of the luminance of the original image I 1 , and vice versa, will increase or decrease the dynamic range of the luminance of the image.
ステップ201において、出力画像I12の第2および第3の成分u’、v’が、第1の成分c1に従って、原画像I1の第2および第3の成分U’、V’を補正することによって導出される。
In
彩度成分の補正は、マッピングのパラメータのチューニングによる制御の下で管理することができる。よって色飽和度(彩度)および色相は、制御されている。 The correction of the saturation component can be managed under control by tuning the mapping parameters. Therefore, color saturation (saturation) and hue are controlled.
ステップ201に実施形態に従って、第2および第3の成分U’およびV’は、
第1の成分c1に依存した値を有するスケーリング関数
(外16)
によって除算される。
According to the embodiment in
A scaling function (outside 16) having a value dependent on the first component c 1
Divided by.
数学的に述べると、第2および第3の成分u’、v’は、
によって与えられる。
Mathematically speaking, the second and third components u ′, v ′ are
Given by.
場合によっては、ステップ202において、第1の成分c1は、以下のように、知覚された飽和度をさらに制御するように調節することができる。
ここで、aおよびbは、パラメータSPの組の2つのパラメータである。
In some cases, in
Here, a and b are two parameters of the set of parameters SP.
このステップ202は、出力画像I12の輝度を制御できるようして、出力画像I12の色と原画像I1の色との間で知覚される色の一致を保証する。
This
パラメータSPの組は、マッピング関数TMまたはその逆関数ITM、スケーリング関数
(外17)
に関連するパラメータを含むことができる。これらのパラメータは、ダイナミック・メタデータに関連しており、ビットストリームにおいて、例えば、ビットストリームBにおいて搬送される。パラメータaおよびbもまた、ビットストリームにおいて搬送することができる。
The set of parameters SP is the mapping function TM or its inverse function ITM, scaling function (outside 17)
Can include parameters related to. These parameters are related to the dynamic metadata and are carried in the bitstream, eg, bitstream B. Parameters a and b can also be carried in the bitstream.
より詳細には、後処理部分で、ステップ10において、パラメータSPの組が図1に説明したように取得される。
More specifically, in the post-processing portion, in
ステップ10の実施形態に従って、パラメータSPの組が、特定のチャンネルまたは、ビットストリームBを含む、ビットストリームから取得されたスタティック/ダイナミック・メタデータによって搬送され、場合によっては、記憶媒体に記憶される。
According to the embodiment of
ステップ11において、モジュールM1は、ビットストリームBを復号することによって復号された画像
(外18)
を取得し、復号された画像
(外19)
は、そして、SDRまたはHDR対応CEディスプレイのために利用可能となる。
In
Obtained and decoded image (outside 19)
Will then be available for SDR or HDR compliant CE displays.
より詳細には、後処理段階12は、ステップ120〜122を含む。
More particularly, the
オプションのステップ120において、復号された画像
(外20)
の第1の成分c1が以下のように調節される。
ここで、aおよびbは、パラメータSPの組のうちの2つのパラメータである。
In
The first component c 1 is adjusted as follows.
Here, a and b are two parameters in the set of parameters SP.
ステップ121において、画像I3の第1の成分C1は、第1の成分c1を逆マッピングすることによって取得される。
ステップ122において、画像I3の第2および第3の成分U’、V’が成分c1に従って復号された画像
(外21)
の第2および第3の成分u’、v’を逆補正することによって導出される。
In
Of the second and third components u ′ and v ′ of FIG.
一実施形態に従えば、第2および第3の成分u’およびv’は、第1の成分c1に依存する値を有するスケーリング関数
(外22)
によって乗算される。
According to one embodiment, the second and third components u ′ and v ′ have a scaling function (outer 22) having a value that depends on the first component c 1.
Multiplied by
数学的に述べると、2つの第1および第2の成分U’、V’は、以下によって与えられる。
図3に例示されているように、図2の方法の第1の実施形態に従って、前処理部分で、原画像I1の第1の成分C1は、以下によって、原画像I1のRGB成分から取得された線形光輝度成分Lであり、
ステップ200において、出力画像I12の第1の成分y1が上記線光成分Lをマッピングすることによって取得される。
y1=TM(L)
In
y 1 = TM (L)
ステップ201において、出力画像I12の第2および第3の成分u’、v’が、第1の成分y1に従って、第1および第2の成分U’、V’を補正することによって導出される。
In
後処理部分で、ステップ121において、画像I3の線光輝度成分Lが第1の成分c1を逆マッピングすることによって取得される。
ステップ122において、画像I3の第2および第3の成分U’、V’が第1の成分y1に従って出力画像I12の第2および第3の成分を逆補正することによって導出される。
In
ステップ122の一実施形態に従って、第2および第3の成分u’およびv’は、第1の成分y1に値が依存するスケーリング関数
(外23)
によって乗算される。
According to one embodiment of
Multiplied by
数学的に述べると、2つの第1および第2の成分U’、V’は、
によって与えられる。
Mathematically speaking, the two first and second components U ′, V ′ are
Given by.
図4に例示されているような、図2の方法の第2の実施形態に従って、前処理部で、原画像I1の第1の成分C1は、
ここでγは、好ましくは、2.4である、ガンマ係数とすることができる。
According to the second embodiment of the method of FIG. 2, as illustrated in FIG. 4, in the preprocessing part, the first component C1 of the original image I 1 is
Here, γ can be a gamma coefficient, preferably 2.4.
なお、非線形信号である、成分Y’は、線光輝度成分Lとは異なる。 The component Y ′, which is a non-linear signal, is different from the line light luminance component L.
ステップ200において、出力画像I12の第1の成分y’1は、上記成分Y’をマッピングすることによって取得される。
ステップ121において、再構成された成分
(外24)
が第1の成分y’1を逆マッピングすることによって取得される。
ここで、ITMは、マッピング関数TMの逆関数である。
In
Is obtained by inverse mapping the first component y′1.
Here, ITM is an inverse function of the mapping function TM.
再構成された成分
(外25)
は、よって、成分Y’の値のダイナミック・レンジに属する。
Reconstituted ingredients (outside 25)
Therefore belongs to the dynamic range of the value of the component Y ′.
ステップ201において、出力画像I12の第2および第3の成分u’、v’が第1の成分y’1および再構成された成分
(外26)
に従って、第1および第2の成分U’、V’を補正することによって導出される。
In
And is derived by correcting the first and second components U ′, V ′.
このステップ201により、出力画像I12の色を制御し、原画像I1の色との一致を保証できるようになる。
This
彩度成分の補正は、マッピングのパラメータのチューニングによる制御の下で管理することができる。よって、色の飽和度(彩度)および色相は、制御されている。このような制御は、通常、非パラメトリック知覚伝達関数が使用される場合には可能ではない。 The correction of the saturation component can be managed under control by tuning the mapping parameters. Therefore, color saturation (saturation) and hue are controlled. Such control is usually not possible when non-parametric perceptual transfer functions are used.
ステップ201の実施形態に従って、第2および第3の成分U’が、成分y’1に対する再構成された成分
(外27)
の比に値が依存するスケーリング関数
(外28)
によって除算される。
ここで、Ωは、原画像I1の原色に依存する定数値である(例えば、BT.2020では、1.3となる)。
According to the embodiment of
Scaling function whose value depends on the ratio of (outside 28)
Divided by.
Here, Ω is a constant value depending on the primary color of the original image I 1 (for example, 1.3 in BT.2020).
後処理部分では、ステップ121において、画像I3の成分
(外29)
が第1の成分y’1を逆マッピングすることによって取得される。
Is obtained by inverse mapping the first component y ′ 1 .
ステップ122において、画像I3の第2および第3の成分U’、V’が第1の成分
y’1および成分
(外30)
に従って、復号された画像
(外31)
の第2および第3の成分u’、v’を逆補正することによって導出される。
In
According to the decoded image (outside 31)
Of the second and third components u ′ and v ′ of FIG.
ステップ122の実施形態に従って、第2および第3の成分u’およびv’がスケーリング関数
(外32)
によって乗算される。
According to the embodiment of
Multiplied by
数学的に述べると、2つの第1および第2の成分U’、V’は、
によって与えられる。
Mathematically speaking, the two first and second components U ′, V ′ are
Given by.
マッピング関数TMは、知覚伝達関数に基づいており、その目的は、原画像I1の成分を出力画像I12の成分に変換することにより、輝度の値のダイナミック・レンジを減少(または増加)させることにある。よって、出力画像I12の成分の値は、原画像I1の成分の値よりもより低い(またはより高い)ダイナミック・レンジを有する。 The mapping function TM is based on a perceptual transfer function, the purpose of which is to reduce (or increase) the dynamic range of luminance values by converting the components of the original image I 1 into the components of the output image I 12 . There is. Thus, the component values of the output image I 12 have a lower (or higher) dynamic range than the component values of the original image I 1 .
この知覚伝達関数は、限られた組の制御パラメータを使用する。 This perceptual transfer function uses a limited set of control parameters.
図5aは、知覚伝達関数を例示している。この知覚伝達関数は、輝度成分のマッピングに使用することができるが、輝度成分のマッピングには、同様の知覚伝達関数を使用することができる。 FIG. 5a illustrates the perceptual transfer function. This perceptual transfer function can be used for luminance component mapping, but a similar perceptual transfer function can be used for luminance component mapping.
マッピングは、(図5aにおいて5000cd/m2である)マスタリング・ディスプレイ・ピーク輝度パラメータによって制御される。ブラック・レベルおよびホワイト・レベルをより良好に制御するために、コンテンツ依存したブラック・レベルとホワイト・レベルとの間の信号ストレッチングが適用される。そして、変換された信号は、図5bに例示されているような、3つの部分から構成される区分的な曲線を使用してマッピングされる。下側および上側の部分は、線形であり、険しさがshadowGainパラメータおよびhighlightGainパラメータの各々を用いて求められる。中間の部分は、2つの線形部分の間のスムーズなブリッジを提供する放物線である。クロスオーバの幅は、midToneWidthAdjFactorパラメータによって求められる。 The mapping is controlled by a mastering display peak luminance parameter (which is 5000 cd / m 2 in FIG. 5a). In order to better control the black and white levels, signal-stretching between content-dependent black and white levels is applied. The transformed signal is then mapped using a piecewise curve composed of three parts, as illustrated in FIG. 5b. The lower and upper parts are linear and the steepness is determined using the shadowGain parameter and the highlightGain parameter, respectively. The middle part is a parabola that provides a smooth bridge between the two linear parts. The width of the crossover is determined by the midToneWidthAdjFactor parameter.
マッピングを制御するパラメータの全ては、例えば、SMPTE ST 2094−20メタデータを搬送するJCTVC−W0133によって定義されるSEIメッセージを使用して搬送することができる。 All of the parameters that control the mapping can be carried using, for example, SEI messages defined by JCTVC-W0133 carrying SMPTE ST 2094-20 metadata.
図5cは、対象の従来のディスプレイ最大輝度、例えば、100cd/m2に基づいて、どのように知覚的に最適化されたビデオ信号が再び線光領域に変換されるかを示す、知覚伝達関数TM(図5a)の逆関数の例を示している。 FIG. 5c shows a perceptual transfer function showing how a perceptually optimized video signal is converted back into the linear region based on the conventional display maximum brightness of the object, eg 100 cd / m 2. An example of the inverse function of TM (FIG. 5a) is shown.
ステップ10(図1)において、パラメータSPの組が復号された画像
(外33)
から画像I3を再構成するために取得される。
In step 10 (FIG. 1), an image obtained by decoding a set of parameters SP (outside 33)
It is obtained in order to reconstruct the image I 3 from.
これらのパラメータは、ビットストリーム、例えば、ビットストリームBから取得されるメタデータから取得することができる。 These parameters can be obtained from metadata obtained from a bitstream, eg, bitstream B.
勧告ETSI TS 103 433 V1.1.1第6節、2016−08は、上記メタデータのシンタックスの例を提供している。
勧告ETSI TS 103 433 v1.1.1のシンタックスは、HDRビデオからSDRビデオを再構成するために記述されているが、このシンタックスは、任意の復号された画像
(外34)
から任意の画像I3を再構成することに拡張することができる。
The syntax of
It can be extended to reconstruct any image I 3 from.
後処理(ステップ12)は、ダイナミック・メタデータから導出される逆マッピング関数ITMおよびスケーリング関数
(外35)
の処理を行う。これは、これらの関数が第1の成分c1に依存するためである。
Post-processing (step 12) consists of inverse mapping function ITM and scaling function (outside 35) derived from dynamic metadata.
Perform the process. This is because these functions depend on the first component c1.
勧告ETSI TS 103 433 V1.1.1によれば、上記ダイナミック・メタデータは、いわゆるパラメータ・ベースのモードまたはテーブル・ベースのモードに従って搬送することができる。
According to the
パラメータ・ベースのモードは、配信ワークフローにとって有益であり、その主な目的は、ダイナミック・メタデータを搬送するために、極めて低い追加的なペイロードまたは帯域幅の使用で、直接的なSDR後方互換性サービスを提供することにある。テーブル・ベースのモードは、ローエンド端末を備えたワークフローにとって、または、HDRストリームおよびSDRストリームの双方を適切に表現するために高レベルの適応化が必要である場合に有益である。 Parameter-based mode is beneficial for delivery workflows and its main purpose is direct SDR backward compatibility with the use of very low additional payload or bandwidth to carry dynamic metadata To provide services. Table-based mode is beneficial for workflows with low-end terminals or when a high level of adaptation is required to properly represent both HDR and SDR streams.
パラメータ・ベースのモードの場合には、搬送されるべきダイナミック・メタデータは、逆関数ITMを表す輝度マッピング・パラメータ、すなわち、
tmInputSignalBlackLevelOffset、
tmInputSignalWhiteLevelOffset、
shadowGain、
highlightGain、
midToneWidthAdjFactor、
tmOutputFineTuning parameters、
である。
In the case of parameter-based mode, the dynamic metadata to be conveyed is a luminance mapping parameter representing the inverse function ITM, ie
tmInputSignalBlackLevelOffset,
tmInputSignalWhiteLevelOffset,
shadowGain,
highlightGain,
midToneWidthAdjFactor,
tmOutputFineTuning parameters,
It is.
さらに搬送されるべき他のダイナミック・メタデータは、関数
(外36)
を定義するために使用される色補正パラメータ((saturationGainNumVal、saturationGainX(i)およびsaturationGainY(i))である(ETSI勧告ETSI TS 103 433 V1.1.1節6.3.5および6.3.6)。
Other dynamic metadata to be further transported is a function (outside 36)
Are the color correction parameters ((saturationGainNumVal, saturationGainX (i) and saturationGainY (i)) (ETSI
なお、パラメータaおよびbは各々、上述したsaturationGain関数パラメータにおいて搬送される/隠されている。 Note that the parameters a and b are each carried / hidden in the above-described saturationGain function parameter.
これらのダイナミック・メタデータをSMPTE ST 2094−20仕様(勧告ETSI TS 103 433 V1.1.1 附属書A.3)にシンタックスが基づくHEVC色ボリューム再構成情報(CVRI)ユーザ・データ登録SEIメッセージを使用して伝送することができる。
These dynamic metadata are stored in the HEVC color volume reconfiguration information (CVRI) user data registration SEI message based on the SMPTE ST 2094-20 specification (
通常のダイナミック・メタデータ・ペイロードは、シーン毎に約25バイトである。 A typical dynamic metadata payload is about 25 bytes per scene.
ステップ101において、マッピング・パラメータおよび色補正パラメータを取得するめにCVRI SEIメッセージがパージングされる。
In
ステップ12において、取得されたマッピング・パラメータから逆マッピング関数ITM(いわゆるIutMapY)が再構成される(導出される)(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節7.2.3.1を参照)。
In
ステップ12において、スケーリング関数
(外37)
(IutCC)もまた、取得された色補正パラメータから再構成される(導出される)(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節7.2.3.2を参照)。
In
(IutCC) is also reconstructed (derived) from the acquired color correction parameters (see recommendation ETSI TS103 433V1.1.1 section 7.2.3.2 for further details).
テーブル・ベースのモードにおいては、搬送されるべきダイナミック・データは、逆マッピング関数ITMを表す区分的な線形曲線のピボット・ポイントである。例えば、ダイナミック・メタデータは、ピボット・ポイントの数を示すluminanceMappingNumVal、ピボット・ポイントのx値を示すLuminanceMappingX、ピボット・ポイントのy値を示すLuminanceMappingYである(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節6.2.7および節6.3.7を参照)。 In the table-based mode, the dynamic data to be conveyed is a piecewise linear curve pivot point representing the inverse mapping function ITM. For example, the dynamic metadata is a luminance MappingNumVal indicating the number of pivot points, a LuminanceMappingX indicating the x value of the pivot point, and a Luminance MappingY indicating the y value of the pivot point (for further details, see Recommendation ETSI TS103 433 V1.1). .1 see section 6.2.7 and section 6.3.7).
さらに、他の搬送するべきダイナミック・メタデータを、スケーリング関数
(外38)
を表す区分的な線形曲線のピボット・ポイントとすることができる。例えば、ダイナミック・メタデータは、ピボット・ポイントの数を示すcolorCorrectioNumVal、ピボット・ポイントのx値を示すcolorCorrectionX、ピボット・ポイントのy値を示すcolorCorrectionYである(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節6.2.8および節6.3.8を参照)。
In addition, other dynamic metadata to be transported is converted into a scaling function (outside 38).
Can be a pivot point of a piecewise linear curve representing. For example, the dynamic metadata is colorCollectionNumVal indicating the number of pivot points, colorCollectionX indicating the x value of the pivot point, and colorCollectionY indicating the y value of the pivot point (for further details, see Recommendation ETSI TS103 433 V1.1). .1 see section 6.2.8 and section 6.3.8).
これらのダイナミック・メタデータを、SMPTE ST 2094−30仕様(勧告ETSI TS 103 433 V1.1.1 附属書A.4)にシンタックスが基づくHEVC色リマッピング情報(CRI)SEIメッセージを使用して伝送することができる。
These dynamic metadata can be converted using the HEVC color remapping information (CRI) SEI message, whose syntax is based on the SMPTE ST 2094-30 specification (
通常のペイロードは、シーン毎に約160バイトである。 A typical payload is about 160 bytes per scene.
ステップ102において、(2016年12月に公開されたHEVC/H.265バージョンにおいて規定されている)CRI(カラー・リマッピング情報)SEIメッセージのパージングにより、逆マッピング関数ITMを表す区分的な線形曲線のピボット・ポイント、スケーリング関数
(外39)
を表す区分的な線形曲線のピボット・ポイントおよび彩度から輝度への入射パラメータaおよびbが取得される。
In
Pivot points of the piecewise linear curve representing and the incident parameters a and b from saturation to luminance are obtained.
ステップ12において、逆マッピング関数ITMが、この逆マッピング関数ITMを表す区分的な線形曲線に関するピボット・ポイントのものより導出される(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節7.2.3.3を参照)。
In
ステップ12において、スケーリング関数
(外40)
もまた、このスケーリング関数
(外41)
を表す区分的な線形曲線に関するピボット・ポイントのものより導出される(さらなる詳細については、勧告ETSI TS103 433V1.1.1 節7.2.3.4を参照)。
In
Also this scaling function (outside 41)
Is derived from that of the pivot point for piecewise linear curves representing (see recommendation ETSI TS103 433V1.1.1 section 7.2.3.4 for more details).
なお、後処理段階によって使用されるスタティック・メタデータもまた、SEIメッセージによって搬送することができる。例えば、パラメータ・ベースのモードまたはテーブル・ベースのモードのいずれかの選択を、勧告ETSI 103 433 V1.1.1(節A.2.2)によって定義されているような情報(TSI)ユーザ・データ登録SEIメッセージ(payloadMode)によって搬送することができる。例えば、原色または最大のディスプレイ・マスタリング表示輝度がAVC、HEVCによって定義されているようなマスタリング・ディスプレイ色ボリューム(MDCV)メッセージによって搬送される。
Note that the static metadata used by the post-processing stage can also be carried by the SEI message. For example, the choice of either a parameter-based mode or a table-based mode may be selected based on the information (TSI) user user as defined by
ステップ103の実施形態に従って、ビットストリームにおいて、情報データIDがビットストリームにおいてシンタックス要素によって明示的に信号伝達され、よって、ビットストリームをパージングすることによって取得される。
According to the embodiment of
例えば、上記シンタックス要素は、SEIメッセージの部分である。 For example, the syntax element is part of an SEI message.
一実施形態によれば、上記情報データIDは、パラメータSPの組を処理するために原画像I1に何の処理が適用されるかを識別する。 According to one embodiment, the information data ID identifies what processing is applied to the original image I 1 to process the set of parameters SP.
この実施形態によれば、そして、情報データIDを使用して、パラメータをどのように使用するかを導き、画像I3を再構成することができる(ステップ12)。 According to this embodiment, and, using the information data ID, it leads to how to use the parameters, it is possible to reconstruct the image I 3 (step 12).
例えば、情報データIDが1であれば、この情報データIDは、原HDR画像I1に対して前処理段階(ステップ20)を適用することによってパラメータSPが取得されており、復号された画像
(外42)
がSDR画像であることを示す。
For example, if the information data ID is 1, the information data ID is acquired parameter SP by applying a pre-processing stage (step 20) with respect to the original HDR image I 1, the decoded image ( 42)
Indicates an SDR image.
情報データIDが2であれば、この情報データIDは、HDR10ビット画像(ステップ20の入力)に対して前処理段階(ステップ20)を適用することによってパラメータが取得されており、復号された画像
(外43)
がHDR10画像であり、マッピング関数TMがPQ伝達関数であることを示す。
If the information data ID is 2, this information data ID is obtained by applying the preprocessing stage (step 20) to the HDR 10-bit image (input of step 20), and the decoded image (Outside 43)
Indicates an HDR10 image and the mapping function TM is a PQ transfer function.
情報データIDが3であれば、この情報データIDは、HDR10ビット画像(ステップ20の入力)に対して前処理段階(ステップ20)を適用することによってパラメータが取得されており、復号された画像
(外44)
がHLG10画像であり、マッピング関数TMが原画像I1に対するHLG伝達関数であることを示す。
If the information data ID is 3, the information data ID is obtained by applying the preprocessing stage (step 20) to the HDR 10-bit image (input of step 20), and the decoded image (Outside 44)
There is HLG10 image, indicating that the mapping function TM is HLG transfer function for the original image I 1.
ステップ103の実施形態によれば、情報データIDが黙示的に信号伝達される。
According to the embodiment of
例えば、HEVC(附属書E)またはAVC(附属書E)のVUIに存在するシンタックス要素伝達特性は、通常、使用されるべき伝達関数(マッピング関数TM)を識別する。相異なる単一レイヤの配信の解決法は、異なる伝達関数(PQ、HLG、・・・)を使用するため、シンタックス要素伝達特性を使用して使用するべき復元モードを黙示的に識別することができる。 For example, the syntax element transfer characteristic present in the VUI of HEVC (Annex E) or AVC (Annex E) usually identifies the transfer function (mapping function TM) to be used. Different single layer delivery solutions use different transfer functions (PQ, HLG,...) And therefore implicitly identify the restoration mode to use using the syntax element transfer characteristics. Can do.
情報データIDは、より上位のトランスポートまたはシステム・レイヤにおいて定義されたサービスによって黙示的に信号伝達することもできる。 The information data ID can also be implicitly signaled by services defined in higher transports or system layers.
別の例に従えば、画像I3のピーク輝度値および色空間は、ビットストリームによって搬送されるMDCV SEIメッセージをパージングすることによって取得することができ、情報データIDは、ピーク輝度値および色空間(原色)の特定の組み合わせから導くことができる。 According to another example, the peak luminance value and color space of image I 3 can be obtained by parsing the MDCV SEI message carried by the bitstream, and the information data ID is the peak luminance value and color space. It can be derived from a specific combination of (primary colors).
ステップ102の実施形態に従えば、パラメータPがビットストリームに存在しない(ビットストリームから取得されない)場合には、このパラメータPは、失われているとみなされる。
According to the embodiment of
例えば、パラメータPが上述したようなCVRIまたはCRI SEIメッセージのようなSEIメッセージによって搬送される場合、SEIメッセージがビットストリーム内で送信されない、または、SEIメッセージのパージングが失敗した場合には、パラメータPは、失われている(または存在しない)とみなされる。 For example, if the parameter P is carried by a SEI message such as a CVRI or CRI SEI message as described above, the parameter P if the SEI message is not sent in the bitstream or the parsing of the SEI message fails. Is considered lost (or absent).
ステップ103の実施形態に従って、以下の条件のうちの少なくとも1つが満たされた場合に、パラメータが破損しているとみなされる。
・パラメータの値が所定の値の範囲から外れている(例えば、適合範囲が0〜6である場合、saturation_gain_num_valは、10である)
・上記パラメータが他のパラメータ値に従ったコヒーレント値を有していない(例えば、saturation_gain_y[i]は、外れ値、すなわち、他のsaturation_gain_y[i]の値から遠く離れた値を含む。通常saturation_gain[0]からsaturation_gain[4]までは、0〜16の範囲にある値であり、saturation_gain[1]=255である。)
In accordance with the embodiment of
The value of the parameter is out of the predetermined value range (for example, when the conforming range is 0 to 6, the saturation_gain_num_val is 10)
The parameter does not have a coherent value according to other parameter values (eg, saturation_gain_y [i] includes outliers, ie, values far away from other saturation_gain_y [i] values). (From [0] to saturation_gain [4] is a value in the range of 0 to 16, and saturation_gain [1] = 255.)
本方法の実施形態に従って、復元モジュールRMiは、パラメータのうちの幾つかのみが破損していない、失われていない、または、グラフィックスまたはオーバーレイが付与されている復号された画像と一致していないとしても、復元されたパラメータPrによって全てのパラメータPを置き換える。 According to an embodiment of the method, the restoration module RM i is consistent with a decoded image in which only some of the parameters are not corrupted, lost or have graphics or overlays attached. if not, replace all parameters P by reconstructed parameter P r.
本方法の実施形態に従って、別の復元モードRMiは、失わている、破損している、または、一致していない各パラメータPを復元したパラメータPrによって置き換える。 In accordance with an embodiment of the method, different restore mode RM i is lost, corrupted, or replaced by restoring the parameters P does not match the parameter P r.
本方法の実施形態に従って、復元モードRMiは、既に記憶された所定のパラメータ値の組のうちの値によって、失われている、破損している、または、一致していないパラメータPを置き換えるものである。 According to an embodiment of the method, the restoration mode RM i replaces a lost, corrupted or inconsistent parameter P with a value from a set of predetermined parameter values already stored. It is.
例えば、所定のパラメータ値の組には、CRIおよび/またはCVRI SEIメッセージによって搬送される少なくとも1つのメタデータに対する所定の値を集めることができる。 For example, the predetermined set of parameter values may collect a predetermined value for at least one metadata carried by a CRI and / or CVRI SEI message.
所定のパラメータ値の特定の組を、例えば、情報IDによって識別される各単一レイヤに基づくの配信の解決法に対して決定することができる。 A particular set of predetermined parameter values can be determined, for example, for a delivery solution based on each single layer identified by the information ID.
表1は、3つの異なる単一レイヤに基づく配信の解決法に対する所定の値の特定の組の、非限定的な例を示している。
表1によれば、所定の値の3つの異なる組が、情報データIDに従って定義されている。これらの所定の値の組は、後処理段階によって使用される幾らかのパラメータに対して定義された復元された値である。他のパラメータは、様々な単一レイヤの解決法に対して共通の固定値に設定されている。 According to Table 1, three different sets of predetermined values are defined according to the information data ID. These predetermined value sets are the reconstructed values defined for some parameters used by the post-processing stage. The other parameters are set to a common fixed value for the various single layer solutions.
ステップ104の実施形態に従って、復元モジュールRMiが原画像(画像I1)の少なくとも1つの特性、通常は、原コンテンツのピーク輝度、または、入力画像データまたは再構成するべき画像データをグレーディングするために使用されるマスタリング・ディスプレイのピーク輝度、または、別のビデオの少なくとも1つの特性、通常は、再構成された画像I3または対象のディスプレイのピーク輝度に従って選択される。
According to the embodiment of
一実施形態に従えば、復元モードRMiは、原ビデオ(I1)の特性、または入力画像データまたは再構成するべき画像データをグレーディングするために使用されるマスタリング・ディスプレイの特性(例えば、ST2086で定義されているような特性)が存在しているかどうかをチェックし、上記特性から少なくとも1つの復元されたパラメータを算出するものである。入力ビデオの上記特性が存在せずに、マスタリング・デバイスの特性が存在しない場合には、再構成された画像I3または対象のディスプレイの特性が存在するかどうかをチェックし(例えば、CTA−861.3で定義されているようなピーク輝度)、そして、上記特性から少なくとも1つの復元されたパラメータを算出する。再構成された画像I3の上記特性が存在せず、対象のディスプレイの上記特性が存在しない場合には、少なくとも1つの復元されたパラメータは、(例えば、1000cd/m2など、ビデオ標準化委員会または産業フォーラムによって定められた)固定値である。 According to one embodiment, the restoration mode RM i is a characteristic of the original video (I 1 ) or a mastering display used for grading input image data or image data to be reconstructed (eg, ST2086). Whether or not there is a characteristic defined in (1) above, and at least one restored parameter is calculated from the characteristic. In the absence the characteristics of the input video, in the absence of the characteristics of mastering device checks whether the reconstructed image I 3, or characteristics of the object of display is present (e.g., CTA-861 .. peak luminance as defined in .3) and at least one restored parameter is calculated from the above characteristics. If the characteristic of the reconstructed image I 3 does not exist and the characteristic of the target display does not exist, the at least one restored parameter is a video standardization committee (eg, 1000 cd / m 2). Or a fixed value (as determined by the industry forum).
限定を意図しない例に従って、表2は、入力/出力コンテンツおよびマスタリング/対象のディスプレイについての利用可能な情報の存在に依存する後処理段階によって使用される幾らかのパラメータに対する復元値の例を提供する。
パラメータmatrix_coefficient_value[i]が存在する場合には、このパラメータを、MDCV SEI/ST2086メッセージをパージングすることによって取得される入力/出力ビデオ色空間、BT.709またはBT.2020(入力または出力ビデオの特性)に従って設定することができる。復元モードは、上記色空間に依存する。 If the parameter matrix_coefficient_value [i] is present, this parameter is input to the input / output video color space obtained by parsing the MDCV SEI / ST2086 message, BT. 709 or BT. Can be set according to 2020 (input or output video characteristics). The restoration mode depends on the color space.
shadow_gain_controlが存在する場合には、このパラメータを、MDCV SEI/ST 2086メッセージをパージングすることによって取得される値に従って算出することができる。 If shadow_gain_control is present, this parameter can be calculated according to the value obtained by parsing the MDCV SEI / ST 2086 message.
例えば、マスタリング・ディスプレイのピーク輝度を表す情報は、上記MDCV SEI/ST 2086メッセージから取得され、パラメータshadow_gain_controlは、(復元モード1)によって算出される。
shadow_gain_control =Clip)(0; 255; Floor(rs(hdrDisplayMaxLuminance) x 127,5 +0,5)
ここで、
である。
For example, information indicating the peak luminance of the mastering display is obtained from the MDCV SEI / ST 2086 message, and the parameter shadow_gain_control is calculated by (restoration mode 1).
shadow_gain_control = Clip) (0; 255; Floor (rs (hdrDisplayMaxLuminance) x 127,5 +0,5)
here,
It is.
サービス・レベル情報で、または特定のワークフローに対し、hdrDisplayMaxLuminanceの値が知られている可能性が高い。この値は、この特性を利用可能な場合に、対象の(出力再生する)ディスプレイのピーク輝度に設定することができる。そうでない場合(復元モード2)には、任意なデフォルト値、通常は、1000cd/m2が設定される。デフォルト値は、現行の大抵のHDR市場において、現在見かけることのある参照最大ディプレイ・マスタリング輝度に対応する。 It is likely that the value of hdrDisplayMaxLuminance is known in the service level information or for a specific workflow. This value can be set to the peak luminance of the target display (for output reproduction) when this characteristic is available. Otherwise (restoration mode 2), an arbitrary default value, usually 1000 cd / m 2 is set. The default value corresponds to the reference maximum display mastering brightness that is currently found in most current HDR markets.
図6は、本願の原理の例に従った、復号された画像データ
(外45)
およびビットストリームBから取得されたパラメータSPの組から画像I3を再構成する方法を使用した別の例を示している。
FIG. 6 illustrates decoded image data (outside 45) according to an example of the present principles.
And another example using a method of reconstructing an image I 3 from a set of parameters SP obtained from the bitstream B.
この例は、少なくとも部分的には、オーバーレイ挿入およびミキシングを行うメカニズム(例えば、セットトップ・ボックスまたはUltra Hdブルーレイ・プレイヤ)を実施し、復号された画像
(外46)
にオーバーレイが追加されなければならない旨のイベントを決定モジュールに信号伝達/送信する(通常は、overlay_present_flagを1に設定する)任意の(中間)装置で実施されるように意図されている。
This example implements, at least in part, an overlay insertion and mixing mechanism (eg, a set-top box or an Ultra Hd Blu-ray player) and a decoded image (outside 46)
It is intended to be implemented on any (intermediate) device that signals / sends an event that an overlay must be added to the decision module (usually setting overlay_present_flag to 1).
オーバーレイ(グラフィックス)が復号された画像に付与される必要がない場合には、図1に記載されているように、パラメータSPの組が取得され(ステップ10)、復号された画像
(外47)
が取得され(ステップ11)、画像I3が再構成される(ステップ12)。
If no overlay (graphics) needs to be applied to the decoded image, a set of parameters SP is obtained (step 10) and the decoded image (outside 47) as described in FIG. )
There is obtained (step 11), the image I 3 is reconstructed (step 12).
オーバーレイが復号された画像
(外48)
に付与されるべき場合には、復号された画像
(外49)
が取得され(ステップ11)、ステップ60において、合成画像I’2が復号された画像
(外50)
にグラフィックス(オーバーレイ)を付与することによって取得される。
Image with overlay decoded (outside 48)
Decoded image (outside 49)
(Step 11), and in
Is obtained by adding graphics (overlay) to.
そして、情報データIDが取得され(ステップ103)、復元モジュールが選択され(ステップ104)、選択された復元モードRMiが適用されて(ステップ105)復元されたパラメータPrが取得される。 The information data ID is acquired (step 103), the restoration module is selected (step 104), is applied Restore Mode RMi selected (step 105) the reconstructed parameter P r is obtained.
そして、画像I3は、復元されたパラメータPrおよび復号された画像
(外51)
から再構成される
Then, the image I 3 includes the restored parameter P r and the decoded image (outside 51)
Reconstructed from
一実施形態に従って、様々な態様(明るい、位、ロゴ有り・・・)の大量の画像のトレーニングを行うことによってパラメータPrが取得される。 According to one embodiment, the parameter Pr is obtained by training a large number of images of various aspects (bright, rank, logo ...).
場合によっては(図6に示されていないが)、ステップ12は、TVセットなどの遠隔装置において実施することができる。その場合、復号された画像
(外52)
にパラメータPを加えたもの、または、合成画像I’2にパラメータPrを加えたものが上記TVセットに送信される。
In some cases (not shown in FIG. 6),
To which the parameter P is added or the composite image I ′ 2 to which the parameter Pr is added is transmitted to the TV set.
図1〜図6において、モジュールは、機能ユニットであり、区別可能な物理的ユニットに関連している場合もあるし、物理的ユニットに関連していない場合もある。例えば、これらのモジュールまたはこれらモジュールの中には、ユニークな成分または回路を集合させたものもあれば、ソフトウェアの機能に寄与するものもある。これとは逆に、モジュールの中には、物理的に別体で構成されるものが存在することもある。本願の原理に準拠した装置は、純粋なハードウェア、例えば、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、フィールド・プログラマブル・ゲート・アレイ(FPGA:Field−Programmable Gate Array)、超大規模集積回路(VLSI:Very Large Scale Integration)のような専用のハードウェアを使用して実施してもよいし、装置に埋め込まれた幾つかの集積された電子部品によって実施してもよいし、ハードウェアおよびソフトウェアのコンポーネントを組み合わせることによって実施してもよい。 In FIGS. 1-6, a module is a functional unit and may be associated with a distinct physical unit or may not be associated with a physical unit. For example, some of these modules or these modules are a collection of unique components or circuits, while others contribute to software functionality. On the other hand, some modules may be physically configured separately. Devices in accordance with the principles of the present application may be pure hardware, such as Application Specific Integrated Circuits (ASICs), Field-Programmable Gate Arrays (FPGAs), and very large scale integrations. It may be implemented using dedicated hardware such as a circuit (VLSI: Very Large Scale Integration), or may be implemented with some integrated electronic components embedded in the device, or hardware And may be implemented by combining software components.
図7は、図1〜図6との関連で説明された方法を実施するように構成された装置70の例示的なアーキテクチャを表している。
FIG. 7 represents an exemplary architecture of an
装置70は、データおよびアドレス・バス71によって互いにリンクされた要素として、
例えば、DSP(Digital Signal Processor)である、プロセッサ72(またはCPU)と、
ROM(Read Only Memory)73と、
RAM(Random Access Memory)74と、
アプリケーションに対してデータを送受信するためのI/Oインタフェース75と、
バッテリ76と、を含む。
For example, a processor 72 (or CPU) that is a DSP (Digital Signal Processor),
ROM (Read Only Memory) 73,
RAM (Random Access Memory) 74,
An I /
A
一例によれば、バッテリ76は、装置の外部に存在する。上述したメモリの各々において、明細書中で「レジスタ」という用語が使用されている場合には、これは、小さな容量の領域(幾らかのビット)に対応することもあれば、非常に大きな容量の領域(例えば、プログラム全体または大容量の受信または復号されたデータ)に対応することもある。ROM73は、少なくともプログラムおよびパラメータを含む。ROM73は、本願の原理に従った技術を実行するためのアルゴリズムおよび命令を記憶することができる。電源が投入されると、CPU72は、RAM内のプログラムをアップロードし、対応する命令を実行する。
According to one example, the
RAM74は、レジスタ内のCPU72によって実行され、装置70の電源が投入された後にアップロードされたプログラム、レジスタ内の入力データ、レジスタ内の本方法の様々な状態での中間データ、さらに、レジスタ内の本方法の実行のために使用される様々な変数を含む。
The
本明細書中に記載されている実施態様は、例えば、方法またはプロセス、装置、ソフトウェア・プログラム、データストリーム、または信号の形態で実施することができる。実施態様が単一の形態の文脈でのみ説明されている場合であっても(例えば、1つの方法または1つの装置としてのみ説明されている場合であっても)、説明した特徴事項を他の形態(例えば、プログラム)で実施することもできる。装置は、例えば、適切なハードウェア、ソフトウェア、およびファームウェアで実施することができる。本方法は、例えば、装置で実施することができる。装置は、例えば、プロセッサであり、プロセッサは、一般的には、例えば、コンピュータ、マイクロプロセッサ、集積回路、または、プログラマブル・ロジック・デバイスを含む、処理装置を指す。プロセッサは、さらに、例えば、コンピュータ、携帯電話、ポータブル/パーソナル・ディジタル・アシスタント(「PDA」)、および、エンド・ユーザ間の情報の通信を容易にする他の装置などの、通信装置を含む。 The implementations described herein can be implemented, for example, in the form of a method or process, an apparatus, a software program, a data stream, or a signal. Whether an embodiment is described only in the context of a single form (eg, only described as a method or apparatus), the described features may be It can also be implemented in a form (for example, a program). The device can be implemented, for example, with suitable hardware, software, and firmware. The method can be implemented, for example, on an apparatus. An apparatus is, for example, a processor, which generally refers to a processing apparatus including, for example, a computer, a microprocessor, an integrated circuit, or a programmable logic device. The processor further includes communication devices such as, for example, computers, cell phones, portable / personal digital assistants (“PDAs”), and other devices that facilitate communication of information between end users.
一例によれば、入力ビデオまたは入力ビデオの原画像が送信元から取得される。例えば、送信元は、
ローカル・メモリ(73または74)、例えば、ビデオ・メモリまたはRAM(またはRandom Access Memory)、フラッシュ・メモリ、ROM(またはRead Only Memory)、ハードディスクと、
ストレージ・インタフェース(75)、例えば、大容量記憶装置、RAM、フラッシュ・メモリ、ROM、光学ディスクまたは磁気サポートとのインタフェースと、
通信インタフェース(75)、例えば、有線インタフェース(例えば、バス・インタフェース、広域ネットワーク・インタフェース、ローカルエリア・ネットワーク・インタフェース)または無線インタフェース(IEEE802.11インタフェースまたはBlurtooth(商標)インタフェース)などと、
ピクチャ取り込み回路(例えば、CCD(Charge−Coupled Device)またはCMOS(Complementary Metal−Oxide−Semiconductor)などのセンサ)と、
を含む要素を組み合わせたものである。
According to one example, the input video or the original image of the input video is obtained from the source. For example, the source is
Local memory (73 or 74), for example, video memory or RAM (or Random Access Memory), flash memory, ROM (or Read Only Memory), hard disk,
A storage interface (75), for example, an interface to mass storage, RAM, flash memory, ROM, optical disk or magnetic support;
A communication interface (75), for example, a wired interface (eg, a bus interface, a wide area network interface, a local area network interface) or a wireless interface (IEEE 802.11 interface or Bluetooth ™ interface);
A picture capturing circuit (for example, a sensor such as a charge-coupled device (CCD) or a complementary metal-oxide-semiconductor (CMOS));
Is a combination of elements including
例によれば、メタデータを搬送するビットストリームは、送信先に送信される。例として、これらのビットストリームのうちの1つ、または両方は、ローカル・またはリモート・メモリ、例えば、ビデオ・メモリ(74)またはRAM(74)、ハードディスク(73)に記憶される。変形例においては、ビットストリームのうちの少なくとも1つは、ストレージ・インタフェース(75)、例えば、大容量記憶装置、フラッシュ・メモリ、ROM、光学ディスクまたは磁気サポートとのインタフェースに送信され、且つ/または、通信インタフェース(75)、例えば、ポイントトゥポイント・リンク、通信バス、ポイントトゥマルチポイント・リンク、またはブロードキャスト・ネットワークとのインタフェースを介して送信される。 According to an example, a bitstream carrying metadata is transmitted to a destination. By way of example, one or both of these bitstreams are stored in local or remote memory, eg, video memory (74) or RAM (74), hard disk (73). In a variant, at least one of the bitstreams is sent to a storage interface (75), for example an interface with a mass storage device, flash memory, ROM, optical disk or magnetic support, and / or , Transmitted over a communication interface (75), eg, an interface with a point-to-point link, a communication bus, a point-to-multipoint link, or a broadcast network.
別の例によれば、メタデータを搬送するビットストリームが送信元から取得される。例示的には、ビットストリームは、ローカル・メモリ、例えば、ビデオ・メモリ(74)、RAM(74)、ROM(73)、フラッシュ・メモリ(73)、またはハードディスク(73)から読み出される。変形例においては、ビットストリームは、ストレージ・インタフェース(75)、例えば、大容量ストレージ、RAM、ROM、フラッシュ・メモリ、光学ディスクまたは磁気サポートとのインタフェースから受信され、且つ/または、通信インタフェース(75)、例えば、ポイントトゥポイント・リンク、バス、ポイントトゥマルチポイント・リンク、またはブロードキャスト・ネットワークとのインタフェースから受信される。 According to another example, a bitstream carrying metadata is obtained from a source. Illustratively, the bitstream is read from local memory, eg, video memory (74), RAM (74), ROM (73), flash memory (73), or hard disk (73). In a variant, the bitstream is received from a storage interface (75), for example an interface with mass storage, RAM, ROM, flash memory, optical disk or magnetic support and / or a communication interface (75). ), For example, from a point-to-point link, bus, point-to-multipoint link, or interface with a broadcast network.
例によれば、装置70は、上述した方法を実施するように構成され、
モバイル・デバイスと、
通信デバイスと、
ゲーム・デバイスと、
タブレット(またはタブレット・コンピュータ)と、
ラップトップと、
静止画像カメラと、
ビデオ・カメラと、
符号化チップ/復号チップと、
TVセットと、
セットトップ・ボックスと、
ディスプレイと、
静止画像サーバと、
ビデオ・サーバ(例えば、ブロードキャスト・サーバ、ビデオオンデマンド・サーバ、または、ウェブサーバ)と、
を含む要素を組み合わせたものである。
According to an example, the
A mobile device,
A communication device;
Game devices,
A tablet (or tablet computer),
With laptop,
A still image camera,
A video camera,
An encoding chip / decoding chip;
TV set,
A set-top box,
Display,
A still image server;
A video server (eg, broadcast server, video-on-demand server, or web server);
Is a combination of elements including
本明細書中で記載された様々な処理の実施態様は、様々な異なる機器やアプリケーションで実施することができる。このような機器の例は、符号化器、復号器、復号器からの出力を処理するポストプロセッサ、符号化器に入力を提供するプリプロセッサ、ビデオ符号化器、ビデオ復号器、ビデオコーデック、ウェブサーバ、セットトップ・ボックス、ラップトップ、パーソナル・コンピュータ、携帯電話、PDA、さらに、画像またはビデオを処理する他の任意の装置、または他の通信装置を含む。機器は、携帯機器でもよく、移動車両に据え付けられるものでさえよいことは明らかであろう。 The various processing embodiments described herein may be implemented in a variety of different devices and applications. Examples of such equipment are encoders, decoders, post processors that process the output from the decoder, preprocessors that provide input to the encoder, video encoders, video decoders, video codecs, web servers , Set-top boxes, laptops, personal computers, mobile phones, PDAs, and any other device that processes images or video, or other communication devices. It will be clear that the device may be a portable device and may even be installed in a moving vehicle.
さらに、方法は、プロセッサによって実行される命令によって実施されていてもよく、このような命令(および/または実施態様によって生成されるデータ)は、コンピュータ読み取り可能記憶媒体に記憶することができる。コンピュータ読み取り可能記憶媒体は、1つ以上のコンピュータ読み取り可能媒体上で実施され、コンピュータによって実行可能な、コンピュータ読み取り可能プログラム・コードが実装されたコンピュータ読み取り可能プログラム・プロダクトの形態をとることができる。本明細書中で使用されるコンピュータ読み取り可能記憶媒体は、情報を記憶する固有の機能とともに、記憶した情報を取得する固有の機能を与えられた非一時的記憶媒体であると考えられる。コンピュータ読み取り可能記憶媒体は、例えば、限定するものではないが、電子的、磁気的、光学的、電磁的、赤外線、または、半導体システム、装置、デバイスとすることができ、上記に挙げたものを任意に適宜組み合わせることができる。本願の原理を適用可能なコンピュータ読み取り可能記憶媒体のより具体的な例を以下に提供するが、列挙されている例は、例示的なものに過ぎず、網羅的なものではないことが、当業者であれば容易に理解できるであろう。ポータブル・コンピュータ・ディスク、ハードディスク、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュ・メモリ)、ポータブル・コンパクト・ディスク、読み出し専用メモリ(CD−ROM)、光学記憶装置、磁気記憶装置、または、上記に挙げたものを任意に適宜組み合わせたもの。 Further, the method may be implemented by instructions executed by a processor, and such instructions (and / or data generated by an implementation) may be stored on a computer readable storage medium. A computer readable storage medium may take the form of a computer readable program product having computer readable program code implemented thereon and executed by one or more computer readable media. As used herein, a computer-readable storage medium is considered to be a non-transitory storage medium that is provided with a unique function of storing information as well as a unique function of storing information. The computer readable storage medium can be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, device, such as those listed above. Any combination can be used as appropriate. More specific examples of computer readable storage media to which the present principles can be applied are provided below, but the listed examples are illustrative only and are not exhaustive. It can be easily understood by a trader. Portable computer disk, hard disk, read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), portable compact disk, read only memory (CD-ROM), optical storage, magnetic storage A device, or any combination of the above.
命令は、プロセッサ読み取り可能媒体上に現実的に実装されるアプリケーション・プログラムの形態をとることができる。 The instructions can take the form of application programs that are actually implemented on a processor-readable medium.
例えば、命令は、ハードウェア、ファームウェア、ソフトウェア、またはこれらを組み合わせたものとすることができる。命令は、例えば、オペレーティング・システム、別個のアプリケーション、またはこの2つを組み合わせたものに存在させることができる。よって、プロセッサは、例えば、処理を実行するように構成された装置と、処理を実行する命令を有する(記憶装置などの)プロセッサ読み取り可能媒体を含む装置の両方として特徴付けられる。さらに、プロセッサ読み取り可能媒体は、命令に追加して、または、命令の代わりに、実施態様により生成されるデータ値を記憶することができる。 For example, the instructions can be hardware, firmware, software, or a combination thereof. The instructions can reside, for example, in the operating system, a separate application, or a combination of the two. Thus, a processor is characterized, for example, as both a device configured to perform processing and a device including a processor-readable medium (such as a storage device) having instructions to perform processing. Further, the processor readable medium may store data values generated by the implementation in addition to or instead of the instructions.
実施態様により、例えば、記憶、送信可能な情報を搬送するようにフォーマットされた様々な信号を生成できることは当業者によって自明であろう。情報は、例えば、方法を実行する命令、または、上記の実施態様のうちの1つによって生成されたデータを含む。例えば、信号は、データとして、本願の原理の記載した例のシンタックスの読み書きのためのルールを保持するように、または、本願の原理の記載した例によって記述された実際のシンタックス値をデータとして保持するようにフォーマットすることができる。このような信号は、例えば、(例えば、スペクトルの無線周波数部分を使用した)電磁波として、または、ベースバンド信号としてフォーマットすることができる。フォーマット化には、例えば、データストリームを符号化することおよび符号化されたデータストリームを用いてキャリアを変調することを含めることができる。信号が搬送する情報は、例えば、アナログ情報またはディジタル情報である。信号は、公知である様々な有線リンクまたは無線リンクを介して送信することができる。信号は、プロセッサ読み取り可能媒体に記憶することができる。 It will be apparent to those skilled in the art that, depending on the implementation, various signals may be generated that are formatted to carry, for example, information that can be stored and transmitted. The information includes, for example, instructions for performing the method or data generated by one of the above embodiments. For example, the signal may have data as the actual syntax value described by the described example of the present principle, so as to hold the rules for reading and writing the syntax of the described example of the present principle. Can be formatted to hold as Such a signal can be formatted, for example, as an electromagnetic wave (eg, using the radio frequency portion of the spectrum) or as a baseband signal. Formatting can include, for example, encoding a data stream and modulating the carrier with the encoded data stream. The information carried by the signal is, for example, analog information or digital information. The signal can be transmitted over various known wired or wireless links. The signal can be stored on a processor-readable medium.
幾つかの実施態様について説明を行った。しかしながら、様々な改変を施すことができることが理解できよう。例えば、複数の異なる実施態様を組み合わせたり、補ったり、変更したり、除去したりすることで他の実施態様を生み出すことができる。さらに、当業者であれば、開示した内容を他の構造や処理で置き換えることができ、結果として得られる実施態様が、少なくとも実質的に同一の方法で、少なくとも実質的に同一の機能を実行し、少なくとも開示した実施態様と実質的に同一の効果を生み出すことが理解できよう。したがって、本出願によってこれらの実施態様およびその他の実施態様が企図される。 Several embodiments have been described. However, it will be understood that various modifications can be made. For example, other embodiments can be created by combining, supplementing, changing, or removing a plurality of different embodiments. Moreover, those skilled in the art can replace the disclosed content with other structures and processes, and the resulting embodiments perform at least substantially the same function in at least substantially the same way. It will be understood that this produces at least substantially the same effects as the disclosed embodiments. Accordingly, these and other embodiments are contemplated by this application.
Claims (13)
(外53)
)およびビットストリームから取得された(101)パラメータから原画像データ(I1)を表す画像データ(I3)を再構成する方法であって、前記パラメータは、前記原画像データ(I1)から処理されており、
前記パラメータが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していないかどうかをチェックするステップ(102)と、
前記パラメータのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していない場合に、
どのように前記パラメータが処理されているかを示す情報データ(ID、103)に従って復元モード(RMi)を選択するステップ(104)と、
前記少なくとも1つの失われている、破損している、または、一致していないパラメータを、前記選択した復元モード(RMi)、画像データ(I3)の前記再構成を適用し、さらに、復元されたパラメータ(12)を考慮することによって復元するステップ(105)と、
を含む、前記方法。 Decoded image data (
(Outside 53)
) And image data (I 3 ) representing original image data (I 1 ) from (101) parameters acquired from the bitstream, wherein the parameters are derived from the original image data (I 1 ). Has been processed,
Checking (102) whether the parameters are missing, corrupted, or inconsistent with decoded image data to which graphics or overlays have been applied;
If at least one of the parameters is missing, corrupted, or does not match the decoded image data to which graphics or overlay is applied,
Selecting a restoration mode (RMi) according to information data (ID, 103) indicating how the parameter is being processed;
Applying the reconstruction of the selected restoration mode (RMi), image data (I 3 ) to the at least one missing, corrupted or mismatched parameter and further restored Reconstructing by taking into account parameters (12),
Said method.
前記装置は、
前記パラメータが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していないかどうかをチェックする手段と、
前記パラメータのうちの少なくとも1つが失われている、破損している、または、グラフィックスまたはオーバーレイが付与されている復号された画像データと一致していない場合に、
どのように前記パラメータが処理されているかを示す情報データに従って復元モードを選択する手段と、
前記失われている、破損している、または、一致していないパラメータを、前記選択した復元モード、画像データの前記再構成を適用し、さらに、復元されたパラメータを考慮することによって復元する手段と、を含む、前記装置。 An apparatus for reconstructing image data representing original image data from decoded image data and parameters obtained from a bitstream, wherein the parameters are processed from the original image data;
The device is
Means for checking whether the parameters are missing, corrupted, or inconsistent with the decoded image data to which graphics or overlays have been applied;
If at least one of the parameters is missing, corrupted, or does not match the decoded image data to which graphics or overlay is applied,
Means for selecting a restoration mode according to the information data indicating how the parameter is being processed;
Means for restoring the lost, corrupted or inconsistent parameters by applying the selected restoration mode, the reconstruction of image data, and further considering the restored parameters And the apparatus.
前記パラメータの値が値範囲から外れている、
前記パラメータが他のパラメータ値に従ったコヒーレント値を有していない、
の条件のうちの少なくとも1つを満たしている場合に破損しているとみなされる、請求項1および3〜6のいずれか1項に記載の方法または請求2〜6のいずれか1項に記載の装置。 The parameter is
The value of the parameter is outside the value range;
The parameter does not have a coherent value according to other parameter values;
7. A method according to any one of claims 1 and 3-6 or any one of claims 2-6, which is considered to be broken if at least one of the following conditions is met. Equipment.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/868,111 US11310532B2 (en) | 2017-02-24 | 2018-01-11 | Method and device for reconstructing image data from decoded image data |
US17/669,218 US20220167019A1 (en) | 2017-02-24 | 2022-02-10 | Method and device for reconstructing image data from decoded image data |
JP2022093177A JP7340659B2 (en) | 2017-02-24 | 2022-06-08 | Method and apparatus for reconstructing image data from decoded image data |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17305212.7 | 2017-02-24 | ||
EP17305212.7A EP3367684A1 (en) | 2017-02-24 | 2017-02-24 | Method and device for decoding a high-dynamic range image |
EP17158481.6 | 2017-02-28 | ||
EP17158481 | 2017-02-28 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022093177A Division JP7340659B2 (en) | 2017-02-24 | 2022-06-08 | Method and apparatus for reconstructing image data from decoded image data |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018191269A true JP2018191269A (en) | 2018-11-29 |
JP2018191269A5 JP2018191269A5 (en) | 2021-01-28 |
JP7086587B2 JP7086587B2 (en) | 2022-06-20 |
Family
ID=60811990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017239281A Active JP7086587B2 (en) | 2017-02-24 | 2017-12-14 | Method and device for reconstructing image data from decoded image data |
Country Status (10)
Country | Link |
---|---|
US (1) | US11257195B2 (en) |
EP (2) | EP3367685B1 (en) |
JP (1) | JP7086587B2 (en) |
KR (2) | KR102458747B1 (en) |
CN (2) | CN108513134B (en) |
BR (2) | BR102017027195A2 (en) |
CA (2) | CA2989134A1 (en) |
MX (2) | MX2017016554A (en) |
RU (2) | RU2021128023A (en) |
WO (1) | WO2018153800A1 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11310532B2 (en) | 2017-02-24 | 2022-04-19 | Interdigital Vc Holdings, Inc. | Method and device for reconstructing image data from decoded image data |
US11928796B2 (en) * | 2017-12-01 | 2024-03-12 | Interdigital Patent Holdings, Inc. | Method and device for chroma correction of a high-dynamic-range image |
CN109598671A (en) * | 2018-11-29 | 2019-04-09 | 北京市商汤科技开发有限公司 | Image generating method, device, equipment and medium |
CN111654707B (en) * | 2020-06-03 | 2022-03-15 | 福建师范大学福清分校 | Information hiding method and terminal based on Russian blocks |
CN112188179B (en) * | 2020-08-28 | 2022-07-08 | 北京小米移动软件有限公司 | Image thumbnail display method, image thumbnail display device, and storage medium |
CN113592770B (en) * | 2021-06-23 | 2024-02-23 | 中国科学院南京地理与湖泊研究所 | Algal bloom remote sensing identification method for removing influence of aquatic weeds |
US11606605B1 (en) | 2021-09-30 | 2023-03-14 | Samsung Electronics Co., Ltd. | Standard dynamic range (SDR) / hybrid log-gamma (HLG) with high dynamic range (HDR) 10+ |
CN115564659B (en) * | 2022-02-28 | 2024-04-05 | 荣耀终端有限公司 | Video processing method and device |
CN114936174B (en) * | 2022-06-09 | 2024-01-30 | 中国兵器工业计算机应用技术研究所 | Image processing and fusion computing method based on ground unmanned platform |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006279388A (en) * | 2005-03-29 | 2006-10-12 | Matsushita Electric Ind Co Ltd | Apparatus and method for decoding moving picture |
US20150117551A1 (en) * | 2013-10-24 | 2015-04-30 | Dolby Laboratories Licensing Corporation | Error Control in Multi-Stream EDR Video Codec |
WO2017114016A1 (en) * | 2015-12-31 | 2017-07-06 | 中兴通讯股份有限公司 | Image encoding and decoding method, encoding and decoding device, encoder and decoder |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5856973A (en) * | 1996-09-10 | 1999-01-05 | Thompson; Kenneth M. | Data multiplexing in MPEG server to decoder systems |
US8406569B2 (en) * | 2009-01-19 | 2013-03-26 | Sharp Laboratories Of America, Inc. | Methods and systems for enhanced dynamic range images and video from multiple exposures |
CN102498720B (en) * | 2009-06-24 | 2015-09-02 | 杜比实验室特许公司 | The method of captions and/or figure lamination is embedded in 3D or multi-view video data |
EP2375751A1 (en) * | 2010-04-12 | 2011-10-12 | Panasonic Corporation | Complexity reduction of edge-detection based spatial interpolation |
TWI479898B (en) * | 2010-08-25 | 2015-04-01 | Dolby Lab Licensing Corp | Extending image dynamic range |
GB2500330A (en) * | 2010-12-03 | 2013-09-18 | Lg Electronics Inc | Receiving device and method for receiving multiview three-dimensional broadcast signal |
TWI733583B (en) * | 2010-12-03 | 2021-07-11 | 美商杜比實驗室特許公司 | Audio decoding device, audio decoding method, and audio encoding method |
US9075806B2 (en) * | 2011-02-22 | 2015-07-07 | Dolby Laboratories Licensing Corporation | Alignment and re-association of metadata for media streams within a computing device |
JP6009538B2 (en) * | 2011-04-28 | 2016-10-19 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Apparatus and method for encoding and decoding HDR images |
JP2013066075A (en) * | 2011-09-01 | 2013-04-11 | Sony Corp | Transmission device, transmission method and reception device |
MX2014003556A (en) * | 2011-09-27 | 2014-05-28 | Koninkl Philips Nv | Apparatus and method for dynamic range transforming of images. |
CN109064433B (en) * | 2013-02-21 | 2022-09-13 | 皇家飞利浦有限公司 | Improved HDR image encoding and decoding method and apparatus |
MY178217A (en) * | 2014-01-02 | 2020-10-07 | Vid Scale Inc | Methods and systems for scalable video coding with mixed interlace and progressive content |
CN111526350B (en) | 2014-02-25 | 2022-04-05 | 苹果公司 | Adaptive video processing |
US20150264345A1 (en) * | 2014-03-13 | 2015-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Method for Coding Videos and Pictures Using Independent Uniform Prediction Mode |
JP6358718B2 (en) * | 2014-05-28 | 2018-07-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Method and apparatus for encoding HDR images, and method and apparatus for use of such encoded images |
EP3051486A1 (en) * | 2015-01-30 | 2016-08-03 | Thomson Licensing | Method and apparatus for encoding and decoding high dynamic range (HDR) videos |
EP3304881B1 (en) * | 2015-06-05 | 2022-08-10 | Apple Inc. | Rendering and displaying high dynamic range content |
EP3113496A1 (en) * | 2015-06-30 | 2017-01-04 | Thomson Licensing | Method and device for encoding both a hdr picture and a sdr picture obtained from said hdr picture using color mapping functions |
WO2017019818A1 (en) | 2015-07-28 | 2017-02-02 | Vid Scale, Inc. | High dynamic range video coding architectures with multiple operating modes |
EP3131284A1 (en) * | 2015-08-13 | 2017-02-15 | Thomson Licensing | Methods, systems and aparatus for hdr to hdr inverse tone mapping |
US11277610B2 (en) * | 2015-09-23 | 2022-03-15 | Arris Enterprises Llc | Single layer high dynamic range coding with standard dynamic range backward compatibility |
-
2017
- 2017-12-14 JP JP2017239281A patent/JP7086587B2/en active Active
- 2017-12-15 MX MX2017016554A patent/MX2017016554A/en unknown
- 2017-12-15 KR KR1020170172832A patent/KR102458747B1/en active IP Right Grant
- 2017-12-15 CN CN201711360544.9A patent/CN108513134B/en active Active
- 2017-12-15 RU RU2021128023A patent/RU2021128023A/en unknown
- 2017-12-15 BR BR102017027195A patent/BR102017027195A2/en unknown
- 2017-12-15 EP EP17306780.2A patent/EP3367685B1/en active Active
- 2017-12-15 MX MX2022003583A patent/MX2022003583A/en unknown
- 2017-12-15 RU RU2017144024A patent/RU2758035C2/en active
- 2017-12-15 CA CA2989134A patent/CA2989134A1/en active Pending
-
2018
- 2018-02-19 KR KR1020197027425A patent/KR20190117686A/en not_active Application Discontinuation
- 2018-02-19 WO PCT/EP2018/053984 patent/WO2018153800A1/en unknown
- 2018-02-19 CN CN201880025039.5A patent/CN110574376B/en active Active
- 2018-02-19 US US16/488,581 patent/US11257195B2/en active Active
- 2018-02-19 CA CA3054488A patent/CA3054488A1/en active Pending
- 2018-02-19 BR BR112019017651-9A patent/BR112019017651A2/en unknown
- 2018-02-19 EP EP18704571.1A patent/EP3586509B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006279388A (en) * | 2005-03-29 | 2006-10-12 | Matsushita Electric Ind Co Ltd | Apparatus and method for decoding moving picture |
US20150117551A1 (en) * | 2013-10-24 | 2015-04-30 | Dolby Laboratories Licensing Corporation | Error Control in Multi-Stream EDR Video Codec |
WO2017114016A1 (en) * | 2015-12-31 | 2017-07-06 | 中兴通讯股份有限公司 | Image encoding and decoding method, encoding and decoding device, encoder and decoder |
Non-Patent Citations (1)
Title |
---|
PANKAJ TOPIWALA, WEI DAI, AND MADHU KRISHNAN: "AHG14: Tone Mapping Information and Related SEIs for HDR Coding", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-Y0042r4, JPN6022002769, November 2016 (2016-11-01), pages 1 - 10, ISSN: 0004688821 * |
Also Published As
Publication number | Publication date |
---|---|
US11257195B2 (en) | 2022-02-22 |
WO2018153800A1 (en) | 2018-08-30 |
KR102458747B1 (en) | 2022-10-24 |
MX2022003583A (en) | 2022-05-26 |
US20200394774A1 (en) | 2020-12-17 |
MX2017016554A (en) | 2018-11-09 |
CA3054488A1 (en) | 2018-08-30 |
RU2017144024A3 (en) | 2021-04-19 |
RU2017144024A (en) | 2019-06-17 |
CN110574376B (en) | 2022-10-21 |
RU2758035C2 (en) | 2021-10-25 |
BR102017027195A2 (en) | 2018-10-30 |
BR112019017651A2 (en) | 2020-03-31 |
CA2989134A1 (en) | 2018-08-24 |
CN108513134A (en) | 2018-09-07 |
EP3586509A1 (en) | 2020-01-01 |
EP3586509B1 (en) | 2024-05-29 |
CN110574376A (en) | 2019-12-13 |
RU2021128023A (en) | 2021-10-28 |
JP7086587B2 (en) | 2022-06-20 |
EP3367685A1 (en) | 2018-08-29 |
KR20190117686A (en) | 2019-10-16 |
CN108513134B (en) | 2023-05-26 |
KR20180098117A (en) | 2018-09-03 |
EP3367685B1 (en) | 2024-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7340659B2 (en) | Method and apparatus for reconstructing image data from decoded image data | |
JP7086587B2 (en) | Method and device for reconstructing image data from decoded image data | |
US11024017B2 (en) | Tone mapping adaptation for saturation control | |
KR102537393B1 (en) | Method and device for reconstructing HDR image | |
CN112400324B (en) | Method and apparatus for processing video signal | |
US10600163B2 (en) | Method and device for reconstructing a display adapted HDR image | |
KR102496345B1 (en) | Method and Apparatus for Color Correction During HDR to SDR Conversion | |
WO2019203973A1 (en) | Method and device for encoding an image or video with optimized compression efficiency preserving image or video fidelity | |
CN111434113B (en) | Saturation control for high dynamic range reconstruction | |
JP7074461B2 (en) | How and Devices to Reconstruct Display-Compatible HDR Images | |
CA2986520A1 (en) | Method and device for reconstructing a display adapted hdr image | |
RU2776101C1 (en) | Method and device for recovering hdr image adapted to the display | |
CN112425168B (en) | Method and apparatus for encoding image | |
KR20190059006A (en) | Method and device for reconstructing a display adapted hdr image | |
EP3528201A1 (en) | Method and device for controlling saturation in a hdr image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20171219 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180223 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181220 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181227 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20191106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220513 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7086587 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |