WO2015076616A1 - 신호 송수신 장치 및 신호 송수신 방법 - Google Patents

신호 송수신 장치 및 신호 송수신 방법 Download PDF

Info

Publication number
WO2015076616A1
WO2015076616A1 PCT/KR2014/011262 KR2014011262W WO2015076616A1 WO 2015076616 A1 WO2015076616 A1 WO 2015076616A1 KR 2014011262 W KR2014011262 W KR 2014011262W WO 2015076616 A1 WO2015076616 A1 WO 2015076616A1
Authority
WO
WIPO (PCT)
Prior art keywords
video data
video
wcg
information
color
Prior art date
Application number
PCT/KR2014/011262
Other languages
English (en)
French (fr)
Inventor
오현묵
서종열
황수진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020167014563A priority Critical patent/KR101832779B1/ko
Priority to US15/034,735 priority patent/US20160295220A1/en
Priority to EP14863879.4A priority patent/EP3073742A4/en
Priority to JP2016533135A priority patent/JP2017500787A/ja
Publication of WO2015076616A1 publication Critical patent/WO2015076616A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440227Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software

Definitions

  • the present invention relates to a signal transmission and reception apparatus and a signal transmission and reception method.
  • WCG Wide color gamut
  • WCG service a video service or content that provides a WCG based color gamut.
  • An image acquisition device or display device capable of accurately acquiring or expressing WCG-based colors is under development. For a certain period of time, services including wide color gamut images such as UHD broadcasting will be provided through existing image capturing devices and display devices.
  • An object of the present invention is to provide a signal transmission / reception method and a signal transmission / reception apparatus for displaying an image service based on a wide color gamut.
  • Another object of the present invention is to provide a signal transmission / reception method and a signal transmission / reception apparatus capable of providing compatible WCG content in an existing receiver.
  • Another object of the present invention is to provide a signal transmission / reception method and a signal transmission / reception apparatus, in which a wide-area color space based video service may be provided compatible with a plurality of display devices.
  • Another object of the present invention is to provide a signal transmission / reception method and a signal transmission / reception apparatus capable of providing a broadcast service that expresses WCG information of a content in a compatible manner.
  • encoding base layer video data and enhancement video data capable of providing scalable wide color gamut (WCG) video service, and signaling capable of composing the scalable WCG video data, respectively Generating information, outputting a stream multiplexed with the generated signaling information and the encoded base layer video data and the encoded enhancement video data, and transmitting the multiplexed stream;
  • WCG wide color gamut
  • the signaling information may include information for identifying the scalable wide color gamut (WCG) video service.
  • the encoded base layer video data or the encoded enhancement video data may include color gamut mapping information, color bit depth information, or color mapping information that may render the scalable Wide Color Gamut (WCG) video service.
  • the branch may include metadata.
  • an encoder for encoding base layer video data and enhancement video data capable of providing a scalable wide color gamut (WCG) video service, and configured to configure the scalable WCG video data
  • WCG wide color gamut
  • a signaling information encoder for encoding signaling information, a multiplexer for outputting a multiplexed stream of the generated signaling information and the encoded base layer video data and the encoded enhancement video data, and a transmitter for transmitting the multiplexed stream It provides a signal transmission apparatus comprising a.
  • receiving a stream including base layer video data and enhancement video data that may constitute scalable wide color gamut (WCG) video data and demultiplexing the received stream Outputting video data and signaling information including base layer video data and enhancement video data, decoding the demultiplexed signaling information, and based on the decoded signaling information; And decoding the enhancement video data to output legacy UHD video or WCG video.
  • WCG wide color gamut
  • a receiver for receiving a stream including base layer video data and enhancement video data capable of composing scalable wide color gamut (WCG) video data, and demultiplexing the received stream
  • a demultiplexer configured to output video data and signaling information including base layer video data and enhancement video data, a decoder to decode the demultiplexed signaling information, and the base layer video data based on the decoded signaling information or
  • a video decoder for decoding the enhancement video data to output legacy UHD video or WCG video.
  • the WCG video is a color gamut mapping of the base layer video data using the color gamut mapping information based on the enhancement layer video data, or a color bit of the base layer video data using the color bit depth information.
  • the depth can be configured by upscaling.
  • a wide-area color space based video service can be displayed regardless of the display device.
  • the existing receiver can provide compatible WCG content.
  • an image service based on a wide color space may be provided to be compatible with a plurality of display devices.
  • FIG. 1 illustrates an embodiment of a signal transmission method according to the present invention.
  • FIG. 2 is a diagram illustrating a method of expressing WCG content according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of a WCG video configuration unit according to an embodiment of the present invention.
  • FIG. 4 illustrates another example of a WCG video configuration unit according to an embodiment of the present invention.
  • FIG. 5 illustrates a post processing unit 190 according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of generating scalable WCG video according to an embodiment of the present invention.
  • FIG 7 illustrates another example of configuring WCG video according to an embodiment of the present invention.
  • PMT broadcast signaling information
  • FIG 9 illustrates a case where a stream descriptor describing a scalable WCG video service is located in a PMT according to an embodiment of the present invention.
  • FIG. 10 illustrates an example of a descriptor WCG_sub_stream_descriptor disclosed in accordance with an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating syntax for a payload of an SEI region of video data according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating metadata of a scalable WCG video included in a payload of an SEI region disclosed according to an embodiment of the present invention.
  • FIG. 13 illustrates a method of arbitrarily representing color gamut information of base layer video data or enhancement layer video data in metadata of scalable WCG video according to an embodiment of the present invention
  • FIG. 14 is a diagram illustrating information (original_UD_video_type) of an original UHD video format among metadata of scalable WCG video according to an embodiment of the present invention.
  • FIG. 16 illustrates in detail color gamut information of a video of an enhancement layer of metadata of a scalable WCG video according to an embodiment of the present invention
  • 17 is a diagram illustrating in detail color gamut mapping function information for obtaining a WCG video of metadata of a scalable WCG video according to an embodiment of the present invention.
  • FIG. 18 is a diagram illustrating broadcast signaling information as an embodiment of the present invention that can implement such an embodiment.
  • 19 illustrates another syntax for a payload of an SEI region of video data according to an embodiment of the present invention.
  • FIG. 20 illustrates another example of metadata of scalable WCG video included in a payload of an SEI region disclosed according to an embodiment of the present invention.
  • 21 is a view illustrating an example of color gamut mapping information included in metadata of a scalable WCG video according to an embodiment of the present invention.
  • FIG. 22 is a diagram illustrating color gamut mapping matrix type information (matrix_composition_type) that can be used to map color gamut information according to an embodiment of the present invention.
  • FIG. 23 is a table illustrating color gamut mapping matrix type information included in metadata of WCG video according to an embodiment of the present invention.
  • the normalized primary matrix according to 709 shows a detailed color mapping matrix embodiment
  • FIG. 24 is a diagram illustrating an embodiment in which a color gamut mapping matrix type information included in metadata of a WCG video is normalized based on a color primary value of a current image according to an embodiment of the present invention
  • FIG. 25 is a diagram illustrating a conversion equation representing a coefficient (gamut_mapping_coeff [i]) for color space conversion among color gamut mapping information included in metadata of a WCG video according to an embodiment of the present invention.
  • FIG. 26 is a diagram illustrating types of Look Up Table (LUT) according to LUT_type field among color gamut mapping information included in metadata of WCG video according to an embodiment of the present invention.
  • LUT Look Up Table
  • 27 is a diagram illustrating broadcast signaling information as an embodiment of the present invention.
  • FIG. 28 is a diagram for describing a specific example including a descriptor for signaling a scalable WCG video included in such broadcast signaling information as an embodiment of the present invention.
  • 29 is a diagram illustrating another example in which signaling information for signaling scalable WCG video is included in broadcast signaling information according to an embodiment of the present invention.
  • FIG. 30 is a diagram illustrating another example in which signaling information for signaling scalable WCG video is included in broadcast signaling information as an embodiment of the present invention.
  • FIG. 31 is a diagram illustrating another example in which signaling information for signaling scalable WCG video is included in broadcast signaling information as an embodiment of the present invention.
  • FIG. 33 is a view showing another embodiment of a signal transmission apparatus according to an embodiment of the present invention.
  • 34 is a diagram illustrating an example of a signal receiving apparatus according to an embodiment of the present invention.
  • 35 is a diagram illustrating an example of a signal receiving method according to an embodiment of the present invention.
  • a content having a wide color gamut (WCG) and a display device capable of expressing the same are introduced in a broadcast, it is necessary to supply appropriate content according to the range of color representation of a display that a consumer has.
  • WCG wide color gamut
  • content corresponding to each display color expression characteristic should be supplied.
  • bandwidth for a broadcast service is limited, generating and providing the same content in a different color space has a problem of using twice the bandwidth, which is a big burden for a broadcaster or a content provider.
  • a broadcast service having different color spaces may be provided using multiple layer data according to scalable coding for color gamut in a content, and bandwidth may be efficiently used. An example is disclosed.
  • the WCG video refers to a video (content) in which the color representation of the content is expressed according to the range of the WCG.
  • FIG. 1 is a view showing an example of a signal transmission method according to an embodiment of the present invention.
  • Base layer video data and enhancement video data which may constitute scalable WCG video data, are encoded, respectively (S110).
  • signaling information constituting scalable WCG video data may be included in metadata in base layer video data or enhancement video data. Examples of metadata will be described with reference to FIGS. 11 to 17 and 19 to 26.
  • Signaling information capable of composing scalable WCG video data is generated (S120).
  • the signaling information of this step refers to system level signaling information as broadcast signaling information. A detailed example thereof will be described with reference to FIGS. 8, 10, 18, and 27-31.
  • the generated signaling information, the encoded base layer video data, and the enhancement video data are multiplexed and output (S130).
  • the multiplexed stream is transmitted (S140).
  • the receiver may reconstruct the WCG video with the data of the enhancement layer video data and the color bit depth of the base layer video data compatible with the legacy UHD video.
  • the receiver may reconstruct the WCG video with color gamut mapped data of enhancement layer video data and base layer video data compatible with legacy UHD video.
  • the WCG video may be displayed according to the performance of the display device of the receiver, or the legacy UHD video may be output using only base layer video data.
  • FIG. 2 is a diagram illustrating a method of expressing WCG content according to an embodiment of the present invention. This figure illustrates an embodiment of the operation of the receiver considering backward compatibility for WCG content.
  • the conventional receiver decodes the video data, and then the existing receiver transmits the base layer video data (legacy UHD color gamut video).
  • the WCG image may be displayed on an existing display, and the WCG image may be displayed on a display capable of expressing WCG content using WCG display using enhancement layer video data.
  • the first demultiplexer 110 demultiplexes the UHD base layer video stream from the stream.
  • the base layer video stream transmits UHD video (hereinafter, legacy UHD video or legacy UHD color gamut video) data that can be displayed on an existing display.
  • UHD video hereinafter, legacy UHD video or legacy UHD color gamut video
  • the base layer decoder 120 decodes the demultiplexed UHD base layer video stream and outputs legacy UHD video data.
  • the base layer decoder 120 may be codec capable of HEVC decoding.
  • the color conversion unit (EOTF) 130 converts and outputs legacy UHD video data. Then, the existing UHD display (legacy UHD display) 200 can express the color-converted legacy UHD video data.
  • the upscaler 150 upscales the color bit depth of legacy UHD video data output by the color conversion unit (EOTF) 130 so that the bit depth representing the color is upscaled. scaled UHD base layer) Outputs video data.
  • the color conversion unit (EOTF) 130 may upscale UHD base layer video data having a color 8-bit depth to UHD base layer video data having a 10-bit depth.
  • the second demultiplexer 160 demultiplexes the UHD enhancement layer video stream from the stream.
  • the first demultiplexer 110 and the second demultiplexer 160 may operate as one demultiplexer.
  • the enhancement layer decoder 120 decodes the demultiplexed UHD enhancement layer video stream and outputs WCG enhancement layer video data so that content can be represented in the WCG color space.
  • the WCG video configuration unit 180 outputs the WCG video using the WCG enhancement layer video data and the upscaled UHD base layer video data output by the upscaler 150.
  • WCG video refers to video in which the color representation of the content is represented according to the range of WCG.
  • WCG video data compatible with an existing display using scalable coding is referred to as scalable WCG video hereinafter.
  • the post processing unit 190 post-processes the scalable WCG video configured using the other layer data to more naturally output the converted color to the WCG display 300.
  • signaling information on the UHD broadcasting service may be used.
  • the existing receiver may identify the UHD service and then the receiver itself may not process the enhancement layer video data itself or may be acquired through the enhancement layer video data. If it is determined that the WCG video cannot be displayed on the display device, only the base layer video may be decoded and output.
  • the existing receiver cannot process video using signaling information about the UHD service, for example, the UHD service type in the signaling information or service descriptors describing the UHD service (hereinafter, UD_program_descriptor () or UD_program_format_type, etc. to be described below).
  • the data can be identified. Signaling information on the broadcast service will be described later.
  • the WCG display 300 plays back the final WCG video obtained using the enhancement layer video data.
  • the post processing unit 190 may not perform separate image processing. However, if the display device can express more various colors, or if the manufacturer can provide a color expression suitable for the characteristics of the display panel, the improved color may be provided through the post processing unit 190 related to the WCG information. In this case, signaling information of a broadcast service may be used as a criterion for determining color gamut of content, which will be described later.
  • the WCG video configuration unit 180 outputs WCG video, which is WCG content, using the upscaled UHD base layer video and WCG enhancement layer video.
  • WCG video may be configured by enhancing the color of the video in detail using signaling information on the broadcast service.
  • the WCG video composition unit 180 may include a color detail enhancement unit for recovering color of the original image from the base layer video using residual video data of the enhancement layer. The description thereof will be described later with reference to FIG. 6.
  • the WCG video composition unit 180 may include a color gamut mapping unit 182 and a color enhancement processor 184.
  • the color gamut mapping unit 182 maps the color gamut of the base layer video data to an area capable of expressing WCG color for the upscaled UHD base layer video using the signaling information on the broadcast service. Then, the color enhancement processor 184 composes and outputs the WCG video by enhancing the color of the video by using the mapped base layer video data and the residual video data of the enhancement layer.
  • the residual video data is composed of a difference between base layer data in which color gamut is mapped in the WCG region and original video data.
  • the final WCG video can be composed by adding the base layer data mapped with the color gamut and the residual video data to the WCG region. This will be backed out below with reference to FIG.
  • the color gamut mapping unit 182 expands the color gamut of the base layer video and maps the color gamut to the video of the color gamut adjacent to the WCG video of the original image.
  • the color gamut mapping unit 182 may know color gamut information of each layer data through signaling information (BL_video_color_gamut_type field and EL_video_color_gamut_type field) to be described later, and the color gamut information about the start and end points of the color gamut. You can get information.
  • the base layer video is BT. 709 has a video color format defined by 709 and the enhancement layer video is BT. If the color gamut mapping function of the color gamut mapping unit 182 has a video color format defined as 2020, the color gamut mapping function is BT. 709 defines the video as BT. Performs mapping with video defined by 2020.
  • Color gamut mapping can be implemented in a variety of ways. If you do not need a separate mapping between two layers (if you do not need the enhancement information of the enhancement layer), or if mapping is performed independently for each channel, if you are mapping using a linear matrix, In some cases, mapping is done point-by-point using a lookup table (LUT).
  • LUT lookup table
  • Such a color gamut mapping method may be signaled with signaling information (EL_gamut_mapping_type) to be described later, and the color gamut mapping unit may obtain a specific parameter through this signaling information.
  • signaling information EL_gamut_mapping_type
  • the color gamut mapping may be added as part of scalable coding, or may operate in conjunction with a color correction matrix of a post processing part for existing image quality processing. That is, the post processing unit may perform a gamut mapping by recognizing a coefficient according to a color gamut mapping function according to the signaling information EL_gamut_mapping_type. This will be described in detail as follows.
  • FIG. 5 is a diagram illustrating a post processing unit 190 according to an embodiment of the present invention.
  • the post processing unit may include a tone mapping unit, a transfer curve unit, and / or a color correction matrix unit.
  • the post processing unit 190 may perform tone mapping on the WCG video, or perform post-processing such as a color correction matrix that changes the color using a color addition conversion curve or performs color gamut mapping. Accordingly, the post processing unit 190 may output WCG video with enhanced WCG video color.
  • the base layer video data is BT. 709, video data defined in 8-bit depth color, the base layer video data upscaled to 10-bit depth color is BT. 709, 10 bit.
  • WCG video data is BT. It may be a 10-bit depth video defined as 2020. Therefore, the difference between the WCG video data and the base layer video data upscaled to 10 bit depth may be residual video data of scalable video coding.
  • FIG. 3 illustrates a process of reconstructing WCG video data using two video differences.
  • FIG. 7 is a diagram illustrating another example of configuring WCG video according to an embodiment of the present invention.
  • WCG video data is BT. 10 bit depth video defined in 2020
  • the base layer video data is BT. 709, video data defined as 8 bits.
  • color-map the base layer video data It can be mapped to a video having a 10-bit depth defined by 2020.
  • the difference between the WCG video data and the color gamut-mapped base layer video data may be residual video data of scalable video coding.
  • the WCG video data can be reconstructed by adding color gamut-mapped base layer video data and residual video data.
  • the description of this figure corresponds to the embodiment of FIG. 4.
  • the embodiment disclosed below may provide signaling information according to the example of FIG. 3 or 6 or the example of FIG. 4 or 7.
  • the disclosed embodiment delivers a color gamut scalable video configuration method of composing WCG video using residual data of an enhancement layer at a system level of a broadcast, and transmits it to a decoder when decoding enhancement layer video.
  • an embodiment of the present invention may transmit signaling information for WCG video configuration in an SEI message.
  • the PMT can transmit information of a codec type, a profile information, a level information, and a tier information of the video data to the enhancement layer decoder through the WCG_sub_stream_descriptor to be described later.
  • video related metadata such as color gamut information and gamut mapping parameters of the original video and the WCG video may be transmitted and received.
  • the signaling information of the broadcast system level of the WCG video transmitted by scalable coding is as follows.
  • FIG. 8 is a diagram illustrating broadcast signaling information as an embodiment of the present invention.
  • the PMT and the signaling information included therein among the broadcast signaling information are described below.
  • PMT may be in accordance with the disclosure in ISO / IEC 13818-1. If this field is described using this, it is as follows.
  • the table_id field indicates an 8-bit identifier indicating the type of a PMT table section (table_id-This is an 8-bit field, which in the case of a TS_program_map_section shall be always set to 0x02).
  • the section_syntax_indicator field is a 1-bit field set to 1 for a VCT table section (section_syntax_indicator-The section_syntax_indicator is a 1-bit field which shall be set to '1'.
  • program_number-program_number is a 16-bit field.It specifies the program to which the program_map_PID is applicable.One program definition shall be carried within only one TS_program_map_section.This implies that a program definition is never longer than 1016 (0x3F8) . See Informative Annex C for ways to deal with the cases when that length is not sufficient.
  • the program_number may be used as a designation for a broadcast channel, for example.By describing the different program elements belonging to a program, data from different sources (eg sequential events) can be concatenated together to form a continuous set of streams using a program_number.)
  • the version_number field indicates the version number of the VCT (version_number-This 5-bit field is the version number of the TS_program_map_section.The version number shall be incremented by 1 modulo 32 when a change in the information carried within the section occurs.Version number refers to the definition of a single program, and therefore to a single section.When the current_next_indicator is set to '1', then the version_number shall be that of the currently applicable TS_program_map_section.When the current_next_indicator is set to '0', then the version_number shall be that of the next applicable TS_program_map_section)
  • section_number-The value of this 8-bit field shall be 0x00
  • the last_section_number field indicates the number of the last section (last_section_number-The value of this 8-bit field shall be 0x00.)
  • PCR_PID indicates the PID of the TS packet including the PCR field of the program specified by the program number (PCR_PID-This is a 13-bit field indicating the PID of the Transport Stream packets which shall contain the PCR fields valid for the program specified by program_number. If no PCR is associated with a program definition for private streams, then this field shall take the value of 0x1FFF.)
  • the program_info_length field indicates the length of the program level descriptor after this field (program_info_length-This is a 12-bit field, the first two bits of which shall be '00'.The remaining 10 bits specify the number of bytes of the descriptors immediately following the program_info_length field)
  • the stream_type field indicates the type of the program element stream (stream_type-This is an 8-bit field specifying the type of program element carried within the packets with the PID whose value is specified by the elementary_PID).
  • ES_info_length field indicates the length of the program element level descriptor (ES_info_length-This is a 12-bit field, the first two bits of which shall be '00'.The remaining 10 bits specify the number of bytes of the descriptors of the associated program element immediately following the ES_info_length field)
  • CRC 32 field indicates a 32-bit field containing a CRC value (CRC_32-This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder).
  • the PMT may include program level descriptors and elementary stream level descriptors.
  • PMT is a legacy enhancement layer video that is the difference between base layer video data, legacy UHD video compatible with existing displays, and WCG video and legacy UHD video (or video whose color bit depth is upscaled).
  • Descriptors that can describe programs that can compose WCG video using data can be included at the program level.
  • a UD_program_descriptor immediately after the program_info_length field of the PMT may signal a program for composing WCG video.
  • the program composes scalable WCG video using base layer video data and residual enhancement layer video data compatible with legacy UHD video as described above. It can be a program (hereinafter referred to as WCG configuration program).
  • the PMT may include a descriptor (WCG_sub_stream_descriptor ()) including stream information about a program constituting a scalable WCG video service in a stream level descriptor. This will be described in detail below.
  • FIG. 9 is a diagram illustrating a case where a stream descriptor describing a scalable WCG video service is located in a PMT according to an embodiment of the present invention.
  • the stream_type field is 0x24
  • the elementary_PID field may have a value of 0x109A.
  • the HEVC_video_descriptor () is located in the PMT, it may indicate that the video stream is coded with HECV, and a descriptor describing the HEVC video may be included.
  • the stream_type field is 0xA1
  • this may represent a video stream according to the HEVC scalable layer video codec.
  • the elementary_PID may have 0x109B.
  • WCG_sub_stream_descriptor () which is a descriptor for describing streams constituting the video, may be located at the stream level of the PMT.
  • WCG_sub_stream_descriptor () may include information about an enhancement layer of the scalable WCG video service and configuration information of the scalable WCG video service.
  • WCG_sub_stream_descriptor is a descriptor including information about a stream constituting the WCG video service.
  • the descriptor_tag field represents a unique code value indicating that it is a WCG_sub_stream_descriptor.
  • the descriptor_length field represents the total length of the WCG_sub_stream_descriptor.
  • the EL_video_codec_type field indicates the codec of the video element constituting the scalable WCG video. For example, it may have the same value as stream_type of PMT.
  • the EL_video_profile field indicates a profile for the video stream, that is, a basic specification for decoding the stream. Bit depth information (8-bit, 10-bit, etc.) of the video stream and requirement information about a coding tool may be included.
  • the EL_video_level field defines the level of the corresponding video stream, that is, to what extent the description element defined in the profile is supported.
  • the EL_video_level field may include resolution information, frame rate information or bit rate information.
  • the EL_video_tier field may indicate tier information about a corresponding video stream.
  • signaling information of video level of scalable WCG video is as follows.
  • Information constituting the scalable WCG video may be included in the video level.
  • the SEI message of the video data may include information about the scalable WCG video.
  • FIG. 11 illustrates syntax for a payload of an SEI region of video data according to an embodiment of the present invention.
  • the SEI message may include information (UDTV_scalable_color_gamut_service_info (payloadSize)) signaling the format of scalable WCG video data as illustrated. This signaling information represents metadata of scalable WCG video.
  • An embodiment of parsing video data according to syntax illustrated by a decoder of a receiver is as follows.
  • the decoder When the decoder decodes the video data, it parses the AVC or HEVC NAL unit from the video element stream. If the nal_unit_type value corresponds to SEI data and payloadType is 52 in the SEI data, information according to the UDTV_scalable_color_gamut_service_info can be obtained.
  • UDTV_scalable_color_gamut_service_info (payloadSize), which is information signaling the format of scalable WCG video data in the payload region of the SEI region, may include a field (UD_program_format_type) indicating format information of UHD video data.
  • metadata of the scalable WCG video may include metadata (WCG_substream_metadata).
  • WCG_substream_metadata The metadata of the scalable WCG video is described in detail below.
  • FIG. 12 is a diagram illustrating metadata of a scalable WCG video included in a payload of an SEI region disclosed according to an embodiment of the present invention.
  • information about color gamut of each of the base layer and enhancement layer video data and information that can extend color gamut information of the base layer data of the sub stream are provided. It may include.
  • the metadata of the scalable WCG video may describe a method of extending the color gamut of the base layer by using a substream of the enhancement layer data. A detailed description of each item follows.
  • the original_UD_video_type field is information about a UHD video format and indicates basic information of base layer video data such as a resolution and a frame rate of a video. Or, it may represent video information corresponding to a video having a higher quality than a base layer and a video based on the same. Detailed examples thereof will be described later.
  • the BL_bitdepth field represents bit depth information of base layer video data.
  • EL_bitdepth_diff A value representing bit depth information of the scalable WCG video that will be finally obtained using enhancement layer video data.
  • the BL_video_color_gamut_type field represents color gamut of base layer video data. Detailed examples thereof will be described later.
  • the EL_video_color_gamut_type field represents color gamut of video generated by enhancement layer video data. Detailed examples thereof will be described later.
  • the EL_gamut_mapping_type field represents information about a gamut mapping function used to obtain a final WCG image.
  • RGBW_primaries () is a color that can define the color gamut when the color gamut type of base layer video data or enhancement layer video data uses an arbitrary value other than a predetermined value, that is, R, G, Information indicating coordinates on the color space of B and W (white).
  • a random value may be set for a color gamut of video data to be described below. Can be used. Detailed examples thereof will be described later.
  • FIG. 13 is a diagram illustrating a method of arbitrarily representing color gamut information of base layer video data or enhancement layer video data in metadata of scalable WCG video according to an embodiment of the present invention.
  • the color_primary_r_x field represents the x coordinate of the R color of the color space (for example, CIE 1931). It can be used to determine whether the viewer's display includes targeted color gamut information.
  • the color_primary_r_x field may represent a binary value for a value between 0 and 1, or may indicate a difference from a reference value.
  • the color_primary_r_y field represents the y coordinate of the R color of the color space (for example, CIE 1931). It can be used to determine whether the viewer's display includes targeted color gamut information.
  • the color_primary_r_y field may represent a binary value for a value between 0 and 1, or may indicate a difference value from a reference value.
  • the color_primary_g_x field indicates the x coordinate of the G color of the color space (for example, CIE 1931). It can be used to determine whether the viewer's display includes targeted color gamut information.
  • the color_primary_g_x field may represent a binarized value for a value between 0 and 1, or may indicate a difference from a reference value.
  • the color_primary_g_y field indicates the y coordinate of the G color of the color space (for example, CIE 1931). It can be used to determine whether the viewer's display includes targeted color gamut information.
  • the color_primary_g_y field may represent a binary value for a value between 0 and 1, or may indicate a difference value from a reference value.
  • the color_primary_b_x field represents the x coordinate of B color of the color space (for example, CIE 1931). It can be used to determine whether the viewer's display includes targeted color gamut information.
  • the color_primary_b_x field may represent a binary value for a value between 0 and 1, or may indicate a difference value from a reference value.
  • the color_primary_b_y field represents the y coordinate of the B color of the color space (for example, CIE 1931). It can be used to determine whether the viewer's display includes targeted color gamut information.
  • the color_primary_b_y field may represent a binary value for a value between 0 and 1, or may indicate a difference value from a reference value.
  • the white_primary_x field indicates the x coordinate value in the color space when an arbitrary color temperature is specified.
  • the white_primary_x field may send a binary value for a value between 0 and 1, and may also be expressed as a difference between a reference color temperature and an arbitrary color temperature.
  • the white_primary_y field indicates the y coordinate value in the color space when an arbitrary color temperature is specified.
  • the white_primary_y field may send a binary value for a value between 0 and 1, and may also be expressed as a difference between a reference color temperature and an arbitrary color temperature.
  • FIG. 14 is a diagram illustrating information (original_UD_video_type) of an original UHD video format among metadata of scalable WCG video according to an embodiment of the present invention.
  • the information on the original UHD video format among the metadata of the scalable WCG video is information on the UHD video format as described, and the original UHD video format such as the resolution information of the video, the frame rate information, and the like. It can represent information about.
  • the information about the original UHD video format may indicate basic information about the base layer video data.
  • Information on the UHD video format is the resolution and frame rate of the video is 3840 x 2160 (60p), 3840 x 2160 (120p), 4096 x 2160 (60p), 4096 x 2160 (120p), 7680 x 4320 (60p), 7680 x 4320 (120p), 8192 x 4320 (60p), 8192 x 4320 (120p), where p represents a progressive scheme.
  • the color space information of the color gamut of the video of the base layer among the metadata of the scalable WCG video according to the embodiment of the present invention is BT. 601, BT. 709, DCI-P3, BT. 2020 (NCL), BT. Information indicating a specific color space, such as 2020 (CL), XYZ, and User defined.
  • the color gamut information of the video of the enhancement layer among the metadata of the scalable WCG video according to the embodiment of the present invention is BT. 601, BT. 709, DCI-P3, BT. 2020 (NCL), BT. It may refer to a specific color gamut format, such as 2020 (CL), XYZ, and User defined.
  • FIG. 17 is a diagram illustrating in detail color gamut mapping function information for obtaining a WCG video among metadata of a scalable WCG video according to an embodiment of the present invention.
  • the color gamut mapping function information that allows to obtain scalable WCG video includes No mapping, Gain-offset conversion, Linear matrix conversion, and Look-up table. It may refer to a mapping function such as.
  • the color gamut mapping function information in the metadata of the WCG video may provide information about the color gamut mapping function if the color gamut mapping function is used to obtain the final WCG video to be displayed.
  • the receiver may know each video format or color gamut information of the base layer video data and the enhancement layer video data, and based on the scale Can output flexible WCG video. Accordingly, a receiver having a display device capable of expressing existing colors may express legacy UHD video using base layer video data, and a receiver having a display device capable of WCG service may express WCG video service.
  • the receiver may receive signaling information and combine substreams of scalable WCG video to output a WCG image.
  • the signaling information decoder of the receiver uses the program descriptor (UD_program_descriptor) of the received PMT to determine whether there is a separate service or media to be additionally received in order to configure the original UHDTV broadcast.
  • the scalable WCG video described in this embodiment corresponds to the case where UD_program_format_type is 0x08, and it can be understood that scalable WCG video can be composed using enhancement layer video data and additional information of an SEI message in the video data. Can be.
  • the receiver's signaling information decoder recognizes codec information, profile information, level information, and tier information of a service stream through the stream descriptor WCG_sub_stream_descriptor. It may be determined whether the decoder can process the information.
  • the video decoder of the receiver obtains color gamut and bit depth information (bit depth related information) of the scalable WCG video configured by the base layer and the enhancement layer from the UDTV_scalable_color_gamut_service_info SEI message in the video data.
  • the device may determine whether the final output image is possible.
  • the video decoder of the receiver may decode only base layer video data.
  • the receiver may cause the video decoder to configure scalable WCG video when the signaling information decoder determines that the video decoder can decode and process the WCG video.
  • the receiver When the brightness information of the scalable WCG video obtained by decoding the SEI message of the video data cannot be output from the display of the receiver, the receiver outputs only the base layer video or provides the brightness information for the scalable WCG video. Proper post-processing can be used to output WCG video.
  • the receiver may allow the video decoder to decode the sub stream.
  • the decoder of the receiver may configure scalable WCG video using the UDTV_scalable_color_gamut_service_info SEI message together with the enhancement layer video data.
  • the decoder of the receiver obtains the color bit depth information (BL_bitdepth field) of the base layer and the difference information (EL_bitdepth_diff field) of the color bit depth of the enhancement layer video data and the base layer video data from the metadata, and uses the base
  • the color bit depth of the layer video data may be upscaled.
  • the decoder of the receiver may compensate detailed data of the color space of the upscaled base layer video data using the residual data of the enhancement layer.
  • the receiver may perform post processing of the WCG video before the final display of the video to display an image with improved brightness or to perform color conversion on an image that is difficult to display on the display device.
  • the color gamut information EL_video_color_gamut_type
  • arbitrary color gamut information of the enhancement layer video data transmitted in the SEI message color_primary_A_x, color_primary_A_y as color primary values of RGBW, where A is R, G, B, One of W
  • a signaling method for configuring scalable WCG video using color gamut-mapped base layer video data and enhancement layer video data is illustrated.
  • information for constructing scalable WCG video at the system level of a broadcast may be provided, and metadata may be provided to an SEI message at a video level to perform color gamut mapping of base layer video data.
  • FIG. 18 is a diagram illustrating broadcast signaling information as an embodiment of the present invention that can implement such an embodiment.
  • the PMT and the signaling information included therein among the broadcast signaling information are described below.
  • the PMT may include program level descriptors and elementary stream level descriptors.
  • the PMT may include, as a program level descriptor, a descriptor capable of describing a program capable of composing a WCG video by color gamut mapping of base layer video data compatible with legacy UHD video.
  • the UD_program_descriptor may signal a program through which the scalable WCG video is transmitted.
  • the color gamut mapping of the base layer video data indicates that the program can configure WCG video.
  • the PMT may include a descriptor (WCG_sub_stream_descriptor ()) including stream information about a program constituting a scalable WCG video service in a stream level descriptor.
  • the descriptor (WCG_sub_stream_descriptor) including stream information about a program may include information about a stream of base layer video data compatible with legacy UHD video.
  • 19 illustrates another syntax for a payload of an SEI region of video data according to an embodiment of the present invention.
  • payloadType When payloadType is set to a specific value (52 in this example) in the SEI payload, it may include information (UDTV_scalable_color_gamut_service_info (payloadSize)) signaling the format of scalable WCG video data as illustrated.
  • UDTV_scalable_color_gamut_service_info payloadSize
  • An embodiment of parsing video data according to syntax illustrated by a decoder of a receiver is as follows.
  • the decoder When the decoder decodes the video data, it parses the AVC or HEVC NAL unit from the video element stream. If the nal_unit_type value corresponds to SEI data and payloadType is 52 in the SEI data, information according to the UDTV_scalable_color_gamut_service_info can be obtained.
  • UDTV_scalable_color_gamut_service_info (payloadSize), which is information signaling the format of scalable WCG video data in the payload region of the SEI region, may include a field (UD_program_format_type) indicating format information of UHD video data.
  • UD_program_format_type indicating format information of UHD video data.
  • the format information of the UHD video data includes WCG mapped to the WCG enhancement layer video data and the color gamut mapping data of the base layer video data compatible with legacy UHD video. It can indicate that the program can configure video.
  • Metadata When the format information of the UHD video data indicates the format of the scalable WCG video, metadata of the scalable WCG video may include metadata (WCG_substream_metadata). This will be described later in detail.
  • FIG. 20 is a diagram illustrating another example of metadata of a scalable WCG video included in a payload of an SEI region disclosed according to an embodiment of the present invention.
  • the metadata of the example scalable WCG video is finally obtained using information on the UHD video format (original_UD_video_type field), bit depth information (BL_bitdepth field) of base layer video data, and enhancement layer video data as shown in FIG. 12.
  • Information indicating the difference between the bit depth of the scalable WCG video and the bit depth of the base layer video data (EL_bitdepth_diff field), information about the color gamut of the base layer video data (BL_video_color_gamut_type field), and the video of the video generated by the enhancement layer video data.
  • Color gamut information (EL_video_color_gamut_type field), information on the gamut mapping function used to obtain the final WCG image (EL_gamut_mapping_type field), and base layer video data or enhancement layer video data. dog (Color gamut), and the like type information (RGBW_primaries () field).
  • the metadata of the scalable WCG video may further include color gamut mapping information (gamut_mapping_info ()).
  • gamut_mapping_info ()
  • the color gamut mapping information included in the metadata of the scalable WCG video will be described in detail below.
  • 21 is a diagram illustrating an example of color gamut mapping information included in metadata of a scalable WCG video according to an embodiment of the present invention.
  • the color gamut mapping information included in the metadata of the scalable WCG video may represent a method for extending the color gamut of the base layer based on the enhancement layer.
  • the color gamut mapping information may indicate a color gamut mapping type for obtaining a video having improved quality or color from the base layer video data.
  • a color gamut mapping method may be signaled according to the EL_gamut_mapping_type field, which is a color gamut mapping type, and the type of parameters to be transmitted to this information may vary according to the type of this function.
  • the color gamut mapping method is a method of mapping a color by signaling a gain and an offset of a function.
  • color gamut mapping type information (EL_gamut_mapping_type) 0010
  • the color gamut information is mapped using a matrix.
  • ITU-R BT It can be used based on the method described in 2250. If you use this, YCbCr converted color coordinates are converted to RGB coordinates for encoding. Primary transformation can be performed to transform gamut on CIE colorimetry for the transformed RGB coordinates.
  • the matrix_composition_type field represents a method of configuring a matrix for mapping color gamut information based on matrix conversion.
  • the method of constructing a matrix that maps color gamut information is performed based on the NPM (Normalized Primary Matrix) of the color gamut of the source and target. Do it in a way.
  • NPM Normalized Primary Matrix
  • Equation 2 An example of mapping a color gamut used in an HDTV to another target color gamut in Equation 2 is disclosed.
  • the signaling information may directly include a color gamut mapping matrix.
  • the matrix_composition_type field may indicate methods of mapping with various color gamuts according to the value of this field.
  • An example of color gamut mapping methods is illustrated in FIG. 22.
  • the Number_of_coeff field represents the number of coefficients used for further color space conversion.
  • the gamut_mapping_coeff [i] field represents a coefficient for color space conversion. If it is assumed that the conversion to an arbitrary color space for optimal color expression is made based on the color space expressed by the color_gamut syntax, the optimal color space may be used by using a conversion equation. An example of a conversion equation is illustrated in FIG. 25. Alternatively, other transformations can be used, depending on the user's specification.
  • color gamut mapping type information (EL_gamut_mapping_type) 0011, it may represent LUT-based color gamut mapping.
  • the most widely used method for color gamut mapping is the Look Up Table (LUT) method, which uses a table that matches input and output values one-to-one.
  • LUT Look Up Table
  • LUT instead of using all 3D coordinates, matching may be performed independently on each channel, or a method of estimating an LUT component based on a reference point may be used.
  • the LUT_type field represents the type of look up table (LUT) to be used. This field value may represent an LUT that independently matches each channel, an LUT using all 3D coordinates, or a method of estimating an LUT component based on a reference point.
  • LUT look up table
  • color gamut mapping matrix type information (matrix_composition_type) that can be used to map color gamut information according to an embodiment of the present invention. As illustrated here, color gamut mapping may be performed according to color gamut mapping matrix type information (matrix_composition_type).
  • matrix_composition_type For example, if the color gamut mapping matrix type information (matrix_composition_type) field is 0000, BT. Represents a normalized primary matrix according to 709. The matrix method is illustrated in FIG. 23.
  • matrix_composition_type When the color gamut mapping matrix type information (matrix_composition_type) field is 0001, this indicates a normalized primary matrix according to DCI-P3.
  • BT when the color gamut mapping matrix type information (matrix_composition_type) field is 0010. Represents a normalized primary matrix according to 2020.
  • color gamut mapping matrix type information (matrix_composition_type) field is 0100, this indicates a normalized primary matrix based on the color primary value of the current image.
  • matrix and the mapping scheme are illustrated in FIG. 24.
  • FIG. 23 is a table illustrating color gamut mapping matrix type information included in metadata of WCG video according to an embodiment of the present invention.
  • the color gamut mapping matrix type information illustrated here indicates a matrix when the color gamut mapping follows the matrix of NPM_709 (normalized primary matrix according to BT.709).
  • FIG. 24 illustrates an embodiment in which a color gamut mapping matrix type information included in metadata of a WCG video is normalized based on a color primary value of a current image according to an embodiment of the present invention.
  • a method of converting a current color to X, Y, and Z into a color primary value and a color gamut mapping matrix using the same are illustrated.
  • FIG. 25 illustrates a conversion equation representing a coefficient (gamut_mapping_coeff [i]) for color space conversion among color gamut mapping information included in metadata of a WCG video according to an embodiment of the present invention.
  • the coefficient for color space conversion among the color gamut mapping information may be a coefficient included in a component of the matrix.
  • FIG. 26 is a diagram illustrating a type of look up table (LUT) according to a LUT_type field of color gamut mapping information included in metadata of a WCG video according to an embodiment of the present invention.
  • Look up able such as LUT, 3D LUT, 3D LUT (linear interpolation) may be referred to according to the LUT_type value.
  • the receiver may receive signaling information and combine substreams of scalable WCG video to output a WCG image.
  • the signaling information decoder of the receiver uses the program descriptor (UD_program_descriptor) of the received PMT to determine whether there is a separate service or media to be additionally received in order to configure the original UHDTV broadcast.
  • the scalable WCG video described in this embodiment corresponds to the case where UD_program_format_type is 0x09, and it can be understood that scalable WCG video can be composed using enhancement layer video data and additional information of an SEI message in the video data. Can be.
  • the UD_program_format_type field is 0x09 (ie, when the UD_program_format_type field is 0x09) (i.e., a program constituting WCG video with data updated with color bit depth of WCG enhancement layer video data and base layer video data compatible with legacy UHD video). )
  • WCG_sub_stream_descriptor it is possible to determine codec information, profile information, level information, and tier information of a service stream to determine whether the information can be processed by the decoder of the receiver.
  • the video decoder of the receiver obtains color gamut and color gamut mapping information of the scalable WCG video configured by the base layer and the enhancement layer from the UDTV_scalable_color_gamut_service_info SEI message in the video data, and enables the final output on the display device of the receiver.
  • the image can be determined.
  • the video decoder of the receiver may decode only base layer video data. If the receiver determines that the signaling information decoder can decode and process the video information, the receiver uses the WCG enhancement layer video data and data updated by the color bit depth of the base layer video data compatible with legacy UHD video. Configure scalable WCG video.
  • the receiver When the brightness information of the scalable WCG video obtained by decoding the SEI message of the video data cannot be output from the display of the receiver, the receiver outputs only the base layer video or provides the brightness information for the scalable WCG video. Proper post-processing can be provided to output the example scalable WCG video.
  • the receiver may cause the video decoder to decode the substream.
  • the decoder of the receiver may configure scalable WCG video using color gamut mapping information of the UDTV_scalable_color_gamut_service_info SEI message together with the enhancement layer data.
  • the scalable WCG video is formed by using the WCG enhancement layer video data and data updated with color bit depths of base layer video data compatible with legacy UHD video.
  • the receiver Before the final display of the video, the receiver may display an image with improved brightness or perform color conversion on an image that is difficult to display on the display device through WCG video post processing.
  • color gamut information EL_video_color_gamut_type
  • arbitrary color gamut information of the enhancement layer video data transmitted in the SEI message color_primary_A_x, color_primary_A_y as color primary values of RGBW, where A is R, G, B, One of W
  • the signaling information according to the above two embodiments may be included in the system level and the SEI message and transmitted together.
  • FIG. 27 is a diagram illustrating broadcast signaling information as an embodiment of the present invention and may correspond to FIG. 8 or 18.
  • the program level descriptor is a descriptor (UD_program_descriptor) that upscales a base layer compatible with existing UHD video or identifies a program capable of composing scalable WCG video using color mapped data and enhancement layers. May be included.
  • UD_program_descriptor a descriptor that upscales a base layer compatible with existing UHD video or identifies a program capable of composing scalable WCG video using color mapped data and enhancement layers. May be included.
  • the descriptor (UD_program_descriptor) for identifying a program capable of constructing scalable WCG video is data updated with color bit depth of enhancement layer video data and base layer video data compatible with legacy UHD video.
  • Program / service format (0x08) that can configure video, WCG enhancement layer video data, and color / mapping mapped data of base layer video data that is compatible with legacy UHD video. It may include a field (UD_program_format_type) for identifying the format (0x09).
  • the stream level descriptor may include coding information of a stream constituting the scalable WCG video.
  • FIG. 28 is a diagram for describing a specific example including a descriptor for signaling a scalable WCG video included in such broadcast signaling information as an embodiment of the present invention. This figure may correspond to FIG. 10 or 19 as disclosed.
  • a descriptor for signaling scalable WCG video is a descriptor including information on a stream constituting a WCG video service.
  • the EL_video_codec_type field, the EL_video_profile field, the EL_video_level field, the EL_video_level field, and the EL_video_tier field are the same as described with reference to FIG. 10 or 19.
  • the metadata WCG_substream_metadata () signaling a scalable WCG video stream according to an embodiment of the present invention is the metadata as illustrated in FIG. 12 or 20.
  • FIG. 29 is a diagram illustrating another example in which signaling information for signaling scalable WCG video is included in broadcast signaling information according to an embodiment of the present invention.
  • SDT Service Description Table
  • the table_id field represents an identifier of a table.
  • section_syntax_indicator field is a 1-bit field set to 1 for an SDT table section (section_syntax_indicator: The section_syntax_indicator is a 1-bit field which shall be set to "1").
  • section_length This is a 12-bit field, the first two bits of which shall be "00" .It specifies the number of bytes of the section, starting immediately following the section_length field and including the CRC. The section_length shall not exceed 1 021 so that the entire section has a maximum length of 1 024 bytes.
  • transport_stream_id This is a 16-bit field which serves as a label for identification of the TS, about which the SDT informs, from any other multiplex within the delivery system.
  • the version_number field indicates the version number of this subtable.
  • version_number This 5-bit field is the version number of the sub_table.
  • the version_number shall be incremented by 1 when a change in the information carried within the sub_table occurs.When it reaches value "31", it wraps around to "0" .
  • the version_number shall be that of the currently applicable sub_table.
  • the version_number shall be that of the next applicable sub_table.
  • section_number This 8-bit field gives the number of the section.
  • the section_number of the first section in the sub_table shall be "0x00" .
  • the section_number shall be incremented by 1 with each additional section with the same table_id, transport_stream_id, and original_network_id.
  • last_section_number This 8-bit field specifies the number of the last section (that is, the section with the highest section_number) of the sub_table of which this section is part.
  • service_id This is a 16-bit field which serves as a label to identify this service from any other service within the TS.
  • the service_id is the same as the program_number in the corresponding program_map_section.
  • EIT_schedule_flag This is a 1-bit field which when set to "1" indicates that EIT schedule information for the service is present in the current TS , see TR 101 211 [i.2] for information on maximum time interval between occurrences of an EIT schedule sub_table). If the flag is set to 0 then the EIT schedule information for the service should not be present in the TS.
  • the EIT_present_following_flag field may indicate whether EIT_present_following_flag: This is a 1-bit field which when set to "1" indicates that EIT_present_following information for the service is present in the current TS, see TR 101 211 [i.2] for information on maximum time interval between occurrences of an EIT present / following sub_table.If the flag is set to 0 then the EIT present / following information for the service should not be present in the TS.)
  • the running_status field may refer to the state of the service defined in Table 6 of the DVB-SI document.
  • running_status This is a 3-bit field indicating the status of the service as defined in table 6.For an NVOD reference service the value of the running_status shall be set to "0".
  • free_CA_mode This 1-bit field, when set to “0" indicates that all the component streams of the service are not scrambled.When set to "1" it indicates that access to one or more streams may be controlled by a CA system.
  • descriptors_loop_length field indicates the length of the following descriptor (descriptors_loop_length: This 12-bit field gives the total length in bytes of the following descriptors).
  • CRC_32 is a 32-bit field that contains a CRC value (CRC_32: This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder).
  • the descriptor of the SDT may include information capable of describing a scalable WCG video service.
  • Metadata (WCG_substream_metadata) exemplified in FIG. 1 may be included.
  • signaling information describing the scalable WCG video service may be included.
  • FIG. 30 is a diagram illustrating another example in which signaling information for signaling scalable WCG video is included in broadcast signaling information as an embodiment of the present invention.
  • an Event Information Table (EIT) is illustrated as broadcast signaling information.
  • EIT may be in accordance with ETSI EN 300 468. Using this to describe each field is as follows.
  • table_id Represents a table identifier.
  • section_syntax_indicator field is a 1-bit field set to 1 for an EIT table section (section_syntax_indicator: The section_syntax_indicator is a 1-bit field which shall be set to "1").
  • section_length This is a 12-bit field.It specifies the number of bytes of the section, starting immediately following the section_length field and including the CRC.The section_length shall not exceed 4 093 so that the entire section has a maximum length of 4 096 bytes.
  • service_id This is a 16-bit field which serves as a label to identify this service from any other service within a TS.
  • the service_id is the same as the program_number in the corresponding program_map_section.
  • the version_number field indicates the version number of this subtable.
  • version_number This 5-bit field is the version number of the sub_table.
  • the version_number shall be incremented by 1 when a change in the information carried within the sub_table occurs.When it reaches value 31, it wraps around to 0.When the current_next_indicator is set to "1”, then the version_number shall be that of the currently applicable sub_table.When the current_next_indicator is set to "0”, then the version_number shall be that of the next applicable sub_table.
  • section_number This 8-bit field gives the number of the section.
  • the section_number of the first section in the sub_table shall be "0x00" .
  • the section_number shall be incremented by 1 with each additional section with the same table_id, service_id, transport_stream_id, and original_network_id.
  • the sub_table may be structured as a number of segments.With each segment the section_number shall increment by 1 with each additional section, but a gap in numbering is permitted between the last section of a segment and the first section of the adjacent segment.
  • last_section_number This 8-bit field specifies the number of the last section (that is, the section with the highest section_number) of the sub_table of which this section is part.
  • transport_stream_id This is a 16-bit field which serves as a label for identification of the TS, about which the EIT informs, from any other multiplex within the delivery system.
  • segment_last_section_number This 8-bit field specifies the number of the last section of this segment of the sub_table.For sub_tables which are not segmented, this field shall be set to the same value as the last_section_number field.
  • the last_table_id field is (last_table_id: This 8-bit field identifies the last table_id used (see table 2).)
  • event_id This 16-bit field contains the identification number of the described event (uniquely allocated within a service definition).
  • the start_time field contains the start time of the event (start_time: This 40-bit field contains the start time of the event in Universal Time, Co-ordinated (UTC) and Modified Julian Date (MJD) (see annex C). is coded as 16 bits giving the 16 LSBs of MJD followed by 24 bits coded as 6 digits in 4-bit Binary Coded Decimal (BCD) . If the start time is undefined (eg for an event in a NVOD reference service) all bits of the field are set to "1".)
  • running_status This is a 3-bit field indicating the status of the event as defined in table 6. For an NVOD reference event the value of the running_status shall be set to "0".
  • free_CA_mode This 1-bit field, when set to “0" indicates that all the component streams of the event are not scrambled.When set to “1” it indicates that access to one or more streams is controlled by a CA system.
  • descriptors_loop_length field indicates the length of the following descriptor. (descriptors_loop_length: This 12-bit field gives the total length in bytes of the following descriptors.)
  • CRC_32 This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder
  • the descriptors_loop_length field may include a UHD_program_type_descriptor illustrated in FIG. 16 and a UHD_composition_descriptor illustrated in FIGS. 18, 24, or 25 according to an embodiment of the present invention in the following descriptor position.
  • the descriptor of the EIT may include information for describing a scalable WCG video service.
  • Metadata (WCG_substream_metadata) exemplified in FIG. 1 may be included.
  • signaling information describing the scalable WCG video service may be included.
  • FIG. 31 is a diagram illustrating another example in which signaling information for signaling scalable WCG video is included in broadcast signaling information according to an embodiment of the present invention.
  • a diagram illustrating a Virtual Channel Table (VCT) as broadcast signaling information is described as follows.
  • the VCT may comply with the ATSC PSIP specification. According to ATSC PSIP, each field is described as follows. Each bit description starts as follows.
  • the table_id field indicates an 8-bit unsigned integer that indicates the type of the table section (table_id-An 8-bit unsigned integer number that indicates the type of table section being defined here.For the terrestrial_virtual_channel_table_section (), the table_id shall be 0xC8)
  • the section_syntax_indicator field is a 1-bit field set to 1 for a VCT table section (section_syntax_indicator-The section_syntax_indicator is a one-bit field which shall be set to '1' for the terrestrial_virtual_channel_table_section ()).
  • section_length field represents the length of the section in bytes. (section_length-This is a twelve bit field, the first two bits of which shall be ‘00’. It specifies the number of bytes of the section, starting immediately following the section_length field, and including the CRC.)
  • the transport_stream_id field indicates an MPEG-TS ID as in a PAT that can identify TVCT (transport_stream_id-The 16-bit MPEG-2 Transport Stream ID, as it appears in the Program Association Table (PAT) identified by a PID value of zero for this multiplex.
  • the transport_stream_id distinguishes this Terrestrial Virtual Channel Table from others that may be broadcast in different PTCs.
  • the version_number field indicates the version number of the VCT (version_number-This 5 bit field is the version number of the Virtual Channel Table.
  • version number shall be incremented by 1 whenever the definition of the current VCT changes. Upon reaching the value 31, it wraps around to 0.
  • version number shall be one unit more than that of the current VCT (also in modulo 32 arithmetic) In any case, the value of the version_number shall be identical to that of the corresponding entries in the MGT)
  • current_next_indicator-A one-bit indicator, which when set to '1' indicates that the Virtual Channel Table sent is currently applicable.When the bit is set to ' 0 ', it indicates that the table sent is not yet applicable and shall be the next table to become valid. This standard imposes no requirement that “next” tables (those with current_next_indicator set to' 0 ') must be sent.An update to the currently applicable table shall be signaled by incrementing the version_number field)
  • section_number-This 8 bit field gives the number of this section.
  • the section_number of the first section in the Terrestrial Virtual Channel Table shall be 0x00. It shall be incremented by one with each additional section in the Terrestrial Virtual Channel Table)
  • last_section_number-This 8 bit field specifies the number of the last section (that is, the section with the highest section_number) of the complete Terrestrial Virtual Channel Table.)
  • protocol_version field indicates the protocol version for a parameter to be defined differently from the current protocol (protocol_version-An 8-bit unsigned integer field whose function is to allow, in the future, this table type to carry parameters that may be structured differently than those defined in the current protocol.At present, the only valid value for protocol_version is zero.Non-zero values of protocol_version may be used by a future version of this standard to indicate structurally different tables)
  • the num_channels_in_section-This 8 bit field specifies the number of virtual channels in this VCT section. The number is limited by the section length)
  • the major_channel_number field indicates the number of major channels associated with a virtual channel (major_channel_number-A 10-bit number that represents the “major” channel number associated with the virtual channel being defined in this iteration of the “for” loop.Each virtual channel shall be associated with a major and a minor channel number. The major channel number, along with the minor channel number, act as the user's reference number for the virtual channel. The major_channel_number shall be between 1 and 99. The value of major_channel_number shall be set such that in no case is a major_channel_number / minor_channel_number pair duplicated within the TVCT.For major_channel_number assignments in the US, refer to Annex B.)
  • the minor_channel_number field indicates the number of minor channels associated with the virtual channel (minor_channel_number-A 10-bit number in the range 0 to 999 that represents the "minor" or "sub"-channel number.This field, together with major_channel_number, performs as a two-part channel number, where minor_channel_number represents the second or right-hand part of the number.When the service_type is analog television, minor_channel_number shall be set to 0.
  • Minor_channel_number shall be set such that in no case is a major_channel_number / minor_channel_number pair duplicated within the TVCT.For other types of services, such as data broadcasting, valid minor virtual channel numbers are between 1 and 999.
  • modulation_mode mode indicates the modulation mode of the carrier associated with the virtual channel (modulation_mode-An 8-bit unsigned integer number that indicates the modulation mode for the transmitted carrier associated with this virtual channel.Values of modulation_mode shall be as defined in Table 6.5. digital signals, the standard values for modulation mode (values below 0x80) indicate transport framing structure, channel coding, interleaving, channel modulation, forward error correction, symbol rate, and other transmission-related parameters, by means of a reference to an appropriate standard The modulation_mode field shall be disregarded for inactive channels)
  • carrier_frequency-The recommended value for these 32 bits is zero.Use of this field to identify carrier frequency is allowed, but is deprecated.
  • channel_TSID field indicates the MPEG-2 TS ID associated with the TS carrying the MPEG-2 program referenced by this virtual channel (channel_TSID-A 16-bit unsigned integer field in the range 0x0000 to 0xFFFF that represents the MPEG-2 Transport Stream ID associated with the Transport Stream carrying the MPEG-2 program referenced by this virtual channel8.
  • channel_TSID shall represent the ID of the Transport Stream that will carry the service when it becomes active. The receiver is expected to use the channel_TSID to verify that any received Transport Stream is actually the desired multiplex.
  • channel_TSID shall indicate the value of the analog TSID included in the VBI of the NTSC signal.Refer to Annex D Section 9 for a discussion on use of the analog TSID)
  • the program_number field indicates an integer value defined in association with this virtual channel and PMT (program_number-A 16-bit unsigned integer number that associates the virtual channel being defined here with the MPEG-2 PROGRAM ASSOCIATION and TS PROGRAM MAP tables.
  • PMT program_number-A 16-bit unsigned integer number that associates the virtual channel being defined here with the MPEG-2 PROGRAM ASSOCIATION and TS PROGRAM MAP tables.
  • channels representing analog services a value of 0xFFFF shall be specified for program_number.
  • program_number shall be set to zero.This number shall not be interpreted as pointing to a Program Map Table entry .
  • the access_controlled field may refer to an event associated with an access controlled virtual channel (access_controlled-A 1-bit Boolean flag that indicates, when set, that the events associated with this virtual channel may be access controlled.When the flag is set to '0', event access is not restricted)
  • the hidden field may indicate when the virtual channel is not accessed by the user's direct channel input. the virtual channel number.Hidden virtual channels are skipped when the user is channel surfing, and appear as if undefined, if accessed by direct channel entry.Typical applications for hidden channels are test signals and NVOD services. Whether a hidden channel and its events may appear in EPG display devices depends on the state of the hide_guide bit.)
  • the hide_guide field may indicate whether a virtual channel and its events may be displayed in the EPG (hide_guide-A Boolean flag that indicates, when set to '0' for a hidden channel, that the virtual channel and its events may appear in EPG Display Devices.This bit shall be ignored for channels which do not have the hidden bit set, so that non-hidden channels and their events may always be included in EPG Display Devices regardless of the state of the hide_guide bit.
  • Typical applications for hidden channels with the hide_guide bit set to '1' are test signals and services accessible through application-level pointers.
  • service_type-This 6-bit field shall carry the Service Type identifier.Service Type and the associated service_type field are defined in A / 53 Part 1 [1] to identify the type of service carried in this virtual channel.Value 0x00 shall be reserved.Value 0x01 shall represent analog television programming.Other values are defined in A / 53 Part 3 [3], and other ATSC Standards may define other Service Types9)
  • the source_id field is an identification number identifying a program source associated with a virtual channel (source_id-A 16-bit unsigned integer number that identifies the programming source associated with the virtual channel.
  • a source is one specific source of video, text Source ID values zero is reserved.Source ID values in the range 0x0001 to 0x0FFF shall be unique within the Transport Stream that carries the VCT, while values 0x1000 to 0xFFFF shall be unique at the regional level.Values for source_ids 0x1000 and above shall be issued and administered by a Registration Authority designated by the ATSC.)
  • descriptors_length-Total length (in bytes) of the descriptors for this virtual channel that follows
  • descriptor ()-Zero or more descriptors, as appropriate, may be included.
  • the service_type field of the VCT may include service type information for identifying a UHD service, a scalable UHD service, or a scalable WCG video service. For example, when the service_type field is 0x07, 0x09, or 0x10, it may signal that the corresponding service is such a service.
  • the descriptor of the VCT may include information capable of describing a scalable WCG video service.
  • Metadata (WCG_substream_metadata) exemplified in FIG. 1 may be included.
  • signaling information describing the scalable WCG video service may be included.
  • FIG. 32 is a diagram illustrating an embodiment of a signal transmission apparatus according to an embodiment of the present invention. An embodiment of a signal transmission apparatus will be described below with reference to this drawing.
  • This embodiment may encode and transmit base layer video data and enhancement layer video data compatible with legacy UHD video to transmit scalable WCG video.
  • An embodiment of a signal transmission apparatus includes a video encoder, which includes a color gamut mapping unit 510, a first color conversion unit 520, and a second color conversion unit 530.
  • the first encoder 540, the upscaling unit 550, the calculator 560, the second encoder 570, and the metadata generator 580 may be included.
  • the color gamut mapping unit 510 may output the legacy UHD video by color gamut mapping the scalable WCG video.
  • the color gamut mapping unit 510 may map the color gamut of the scalable WCG video to map the scalable WCG video to a color space that can be expressed on an existing display.
  • the color gamut mapping unit 510 outputs UHD video that can be output from a conventional receiver by mapping the entire color expression range to a predetermined space.
  • the transmitter outputs this information in the form of metadata.
  • the first color converter 520 converts the image format to transmit the color gamut-mapped video to the corresponding color space. For example, luma signals can be maintained according to visual characteristics during color video transmission, while sub-sampling can be performed on chroma signals. Through this color conversion, the transfer curve of the video is changed, and the transfer curve (EOTF) can be converted to match the existing receiver to fit the existing receiver.
  • EOTF transfer curve
  • the second color conversion unit 530 may perform color conversion that can be expressed in a legacy UHD display device even for YCbCr conversion.
  • the first color converter 520 and the second color converter 530 may operate only when necessary for the corresponding video data.
  • the first encoder 540 uses a color gamut mapping unit 510 or a first color conversion unit using a codec that can be processed by an existing UHD receiver such as HEVC to transmit UHD video that can be output from an existing display device.
  • a codec that can be processed by an existing UHD receiver such as HEVC to transmit UHD video that can be output from an existing display device.
  • 520 or the second color converter 530 encodes the video data output to base layer video data and outputs the encoded video data.
  • the scaling unit 550 downsamples the bit depth of the UHD video that can be output from the existing receiver and up-scales the bit depth of the video (SCG) before color conversion such as OETF to perform the same as the original scalable WCG video. It has a bit depth.
  • the calculation unit 560 generates residual data between the original scalable WCG video and the video data output from the scaling unit 550.
  • the second encoder 570 encodes the residual data and outputs the enhancement data.
  • the metadata generator 580 generates metadata for legacy UHD video generated through color gamut mapping.
  • the generated metadata includes color gamut conversion and color conversion performed by the color gamut mapping unit 510, the first color conversion unit 520, and the second color conversion unit 530.
  • Information such as conversion or YCbCr conversion matrix).
  • the metadata generator 580 may generate the information illustrated in FIGS. 11 to 17 and 19 to 26.
  • the signal transmission apparatus may further include a signaling information encoder, a multiplexer, and a transmitter.
  • the signaling information encoder may encode signaling information that may constitute scalable WCG video data.
  • the information that the signaling information encoder can encode is illustrated in FIGS. 8, 10, 18, and 27-31.
  • the multiplexer may multiplex and output video data output from the video encoder, base layer video data encoded by the video encoder, and enhancement video data.
  • the transmitter may transmit the multiplexed stream by performing channel coding.
  • FIG 33 is a view showing another embodiment of a signal transmission apparatus according to an embodiment of the present invention. An embodiment of a signal transmission apparatus will be described below with reference to this drawing.
  • This embodiment may encode and transmit a video to compose a WCG video with enhancement layer video data and color gamut mapped data of base layer video data compatible with legacy UHD video.
  • An embodiment of a signal transmission apparatus may include a video encoder, a signaling information encoder, a multiplexer, and a transmitter.
  • the video encoder includes a first color gamut mapping unit 610, a first color converter 620, a second color converter 630, a first encoder 640, an upscaling unit 650, and a second color gamut mapping unit.
  • the unit 655, the calculator 660, the second encoder 670, and the metadata generator 680 may be included.
  • the first color gamut mapping unit 610 may output the legacy UHD video by color gamut mapping the scalable WCG video.
  • the first color converter 620 and the second color converter 630 may perform color conversion similar to those described above. For example, luma signals can be maintained according to visual characteristics during color video transmission, while sub-sampling can be performed on chroma signals. Through this color conversion, the transfer curve of the video is changed. The transfer curve (EOTF) can be converted to fit the existing receiver.
  • EOTF transfer curve
  • the second color conversion unit 630 may perform color conversion that can be expressed in a legacy UHD display device even for YCbCr conversion.
  • the first color converter 620 and the second color converter 630 may operate only when a corresponding video is needed.
  • the first encoder 640 uses a codec that can be processed in an existing UHD receiver such as HEVC for scalable color gamut video to encode and output the UHD video that can be output from the existing receiver.
  • the video output by 630 is compressed into base layer video data and output.
  • the scaling unit 650 performs down-depth bit sampling on the UHD video that can be output from the existing receiver and up-scaling the bit depth of the video (SCG) before color conversion such as OETF to perform the same as the original scalable WCG video. It has a bit depth.
  • the second color gamut mapping unit 655 performs color gamut mapping on the upscaled video output by the scaling unit 650 and extends the color gamut of the base layer video data to display the video similarly to the color gamut of the WCG video. Convert.
  • the video scaled up by the scaling unit 650 may be mapped to a color space in which bit depth expansion occurs, and thus a quantization error may occur. Therefore, metadata capable of correcting the information may be generated by the metadata generator or included in the residual data and processed.
  • the calculator 660 generates residual data between the original scalable WCG video and the video data output by the second color gamut mapping unit 655.
  • the second encoder 670 encodes the residual data and outputs the enhancement data.
  • the metadata generator 680 generates metadata for legacy UHD video generated through color gamut mapping.
  • the metadata for legacy UHD video includes color gamut conversion, color conversion (EOTF conversion or YCbCr conversion matrix) performed by the color gamut mapping unit 510, the first color conversion unit 520, and the second color conversion unit 530. Information), and the like.
  • the metadata generator 680 transmits information for composing the enhancement layer video data in the form of metadata.
  • the metadata may include not only information related to a gamut mapping function (gamut mapping type, parameter, etc.) but also information on a base layer video data, a configuration method, and the like.
  • the metadata generator 680 may generate the information illustrated in FIGS. 11 to 17 and 19 to 26.
  • 34 is a diagram illustrating an example of a signal receiving apparatus according to an embodiment of the present invention.
  • An example of a signal receiving apparatus includes a receiver 710, a channel decoder 720, a demultiplexer 730, a signaling information decoder 740, and a video decoder.
  • the video decoder includes a base layer decoder and an enhancement layer decoder.
  • the base layer decoder 810 decodes the base layer video data output from the demultiplexer 730 and outputs legacy UHD video data 920.
  • the enhancement layer decoder may include an upscaling unit 910, a color gamut mapping unit 920, a scalable decoder 930, and a WCG postprocessor 940.
  • the receiver 710 may tune a broadcast signal and demodulate a signal frame included in the broadcast signal.
  • the channel decoder 720 may channel decode data included in the signal frame.
  • the demultiplexer 730 demultiplexes and outputs channel decoded data.
  • the demultiplexer 730 may demultiplex broadcast signaling information and streams of base layer video data or enhancement layer video data, respectively.
  • the signaling information decoder 740 may decode the demultiplexed signaling information.
  • examples of information that the signaling information decoder can decode are illustrated in FIGS. 8, 10, 18, and 27-31, respectively.
  • the signaling information decoder 740 may know that the corresponding service is a scalable WCG video service using the disclosed program level descriptor UD_program_descriptor or stream descriptor WCG_sub_stream_descriptor, and the codec information, profile information, and level of video of the stream Information, tier information, and the like.
  • the video decoder may decode the demultiplexed base layer video data or enhancement layer video data.
  • the signaling information included in the base layer video data or the enhancement layer video data may be referred to. Examples of the signaling information decoded by the video decoder are illustrated in FIGS. 11 to 17 and 19 to 26, respectively.
  • the video decoder determines scalable WCG video based on the performance of the display device of the receiver based on the signaling information demultiplexed by the signaling information decoder 740 and the signaling information included in the base layer video data or the enhancement layer video data. It can provide legacy UHD video.
  • the video decoder may output legacy UHD video compatible with the existing display device.
  • the video decoder may use WCG as data obtained by updating color bit depths of enhancement layer video data and base layer video data compatible with legacy UHD video. Can be configured.
  • the video decoder may configure WCG video with enhancement layer video data and color gamut mapped data of base layer video data compatible with legacy UHD video.
  • the base layer decoder 810 may decode the base layer video data demultiplexed by the demultiplexer 730.
  • the base layer video data decoded by the base layer decoder 810 may be video data 820 compatible with legacy UHD video.
  • the base layer decoder 810 decodes the video data 820 compatible with legacy UHD video based on the signaling information decoded by the signaling information decoder 740 and the signaling information included in the base layer video data, and outputs the same to the display device. do.
  • the base layer video decoder 810 illustrated in this figure may correspond to the base layer decoder and color converter EOTF of FIG. 2.
  • the base layer decoder 810 may include signaling information demultiplexed by the signaling information decoder 740 and signaling information included in base layer video data or enhancement layer video data.
  • the demultiplexer 730 may decode the base layer video data demultiplexed based on.
  • the enhancement layer decoder may include a base layer decoder, and may further include an upscaling unit 910, a color gamut mapping unit 920, a scalable decoder 930, and a post processing unit 940.
  • the enhancement layer decoder may include an enhancement layer demultiplexed by the demultiplexer 730 based on signaling information demultiplexed by the signaling information decoder 740 and signaling information included in base layer video data or enhancement layer video data.
  • the video can be decoded.
  • the upscaling unit 910 may upscale the color bit depth of the base layer video data decoded by the base layer decoder 810.
  • the bit depth information BL_bitdepth of the base layer video data included in the metadata of the video data and the bit depth difference information EL_bitdepth_diff of the WCG video and the base layer video data may be used.
  • the color gamut mapping unit 920 may map the color gamut of the base layer video data decoded by the base layer decoder 810. In this case, color primary information, gamut mapping function information, etc. for mapping color gamut included in metadata of video data may be used.
  • the scalable video decoder 930 may output the WCG video using the enhancement layer video data and the data upscaling the color bit depth of the base layer video data.
  • the scalable video decoder 930 may output the WCG video by using the enhancement layer video data and the color mapping data of the base layer video data.
  • the post processing unit 940 may output the WCG UHD video 950 that post-processes the video data decoded by the scalable video decoder 930 using signaling information included in the video data.
  • the enhancement layer decoder illustrated in this figure may correspond to the base layer decoder, the color converting unit (EOTF), the upscaler, the WCG video configuration unit, and the post processing unit of FIG. 2.
  • legacy UHD video or WCG video may be output according to the display performance of the receiver.
  • 35 is a diagram illustrating an embodiment of a signal receiving method according to the present invention.
  • an embodiment of a signal receiving method according to the present invention will be described with reference to the drawings.
  • a stream including base layer video data and enhancement video data capable of composing scalable WCG video data is received (S210).
  • the received stream is demultiplexed to output signaling information, base layer video data, and enhancement video data (S220).
  • the demultiplexed signaling information is decoded (S230).
  • the base layer video data is decoded based on the decoded signaling information to output legacy UHD video, or the base layer video data and enhancement video data are decoded to output WCG video (S240).
  • a wide-area color space based video service can be displayed regardless of the display device.
  • the existing receiver can provide compatible WCG content.
  • an image service based on a wide color space may be provided to be compatible with a plurality of display devices.
  • the present invention has industrial applicability that is usable and repeatable in the field of broadcast and video signal processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

본 발명은 신호 송수신 장치 및 신호 송수신 방법에 관한 것이다. 스케일러블 WCG 비디오 테이터를 구성할 수 있는 시그널링 정보와, 인코딩된 베이스 레이어 비디오 테이터 및 인핸스먼트 비디오 데이터를 다중화한 스트림을 전송하는 신호 송신 방법을 제공하고, 상기 스트림을 수신하여 디코딩한 시그널링 정보를 기반으로 legacy UHD 비디오 또는 WCG 비디오를 출력하는 신호 수신 방법을 제공한다.

Description

신호 송수신 장치 및 신호 송수신 방법
본 발명은 신호 송수신 장치 및 신호 송수신 방법에 관한 것이다.
UHD 방송에서는 기존 컨텐츠에서 표현하지 못하였던 색상을 표현함으로써 기존의 방송과의 차별성을 제공하고 고도의 현장감 제공할 수 있다. 하지만, 광역 색공간 영상에 대한 연구 뿐 아니라 영상 획득 및 디스플레이 장치에 대한 개발이 진행중인 상황에서 광역 색공간을 갖는 영상이 제공되는 환경에서도 색공간 표현에 상대적으로 제약이 있는 기존 수신기에서 동일한 컨텐츠를 표현할 수 있는 방법이 필요하다. 전송 대역폭이 한정적인 환경에서 역호환성을 고려하기 위한 방법 중 하나인 scalable approach를 사용하는 경우, 서로 다른 layer로 구성된 단일 컨텐츠에 대해 추가 시그널을 통해 서로 다른 비디오 파라미터를 적용함으로써 수신기의 능력에 맞는 색공간의 영상을 구성하여 디스플레이 할 수 있다.
비디오 신호 처리 속도가 빨라지면서 초고해상도(Ultra High Definition; UHD) 비디오를 인코딩/디코딩하는 방안이 연구되고 있다.
UHD 방송에서는 기존 컨텐츠에서 표현하지 못하였던 색상을 표현함으로써 기존의 방송과의 차별성을 제공하고 고도의 현장감 제공할 수 있다. UHD 와 같은 광역 색공간 영상에 대한 연구나, 이를 표출할 수 있는 디스플레이 장치에 대한 개발이 진행 중에 있다.
예를 들어 UHD 방송에서는 기존 HD 방송과의 차별화된 방송 서비스를 제공하기 위해 다양한 측면에서 시청자에게 현실감 있는 컨텐츠를 제공하려는 논의가 진행되고 있다.
하지만, UHD 방송 등 광역 색공간을 갖는 영상이 제공될 경우, 색공간 표현에 상대적으로 제약이 있는 기존 수신기에서 광역 색공간을 표현하는 컨텐츠를 표현할 수 있는 방법이 제공되지 않았다.
예를 들어, 컨텐츠의 색상 표현 범위를 사람의 시각 체계를 통해 획득하는 색상 범위에 근접하도록 만들기 위해 기존 디스플레이의 컬러 표현 범위인 컬러 개멋(color gamut)를 확장한 Wide 컬러 개멋(color gamut) (WCG)을 이용할 수 있다. 이하에서 WCG 기반의 색 영역을 제공하는 영상 서비스 또는 컨텐츠는 WCG 서비스 또는 WCG 컨텐츠로 호칭한다.
WCG 기반의 색을 정확하게 획득하거나 표현할 수 있는 영상 획득 장치나 디스플레이 장치는 개발 중에 있다. 일정 기간 동안은 UHD 방송 등의 광역 색공간 영상을 포함한 서비스는 기존 영상 획득 장치 및 디스플레이 장치를 통해 제공될 것이다.
따라서, 추후에 WCG 서비스가 제공될 경우, 기존 디스플레이 장치 또는 기존 영상 수신기를 가지고 있는 시청자가 수신기를 바꿔야 하는 문제점이 있다. 따라서, 예를 들어, UHD 방송 영상을 제공하는 방송국 입장에서는 시청자가 감소할 수 있는 문제가 있다.
종래는 WCG 컨텐츠를 WCG 컨텐츠를 디스플레이할 수 있는 수신기 뿐만 아니라 기존 수신기에서도 수신하도록 할 수 있는 방법이 제공되지 않았다.
본 발명의 목적은, 광역 색 공간 기반의 영상 서비스를 디스플레이 하도록 하는 신호 송수신 방법 및 신호 송수신 장치를 제공하는 것이다.
본 발명의 다른 목적은, 기존 수신기에서도 호환 가능한 WCG 컨텐츠를 제공할 수 있는, 신호 송수신 방법 및 신호 송수신 장치를 제공하는 것이다.
본 발명의 다른 목적은, 광역 색 공간 기반의 영상 서비스가 다수의 디스플레이 장치에서 호환되어 제공될 수 있는 신호 송수신 방법 및 신호 송수신 장치를 제공하는 것이다.
본 발명의 다른 목적은, 컨텐츠의 WCG 정보를 호환성 있게 표현하는 방송 서비스를 제공할 수 있는 신호 송수신 방법 및 신호 송수신 장치를 제공하는 것이다.
본 발명의 일 실시예는, 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 제공할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 각각 인코딩하는 단계, 상기 스케일러블 WCG 비디오 데이터를 구성할 수 있는 시그널링 정보를 생성하는 단계, 상기 생성된 시그널링 정보와 상기 인코딩된 베이스 레이어 비디오 데이터 및 상기 인코딩된 인핸스먼트 비디오 데이터를 다중화한 스트림을 출력하는 단계, 및 상기 다중화한 스트림을 전송하는 단계;를 포함하는 신호 송신 방법을 제공한다.
상기 시그널링 정보는, 상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 식별하는 정보를 포함할 수 있다. 상기 인코딩된 베이스 레이어 비디오 데이터 또는 상기 인코딩된 인핸스먼트 비디오 데이터는, 상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 구성(render)할 수 있는 컬러 개멋 매핑 정보, 컬러 비트 뎁스 정보 또는 컬러 매핑 정보를 가지는 메타데이터를 포함할 수 있다.
본 발명의 다른 일 실시예는, 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 제공할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 각각 인코딩하는 인코더, 상기 스케일러블 WCG 비디오 데이터를 구성할 수 있는 시그널링 정보를 인코딩하는 시그널링 정보 인코더, 상기 생성된 시그널링 정보와 상기 인코딩된 베이스 레이어 비디오 데이터 및 상기 인코딩된 인핸스먼트 비디오 데이터를 다중화화 스트림을 출력하는 다중화부, 및 상기 다중화한 스트림을 전송하는 전송부;를 포함하는 신호 송신 장치를 제공한다.
본 발명의 다른 일 실시예는, 스케일러블 Wide Color Gamut(WCG) 비디오 데이터를 구성할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 포함하는 스트림을 수신하는 단계, 상기 수신한 스트림을 역다중화하여 베이스 레이어 비디오 데이터 및 인핸스 먼트 비디오 데이터를 포함하는 비디오 데이터와 시그널링 정보를 각각 출력하는 단계, 상기 역다중화한 시그널링 정보를 디코딩하는 단계 및 상기 디코딩한 시그널링 정보를 기반으로 상기 베이스 레이어 비디오 데이터 또는/및 상기 인핸스먼트 비디오 데이터를 복호하여 legacy UHD 비디오 또는 WCG 비디오를 출력하는 단계;를 포함하는 신호 수신 방법을 제공한다.
본 발명의 다른 일 실시예는, 스케일러블 Wide Color Gamut(WCG) 비디오 데이터를 구성할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 포함하는 스트림을 수신하는 수신부, 상기 수신한 스트림을 역다중화하여 베이스 레이어 비디오 데이터 및 인핸스먼트 비디오 데이터를 포함하는 비디오 데이터와 시그널링 정보를 각각 출력하는 역다중화부, 상기 역다중화한 시그널링 정보를 디코딩하는 디코더 및 상기 디코딩한 시그널링 정보를 기반으로 상기 베이스 레이어 비디오 데이터 또는/및 상기 인핸스먼트 비디오 데이터를 복호하여 legacy UHD 비디오 또는 WCG 비디오를 출력하는 비디오 디코더;를 포함하는 신호 수신 장치를 제공한다.
상기 WCG 비디오는, 상기 인핸스먼트 레이어 비디오 데이터를 기반으로, 상기 컬러 개멋 매핑 정보를 이용하여 상기 베이스 레이어 비디오 데이터를 컬러 개멋 매핑하거나, 상기 컬러 비트 뎁스 정보를 이용하여 상기 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업 스케링하여 구성할 수 있다.
본 발명의 실시예에 따르면, 광역 색 공간 기반의 영상 서비스를 디스플레이 장치에 상관없이 디스플레이 하도록 할 수 있다.
본 발명의 실시예에 따르면, 기존 수신기에서도 호환 가능한 WCG 컨텐츠를 제공할 수 있다.
본 발명의 실시예에 따르면 광역 색 공간 기반의 영상 서비스가 다수의 디스플레이 장치에서 호환되어 제공될 수 있다.
본 발명의 실시예에 따르면 컨텐츠의 WCG 정보를 호환성 있게 표현할 수 있는 방송 서비스를 제공할 수 있다.
도 1은 본 발명에 따른 신호 송신 방법의 일 실시예를 예시한 도면
도 2는 본 발명의 실시예 따라 WCG 컨텐츠를 표출하는 방식을 예시한 도면
도 3은 본 발명의 실시예에 따른 WCG 비디오 구성부의 일 예를 예시한 도면
도 4는 본 발명의 실시예에 따른 WCG 비디오 구성부의 다른 예를 예시한 도면
도 5는 본 발명의 실시예에 따른 포스트 프로세싱부(190)를 예시한 도면
도 6은 본 발명의 실시예에 따라 스케일러블 WCG 비디오를 생성하는 예를 예시하는 도면
도 7은 본 발명의 실시예에 따라 WCG 비디오를 구성하는 다른 예를 예시하는 도면
도 8은 본 발명의 일 실시예로서 방송 시그널링 정보를 예시한 도면 (PMT)
도 9는 본 발명의 실시예에 따라 PMT에 스케일러블 WCG 비디오 서비스를 기술하는 스트림 디스크립터가 위치한 경우를 예시한 도면
도 10은 본 발명의 실시예에 따라 개시한 디스크립터(WCG_sub_stream_descriptor)의 예를 나타낸 도면
도 11은 본 발명의 실시예에 따른 비디오 데이터의 SEI 영역의 패이로드에 대한 신택스를 예시한 도면
도 12는 본 발명의 실시예에 따라 개시한 SEI 영역의 패이로드에 포함되는 스케일러블 WCG 비디오의 메타데이터를 예시한 도면
도 13은 본 발명의 실시예에 따라 스케일러블 WCG 비디오의 메타데이터에서 베이스 레이어 비디오 데이터 혹은 인핸스먼트 레이어 비디오 데이터의 컬러 개멋 정보를 임의로 나타내는 방식을 예시한 도면
도 14는 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 오리지널 UHD 비디오 포맷에 대한 정보(original_UD_video_type)를 예시한 도면
도 15는 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 베이스 레이어의 비디오의 컬러 개멋 정보를 상세히 예시한 도면
도 16는 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 인핸스먼트 레이어의 비디오의 컬러 개멋 정보를 상세히 예시한 도면
도 17는 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 WCG 비디오를 얻도록 하는 컬러 개멋 매핑 함수 정보를 상세히 예시한 도면
도 18은 이와 같은 실시예를 구현할 수 있는 본 발명의 일 실시예로서 방송 시그널링 정보를 예시한 도면
도 19는 본 발명의 실시예에 따른 비디오 데이터의 SEI 영역의 패이로드에 대한 다른 신택스를 예시한 도면
도 20은 본 발명의 실시예에 따라 개시한 SEI 영역의 패이로드에 포함되는 스케일러블 WCG 비디오의 메타데이터의 다른 예를 예시한 도면
도 21은 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 정보의 예를 개시한 도면
도 22는 본 발명의 실시예에 따라 컬러 개멋 정보를 매핑하기 위해 사용할 수 있는 컬러 개멋 매핑 매트릭스 타입 정보(matrix_composition_type)를 예시한 도면
도 23은 본 발명의 실시예에 따라 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 매트릭스 타입 정보가 BT. 709에 따른 Normalized Primary Matrix를 지칭할 경우 상세한 컬러 매핑 매트릭스 실시예를 나타낸 도면
도 24는 본 발명의 실시예에 따라 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 매트릭스 타입 정보가 현재 영상의 color primary value를 기반으로 Normalized Primary Matrix 실시예를 나타낸 도면
도 25는 본 발명의 실시예에 따라 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 정보 중 색 공간 변환을 위한 계수(gamut_mapping_coeff[i]) 를 표현하는 변환식을 예시한 도면
도 26은 본 발명의 실시예에 따라 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 정보 중 LUT_type 필드에 따른 Look Up Table (LUT)의 종류를 예시한 도면
도 27은 본 발명의 일 실시예로서 방송 시그널링 정보를 예시한 도면
도 28은 본 발명의 일 실시예로서, 이러한 방송 시그널링 정보에 포함되는 스케일러블 WCG 비디오를 시그널링하는 디스크립터를 포함하는 구체적인 예를 개시한 도면
도 29는 본 발명의 일 실시예로서 방송 시그널링 정보에 스케일러블 WCG 비디오를 시그널링하는 시그널링 정보가 포함되는 다른 예를 예시한 도면
도 30은 본 발명의 일 실시예로서 방송 시그널링 정보에 스케일러블 WCG 비디오를 시그널링하는 시그널링 정보가 포함되는 다른 예를 예시한 도면
도 31은 본 발명의 일 실시예로서 방송 시그널링 정보에 스케일러블 WCG 비디오를 시그널링하는 시그널링 정보가 포함되는 다른 예를 예시한 도면
도 32는 본 발명의 실시예에 따른 신호 송신 장치의 일 실시예를 나타낸 도면
도 33는 본 발명의 실시예에 따른 신호 송신 장치의 다른 일 실시예를 나타낸 도면
도 34는 본 발명의 실시예에 따른 신호 수신 장치의 일 예를 예시한 도면
도 35는 본 발명의 실시예에 따른 신호 수신 방법의 일 예를 예시한 도면
이하 본 발명의 용이하게 설명할 수 있는 실시예를 첨부한 도면을 참조하여 설명한다.
광역 색공간 (wide color gamut: WCG)을 갖는 컨텐츠와 이를 표현할 수 있는 디스플레이 장치가 방송에 도입되는 상황에서 소비자가 가지고 있는 디스플레이의 색상 표현 범위에 따라 적절한 컨텐츠를 공급할 필요가 있다. 기존의 색 공간(legacy UHD color gamut)을 갖는 디스플레이와 WCG 디스플레이에 대해 각각의 디스플레이 색 표현 특성에 맞는 컨텐츠를 공급해야 한다. 하지만 방송 서비스를 위한 대역폭이 제한된 상황에서 동일한 컨텐츠를 서로 다른 색 공간으로 생성하여 제공하는 것은 기존에 비해 두 배의 대역폭을 사용해야 하는 문제가 있고, 이는 방송국 혹은 컨텐츠 제공자의 입장에서 큰 부담이 된다. 이하에서는 컨텐츠에서 컬러 개멋(color gamut)에 대해 스케일러블(Scalable) 코딩에 따른 복수 레이어(layer) 데이터를 사용하여 서로 다른 색 공간을 갖는 방송 서비스를 제공할 수 있고, 대역폭을 효율적으로 사용하는 실시예를 개시한다.
이하에서는 WCG 비디오(컨텐츠)는 컨텐츠의 색 표현이 WCG 의 범위에 따라 표현된 비디오(컨텐츠)를 지칭한다.
도 1은 본 발명의 실시예에 따른 신호 송신 방법의 일 예를 나타낸 도면이다.
스케일러블 WCG 비디오 데이터를 구성할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 각각 인코딩한다(S110). 여기서 스케일러블 WCG 비디오 데이터를 구성할 수 있는 시그널링 정보가 베이스 레이어 비디오 데이터 또는 인핸스먼트 비디오 데이터에 메타데이터에 포함될 수 있다. 메타데이터의 예는 도 11 내지 도 17 및 도 19 내지 도 26을 참조하여 설명한다.
스케일러블 WCG 비디오 데이터를 구성할 수 있는 시그널링 정보를 생성한다(S120). 이 단계의 시그널링 정보는 방송 시그널링 정보로서 시스템 레벨의 시그널링 정보를 지칭한다. 이에 대한 상세한 예는 도 8, 내지 도 10, 도 18 및 도 27 내지 도 31을 참조하여 설명한다.
생성된 시그널링 정보와 인코딩된 베이스 레이어 비디오 데이터 및 인핸스먼트 비디오 데이터를 다중화화 스트림을 출력한다(S130).
다중화한 스트림을 전송한다(S140).
본 발명의 실시예에 따르면 수신기는 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업데이트한 데이터로 WCG 비디오를 복원할 수 있다.
또는 본 발명의 실시예에 따르면 수신기는 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 개멋 매핑된 데이터로 WCG 비디오를 복원할 수 있다.
따라서, 수신기의 디스플레이 기기 성능에 따라 WCG 비디오를 디스플레이하도록 할 수도 있고, 베이스 레이어 비디오 데이터만을 이용하여 legacy UHD 비디오를 출력할 수도 있다.
도 2는 본 발명의 실시예 따라 WCG 컨텐츠를 표출하는 방식을 예시한 도면이다. 이 도면에서 WCG 컨텐츠에 대해 역호환성을 고려한 수신기의 동작의 실시예를 예시한다.
스케일러블 코딩에 따른 베이스 레이어 비디오 데이터와 인핸스먼트 레이어 비디오 데이터가 전송 채널을 통해 전달될 경우, 각각 비디오 데이터를 디코딩한 후 기존의 수신기는 베이스 레이어 비디오 데이터 (legacy UHD 컬러 개멋(color gamut) 비디오)을, 기존의 디스플레이에 표출하고, 인핸스먼트 레이어 비디오 데이터를 이용하여 WCG 영상을 WCG 컨텐츠 표출이 가능한 디스플레이(이하 WCG 디스플레이)에서 표출할 수 있다.
제 1 디멀티플렉서(110)는 스트림으로부터 UHD 베이스 레이어 비디오 스트림을 역다중화한다. 여기서, 베이스 레이어 비디오 스트림은 기존의 디스플레이에서 표출할 수 있는 UHD 비디오 (이하 legacy UHD 비디오 또는 legacy UHD 컬러 개멋(color gamut) 비디오) 데이터를 전송한다.
베이스 레이어 디코더(120)는 역다중화한 UHD 베이스 레이어 비디오 스트림을 디코딩하여 legacy UHD 비디오 데이터를 출력한다. 베이스 레이어 디코더(120)는 HEVC 디코딩이 가능한 codec일 수 있다.
색변환부(EOTF)(130)는 legacy UHD 비디오 데이터를 색 변환하여 출력한다. 그러면 기존의 UHD 디스플레이 (legacy UHD 디스플레이)(200)는 색변환된 legacy UHD 비디오 데이터를 표출할 수 있다.
그리고, 업스케일러(150)는 색변환부(EOTF)(130)가 출력하는 legacy UHD 비디오 데이터의 컬러 비트 뎁스를 업스케일링하여 컬러를 표현하는 비트 뎁스가 업스케일링된 UHD 베이스 레이어 (Bit depth up-scaled UHD base layer) 비디오 데이터를 출력한다. 예를 들어 색변환부(EOTF)(130)는 컬러 8비트 뎁스의 UHD 베이스 레이어 비디오 데이터를 10비트 뎁스의 UHD 베이스 레이어 비디오 데이터로 업스케일링할 수 있다.
한편, 제 2 디멀티플렉서(160)는 스트림으로부터 UHD 인핸스먼트 레이어 비디오 스트림을 역다중화한다.
도면상 다른 블록으로 표현하였으나, 제 1 디멀티플렉서(110)와 제 2 디멀티플렉서(160)는 하나의 디멀티블렉서로 동작할 수도 있다.
인핸스먼트 레이어 디코더(120)는 역다중화한 UHD 인핸스먼트 레이어 비디오 스트림을 디코딩하여 컨텐츠가 WCG 색 공간에서 표현될 수 있도록 하는 WCG 인핸스먼트 레이어 비디오 데이터를 출력한다.
WCG 비디오 구성부 (180)는 WCG 인핸스먼트 레이어 비디오 데이터와 업스케일러(150)가 출력하는 업스케일된 UHD 베이스 레이어 비디오 데이터를 이용하여 WCG 비디오를 출력한다.
위에서 기술한 것처럼 WCG 비디오는 컨텐츠의 색 표현이 WCG 의 범위에 따라 표현된 비디오를 지칭한다. 한편 스케일러블 코딩을 이용하여 기존 디스플레이와 호환 가능한 WCG 비디오 데이터를 이하에서는 스케일러블 WCG 비디오라고 호칭한다.
포스트 프로세싱부(190)는 다른 레이어 데이터를 이용하여 구성한 스케일러블 WCG 비디오를 포스트 프로세싱하여 변환된 색을 더욱 자연스럽게 하여 WCG 디스플레이(300)로 출력한다.
이 경우 UHD 방송 서비스에 대한 시그널링 정보를 이용할 수 있는데, 예를 들어 기존의 수신기는 UHD service를 식별한 후 수신기 자체가 인핸스먼트 레이어 비디오 데이터 자체에 대한 처리가 불가능하거나 인핸스먼트 레이어 비디오 데이터를 통해 획득하게 될 WCG 비디오를 디스플레이 기기 할 수 없다고 판단할 경우 베이스 레이어 비디오만을 디코딩하여 출력할 수 있다.
기존의 수신기는 UHD 서비스에 대한 시그널링 정보, 예를 들어 시그널링 정보 내에 UHD 서비스 타입이나, UHD 서비스를 기술하는 서비스 디스크립터들 (이하에서 개시할 UD_program_descriptor() 또는 UD_program_format_type 등)을 이용하여 처리할 수 없는 비디오 데이터를 식별할 수 있다. 방송 서비스 상의 시그널링 정보는 이하에서 후술한다.
WCG 디스플레이(300)는, 인핸스먼트 레이어 비디오 데이터를 이용하여 획득한 최종 WCG video를 재생한다. 만약 디스플레이 기기의 컬러 개멋이 최종 영상의 컬러 개멋과 동일한 경우 포스트 프로세싱부(190)는 별도의 영상 처리를 수행하지 않을 수 있다. 하지만 디스플레이 기기 에서 더 다양한 색상을 표현할 수 있다거나, 혹은 디스플레이 패널의 특성에 적합한 컬러 표현을 제조사에서 제공할 수 있는 경우 WCG 정보와 관련된 포스트 프로세싱부(190)을 통해 향상된 색감을 제공할 수 있다. 이 때, 컨텐츠의 컬러 개멋(color gamut) 판단 기준으로써, 방송 서비스의 시그널링 정보를 이용할 수 있는데, 이에 대해서는 후술하도록 한다.
이하에서 WCG 비디오 구성부 (180)와 포스트 프로세싱부(190)의 상세한 실시예를 추가로 설명한다.
도 3은 본 발명의 실시예에 따른 WCG 비디오 구성부의 일 예를 예시한 도면이다. 위에서 설명한 것처럼 WCG 비디오 구성부(180)는 업스케일링된 UHD 베이스 레이어 비디오와 WCG 인핸스먼트 레이어 비디오를 이용하여 WCG 컨텐츠인 WCG 비디오를 출력한다. 이때 방송 서비스 상의 시그널링 정보를 이용하여 비디오의 color를 매우 디테일하게 강화(enhance)하여 WCG 비디오를 구성할 수 있다.
WCG 비디오 구성부(180)는 인핸스먼트 레이어의 레지듀얼(residual) 비디오 데이터를 이용하여 베이스 레이어 비디오로부터 원본 영상의 색감을 회복하도록 하는 컬러 인핸스먼트 처리부(color detail enhancement)를 포함할 수 있다. 이에 대한 설명은 도 6을 참조하여 이하에서 후술한다.
도 4는 본 발명의 실시예에 따른 WCG 비디오 구성부의 다른 예를 예시한 도면이다. WCG 비디오 구성부(180)는 컬러 개멋 매핑부(182)와 컬러 인핸스먼트 처리부(184)를 포함할 수 있다.
방송 서비스 상의 시그널링 정보를 이용하여 업스케일링된 UHD 베이스 레이어 비디오에 대해 컬러 개멋(color gamut) 매핑부(182)는 베이스 레이어 비디오 데이터의 컬러 개멋을 WCG 색상 표현이 가능한 영역으로 매핑한다. 그러면 컬러 인핸스먼트 처리부(184)는 매핑된 베이스 레이어 비디오 데이터와 인핸스먼트 레이어의 레지듀얼(residual) 비디오 데이터를 이용하여 비디오의 색감을 강화하여 WCG 비디오를 구성하여 출력한다.
베이스 레이어 비디오 데이터에 컬러 개멋(color gamut) 매핑을 적용하면 컨텐츠의 color gamut을 확장된다. 하지만, 이 경우 컬러 개멋(color gamut) 매핑이 one-to-multiple 방식으로 매핑되기 때문에 각 픽셀(pixel)의 정확한 색상을 표현하지는 못할 수 있다. 따라서 인핸스먼트 레이어의 레지듀얼(residual) 비디오 데이터를 통해 원본 영상의 색감을 회복하도록 할 수 있다.
여기서 레지듀얼(residual) 비디오 데이터는, WCG 영역으로 컬러 개멋(color gamut)이 mapping 된 베이스 레이어 데이터와 original 비디오 데이터 사이의 차이로 구성된다. WCG 영역으로 컬러 개멋(color gamut)이 mapping 된 베이스 레이어 데이터와 레지듀얼(residual) 비디오 데이터를 더해줌으로써 최종적인 WCG 비디오를 구성할 수 있다. 이에 대해서는 도 7을 참조하여 이하에서 후출한다.
컬러 개멋 매핑부(182)는 베이스 레이어 비디오의 컬러 개멋(color gamut)을 확장하여 원본 영상의 WCG 비디오에 근접한 컬러 개멋(color gamut)의 비디오로 매핑한다. 컬러 개멋 매핑부(182)는, 후술하는 시그널링 정보(BL_video_color_gamut_type필드, EL_video_color_gamut_type 필드)를 통해 각 layer 데이터의 컬러 개멋(color gamut)정보를 알 수 있고, 컬러 개멋(color gamut)의 시점과 종점에 대한 정보를 얻을 수 있다.
예를 들어 베이스 레이어 비디오가 BT. 709 로 정의된 비디오 색 포맷을 가지고 있고, 인핸스먼트 레이어 비디오가 BT. 2020 로 정의된 비디오 색 포맷을 가지고 있는 경우 컬러 개멋 매핑부(182)의 컬러 개멋(color gamut) 매핑 function 은 BT. 709 로 정의된 비디오를 BT. 2020 로 정의된 비디오로 매핑을 수행한다.
컬러 개멋 매핑은 다양한 방법을 통해 구현될 수 있다. 두 layer 사이에 별다른 mapping이 필요하지 않는 경우, (인핸스먼트 레이어의 레지듀얼(residual) 정보가 필요하지 않은 경우) 혹은 각 채널에 대해 독립적으로 mapping이 이뤄지는 경우, linear matrix를 사용하여 mapping 하는 경우, 룩업 테이블(LUT)를 사용하여 point-by-point로 mapping이 이뤄지는 경우 등이 있다.
이러한 컬러 개멋 매핑의 방식은 후술하는 시그널링 정보(EL_gamut_mapping_type)로 시그널링 할 수 있고, 컬러 개멋 매핑부는 이러한 시그널링 정보를 통해 구체적인 파라미터(parameter)를 획득할 수 있다.
다른 예로서 컬러 개멋 매핑은 스케일러블 코딩(scalable coding)의 한 부분으로써 추가되거나, 기존의 화질 처리를 위한 post processing 부분의 color correction matrix 등과 연계하여 동작할 수 있다. 즉, 포스트 프로세싱부가 이 시그널링 정보(EL_gamut_mapping_type)에 따라 컬러 개멋(color gamut) mapping function에 따른 계수를 인식하여 gamut mapping을 수행하는 기능할 수도 있다. 이에 대해서 상세히 기술하면 다음과 같다.
도 5는 본 발명의 실시예에 따른 포스트 프로세싱부(190)를 예시한 도면이다.
포스트 프로세싱부는 톤 매핑(Tone mapping)부, 변환커브적용(transfer curve)부 또는/및 컬러수정(Color correction matrix)부를 포함할 수 있다. 포스트 프로세싱부(190)는 WCG 비디오에 대해 톤 매핑을 수행하거나 색 추가 변환 커브를 이용해 색을 변화시키거나 컬러 개멋 매핑을 수행하는 color correction matrix 등의 후처리를 수행할 수 있다. 따라서, 포스트 프로세싱부(190)는 WCG 비디오 색감이 강화된 WCG 비디오를 출력할 수 있다.
도 6은 본 발명의 실시예에 따라 스케일러블 WCG 비디오를 생성하는 예를 예시하는 도면이다. 위에서 설명한 바와 같이 베이스 레이어 비디오 데이터는 BT. 709, 8비트 뎁스의 컬러로 정의된 비디오 데이터일 수 있는데, 이를 10비트 뎁스의 컬러로 업스케일링한 베이스 레이어 비디오 데이터가 이 도면의 BT. 709, 10 bit로 표시된다.
WCG 비디오 데이터는 BT. 2020 로 정의된 10 비트 뎁스의 비디오일 수 있다. 따라서, WCG 비디오 데이터와 10 비트 뎁스로 업스케일링한 베이스 레이어 비디오 데이터의 차가 스케일러블 비디오 코딩의 레지듀얼(residual) 비디오 데이터가 될 수 있다. 개시한 도 3의 실시예는 두 비디오 차이를 이용하여 WCG 비디오 데이터를 복원하는 과정을 나타낸다.
도 7은 본 발명의 실시예에 따라 WCG 비디오를 구성하는 다른 예를 예시하는 도면이다.
WCG 비디오 데이터는 BT. 2020 로 정의된 10 비트 뎁스의 비디오이고, 베이스 레이어 비디오 데이터가 BT. 709, 8비트로 정의된 비디오 데이터일 수 있다. 이런 경우 베이스 레이어 비디오 데이터를 컬러 개멋 매핑하여 BT. 2020 로 정의된 10 비트 뎁스의 비디오로 매핑할 수 있다. WCG 비디오 데이터와 컬러 개멋 매핑한 베이스 레이어 비디오 데이터의 차가 스케일러블 비디오 코딩의 레지듀얼(residual) 비디오 데이터가 될 수 있다.
따라서, 컬러 개멋 매핑한 베이스 레이어 비디오 데이터와 레지듀얼(residual) 비디오 데이터를 더하여 WCG 비디오 데이터를 복원할 수 있다. 이 도면의 설명은 도 4의 실시예에 대응된다.
이하에서는 개시한 바와 같이 스케일러블 코딩에 의해 전송되는 WCG 비디오(이하 스케일러블 WCG 비디오, 서비스, 또는 프로그램으로 호칭) 를 구성할 수 있도록 하는 방송 서비스의 시그널링 정보를 송수신하는 예를 개시한다.
이하에서 개시한 실시예는 도 3 또는 도 6 의 예나, 도 4 또는 도 7의 예에 따른 시그널링 정보를 제공할 수 있다.
먼저 WCG 인핸스먼트 레이어 비디오 데이터와, 기존 디스플레이 기기와 호환되는 legacy UHD 비디오인 UHD 베이스 레이어 비디오 데이터를 업스케일링하여 WCG 비디오를 제공하는 실시예를 설명하면 다음과 같다.
개시하는 실시예는, 인핸스먼트 레이어의 레지듀얼(residual) 데이터를 이용하여 WCG 비디오를 구성하는 컬러 개멋 스케일러블 비디오 구성 방식을 방송의 시스템 레벨에서 전달하여 인핸스먼트 레이어 비디오의 디코딩 시에 디코더에 이를 제공할 수 있다. 또는/그리고, 본 발명의 실시예는, SEI 메시지에 WCG 비디오 구성에 대한 시그널링 정보를 전송할 수 있다.
예를 들어 PMT에서 이하에서 개시할 WCG_sub_stream_descriptor를 통해 비디오 데이터의 코덱 타입(codec type), 프로파일 정보(profile), 레벨 정보(level), 및 티어 정보(tier) 의 정보를 인핸스먼트 레이어 디코더에 전송할 수 있다. SEI 메시지에는 원본 영상 및 WCG 영상의 컬러 개멋(color gamut) 정보 및 gamut mapping 파라미터와 같은 비디오 관련 metadata를 송수신하도록 할 수 있다.
먼저, 스케일러블 코딩에 의해 전송되는 WCG 비디오의 방송 시스템 레벨의 시그널링 정보를 개시하면 다음과 같다.
도 8은 본 발명의 일 실시예로서 방송 시그널링 정보를 예시한 도면이다. 방송 시그널링 정보 중 PMT 및 그에 포함되는 시그널링 정보를 개시하면 다음과 같다.
PMT는 ISO/IEC 13818-1에 개시된 내용에 따를 수 있다. 이를 이용하여 해당 필드를 설명하면 다음과 같다.
table_id 필드는 PMT 테이블섹션의 타입을 지칭하는 8-bit 식별자를 나타낸다(table_id - This is an 8-bit field, which in the case of a TS_program_map_section shall be always set to 0x02)
section_syntax_indicator 필드는, VCT테이블 셕션에 대해 1로 셋팅되는 1비트 필드이다 (section_syntax_indicator - The section_syntax_indicator is a 1-bit field which shall be set to '1'.
section_length - This is a 12-bit field, the first two bits of which shall be '00'. The remaining 10 bits specify the number of bytes of the section starting immediately following the section_length field, and includin the CRC)
program_number 필드는 이 program_map_PID 가 적용가능한 프로그램을 지칭한다(program_number - program_number is a 16-bit field. It specifies the program to which the program_map_PID is applicable. One program definition shall be carried within only one TS_program_map_section. This implies that a program definition is never longer than 1016 (0x3F8). See Informative Annex C for ways to deal with the cases when that length is not sufficient. The program_number may be used as a designation for a broadcast channel, for example. By describing the different program elements belonging to a program, data from different sources (e.g. sequential events) can be concatenated together to form a continuous set of streams using a program_number.)
version_number 필드는 VCT의 버전 번호를 나타낸다 (version_number - This 5-bit field is the version number of the TS_program_map_section. The version number shall be incremented by 1 modulo 32 when a change in the information carried within the section occurs. Version number refers to the definition of a single program, and therefore to a single section. When the current_next_indicator is set to '1', then the version_number shall be that of the currently applicable TS_program_map_section. When the current_next_indicator is set to '0', then the version_number shall be that of the next applicable TS_program_map_section)
current_next_indicator 필드는 이 PMT테이블 현재 적용가능한지 또는 다음에 적용 가능한지를 나타낸다 (current_next_indicator - A 1-bit field, which when set to '1' indicates that the TS_program_map_section sent is currently applicable. When the bit is set to '0', it indicates that the TS_program_map_section sent is not yet applicable and shall be the next TS_program_map_section to become valid)
section_number 필드는 섹션의 번호를 나타낸다(section_number - The value of this 8-bit field shall be 0x00)
last_section_number 필드는 마지막 섹션의 번호를 나타낸다(last_section_number - The value of this 8-bit field shall be 0x00.)
PCR_PID는, 프로그램 넘버에 의해 특정된 프로그램의 PCR 필드를 포함하는 TS 패킷의 PID를 나타낸다(PCR_PID - This is a 13-bit field indicating the PID of the Transport Stream packets which shall contain the PCR fields valid for the program specified by program_number. If no PCR is associated with a program definition for private streams, then this field shall take the value of 0x1FFF.)
program_info_length 필드는 이 필드 뒤의 프로그램 레벨의 디스크립터의 길이를 나타낸다(program_info_length - This is a 12-bit field, the first two bits of which shall be '00'. The remaining 10 bits specify the number of bytes of the descriptors immediately following the program_info_length field)
stream_type 필드는, 프로그램 엘레먼트 스트림의 타입을 나타낸다(stream_type - This is an 8-bit field specifying the type of program element carried within the packets with the PID whose value is specified by the elementary_PID)
elementary_PID 필드는, 관련 프로그램 엘레먼트를 전송하는 TS 패킷의 PID를 지정한다(elementary_PID - This is a 13-bit field specifying the PID of the Transport Stream packets which carry the associated program element)
ES_info_length필드는 프로그램 엘레먼트 레벨 디스트립터의 길이를 나타낸다 (ES_info_length - This is a 12-bit field, the first two bits of which shall be '00'. The remaining 10 bits specify the number of bytes of the descriptors of the associated program element immediately following the ES_info_length field)
CRC 32 필드는 CRC 값을 포함하는 32 비트 필드를 나타낸다 (CRC_32 - This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder).
PMT에는 프로그램 레벨 디스크립터와 엘레먼터리 스트림 레벨의 디스크립터가 포함될 수 있다.
PMT는 기존의 디스플레이와 호환되는 legacy UHD 비디오인 베이스 레이어 비디오 데이터와, WCG 비디오와 legacy UHD 비디오(또는 그 비디오의 컬러 비트 뎁스가 업스케일된 비디오)의 차이인 레지듀얼(residual) 인핸스먼트 레이어 비디오 데이터를 이용하여 WCG 비디오를 구성할 수 있는 프로그램을 기술할 수 있는 디스크립터를 프로그램 레벨에 포함할 수 있다.
본 발명의 일 실시예에 따르면 PMT의 program_info_length 필드 바로 뒤에 UD_program_descriptor를 WCG 비디오를 구성할 수 있는 프로그램을 시그널링할 수 있다. 예를 들어 예시한 UD_program_descriptor의 UD_program_format_type 필드가 0x08인 경우, 해당 프로그램이 위와 같이 legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터와 레지듀얼(residual) 인핸스먼트 레이어 비디오 데이터를 이용하여 스케일러블 WCG 비디오를 구성할 수 있는 프로그램(이하 WCG 구성 프로그램)임을 나타낸다.
본 발명의 일 실시예에 따르면 PMT는 스트림 레벨의 디스크립터에 스케일러블 WCG 비디오 서비스를 구성하는 프로그램에 대한 스트림 정보를 포함하는 디스크립터(WCG_sub_stream_descriptor ())를 포함할 수 있다. 이하에서 이를 상술한다.
도 9는 본 발명의 실시예에 따라 PMT에 스케일러블 WCG 비디오 서비스를 기술하는 스트림 디스크립터가 위치한 경우를 예시한 도면이다.
예를 들어 stream_type필드가 0x24인 경우, 비디오 스트림은 HEVC 비디오 코덱에 따른 비디오 스트림임을 나타내고, 이 경우 elementary_PID필드는 0x109A 값을 가질 수 있다. PMT에 HEVC_video_descriptor ( )가 위치하는 경우 비디오 스트림이 HECV 로 코딩되었음을 나타낼 수 있고, 이 HEVC 비디오를 기술하는 디스크립터가 포함될 수 있다.
한편, stream_type필드가 0xA1인 경우 HEVC scalable layer video 코덱에 따른 비디오 스트림임을 나타낼 수 있는데 이 경우 elementary_PID는 0x109B을 가질 수 있다.
즉, 스케일러블 WCG 비디오가 전송될 경우, 해당 비디오를 구성하는 스트림들을 기술할 수 있는 디스크립터인 WCG_sub_stream_descriptor ( )가 PMT의 스트림 레벨에 위치할 수 있다. WCG_sub_stream_descriptor ( )는 스케일러블 WCG 비디오 서비스의 인핸스먼트 레이어에 대한 정보와 스케일러블 WCG 비디오 서비스의 구성정보를 포함할 수 있다.
도 10은 본 발명의 실시예에 따라 개시한 디스크립터(WCG_sub_stream_descriptor)의 예를 나타낸 도면이다. WCG_sub_stream_descriptor는 WCG 비디오 서비스를 구성하는 스트림에 대한 정보를 포함하는 디스크립터이다.
여기서, descriptor_tag 필드는 WCG_sub_stream_descriptor임을 나타내는 고유의 코드 값을 나타낸다.
descriptor_length 필드는 WCG_sub_stream_descriptor의 전체 길이를 나타낸다.
EL_video_codec_type 필드는 스케일러블 WCG 비디오를 구성하는 video element의 코덱을 알려준다. 예를 들어 PMT의 stream_type과 동일한 값을 갖을 수 있다.
EL_video_profile 필드는 해당 video stream에 대한 profile, 즉 해당 stream을 디코딩하기 위해 필요한 기본 사양을 알려준다. 해당 video 스트림의 bit depth 정보 (8-bit, 10-bit 등), coding tool 등에 대한 requirement 정보 등이 포함될 수 있다.
EL_video_level 필드는 해당 video stream에 대한 level, 즉 profile에서 정의한 기술 요소를 어느 범위까지 지원할 것인가에 대해서 정의한다. EL_video_level 필드는 해상도 정보, frame rate 정보 또는 bit rate 정보 등을 포함할 수 있다.
EL_video_tier 필드는 해당 video stream에 대한 tier 정보를 표시할 수 있다.
본 발명의 실시예로서, 스케일러블 WCG 비디오의 비디오 레벨의 시그널링 정보를 예시하면 다음과 같다. 스케일러블 WCG 비디오를 구성하는 정보는 비디오 레벨에 포함될 수 있는데 예를 들어 비디오 데이터의 SEI 메시지에 스케일러블 WCG 비디오에 대한 정보를 포함할 수 있다.
도 11은 본 발명의 실시예에 따른 비디오 데이터의 SEI 영역의 패이로드에 대한 신택스를 예시한다.
SEI 패이로드에서 payloadType이 특정 값(이 예에서는 52)으로 셋팅되는 경우, SEI 메시지는 예시한 바와 같이 스케일러블 WCG 비디오 데이터의 포맷을 시그널링하는 정보 (UDTV_scalable_color_gamut_service_info(payloadSize))를 포함할 수 있다. 이 시그널링 정보는 스케일러블 WCG 비디오의 메타데이터를 나타낸다.
수신기의 디코더가 예시한 신택스에 따른 비디오 데이터를 파싱하는 실시예는 다음과 같다.
디코더가 비디오 데이터를 복호할 경우, 비디오 엘레먼트 스트림으로부터 AVC 또는 HEVC NAL unit을 파싱한다. 그리고, nal_unit_type 값이 SEI 데이터에 해당하고, SEI 데이터 중 payloadType이 52인 경우 예시한 UDTV_scalable_color_gamut_service_info에 따른 정보를 얻을 수 있다.
SEI 영역의 패이로드 영역에서 스케일러블 WCG 비디오 데이터의 포맷을 시그널링하는 정보인 UDTV_scalable_color_gamut_service_info(payloadSize)는 UHD 비디오 데이터의 포맷 정보를 나타내는 필드(UD_program_format_type)를 포함할 수 있다.
그리고, UHD 비디오 데이터의 포맷 정보가 스케일러블 WCG 비디오의 포맷을 나타내는 경우, 스케일러블 WCG 비디오의 메타데이터(WCG_substream_metadata)를 포함할 수 있다. 스케일러블 WCG 비디오의 메타데이터에 대해서는 이하에서 상술한다.
도 12는 본 발명의 실시예에 따라 개시한 SEI 영역의 패이로드에 포함되는 스케일러블 WCG 비디오의 메타데이터를 예시한 도면이다.
스케일러블 WCG 비디오 데이터에 대한 서브 스트림이 존재하는 경우 베이스 레이어 및 인핸스먼트 레이어 비디오 데이터의 각각의 컬러 개멋(color gamut) 관련 정보 및 서브 스트림의 베이스 레이어 데이터의 컬러 개멋 정보를 확장할 수 있는 정보를 포함할 수 있다.
스케일러블 WCG 비디오의 메타데이터는 인핸스먼트 레이어 데이터의 서브 스트림을 이용해 베이스 레이어의 컬러 개멋 정보(color gamut)을 확장할 수 있는 방법을 기술할 수 있다. 각 항목에 대한 자세한 설명은 아래를 따른다.
original_UD_video_type 필드는 UHD 비디오 포맷에 대한 정보로, 비디오의 해상도(resolution) 및 프레임 레잇(frame rate) 등과 같은 베이스 레이어 비디오 데이터의 기본적인 정보를 나타낸다. 또는 베이스 레이어와 이를 기반으로 한 비디오보다 고화질의 비디오에 공통적으로 해당하는 비디오 정보를 나타낼 수 있다. 이에 대한 상세한 예는 후술한다.
BL_bitdepth필드는 베이스 레이어 비디오 데이터의 비트 뎁스(bit depth) 정보를 나타낸다.
EL_bitdepth_diff: 인핸스먼트 레이어 비디오 데이터를 이용해 최종적으로 얻게 될 스케일러블 WCG 비디오의 비트 뎁스(bit depth) 정보를 나타내기 위한 값으로, 인핸스먼트 레이어 비디오 데이터와 베이스 레이어 비디오 데이터의 비트 뎁스(bit depth)의 차이를 나타낼 수 있다.
BL_video_color_gamut_type필드는 베이스 레이어 비디오 데이터의 컬러 개멋 정보(color gamut)를 나타낸다. 이에 대한 상세한 예는 후술한다.
EL_video_color_gamut_type필드는 인핸스먼트 레이어 비디오 데이터에 의해 생성되는 비디오의 컬러 개멋 정보(color gamut)를 나타낸다. 이에 대한 상세한 예는 후술한다.
EL_gamut_mapping_type필드는 최종 WCG 영상을 획득하기 위해 사용하는 개멋 매핑 함수(gamut mapping function) 에 대한 정보를 나타낸다.
RGBW_primaries( )는 베이스 레이어 비디오 데이터 혹은 인핸스먼트 레이어 비디오 데이터의 컬러 개멋(color gamut) type이 기 지정된 값이 아닌 임의의 값을 사용하는 경우 컬러 개멋을 정의할 수 있는 색상, 즉, R, G, B 및 W (white)의 색공간 상 좌표를 나타내는 정보이다.
따라서, SEI 영역의 패이로드에 포함되는 스케일러블 WCG 비디오의 메타데이터에서, BL_video_color_gamut_type필드 또는 EL_video_color_gamut_type필드가 특정 값을 가질 경우, 이하에서 개시할 비디오 데이터의 컬러 개멋(color gamut)에 대해 임의의 값을 사용할 수 있다. 이에 대한 상세한 예는 후술한다.
도 13은 본 발명의 실시예에 따라 스케일러블 WCG 비디오의 메타데이터에서 베이스 레이어 비디오 데이터 혹은 인핸스먼트 레이어 비디오 데이터의 컬러 개멋 정보를 임의로 나타내는 방식을 예시한 도면이다.
color_primary_r_x 필드는 색공간 (예를 들어 CIE 1931)의 R 색상의 x 좌표를 나타낸다. 시청자의 디스플레이가 목표로 하는 컬러 개멋(color gamut) 정보를 포함하는지 여부를 판단하기 위해 사용될 수 있다. color_primary_r_x 필드는 0~1 사이의 값에 대해 2진화 된 값으로 나타낼 수 있으며, 혹은 기준이 되는 값과의 차이값을 나타낼 수 있다.
color_primary_r_y 필드는 색공간 (예를 들어 CIE 1931)의 R 색상의 y 좌표를 나타낸다. 시청자의 디스플레이가 목표로 하는 컬러 개멋(color gamut) 정보를 포함하는지 여부를 판단하기 위해 사용될 수 있다. color_primary_r_y 필드는 0~1 사이의 값에 대해 2진화 된 값을 나타낼 수 있으며, 혹은 기준이 되는 값과의 차이값을 나타낼 수 있다.
color_primary_g_x 필드는 색공간 (예를 들어 CIE 1931)의 G 색상의 x 좌표를 나타낸다. 시청자의 디스플레이가 목표로 하는 컬러 개멋(color gamut) 정보를 포함하는지 여부를 판단하기 위해 사용될 수 있다. color_primary_g_x 필드는 0~1 사이의 값에 대해 2진화 된 값을 나타낼 수 있으며, 혹은 기준이 되는 값과의 차이값을 나타낼 수 있다.
color_primary_g_y 필드는 색공간 (예를 들어 CIE 1931)의 G 색상의 y 좌표를 나타낸다. 시청자의 디스플레이가 목표로 하는 컬러 개멋(color gamut) 정보를 포함하는지 여부를 판단하기 위해 사용될 수 있다. color_primary_g_y 필드는 0~1 사이의 값에 대해 2진화 된 값을 나타낼 수 있으며, 혹은 기준이 되는 값과의 차이값을 나타낼 수 있다.
color_primary_b_x 필드는 색공간 (예를 들어 CIE 1931)의 B 색상의 x 좌표를 나타낸다. 시청자의 디스플레이가 목표로 하는 컬러 개멋(color gamut) 정보를 포함하는지 여부를 판단하기 위해 사용될 수 있다. color_primary_b_x 필드는 0~1 사이의 값에 대해 2진화 된 값을 나타낼 수 있으며, 혹은 기준이 되는 값과의 차이값을 나타낼 수 있다.
color_primary_b_y 필드는 색공간 (예를 들어 CIE 1931)의 B 색상의 y 좌표를 나타낸다. 시청자의 디스플레이가 목표로 하는 컬러 개멋(color gamut) 정보를 포함하는지 여부를 판단하기 위해 사용될 수 있다. color_primary_b_y 필드는 0~1 사이의 값에 대해 2진화 된 값을 나타낼 수 있으며, 혹은 기준이 되는 값과의 차이값을 나타낼 수 있다.
white_primary_x 필드는 임의의 색온도를 지정하는 경우 color space 에서의 x 좌표값을 나타낸다. white_primary_x 필드는 0~1 사이의 값에 대해 2진화 된 값을 보낼 수 있으며, 기준 색온도와 임의의 색온도의 차이값으로도 표현할 수 있다.
white_primary_y 필드는 임의의 색온도를 지정하는 경우 color space 에서의 y 좌표값을 나타낸다. white_primary_y 필드는 0~1 사이의 값에 대해 2진화 된 값을 보낼 수 있으며, 기준 색온도와 임의의 색온도의 차이값으로도 표현할 수 있다.
도 14는 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 오리지널 UHD 비디오 포맷에 대한 정보(original_UD_video_type)를 예시한 도면이다.
스케일러블 WCG 비디오의 메타데이터 중 오리지널 UHD 비디오 포맷에 대한 정보는, 기술한 바와 같이 UHD 비디오 포맷에 대한 정보로, 비디오의 해상도 정보(resolution), 프레임 레잇 정보(frame rate) 등과 같은 오리지널 UHD 비디오 포맷에 대한 정보를 나타낼 수 있다. 예를 들어 오리지널 UHD 비디오 포맷에 대한 정보는 베이스 레이어 비디오 데이터에 대한 기본적인 정보를 나타낼 수 있다.
본 발명의 실시예에 따른 UHD 비디오 포맷에 대한 정보는 해당 필드 값에 따라 비디오의 해상도 및 프레임 레잇이 각각 3840 x 2160 (60p), 3840 x 2160 (120p), 4096 x 2160 (60p), 4096 x 2160 (120p), 7680 x 4320 (60p), 7680 x 4320 (120p), 8192 x 4320 (60p), 8192 x 4320 (120p) (여기서, p는 progressive 방식을 나타냄)임을 나타낼 수 있다.
도 15는 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 베이스 레이어의 비디오의 컬러 개멋 정보를 상세히 예시한 도면이다. 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 베이스 레이어의 비디오의 컬러 개멋의 색 공간 정보는 해당 필드 값에 따라 BT. 601, BT. 709, DCI-P3, BT. 2020 (NCL), BT. 2020 (CL), XYZ 및 User defined (사용자 지정 정보) 등의 특정 색 공간을 지칭하는 정보가 될 수 있다.
도 16는 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 인핸스먼트 레이어의 비디오의 컬러 개멋 정보를 상세히 예시한 도면이다. 마찬가지로 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 인핸스먼트 레이어의 비디오의 컬러 개멋 정보는 해당 필드 값에 따라 BT. 601, BT. 709, DCI-P3, BT. 2020 (NCL), BT. 2020 (CL), XYZ 및 User defined (사용자 지정 정보) 등의 특정 컬러 개멋 포맷을 지칭할 수 있다.
도 17는 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터 중 WCG 비디오를 얻도록 하는 컬러 개멋 매핑 함수 정보를 상세히 예시한 도면이다.
스케일러블 WCG 비디오의 메타데이터로서, 스케일러블 WCG 비디오를 얻도록 하는 컬러 개멋 매핑 함수 정보는 No mapping (매핑 없음), Gain-offset conversion, Linear matrix conversion, Look-up table(룩업 테이블에 따른 매핑) 등의 매핑 함수를 지칭할 수 있다. WCG 비디오의 메타데이터 중 컬러 개멋 매핑 함수 정보는 디스플레이하는 최종 WCG 비디오를 얻기 위해 컬러 개멋 매핑 함수가 사용되었다면 그에 대한 정보를 제공할 수 있다.
따라서, 본 발명에 따른 신호 송신 장치가 위에서 예시한 시그널링 정보를 전송하면, 수신기는 베이스 레이어 비디오 데이터와 인핸스먼트 레이어 비디오 데이터의 각각의 비디오 포맷이나 컬러 개멋 정보 등을 알 수 있고, 이를 기반으로 스케일러블 WCG 비디오를 출력할 수 있다. 따라서, 기존 의 색 표현만 가능한 디스플레이 기기를 가진 수신기는 베이스 레이어 비디오 데이터를 이용하여 legacy UHD 비디오를 표출하고, WCG 서비스가 가능한 디스플레이 기기를 가진 수신기는 WCG 비디오 서비스를 표출할 수 있다.
개시한 실시예들에 따라 스케일러블 WCG 비디오와 그 비디오를 시그널링하는 시그널링 정보를 송신할 경우 이를 수신하는 수신기의 동작을 간략히 설명하면 다음과 같다.
스케일러블 WCG 비디오가 전송되는 경우, 수신기는 시그널링 정보를 수신하여 스케일러블 WCG 비디오의 서브 스트림들을 조합하여 WCG 영상 출력할 수 있다.
수신기의 시그널링 정보 디코더는 수신된 PMT의 프로그램 디스크립터(UD_program_descriptor)를 이용하여 원본 UHDTV 방송을 구성하기 위해 추가로 받아야 하는 별도 서비스나 미디어가 있는지 판단한다. 본 실시예에서 기술하는 스케일러블 WCG 비디오는 UD_program_format_type가 0x08인 경우에 해당하며, 이 때 인핸스먼트 레이어 비디오 데이터 및 비디오 데이터 내의 SEI message의 추가 정보를 이용하여 스케일러블 WCG 비디오를 구성할 수 있음을 알 수 있다.
수신기의 시그널링 정보 디코더는 UD_program_format_type필드가 0x08 인 경우(즉, 스케일러블 WCG 비디오를 구성하는 프로그램인 경우), 스트림 디스크립터 WCG_sub_stream_descriptor 를 통해 서비스 스트림의 codec 정보, profile 정보, level 정보 및 tier 정보 등를 파악하여 수신기의 디코더에서 처리 가능한 정보인지 판단할 수 있다.
수신기의 비디오 디코더는 비디오 데이터 내의 UDTV_scalable_color_gamut_service_info SEI message 로부터 베이스 레이어 및 인핸스먼트 레이어 에 의해 구성되는 스케일러블 WCG 비디오의 컬러 개멋 정보(color gamut) 및 비트 뎁스 정보(bit depth 관련 정보)를 얻고, 수신기의 디스플레이 기기에서 최종 출력이 가능한 영상인지 판단할 수 있다.
만약 수신기의 시그널링 정보 디코더가 비디오 디코더가 처리하지 못하는 비디오 데이터로 판단한 경우, 수신기의 비디오 디코더는 베이스 레이어 비디오 데이터만을 디코딩할 수 있다. 수신기는 시그널링 정보 디코더가, 비디오 디코더가 WCG 비디오를 디코딩하여 처리할 수 있다고 판단하는 경우 비디오 디코더가 스케일러블 WCG 비디오를 구성하도록 할 수 있다.
그리고, 비디오 디코더가 비디오 데이터의 SEI message를 디코딩하여 얻은 스케일러블 WCG 비디오의 밝기 정보가 수신기의 디스플레이에서 출력할 수 없는 경우 수신기는, 베이스 레이어 비디오만을 출력하거나, 스케일러블 WCG 비디오에 대해 밝기 정보를 적절히 후처리하여 WCG 비디오를 출력하도록 할 수 있다.
비디오 디코더가 시그널링 정보에 따라 스케일러블 WCG 비디오 구성이 가능하고, 수신기의 디스플레이 기기에서 이를 재생할 수 있는 경우 수신기는, 비디오 디코더가 sub stream을 디코딩하도록 할 수 있다.
수신기의 디코더는, 인핸스먼트 레이어 비디오 데이터와 함께 UDTV_scalable_color_gamut_service_info SEI message 를 이용하여 스케일러블 WCG 비디오를 구성하도록 할 수 있다.
이 때, 수신기의 디코더는 메타데이터로부터 베이스 레이어의 컬러 비트 뎁스 정보(BL_bitdepth필드)와 인핸스먼트 레이어 비디오 데이터와 베이스 레이어 비디오 데이터의 컬러 비트 뎁스의 차이 정보(EL_bitdepth_diff 필드)를 얻고, 이를 이용하여 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업스케일링할 수 있다.
그리고, 수신기의 디코더는 인핸스먼트 레이어의 레지듀얼(residual) 데이터를 이용해 업 스케일링한 베이스 레이어 비디오 데이터의 색 공간의 상세한 데이터를 보상할 수 있다.
수신기는 비디오를 최종 디스플레이하기 전에 WCG 비디오의 후처리 (post processing) 과정을 통해 더 향상된 밝기의 영상을 보여주거나, 혹은 디스플레이 기기 에서 보여주기 어려운 영상에 대해 색감 변환 등을 수행할 수 있다. 이 때, SEI message로 전송된 인핸스먼트 레이어비디오 데이터의 컬러 개멋(color gamut) 정보 (EL_video_color_gamut_type) 또는 임의의 컬러 개멋 정보 (RGBW의 color primary 값으로 color_primary_A_x, color_primary_A_y, 단 A는 R, G, B, W 중 하나)를 사용할 수 있다.
본 발명의 실시예에 따른 수신기 동작에 대해서는 이하에서 도면을 참조하여 다시 설명힌다.
이하에서는 본 발명의 실시예에 따라 시그널링하는 방식하는 예로서, 컬러 개멋 매핑한 베이스 레이어 비디오 데이터와 인핸스먼트 레이어 비디오 데이터를 이용해 스케일러블 WCG 비디오를 구성하도록 하는 시그널링 방식을 예시한다. 이 경우, 방송의 시스템 레벨에서 스케일러블 WCG 비디오 구성을 위한 정보를 제공하고, 베이스 레이어 비디오 데이터의 컬러 개멋 매핑을 하도록 비디오 레벨인 SEI 메시지에 메타데이터를 제공하도록 할 수 있다.
도 18은 이와 같은 실시예를 구현할 수 있는 본 발명의 일 실시예로서 방송 시그널링 정보를 예시한 도면이다. 방송 시그널링 정보 중 PMT 및 그에 포함되는 시그널링 정보를 개시하면 다음과 같다.
PMT에는 프로그램 레벨 디스크립터와 엘레먼터리 스트림 레벨의 디스크립터가 포함될 수 있다.
PMT는, 프로그램 레벨 디스크립터로서, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 개멋 매핑으로 WCG 비디오를 구성할 수 있는 프로그램을 기술할 수 있는 디스크립터를 포함할 수 있다.
본 발명의 일 실시예에 따르면 PMT의 program_info_length 필드 바로 뒤에 UD_program_descriptor는 스케일러블 WCG 비디오가 전송되는 프로그램을 시그널링할 수 있는데, 이 예에서는 UD_program_descriptor의 UD_program_format_type 필드가 0x09인 경우, 해당 프로그램이 legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 개멋 매핑으로 WCG 비디오를 구성할 수 있는 프로그램임을 나타낸다.
본 발명의 일 실시예에 따르면 PMT는 스트림 레벨의 디스크립터에 스케일러블 WCG 비디오 서비스를 구성하는 프로그램에 대한 스트림 정보를 포함하는 디스크립터(WCG_sub_stream_descriptor ())를 포함할 수 있다. 여기서 프로그램에 대한 스트림 정보를 포함하는 디스크립터 (WCG_sub_stream_descriptor)는 legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 스트림에 대한 정보를 포함할 수 있다.
도 19는 본 발명의 실시예에 따른 비디오 데이터의 SEI 영역의 패이로드에 대한 다른 신택스를 예시한다.
SEI 패이로드에서 payloadType이 특정 값(이 예에서는 52)으로 셋팅되는 경우, 예시한 바와 같이 스케일러블 WCG 비디오 데이터의 포맷을 시그널링하는 정보(UDTV_scalable_color_gamut_service_info(payloadSize))를 포함할 수 있다.
수신기의 디코더가 예시한 신택스에 따른 비디오 데이터를 파싱하는 실시예는 다음과 같다.
디코더가 비디오 데이터를 복호할 경우, 비디오 엘레먼트 스트림으로부터 AVC 또는 HEVC NAL unit을 파싱한다. 그리고, nal_unit_type 값이 SEI 데이터에 해당하고, SEI 데이터 중 payloadType이 52인 경우 예시한 UDTV_scalable_color_gamut_service_info에 따른 정보를 얻을 수 있다.
SEI 영역의 패이로드 영역에서 스케일러블 WCG 비디오 데이터의 포맷을 시그널링하는 정보인 UDTV_scalable_color_gamut_service_info(payloadSize)는 UHD 비디오 데이터의 포맷 정보를 나타내는 필드(UD_program_format_type)를 포함할 수 있다. 도 18에서 예시한 바와 같이 UHD 비디오 데이터의 포맷 정보는, UD_program_format_type 필드가 0x09인 경우 해당 프로그램이 WCG 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 개멋 매핑된 데이터로 WCG 비디오를 구성할 수 있는 프로그램임을 나타낼 수 있다.
그리고, UHD 비디오 데이터의 포맷 정보가 스케일러블 WCG 비디오의 포맷을 나타내는 경우, 스케일러블 WCG 비디오의 메타데이터(WCG_substream_metadata)를 포함할 수 있다. 이에 대해서는 이하에서 상술한다.
도 20은 본 발명의 실시예에 따라 개시한 SEI 영역의 패이로드에 포함되는 스케일러블 WCG 비디오의 메타데이터의 다른 예를 예시한 도면이다.
예시한 스케일러블 WCG 비디오의 메타데이터는, 도 12와 같이 UHD 비디오 포맷에 대한 정보(original_UD_video_type 필드), 베이스 레이어 비디오 데이터의 bit depth 정보(BL_bitdepth필드), 인핸스먼트 레이어 비디오 데이터를 이용해 최종적으로 얻게 될 스케일러블 WCG 비디오의 bit depth와 베이스 레이어 비디오 데이터의 bit depth와의 차이를 나타내는 정보 (EL_bitdepth_diff 필드), 베이스 레이어 비디오 데이터 color gamut에 관한 정보 (BL_video_color_gamut_type필드), 인핸스먼트 레이어 비디오 데이터에 의해 생성되는 비디오의 컬러 개멋(color gamut) 정보 (EL_video_color_gamut_type필드), 최종 WCG 영상을 획득하기 위해 사용하는 개멋 매핑 함수(gamut mapping function) 에 대한 정보 (EL_gamut_mapping_type필드) 및 베이스 레이어 비디오 데이터 혹은 인핸스먼트 레이어 비디오 데이터 임의의 컬러 개멋(color gamut) type 정보(RGBW_primaries( ) 필드) 등을 포함할 수 있다.
본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터는, 컬러 개멋 매핑 정보(gamut_mapping_info( ))를 더 포함할 수 있다. 스케일러블 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 정보에 대해서는 이하에서 상세히 설명한다.
도 21은 본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 정보의 예를 개시한 도면이다.
본 발명의 실시예에 따른 스케일러블 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 정보는 enhancement layer를 기반으로 base layer의 컬러 개멋(color gamut)을 확장하기 위한 방법을 나타낼 수 있다.
컬러 개멋 매핑 정보는, 베이스 레이어 비디오 데이터로부터 향상된 화질 또는 색감의 비디오를 획득하기 위한 컬러 개멋 매핑 타입을 나타낼 수 있다. 컬러 개멋 매핑 타입인 EL_gamut_mapping_type 필드에 따라 컬러 개멋 매핑(gamut mapping) 방식을 시그널링 할 수 있고, 이 함수의 종류에 따라 이 정보에 전송할 파라메터의 종류가 달라질 수 있다.
그리고, 특별한 컬러 개멋 매핑이 없는 경우 색변환 함수의 gain, offset 기반의 채널 독립적인 매핑인 방식을 나타내거나, linear matrix를 이용하여 매핑하는 방식을 나타내거나 또는 LUT 기반으로 매핑하는 방식 등을 기술할 수 있다.
컬러 개멋 매핑 타입 정보(EL_gamut_mapping_type)가 0000인 경우, 스케일러블 WCG 비디오의 인핸스먼트 레이어를 구성함에 있어서 베이스 레이어에 별도의 처리를 가하지 않는 경우를 나타낸다.
컬러 개멋 매핑 타입 정보(EL_gamut_mapping_type) 0001인 경우, 컬러 개멋 매핑 방식은 함수의 게인과 오프셋을 시그널링 하여 컬러를 매핑하는 방식으로 예시적인 방식은 수학식 1을 따른다.
수학식 1
Figure PCTKR2014011262-appb-M000001
컬러 개멋 매핑 타입 정보(EL_gamut_mapping_type) 0010인 경우, 매트릭스를 이용하여 컬러 개멋 정보를 매핑하는 것으로 예를 들면 ITU-R BT. 2250 에 기술된 방법을 기반으로 사용할 수 있다. 이를 이용하면 먼저 encoding을 위해 YCbCr 변환 된 색좌표를 RGB 좌표로 재 변환해준다. 변환 된 RGB 좌표에 대해 CIE colorimetry 상에서 gamut을 변환하기 위해 primary transformation을 수행할 수 있다.
matrix_composition_type 필드는 matrix conversion 기반으로 컬러 개멋 정보를 매핑하는 매트릭스를 구성하는 방식의 나타낸다. 컬러 개멋 정보를 매핑하는 매트릭스를 구성하는 방식은 source, target 의 color gamut에 대한 NPM (Normalized Primary Matrix)를 기반으로 이뤄지며, source의 color gamut을 normalized된 영역에 사상한 후, 이를 다시 target gamut으로 사상하는 방식으로 수행한다. 상세한 예는 수학식 2와 같다. 수학식 2에서 HDTV 에서 사용되는 color gamut을 다른 타겟 컬러 개멋으로 매핑하는 예를 개시한다.
수학식 2
Figure PCTKR2014011262-appb-M000002
컬러 개멋 정보를 매핑하기 위해 각 color gamut에 대해 미리 지정된 NPM을 시그널링하거나, 현재 주어진 color primary 매트릭스를 직접 산출하는 방법이 있는데 이에 대한 상세한 예는 도 23에 나타내었다. 다른 예로서 시그널링 정보가 직접 컬러 개멋(color gamut) 매핑 매트릭스를 포함하도록 할 수 있다.
matrix_composition_type 필드는 이 필드의 값에 따라 여러 가지 컬러 개멋으로 매핑하는 방식들을 나타낼 수 있는데 컬러 개멋 매핑 방식들의 예에 대해서는 도 22에 예시한다.
Number_of_coeff 필드는 추가 색 공간 변환을 위해 사용되는 계수의 수를 나타낸다.
gamut_mapping_coeff[i] 필드는 색 공간 변환을 위한 계수를 나타낸다. color_gamut syntax에 의해 표현된 색 공간을 기준으로 최적 색감 표현을 위한 임의의 색 공간으로의 변환이 이루어짐을 가정하는 경우, 변환식을 이용하여 최적을 색 공간을 사용할 수 있다. 변환식의 예는 도 25에서 예시하였다. 혹은 사용자의 지정에 따라 다른 변환식을 사용할 수도 있다.
컬러 개멋 매핑 타입 정보(EL_gamut_mapping_type) 0011인 경우, LUT 기반의 컬러 개멋 매핑을 나타낼 수 있다. 컬러 개멋 매핑을 위해 가장 널리 사용되는 방법은 Look Up Table (LUT)를 이용한 방법으로 input value 및 output value를 일대일 매칭 시켜주는 table을 사용하는 것이다. 하지만 모든 색상에 대해 출력 값을 매칭시켜주는 LUT의 경우 데이터 크기가 방대하기 때문에 이를 메타 데이터의 형태로 전달하는 것은 쉽지 않다. 실시예에 따라 3D 좌표를 모두 이용하는 것이 아닌, 각 채널에 독립적으로 매칭을 해주거나, 혹은 기준점을 바탕으로 LUT 구성 요소를 추정하는 방법 등을 사용할 수 있다.
LUT_type 필드는 사용하는 Look Up Table (LUT)의 종류를 나타낸다. 이 필드 값에 각 채널에 독립적으로 매칭을 해주는 LUT, 3D 좌표를 모두 이용하는 LUT, 혹은 기준점을 바탕으로 LUT 구성 요소를 추정하는 방식을 나타낼 수 있다. LUT_type 필드 값에 따른 LUT 타입의 종류는 도 26에 예시하였다.
도 22는 본 발명의 실시예에 따라 컬러 개멋 정보를 매핑하기 위해 사용할 수 있는 컬러 개멋 매핑 매트릭스 타입 정보(matrix_composition_type)를 예시한 도면이다. 여기서 예시한 바와 같이 컬러 개멋 매핑 매트릭스 타입 정보(matrix_composition_type)에 따라 컬러 개멋 정보 매핑을 수행할 수 있다.
예를 들어 컬러 개멋 매핑 매트릭스 타입 정보(matrix_composition_type)필드가 0000인 경우 BT. 709에 따른 Normalized Primary Matrix를 나타낸다. 이에 매트릭스 방식에 대해서는 도 23에 예시하였다.
컬러 개멋 매핑 매트릭스 타입 정보(matrix_composition_type)필드가 0001인 경우 DCI-P3에 따른 Normalized Primary Matrix를 나타낸다.
컬러 개멋 매핑 매트릭스 타입 정보(matrix_composition_type)필드가 0010인 경우 BT. 2020에 따른 Normalized Primary Matrix를 나타낸다.
컬러 개멋 매핑 매트릭스 타입 정보(matrix_composition_type)필드가 0100인 경우 현재 영상의 color primary value를 기반으로 Normalized Primary Matrix 를 나타낸다. 이에 매트릭스 및 매핑 방식에 대해서는 도 24에 예시하였다.
도 23은 본 발명의 실시예에 따라 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 매트릭스 타입 정보가 BT. 709에 따른 Normalized Primary Matrix를 지칭할 경우 상세한 컬러 매핑 매트릭스 실시예를 나타낸다. 여기서 예시한 컬러 개멋 매핑 매트릭스 타입 정보는 컬러 개멋 매핑이 NPM_709의 매트릭스(BT. 709에 따른 Normalized Primary Matrix)를 따를 경우 해당 매트릭스를 나타내었다.
도 24는 본 발명의 실시예에 따라 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 매트릭스 타입 정보가 현재 영상의 color primary value를 기반으로 Normalized Primary Matrix 실시예를 나타낸다. 이 도면에서 현재 컬러를 X, Y, Z라고 할 경우 이를 color primary value로 변환하는 방식 및 이를 이용한 컬러 개멋 매핑 매트릭스를 예시하였다.
도 25는 본 발명의 실시예에 따라 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 정보 중 색 공간 변환을 위한 계수(gamut_mapping_coeff[i]) 를 표현하는 변환식을 예시한다. 예를 들어 컬러 개멋 매핑 정보 중 색 공간 변환을 위한 계수는 매트릭스의 컴포넌트에 포함되는 계수가 될 수 있다.
도 26은 본 발명의 실시예에 따라 WCG 비디오의 메타데이터에 포함되는 컬러 개멋 매핑 정보 중 LUT_type 필드에 따른 Look Up Table (LUT)의 종류를 예시한 도면이다. LUT_type 값에 따라 LUT, 3D LUT, 3D LUT (linear interpolation) 등의 Look Up able을 지칭할 수 있다.
본 발명의 실시예에 따른 시그널링 방식에 따라 방송의 시스템 레벨에서 스케일러블 WCG 비디오 구성을 위한 정보를 제공하고, 베이스 레이어 비디오 데이터의 컬러 개멋 매핑 정보를 비디오 레벨인 SEI 메시지에 메타데이터를 포함시켜 제공하는 예를 개시하였다.
이 실시예들에 따라 스케일러블 WCG 비디오와 그 비디오를 시그널링하는 시그널링 정보를 송신할 경우 이를 수신하는 수신기의 동작을 간략히 설명하면 다음과 같다.
스케일러블 WCG 비디오가 전송되는 경우, 수신기는 시그널링 정보를 수신하여 스케일러블 WCG 비디오의 서브 스트림들을 조합하여 WCG 영상 출력할 수 있다.
수신기의 시그널링 정보 디코더는 수신된 PMT의 프로그램 디스크립터(UD_program_descriptor)를 이용하여 원본 UHDTV 방송을 구성하기 위해 추가로 받아야 하는 별도 서비스나 미디어가 있는지 판단한다. 본 실시예에서 기술하는 스케일러블 WCG 비디오는 UD_program_format_type가 0x09인 경우에 해당하며, 이 때 인핸스먼트 레이어 비디오 데이터 및 비디오 데이터 내의 SEI message의 추가 정보를 이용하여 스케일러블 WCG 비디오를 구성할 수 있음을 알 수 있다.
수신기의 시그널링 정보 디코더는 UD_program_format_type필드가 0x09 인 경우(즉, WCG 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업데이트한 데이터로 WCG 비디오를 구성하는 프로그램인 경우), 스트림 디스크립터 WCG_sub_stream_descriptor 를 통해 서비스 스트림의 codec 정보, profile 정보, level 정보 및 tier 정보 등를 파악하여 수신기의 디코더에서 처리 가능한 정보인지 판단할 수 있다.
수신기의 비디오 디코더는 비디오 데이터 내의 UDTV_scalable_color_gamut_service_info SEI message 로부터 베이스 레이어 및 enhancement layer에 의해 구성되는 스케일러블 WCG 비디오의 컬러 개멋 정보(color gamut) 및 컬러 개멋 매핑 정보를 얻고, 수신기의 디스플레이 기기에서 최종 출력이 가능한 영상인지 판단할 수 있다.
만약 수신기의 시그널링 정보 디코더가 시그널링 정보로부터 비디오 디코더가 처리하지 못하는 비디오 데이터로 판단한 경우, 수신기의 비디오 디코더는 베이스 레이어 비디오 데이터만을 디코딩할 수 있다. 수신기는 시그널링 정보 디코더가 비디오 디코더가 디코딩하여 처리할 수 있다고 판단하는 경우 비디오 디코더가 WCG 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업데이트한 데이터를 이용하여 스케일러블 WCG 비디오를 구성하도록 할 수 있다.
그리고, 비디오 디코더가 비디오 데이터의 SEI message를 디코딩하여 얻은 스케일러블 WCG 비디오의 밝기 정보가 수신기의 디스플레이에서 출력할 수 없는 경우 수신기는, 베이스 레이어 비디오만을 출력하거나, 스케일러블 WCG 비디오에 대해 밝기 정보를 적절히 후처리하여 예시한 스케일러블 WCG 비디오를 출력하도록 할 수 있다.
비디오 디코더가 시그널링 정보에 따라 스케일러블 WCG 비디오 구성이 가능하고, 수신기의 디스플레이 기기에서 이를 재생할 수 있는 경우 수신기는, 비디오 디코더가 서브 스트림 디코딩하도록 할 수 있다.
수신기의 디코더는, 인핸스먼트 레이어데이터와 함께 UDTV_scalable_color_gamut_service_info SEI message 의 컬러 개멋 매핑 정보를 이용하여 스케일러블 WCG 비디오를 구성하도록 할 수 있다. 그리고, WCG 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업데이트한 데이터를 이용하여 스케일러블 WCG 비디오를 구성
수신기는 비디오를 최종 디스플레이하기 전에 WCG video post processing 과정을 통해 더 향상된 밝기의 영상을 보여주거나, 혹은 디스플레이 기기 에서 보여주기 어려운 영상에 대해 색감 변환 등을 수행할 수 있다. 이 때, SEI message로 전송된 인핸스먼트 레이어비디오 데이터의 컬러 개멋(color gamut) 정보 (EL_video_color_gamut_type) 또는 임의의 컬러 개멋 정보 (RGBW의 color primary 값으로 color_primary_A_x, color_primary_A_y, 단 A는 R, G, B, W 중 하나)를 사용할 수 있다.
본 발명의 실시예에 따른 수신기 동작에 대해서는 이하에서 다시 설명한다.
앞에서 실시한 두 가지의 실시예에 따른 시그널링 정보는 시스템 레벨과 SEI 메시지에 포함되어 함께 전송될 수도 있다.
도 27은 본 발명의 일 실시예로서 방송 시그널링 정보를 예시한 도면으로서, 도 8 또는 도 18에 대응될 수 있다.
개시한 바와 같이 프로그램 레벨 디스크립터는 기존 UHD 비디오와 호환가능한 베이스 레이어를 업스케일링하거나 컬러 개멋 매핑한 데이터와 인핸스먼트 레이어를 이용하여 스케일러블 WCG 비디오를 구성할 수 있는 프로그램을 식별하는 디스립터(UD_program_descriptor )가 포함될 수 있다.
이 예에서 스케일러블 WCG 비디오를 구성할 수 있는 프로그램을 식별하는 디스립터(UD_program_descriptor)는, 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업데이트한 데이터로 WCG 비디오를 구성할 수 있는 프로그램/서비스 포맷(0x08)과, WCG 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 개멋 매핑된 데이터로 WCG 비디오를 구성할 수 있는 프로그램/서비스 포맷(0x09)을 식별하는 필드(UD_program_format_type)를 포함할 수 있다.
개시한 바와 같이 스트림 레벨 디스크립터는 스케일러블 WCG 비디오를 구성하는 스트림의 코딩 정보 등을 포함할 수 있다.
도 28은 본 발명의 일 실시예로서, 이러한 방송 시그널링 정보에 포함되는 스케일러블 WCG 비디오를 시그널링하는 디스크립터를 포함하는 구체적인 예를 개시한 도면이다. 이 도면은 개시한 바와 같이 도 10 또는 도 19에 대응될 수 있다.
본 발명의 일 실시예에 따라 스케일러블 WCG 비디오를 시그널링하는 디스크립터인 WCG_sub_stream_descriptor는 WCG 비디오 서비스를 구성하는 스트림에 대한 정보를 포함하는 디스크립터이다.
EL_video_codec_type 필드, EL_video_profile 필드 EL_video_level 필드, EL_video_level 필드 및 EL_video_tier 필드는 도 10 또는 도 19에서 설명한 바와 같다.
본 발명의 일 실시예에 따른 디스크립터는 스케일러블 WCG 비디오 스트림을 시그널링하는 메타데이터(WCG_substream_metadata ( ))는 이 메타데이터는 도12 또는 도 20에서 예시한 바와 같다.
도 29는 본 발명의 일 실시예로서 방송 시그널링 정보에 스케일러블 WCG 비디오를 시그널링하는 시그널링 정보가 포함되는 다른 예를 예시한 도면이다. 여기서는 방송 시그널링 정보로서 Service Description Table(SDT)을 예시한 도면이다. 각 필드를 기술하면 다음과 같다.
table_id 필드는 테이블의 식별자를 나타낸다.
section_syntax_indicator 필드는, SDT테이블 셕션에 대해 1로 셋팅되는 1비트 필드이다 (section_syntax_indicator: The section_syntax_indicator is a 1-bit field which shall be set to "1")
section_length 필드는, 섹션의 길이를 바이트 수로 나타낸다 (section_length: This is a 12-bit field, the first two bits of which shall be "00". It specifies the number of bytes of the section, starting immediately following the section_length field and including the CRC. The section_length shall not exceed 1 021 so that the entire section has a maximum length of 1 024 bytes.)
transport_stream_id 필드는 전송 시스템 내 다른 멀티플렉스와 구별하여, 이 SDT가 제공하는 TS 식별자를 나타낸다(transport_stream_id: This is a 16-bit field which serves as a label for identification of the TS, about which the SDT informs, from any other multiplex within the delivery system.)
version_number 필드는 이 서브 테이블의 버전 번호를 나타낸다(version_number: This 5-bit field is the version number of the sub_table. The version_number shall be incremented by 1 when a change in the information carried within the sub_table occurs. When it reaches value "31", it wraps around to "0". When the current_next_indicator is set to "1", then the version_number shall be that of the currently applicable sub_table. When the current_next_indicator is set to "0", then the version_number shall be that of the next applicable sub_table.)
current_next_indicator 필드는 이 서브 테이블이 현재 적용가능한지 또는 다음에 적용 가능한지를 나타낸다 (current_next_indicator: This 1-bit indicator, when set to "1" indicates that the sub_table is the currently applicable sub_table. When the bit is set to "0", it indicates that the sub_table sent is not yet applicable and shall be the next sub_table to be valid.)
section_number 필드는 섹션의 번호를 나타낸다(section_number: This 8-bit field gives the number of the section. The section_number of the first section in the sub_table shall be "0x00". The section_number shall be incremented by 1 with each additional section with the same table_id, transport_stream_id, and original_network_id.)
last_section_number 필드는 마지막 섹션의 번호를 나타낸다 (last_section_number: This 8-bit field specifies the number of the last section (that is, the section with the highest section_number) of the sub_table of which this section is part.)
original_network_id 필드는 전송 시스템이 네트워크 아이디를 식별자를 나타낸다(original_network_id: This 16-bit field gives the label identifying the network_id of the originating delivery system.)
service_id 필드는 TS내 서비스 식별자를 나타낸다(service_id: This is a 16-bit field which serves as a label to identify this service from any other service within the TS. The service_id is the same as the program_number in the corresponding program_map_section.)
EIT_schedule_flag 필드는, 서비스에 대한 EIT schedule 정보가 현재 TS에 있는지를 나타낼 수 있다(EIT_schedule_flag: This is a 1-bit field which when set to "1" indicates that EIT schedule information for the service is present in the current TS, see TR 101 211 [i.2] for information on maximum time interval between occurrences of an EIT schedule sub_table). If the flag is set to 0 then the EIT schedule information for the service should not be present in the TS.)
EIT_present_following_flag 필드는, 현재 TS에 서비스에 대한 EIT_present_following information 정보가 있는지 나타낼 수 있다(EIT_present_following_flag: This is a 1-bit field which when set to "1" indicates that EIT_present_following information for the service is present in the current TS, see TR 101 211 [i.2] for information on maximum time interval between occurrences of an EIT present/following sub_table. If the flag is set to 0 then the EIT present/following information for the service should not be present in the TS.)
running_status 필드는, DVB-SI 문서의 테이블 6에 정의된 서비스의 상태를 지칭할 수 있다(running_status: This is a 3-bit field indicating the status of the service as defined in table 6. For an NVOD reference service the value of the running_status shall be set to "0".)
free_CA_mode 필드는 서비스의 모든 컴포넌트 스트림이 스크래블되어 있는지 지칭한다(free_CA_mode: This 1-bit field, when set to "0" indicates that all the component streams of the service are not scrambled. When set to "1" it indicates that access to one or more streams may be controlled by a CA system.)
descriptors_loop_length 필드는 뒤따르는 디스크립터의 길이를 나타낸다(descriptors_loop_length: This 12-bit field gives the total length in bytes of the following descriptors).
CRC_32 는 CRC값을 포함하는 32비트 필드이다(CRC_32: This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder).
SDT의 디스크립터는 스케일러블 WCG 비디오 서비스를 기술할 수 있는 정보가 포함될 수 있는데, 예를 들어 도 8 나 18 에서 예시한 디스크립터(UD_program_descriptor), 도 10에서 예시한 디스크립터 (WCG_sub_stream_descriptor), 또는 도 12나 20에서 예시한 메타데이터(WCG_substream_metadata)나 그 일부를 포함할 수 있다. 따라서, 본 발명의 실시예에 따르면 기술한 스케일러블 WCG 비디오 서비스를 기술하는 시그널링 정보를 포함할 수 있다.
도 30은 본 발명의 일 실시예로서 방송 시그널링 정보에 스케일러블 WCG 비디오를 시그널링하는 시그널링 정보가 포함되는 다른 예를 예시한 도면이다. 여기서는 방송 시그널링 정보로서 Event Information Table (EIT)을 예시한 도면이다.
EIT는 ETSI EN 300 468에 따를 수 있다. 이를 이용하여 각 필드를 기술하면 다음과 같다.
table_id: 테이블 식별자를 나타낸다.
section_syntax_indicator 필드는, EIT테이블 셕션에 대해 1로 셋팅되는 1비트 필드이다 (section_syntax_indicator: The section_syntax_indicator is a 1-bit field which shall be set to "1".)
section_length 필드는, 섹션의 길이를 바이트 수로 나타낸다(section_length: This is a 12-bit field. It specifies the number of bytes of the section, starting immediately following the section_length field and including the CRC. The section_length shall not exceed 4 093 so that the entire section has a maximum length of 4 096 bytes.)
service_id 필드는 TS내 서비스 식별자를 나타낸다(service_id: This is a 16-bit field which serves as a label to identify this service from any other service within a TS. The service_id is the same as the program_number in the corresponding program_map_section.)
version_number 필드는 이 서브 테이블의 버전 번호를 나타낸다(version_number: This 5-bit field is the version number of the sub_table. The version_number shall be incremented by 1 when a change in the information carried within the sub_table occurs. When it reaches value 31, it wraps around to 0. When the current_next_indicator is set to "1", then the version_number shall be that of the currently applicable sub_table. When the current_next_indicator is set to "0", then the version_number shall be that of the next applicable sub_table.)
current_next_indicator 필드는 이 서브 테이블이 현재 적용가능한지 또는 다음에 적용 가능한지를 나타낸다(current_next_indicator: This 1-bit indicator, when set to "1" indicates that the sub_table is the currently applicable sub_table. When the bit is set to "0", it indicates that the sub_table sent is not yet applicable and shall be the next sub_table to be valid.)
section_number 필드는 섹션의 번호를 나타낸다(section_number: This 8-bit field gives the number of the section. The section_number of the first section in the sub_table shall be "0x00". The section_number shall be incremented by 1 with each additional section with the same table_id, service_id, transport_stream_id, and original_network_id. In this case, the sub_table may be structured as a number of segments. Within each segment the section_number shall increment by 1 with each additional section, but a gap in numbering is permitted between the last section of a segment and the first section of the adjacent segment.)
last_section_number 필드는 마지막 섹션의 번호를 나타낸다 (last_section_number: This 8-bit field specifies the number of the last section (that is, the section with the highest section_number) of the sub_table of which this section is part.)
transport_stream_id 필드는 전송 시스템 내 다른 멀티플렉스와 구별하여, 이 SDT가 제공하는 TS 식별자를 나타낸다(transport_stream_id: This is a 16-bit field which serves as a label for identification of the TS, about which the EIT informs, from any other multiplex within the delivery system.)
original_network_id 필드는 전송 시스템이 네트워크 아이디를 식별자를 나타낸다(original_network_id: This 16-bit field gives the label identifying the network_id of the originating delivery system.)
segment_last_section_number 필드는 이 서브 테이블의 이 세그먼트의 마지막 섹션 번호를 나타낸다 (segment_last_section_number: This 8-bit field specifies the number of the last section of this segment of the sub_table. For sub_tables which are not segmented, this field shall be set to the same value as the last_section_number field.)
last_table_id 필드는 (last_table_id: This 8-bit field identifies the last table_id used (see table 2).)
event_id 필드는 이벤트의 식별번호를 나타낸다.(event_id: This 16-bit field contains the identification number of the described event (uniquely allocated within a service definition)
start_time 필드는 이벤트의 시작시간을 포함한다(start_time: This 40-bit field contains the start time of the event in Universal Time, Co-ordinated (UTC) and Modified Julian Date (MJD) (see annex C). This field is coded as 16 bits giving the 16 LSBs of MJD followed by 24 bits coded as 6 digits in 4-bit Binary Coded Decimal (BCD). If the start time is undefined (e.g. for an event in a NVOD reference service) all bits of the field are set to "1".)
running_status 필드는, DVB SI 문서의 table 6에 정의된 이벤트의 상태를 나타낸다( (running_status: This is a 3-bit field indicating the status of the event as defined in table 6. For an NVOD reference event the value of the running_status shall be set to "0".)
free_CA_mode 필드는 서비스의 모든 컴포넌트 스트림이 스크래블되어 있는지 지칭한다 (free_CA_mode: This 1-bit field, when set to "0" indicates that all the component streams of the event are not scrambled. When set to "1" it indicates that access to one or more streams is controlled by a CA system.)
descriptors_loop_length 필드는 뒤따르는 디스크립터의 길이를 나타낸다 (descriptors_loop_length: This 12-bit field gives the total length in bytes of the following descriptors.)
CRC_32 는 CRC값을 포함하는 32비트 필드이다(CRC_32: This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder)
descriptors_loop_length 필드는 다음의 디스크립터 위치에 도 16에서 예시한 UHD_program_type_descriptor, 와 본 발명의 실시예에 따라 도 18, 도 24, 또는 도 25에 예시한 UHD_composition_descriptor가 포함될 수 있다.
EIT의 디스크립터는 스케일러블 WCG 비디오 서비스를 기술할 수 있는 정보가 포함될 수 있는데, 예를 들어 도 8 나 18 에서 예시한 디스크립터(UD_program_descriptor), 도 10에서 예시한 디스크립터 (WCG_sub_stream_descriptor), 또는 도 12나 20에서 예시한 메타데이터(WCG_substream_metadata)나 그 일부를 포함할 수 있다. 따라서, 본 발명의 실시예에 따르면 기술한 스케일러블 WCG 비디오 서비스를 기술하는 시그널링 정보를 포함할 수 있다.
도 31은 본 발명의 일 실시예로서 방송 시그널링 정보에 스케일러블 WCG 비디오를 시그널링하는 시그널링 정보가 포함되는 다른 예를 예시한 도면이다. 여기서는 방송 시그널링 정보로서 Virtual Channel Table (VCT)을 예시한 도면이다. 각 필드를 기술하면 다음과 같다.
VCT는 ATSC PSIP 규격에 따를 수 있다. ATSC PSIP에 따르면 각 필드의 설명은 다음과 같다. 각 비트 설명을 아래와 같이 개시한다.
table_id 필드는 테이블섹션의 타입을 지칭하는 8-bit unsigned 정수를 나타낸다 (table_id - An 8-bit unsigned integer number that indicates the type of table section being defined here. For the terrestrial_virtual_channel_table_section(), the table_id shall be 0xC8)
section_syntax_indicator 필드는, VCT테이블 셕션에 대해 1로 셋팅되는 1비트 필드이다(section_syntax_indicator - The section_syntax_indicator is a one-bit field which shall be set to ‘1’ for the terrestrial_virtual_channel_table_section()).
private_indicator 필드는 1로 셋팅된다(private_indicator - This 1-bit field shall be set to ‘1’)
section_length필드는 섹션의 길이를 바이트 수로 나타낸다. (section_length - This is a twelve bit field, the first two bits of which shall be ‘00’. It specifies the number of bytes of the section, starting immediately following the section_length field, and including the CRC.)
transport_stream_id 필드는 TVCT를 식별할 수 있는 PAT에서 처럼 MPEG -TS ID를 나타낸다 (transport_stream_id - The 16-bit MPEG-2 Transport Stream ID, as it appears in the Program Association Table (PAT) identified by a PID value of zero for this multiplex. The transport_stream_id distinguishes this Terrestrial Virtual Channel Table from others that may be broadcast in different PTCs.)
version_number 필드는 VCT의 버전 번호를 나타낸다(version_number - This 5 bit field is the version number of the Virtual Channel Table. For the current VCT (current_next_indicator = ‘1’), the version number shall be incremented by 1 whenever the definition of the current VCT changes. Upon reaching the value 31, it wraps around to 0. For the next VCT (current_next_indicator = ‘0’), the version number shall be one unit more than that of the current VCT (also in modulo 32 arithmetic). In any case, the value of the version_number shall be identical to that of the corresponding entries in the MGT)
current_next_indicator 필드는 이 VCT 테이블 현재 적용가능한지 또는 다음에 적용 가능한지를 나타낸다(current_next_indicator - A one-bit indicator, which when set to ‘1’ indicates that the Virtual Channel Table sent is currently applicable. When the bit is set to ‘0’, it indicates that the table sent is not yet applicable and shall be the next table to become valid. This standard imposes no requirement that “next” tables (those with current_next_indicator set to ‘0’) must be sent. An update to the currently applicable table shall be signaled by incrementing the version_number field)
section_number 필드는 섹션의 번호를 나타낸다(section_number - This 8 bit field gives the number of this section. The section_number of the first section in the Terrestrial Virtual Channel Table shall be 0x00. It shall be incremented by one with each additional section in the Terrestrial Virtual Channel Table)
last_section_number 필드는 마지막 섹션의 번호를 나타낸다 (last_section_number - This 8 bit field specifies the number of the last section (that is, the section with the highest section_number) of the complete Terrestrial Virtual Channel Table.)
protocol_version 필드는 추후 현재 프로토콜과 다르게 정의될 파라미터를 위한 프로토콜 버전을 나타낸다 (protocol_version - An 8-bit unsigned integer field whose function is to allow, in the future, this table type to carry parameters that may be structured differently than those defined in the current protocol. At present, the only valid value for protocol_version is zero. Non-zero values of protocol_version may be used by a future version of this standard to indicate structurally different tables)
num_channels_in_section 필드는 이 VCT의 가상 채널의 수를 나타낸다 (num_channels_in_section - This 8 bit field specifies the number of virtual channels in this VCT section. The number is limited by the section length)
short_name 필드는 가상 채널의 이름을 나타낸다(short_name - The name of the virtual channel, represented as a sequence of one to seven 16-bit code values interpreted in accordance with the UTF-16 representation of Unicode character data. If the length of the name requires fewer than seven 16-bit code values, this field shall be padded out to seven 16-bit code values using the Unicode NUL character (0x0000). Unicode character data shall conform to The Unicode Standard, Version 3.0 [13]. )
major_channel_number 필드는, 가상채널과 관련된 메이저 채널의 수를 나타낸다(major_channel_number - A 10-bit number that represents the “major” channel number associated with the virtual channel being defined in this iteration of the “for” loop. Each virtual channel shall be associated with a major and a minor channel number. The major channel number, along with the minor channel number, act as the user’s reference number for the virtual channel. The major_channel_number shall be between 1 and 99. The value of major_channel_number shall be set such that in no case is a major_channel_number/ minor_channel_number pair duplicated within the TVCT. For major_channel_number assignments in the U.S., refer to Annex B.)
minor_channel_number 필드는, 가상채널과 관련된 마이너 채널의 수를 나타낸다(minor_channel_number - A 10-bit number in the range 0 to 999 that represents the “minor” or “sub”- channel number. This field, together with major_channel_number, performs as a two-part channel number, where minor_channel_number represents the second or right-hand part of the number. When the service_type is analog television, minor_channel_number shall be set to 0. Services whose service_type is ATSC_digital_television, ATSC_audio_only, or unassociated/ small_screen_service shall use minor numbers between 1 and 99. The value of minor_channel_number shall be set such that in no case is a major_channel_number/ minor_channel_number pair duplicated within the TVCT. For other types of services, such as data broadcasting, valid minor virtual channel numbers are between 1 and 999.)
modulation_mode 모드는 가상채널과 관련된 캐리어의 변조 모드를 나타낸다(modulation_mode - An 8-bit unsigned integer number that indicates the modulation mode for the transmitted carrier associated with this virtual channel. Values of modulation_mode shall be as defined in Table 6.5. For digital signals, the standard values for modulation mode (values below 0x80) indicate transport framing structure, channel coding, interleaving, channel modulation, forward error correction, symbol rate, and other transmission-related parameters, by means of a reference to an appropriate standard. The modulation_mode field shall be disregarded for inactive channels)
carrier_frequency 필드는 캐리어 주파수를 식별할 수 있는 필드이다(carrier_frequency - The recommended value for these 32 bits is zero. Use of this field to identify carrier frequency is allowed, but is deprecated.)
channel_TSID 필드는 이 가상채널에 의해 레퍼런스된 MPEG-2 프로그램을 전송하는 TS와 관련된 MPEG-2 TS ID를 나타낸다 (channel_TSID - A 16-bit unsigned integer field in the range 0x0000 to 0xFFFF that represents the MPEG-2 Transport Stream ID associated with the Transport Stream carrying the MPEG-2 program referenced by this virtual channel8. For inactive channels, channel_TSID shall represent the ID of the Transport Stream that will carry the service when it becomes active. The receiver is expected to use the channel_TSID to verify that any received Transport Stream is actually the desired multiplex. For analog channels (service_type 0x01), channel_TSID shall indicate the value of the analog TSID included in the VBI of the NTSC signal. Refer to Annex D Section 9 for a discussion on use of the analog TSID)
program_number 필드는 이 가상채널과 PMT와 관련되어 정의되는 정수값을 나타낸다(program_number - A 16-bit unsigned integer number that associates the virtual channel being defined here with the MPEG-2 PROGRAM ASSOCIATION and TS PROGRAM MAP tables. For virtual channels representing analog services, a value of 0xFFFF shall be specified for program_number. For inactive channels (those not currently present in the Transport Stream), program_number shall be set to zero. This number shall not be interpreted as pointing to a Program Map Table entry.)
ETM_location 필드는 ETM의 존재와 위치를 나타낸다 (ETM_location - This 2-bit field specifies the existence and the location of an Extended Text Message (ETM) and shall be as defined in Table 6.6.)
access_controlled 필드는 access control된 가상채널과 관련된 이벤트를 지칭할 수 있다(access_controlled - A 1-bit Boolean flag that indicates, when set, that the events associated with this virtual channel may be access controlled. When the flag is set to ‘0’, event access is not restricted)
hidden 필드는 가상채널이 사용자의 직접 채널 입력에 의해 access되지 않는 경우를 나타낼 수 있다(hidden - A 1-bit Boolean flag that indicates, when set, that the virtual channel is not accessed by the user by direct entry of the virtual channel number. Hidden virtual channels are skipped when the user is channel surfing, and appear as if undefined, if accessed by direct channel entry. Typical applications for hidden channels are test signals and NVOD services. Whether a hidden channel and its events may appear in EPG 디스플레이 기기s depends on the state of the hide_guide bit.)
hide_guide 필드는 가상채널과 그 이벤트가 EPG에 표시될 수 있는지를 나타낼 수 있다(hide_guide - A Boolean flag that indicates, when set to ‘0’ for a hidden channel, that the virtual channel and its events may appear in EPG 디스플레이 기기s. This bit shall be ignored for channels which do not have the hidden bit set, so that non-hidden channels and their events may always be included in EPG 디스플레이 기기s regardless of the state of the hide_guide bit. Typical applications for hidden channels with the hide_guide bit set to ‘1’ are test signals and services accessible through application-level pointers.)
service_type 필드는 서비스 타입 식별자를 나타낸다(service_type - This 6-bit field shall carry the Service Type identifier. Service Type and the associated service_type field are defined in A/53 Part 1 [1] to identify the type of service carried in this virtual channel. Value 0x00 shall be reserved. Value 0x01 shall represent analog television programming. Other values are defined in A/53 Part 3 [3], and other ATSC Standards may define other Service Types9)
source_id 필드는 가상채널과 관련된 프로그램 소스를 식별하는 식별번호이다(source_id - A 16-bit unsigned integer number that identifies the programming source associated with the virtual channel. In this context, a source is one specific source of video, text, data, or audio programming. Source ID value zero is reserved. Source ID values in the range 0x0001 to 0x0FFF shall be unique within the Transport Stream that carries the VCT, while values 0x1000 to 0xFFFF shall be unique at the regional level. Values for source_ids 0x1000 and above shall be issued and administered by a Registration Authority designated by the ATSC.)
descriptors_length 필드는 뒤 따르는 디스크립터의 길이를 나타낸다(descriptors_length - Total length (in bytes) of the descriptors for this virtual channel that follows)
descriptor() 에 디스크립터가 포함될 수 있다.(descriptor() - Zero or more descriptors, as appropriate, may be included.)
VCT의 service_type필드는 UHD 서비스, 스케일러블 UHD 서비스 또는 스케일러블 WCG 비디오 서비스를 식별할 수 있는 서비스 타입 정보를 포함할 수 있다. 예를 들어, service_type 필드가 0x07, 0x09인 경우, 0x10 등인 경우 해당 서비스가 이와 같은 서비스임을 시그널링할 수 있다.
VCT의 디스크립터는 스케일러블 WCG 비디오 서비스를 기술할 수 있는 정보가 포함될 수 있는데, 예를 들어 도 8 나 18 에서 예시한 디스크립터(UD_program_descriptor), 도 10에서 예시한 디스크립터 (WCG_sub_stream_descriptor), 또는 도 12나 20에서 예시한 메타데이터(WCG_substream_metadata)나 그 일부를 포함할 수 있다. 따라서, 본 발명의 실시예에 따르면 기술한 스케일러블 WCG 비디오 서비스를 기술하는 시그널링 정보를 포함할 수 있다.
도 32는 본 발명의 실시예에 따른 신호 송신 장치의 일 실시예를 나타낸 도면이다. 이 도면을 참조하여 신호 송신 장치의 일 실시예를 설명하면 다음과 같다.
이 실시예는, 스케일러블 WCG 비디오를 전송하기 위해 legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터와 인핸스먼트 레이어 비디오 데이터를 인코딩하여 전송할 수 있다.
본 발명의 실시예에 따른 신호 송신 장치의 일 실시예는 비디오 인코더를 포함하는데, 비디오 인코더는, 컬러 개멋 매핑부(510), 제 1 색변환부(520), 제 2 색변환부(530), 제 1 인코더(540), 업스케일링부(550), 연산부(560), 제 2 인코더(570) 및 메타데이터생성부(580)를 포함할 수 있다.
컬러 개멋 매핑부(510)는 스케일러블 WCG 비디오를 컬러 개멋 매핑하여 legacy UHD 비디오를 출력할 수 있다.
컬러 개멋 매핑부(510)는 스케일러블 WCG 비디오에 대해 기존 디스플레이에서 표현이 가능한 색 공간으로 매핑하도록 스케일러블 WCG 비디오의 컬러 개멋을 매핑할 수 있다. 컬러 개멋 매핑부(510)는 전체적인 색 표현 범위를 일정 공간으로 매핑하여 기존의 수신기에서 출력할 수 있는 UHD 비디오를 출력한다. 송신부에서는 이에 대한 정보를 metadata의 형태로 출력한다.
제 1 색변환부(520)는 컬러 개멋 매핑된 비디오에 대해 해당 색 공간으로 전송하도록 영상 포맷을 변환한다. 예를 들어 컬러 비디오 전송 시 시각 특성에 따라 luma 신호를 유지하는 반면 chroma 신호에 대해서는 sub-sampling 등을 수행할 수 있다. 이러한 색변환을 거치면 비디오의 transfer curve 가 달라지는데 기존의 수신기에 맞도록 기존 수신기에 맞게 transfer curve (EOTF) 를 변환을 수행할 수 있다.
제 2 색변환부(530)는 예를 들어 YCbCr conversion 에 대해서도 legacy UHD 디스플레이 기기에서 표출 가능한 색변환을 수행할 수 있다.
제 1 색변환부(520)와 제 2 색변환부(530)는 해당 비디오 데이터에 필요한 경우에만 동작할 수 있다.
제 1 인코더(540)는 기존의 디스플레이 기기에서 출력할 수 있는 UHD 비디오를 전송하기 위해 HEVC와 같이 기존의 UHD 수신기에서 처리 가능한 코덱을 이용하여 컬러 개멋 매핑부(510) 또는 제 1 색변환부(520) 또는 제 2 색변환부(530)가 출력한 비디오 데이터를 베이스 레이어 비디오 데이터로 인코딩하여 출력한다.
스케일링부(550)는 기존의 수신기에서 출력할 수 있는 UHD 비디오에 대해, 비트 뎁스 다운 샘플링하고 OETF 등의 색변환 전의 비디오(SCG)의 비트 뎁스를 업 스케일링을 수행하여 원본 스케일러블 WCG 비디오와 동일한 비트 뎁스를 갖도록 한다.
연산부(560)는 원본 스케일러블 WCG 비디오와 스케일링부(550)가 출력하는 비디오 데이터의 차이를 레지듀얼 데이터로 생성한다.
제 2 인코더(570)는 레지듀얼 데이터를 인핸스먼트 데이터를 인코딩하여 출력한다.
메타데이터생성부(580)는 컬러 개멋 매핑을 통해 생성된 legacy UHD 비디오에 대한 metadata를 생성한다. 그리고 생성한 메타데이터는, legacy UHD 비디오에 대한 metadata는 컬러 개멋 매핑부(510), 제 1 색변환부(520) 및 제 2 색변환부(530)가 수행한 컬러 개멋 변환, 색변환 (EOTF 변환 또는 YCbCr conversion matrix) 등의 정보를 포함할 수 있다.
메타데이터생성부(580)는 도 11 내지 도 17 및 도 19 내지 도 26에서 예시한 정보를 생성할 수 있다.
도면에 표시하지 않았지만, 본 발명의 실시예에 따른 신호 송신 장치의 일 실시예는, 시그널링 정보 인코더, 다중화부 및 전송부를 더 포함할 수 있다.
시그널링 정보 인코더는 스케일러블 WCG 비디오 데이터를 구성할 수 있는 시그널링 정보를 인코딩할 수 있다. 시그널링 정보 인코더가 인코딩할 수 있는 정보는 도 8, 내지 도 10, 도 18 및 도 27 내지 도 31에서 예시하였다.
다중화부는 비디오 인코더가 출력하는 비디오 데이터와 비디오 인코더가 인코딩된 베이스 레이어 비디오 데이터 및 인핸스먼트 비디오 데이터를 다중화하여 출력할 수 있다.
전송부는 다중화한 스트림을 채널 코딩 등을 수행하여 전송할 수 있다.
도 33는 본 발명의 실시예에 따른 신호 송신 장치의 다른 일 실시예를 나타낸 도면이다. 이 도면을 참조하여 신호 송신 장치의 일 실시예를 설명하면 다음과 같다.
이 실시예는, 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 개멋 매핑된 데이터로 WCG 비디오를 구성하도록 비디오를 인코딩하여 전송할 수 있다.
본 발명의 실시예에 따른 신호 송신 장치의 일 실시예는 비디오 인코더, 시그널링 정보 인코더, 다중화부 및 전송부를 포함할 수 있다.
비디오 인코더는 제 1 컬러 개멋 매핑부(610), 제 1 색변환부(620), 제 2 색변환부(630), 제 1 인코더(640), 업스케일링부(650), 제 2 컬러 개멋 매핑부(655), 연산부(660), 제 2 인코더(670) 및 메타데이터생성부(680)를 포함할 수 있다.
제 1 컬러 개멋 매핑부(610)는 스케일러블 WCG 비디오를 컬러 개멋 매핑하여 legacy UHD 비디오를 출력할 수 있다.
제 1 색변환부(620)와 제 2 색변환부(630)은 각각 위에서 설명한 바와 유사한 색변환 수행할 수 있다. 예를 들어 컬러 비디오 전송 시 시각 특성에 따라 luma 신호를 유지하는 반면 chroma 신호에 대해서는 sub-sampling 등을 수행할 수 있다. 이러한 색변환을 거치면 비디오의 transfer curve 가 달라지는데 기존의 수신기에 맞도록 transfer curve (EOTF) 를 변환을 수행할 수 있다.
제 2 색변환부(630)는 예를 들어 YCbCr conversion 에 대해서도 legacy UHD 디스플레이 기기에서 표출 가능한 색변환을 수행할 수 있다.
제 1 색변환부(620)와 제 2 색변환부(630)는 해당 비디오가 필요한 경우에만 동작할 수 있다.
제 1 인코더(640)는 기존의 수신기에서 출력할 수 있는 UHD 비디오를 인코딩하여 출력하기 위해 스케일러블 컬러 개멋 비디오에 대해 HEVC와 같이 기존의 UHD 수신기에서 처리 가능한 코덱을 이용하여 색변환부(620, 630)가 출력한 비디오를 베이스 레이어 비디오 데이터로 압축하여 출력한다.
스케일링부(650)는 기존의 수신기에서 출력할 수 있는 UHD 비디오에 대해, 비트 뎁스 다운 샘플링하고 OETF 등의 색변환 전의 비디오(SCG)의 비트 뎁스를 업 스케일링을 수행하여 원본 스케일러블 WCG 비디오와 동일한 비트 뎁스를 갖도록 한다.
제 2 컬러 개멋 매핑부(655)는 스케일링부(650)가 출력한 업스케일링된 비디오에 대해 컬러 개멋 매핑을 수행하고 베이스 레이어 비디오 데이터의 컬러 개멋을 확장하여 WCG 비디오의 컬러 개멋과 유사하게 비디오를 변환한다. 이 경우 스케일링부(650)에서 업스케일링된 비디오는 bit depth 확장이 일어난 색 공간으로의 mapping이 될 수 있어 quantization error가 발생할 수 있다. 따라서, 이를 보정할 수 있는 메타데이터가 정보가 메타데이터 생성부에서 생성되거나, 레지듀얼 데이터에 포함되어 처리될 수 있다.
연산부(660)는 원본 스케일러블 WCG 비디오와 제 2 컬러 개멋 매핑부(655)가 출력하는 비디오 데이터의 차이를 레지듀얼 데이터로 생성한다.
제 2 인코더(670)는 레지듀얼 데이터를 인핸스먼트 데이터를 인코딩하여 출력한다.
메타데이터생성부(680)는 컬러 개멋 매핑을 통해 생성된 legacy UHD 비디오에 대한 메타 데이터를 생성한다. 그리고 legacy UHD 비디오에 대한 메타 데이터는 컬러 개멋 매핑부(510), 제 1 색변환부(520) 및 제 2 색변환부(530)가 수행한 컬러 개멋 변환, 색변환 (EOTF 변환 또는 YCbCr conversion matrix) 등의 정보를 포함할 수 있다. 메타데이터생성부(680)는 인핸스먼트 레이어 비디오 데이터를 비디오를 구성하기 위한 정보를 메타 데이터의 형태로 전송한다. 예시한 바와 같이 메타 데이터는 gamut mapping function에 관련된 정보(gamut mapping type, parameter 등) 뿐만 아니라 베이스 레이어 비디오 데이터에 대한 정보, 구성 방법 등을 포함할 수 있다.
마찬가지로 메타데이터생성부(680)는 도 11 내지 도 17 및 도 19 내지 도 26에서 예시한 정보를 생성할 수 있다.
도 34는 본 발명의 실시예에 따른 신호 수신 장치의 일 예를 예시한 도면이다.
본 발명의 실시예에 따른 신호 수신 장치의 일 예는 수신부(710), 채널디코더(720), 역다중화부(730), 시그널링 정보 디코더(740) 및 비디오 디코더를 포함한다.
비디오 디코더는 베이스 레이어 디코더와 인핸스먼트 레이어 디코더를 포함한다.
예를 들어 베이스 레이어 디코더(810)은 역다중화부(730)가 출력하는 베이스 레이어 비디오 데이터를 디코딩하여 레거시 UHD 비디오 데이터(920)를 출력한다.
인핸스먼트 레이어 디코더는 업스케일링부(910), 컬러 개멋 매핑부(920), 스케일러블 디코더(930), WCG 후처리부(940)를 포함할 수 있다.
먼저 수신부(710)는 방송 신호를 튜닝하고, 방송 신호에 포함된 신호 프레임을 복조할 수 있다.
채널디코더(720)는 신호 프레임에 포함된 데이터를 채널 디코딩할 수 있다.
역다중화부(730)는 채널 디코딩된 데이터를 역다중화화여 출력한다. 예를 들어 역다중화부(730)는 방송 시그럴링 정보를 데이터와 베이스 레이어 비디오 데이터 또는 인핸스먼트 레이어 비디오 데이터의 스트림들을 각각 역다중화할 수 있다.
시그널링 정보 디코더(740)는 역다중화한 시그널링 정보를 복호할 수 있다. 여기서 시그널링 정보 디코더가 복호할 수 있는 정보의 예는, 도 8, 내지 도 10, 도 18 및 도 27 내지 도 31에 각각 예시하였다. 예를 들어 시그널링 정보 디코더(740)는 개시한 프로그램 레벨 디스크립터(UD_program_descriptor) 또는 스트림 디스크립터(WCG_sub_stream_descriptor)로 해당 서비스가 스케일러블 WCG 비디오 서비스임을 알 수 있고, 해당 스트림의 비디오의 코덱정보, 프로파일 정보, 레벨 정보, 티어 정보 등을 알 수 있다.
비디오 디코더는 역다중화된 베이스 레이어 비디오 데이터 혹은 인핸스먼트 레이어 비디오 데이터를 복호할 수 있다. 이 경우 베이스 레이어 비디오 데이터 혹은 인핸스먼트 레이어 비디오 데이터에 포함된 시그널링 정보를 참조할 수 있는데, 비디오 디코더가 복호하는 시그널링 정보의 예는 도 11 내지 도 17 및 도 19 내지 도 26 에 각각 예시하였다.
비디오 디코더는 시그널링 정보 디코더(740)가 역다중화한 시그널링 정보와 베이스 레이어 비디오 데이터 혹은 인핸스먼트 레이어 비디오 데이터에 포함된 시그널링 정보를 기반으로 스케일러블 WCG 비디오를 수신기의 디스플레이 기기의 성능에 따라 WCG 비디오 또는 legacy UHD 비디오를 제공할 수 있다.
예를 들어 본 발명의 실시예에 따르면 기존의 디스플레이 기기를 가진 수신기에서는 비디오 디코더는, 기존의 디스플레이 기기에 호환 가능한 legacy UHD 비디오를 출력할 수 있다.
본 발명의 실시예에 따르면 WCG 서비스를 제공할 수 있는 디스플레이 기기를 가진 수신기에서는 비디오 디코더는, 인핸스먼트 레이어 비디오 데이터와 legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업데이트한 데이터로 WCG를 구성할 수 있다. 또는 비디오 디코더는, 인핸스먼트 레이어 비디오 데이터와, legacy UHD 비디오와 호환되는 베이스 레이어 비디오 데이터의 컬러 개멋 매핑된 데이터로 WCG 비디오를 구성할 수 있다.
이에 대해 각각 기술하면 다음과 같다.
기존의 디스플레이 기기를 가진 수신기인 경우 베이스 레이어 디코더(810)는 역다중화부(730)가 역다중화한 베이스 레이어 비디오 데이터를 복호할 수 있다. 베이스 레이어 디코더(810)가 복호한 베이스 레이어 비디오 데이터는 legacy UHD 비디오와 호환되는 비디오 데이터(820)일 수 있다.
베이스 레이어 디코더(810)는 시그널링 정보 디코더(740)가 복호하는 시그널링 정보와 베이스 레이어 비디오 데이터에 포함된 시그널링 정보에 기반하여 legacy UHD 비디오와 호환되는 비디오 데이터(820)를 복호하고 이를 디스플레이 기기로 출력한다.
이 도면에 예시한 베이스 레이어 비디오 디코더(810)는 도 2의 베이스 레이어 디코더와 색변환부(EOTF)에 대응될 수 있다.
WCG 서비스를 제공할 수 있는 디스플레이 기기를 가진 수신기인 경우 베이스 레이어 디코더(810)는, 시그널링 정보 디코더(740)가 역다중화한 시그널링 정보와 베이스 레이어 비디오 데이터 혹은 인핸스먼트 레이어 비디오 데이터에 포함된 시그널링 정보를 기반으로 역다중화부(730)가 역다중화한 베이스 레이어 비디오 데이터를 복호할 수 있다.
인핸스먼트 레이어 디코더는 베이스 레이어 디코더를 포함하고, 업스케일링부(910), 컬러 개멋 매핑부(920), 스케일러블 디코더(930), 및 포스트 프로세싱부(940)를 더 포함할 수 있다.
인핸스먼트 레이어 디코더는, 시그널링 정보 디코더(740)가 역다중화한 시그널링 정보와 베이스 레이어 비디오 데이터 혹은 인핸스먼트 레이어 비디오 데이터에 포함된 시그널링 정보를 기반으로 역다중화부(730)가 역다중화한 인핸스먼트 레이어 비디오를 복호할 수 있다.
업스케일링부(910)는 베이스 레이어 디코더(810)가 복호한 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업스케일링할 수 있다. 이 경우, 비디오 데이터의 메타데이터에 포함된 베이스 레이어 비디오 데이터의 비트 뎁스 정보(BL_bitdepth)와 WCG 비디오와 베이스 레이어 비디오 데이터의 비트 뎁스 차이 정보(EL_bitdepth_diff)를 이용할 수 있다.
컬러 개멋 매핑부(920)는 베이스 레이어 디코더(810)가 복호한 베이스 레이어 비디오 데이터의 컬러 개멋을 매핑할 수 있다. 이 경우, 비디오 데이터의 메타데이터에 포함된 컬러 개멋의 매핑을 위한 color primary 정보, gamut mapping function 정보 등을 이용할 수 있다.
스케일러블 비디오 디코더(930)는 인핸스먼트 레이어 비디오 데이터와, 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업스케일링한 데이터를 이용하여 WCG 비디오를 출력할 수 있다.
또는, 스케일러블 비디오 디코더(930)는 인핸스먼트 레이어 비디오 데이터와, 베이스 레이어 비디오 데이터의 컬러 개멋이 매핑된 데이터를 이용하여 WCG 비디오를 출력할 수 있다. 대응관계
포스트 프로세싱부(940)는 비디오 데이터에 포함된 시그널링 정보 등을 이용하여 스케일러블 비디오 디코더(930)가 복호한 비디오 데이터를 후처리한 WCG UHD 비디오(950)를 출력할 수 있다.
이 도면에 예시한 인핸스먼트 레이어 디코더는 도 2의 베이스 레이어 디코더와 색변환부(EOTF), 업스케일러, WCG 비디오 구성부 및 포스트 프로세싱부에 대응될 수 있다.
따라서, 본 발명의 실시예에 따르면 수신기의 디스플레이 성능에 따라 legacy UHD 비디오를 출력하거나, WCG 비디오를 출력할 수 있다.
도 35는 본 발명에 따른 신호 수신 방법의 일 실시예를 예시한 도면이다. 이 도면을 참조하여 본 발명에 본 발명에 따른 신호 수신 방법의 일 실시예를 설명하면 다음과 같다.
스케일러블 WCG 비디오 데이터를 구성할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 포함하는 스트림을 수신한다(S210).
수신한 스트림을 역다중화하여 시그널링 정보, 베이스 레이어 비디오 데이터 및 인핸스먼트 비디오 데이터를 출력한다(S220).
역다중화한 시그널링 정보를 디코딩한다(S230).
디코딩한 시그널링 정보를 기반으로 베이스 레이어 비디오 데이터를 복호하여 legacy UHD 비디오를 출력하거나, 베이스 레이어 비디오 데이터 및 인핸스먼트 비디오 데이터를 복호하여 WCG 비디오를 출력한다(S240).
본 발명의 실시예에 따르면, 광역 색 공간 기반의 영상 서비스를 디스플레이 장치에 상관없이 디스플레이 하도록 할 수 있다.
본 발명의 실시예에 따르면, 기존 수신기에서도 호환 가능한 WCG 컨텐츠를 제공할 수 있다.
본 발명의 실시예에 따르면 광역 색 공간 기반의 영상 서비스가 다수의 디스플레이 장치에서 호환되어 제공될 수 있다.
본 발명의 실시예에 따르면 컨텐츠의 WCG 정보를 호환성 있게 표현할 수 있는 방송 서비스를 제공할 수 있다.
발명의 실시를 위한 형태는 위의 발명의 실시를 위한 최선의 형태에서 함께 기술되었다.
본원 발명은 방송 및 비디오 신호 처리 분야에서 사용 가능하고 반복 가능성이 있는 산업상 이용가능성이 있다.

Claims (14)

  1. 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 제공할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 각각 인코딩하는 단계;
    상기 스케일러블 WCG 비디오 데이터를 구성할 수 있는 시그널링 정보를 생성하는 단계;
    상기 생성된 시그널링 정보와 상기 인코딩된 베이스 레이어 비디오 데이터 및 상기 인코딩된 인핸스먼트 비디오 데이터를 다중화한 스트림을 출력하는 단계; 및
    상기 다중화한 스트림을 전송하는 단계;를 포함하는 신호 송신 방법.
  2. 제 1항에 있어서,
    상기 시그널링 정보는,
    상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 식별하는 정보를 포함하는 신호 송신 방법.
  3. 제 1항에 있어서,
    상기 인코딩된 베이스 레이어 비디오 데이터 또는 상기 인코딩된 인핸스먼트 비디오 데이터는, 상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 구성(render)할 수 있는 컬러 개멋 매핑 정보, 컬러 비트 뎁스 정보 또는 컬러 매핑 정보를 가지는 메타데이터를 포함하는 신호 송신 방법.
  4. 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 제공할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 각각 인코딩하는 인코더;
    상기 스케일러블 WCG 비디오 데이터를 구성할 수 있는 시그널링 정보를 인코딩하는 시그널링 정보 인코더;
    상기 생성된 시그널링 정보와 상기 인코딩된 베이스 레이어 비디오 데이터 및 상기 인코딩된 인핸스먼트 비디오 데이터를 다중화화 스트림을 출력하는 다중화부; 및
    상기 다중화한 스트림을 전송하는 전송부;를 포함하는 신호 송신 장치.
  5. 제 4항에 있어서,
    상기 시그널링 정보는,
    상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 식별하는 정보를 포함하는 신호 송신 장치.
  6. 제 4항에 있어서,
    상기 인코딩된 베이스 레이어 비디오 데이터 또는 상기 인코딩된 인핸스먼트 비디오 데이터는, 상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 구성(render)할 수 있는 컬러 개멋 매핑 정보, 컬러 비트 뎁스 정보 또는 컬러 매핑 정보를 가지는 메타데이터를 포함하는 신호 송신 장치.
  7. 스케일러블 Wide Color Gamut(WCG) 비디오 데이터를 구성할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 포함하는 스트림을 수신하는 단계;
    상기 수신한 스트림을 역다중화하여 베이스 레이어 비디오 데이터 및 인핸스먼트 비디오 데이터를 포함하는 비디오 데이터와 시그널링 정보를 각각 출력하는 단계;
    상기 역다중화한 시그널링 정보를 디코딩하는 단계; 및
    상기 디코딩한 시그널링 정보를 기반으로 상기 베이스 레이어 비디오 데이터 또는/및 상기 인핸스먼트 비디오 데이터를 복호하여 legacy UHD 비디오 또는 WCG 비디오를 출력하는 단계;를 포함하는 신호 수신 방법.
  8. 제 7항에 있어서,
    상기 시그널링 정보는,
    상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 식별하는 정보를 포함하는 신호 수신 방법.
  9. 제 7항에 있어서,
    상기 베이스 레이어 비디오 데이터 또는 상기 인핸스먼트 비디오 데이터는, 상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 구성(render)할 수 있는 컬러 개멋 매핑 정보, 컬러 비트 뎁스 정보 또는 컬러 매핑 정보를 가지는 메타데이터를 포함하는 신호 수신 방법.
  10. 제 9항에 있어서,
    상기 WCG 비디오는,
    상기 인핸스먼트 레이어 비디오 데이터를 기반으로, 상기 컬러 개멋 매핑 정보를 이용하여 상기 베이스 레이어 비디오 데이터를 컬러 개멋 매핑하거나, 상기 컬러 비트 뎁스 정보를 이용하여 상기 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업 스케링하여 구성하는 신호 수신 장치
  11. 스케일러블 Wide Color Gamut(WCG) 비디오 데이터를 구성할 수 있는 베이스 레이어 비디오 데이터와 인핸스먼트 비디오 데이터를 포함하는 스트림을 수신하는 수신부;
    상기 수신한 스트림을 역다중화하여 베이스 레이어 비디오 데이터 및 인핸스먼트 비디오 데이터를 포함하는 비디오 데이터와 시그널링 정보를 각각 출력하는 역다중화부;
    상기 역다중화한 시그널링 정보를 디코딩하는 디코더; 및
    상기 디코딩한 시그널링 정보를 기반으로 상기 베이스 레이어 비디오 데이터 또는/및 상기 인핸스먼트 비디오 데이터를 복호하여 legacy UHD 비디오 또는 WCG 비디오를 출력하는 비디오 디코더;를 포함하는 신호 수신 장치.
  12. 제 11항에 있어서,
    상기 시그널링 정보는,
    상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 식별하는 정보를 포함하는 신호 수신 장치.
  13. 제 11항에 있어서,
    상기 베이스 레이어 비디오 데이터 또는 상기 인핸스먼트 비디오 데이터는, 상기 스케일러블 Wide Color Gamut(WCG) 비디오 서비스를 구성(render)할 수 있는 컬러 개멋 매핑 정보, 컬러 비트 뎁스 정보 또는 컬러 매핑 정보를 가지는 메타데이터를 포함하는 신호 수신 장치.
  14. 제 13항에 있어서,
    상기 WCG 비디오는,
    상기 인핸스먼트 레이어 비디오 데이터를 기반으로, 상기 컬러 개멋 매핑 정보를 이용하여 상기 베이스 레이어 비디오 데이터를 컬러 개멋 매핑하거나, 상기 컬러 비트 뎁스 정보를 이용하여 상기 베이스 레이어 비디오 데이터의 컬러 비트 뎁스를 업 스케링하여 구성하는 신호 수신 장치.
PCT/KR2014/011262 2013-11-21 2014-11-21 신호 송수신 장치 및 신호 송수신 방법 WO2015076616A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020167014563A KR101832779B1 (ko) 2013-11-21 2014-11-21 신호 송수신 장치 및 신호 송수신 방법
US15/034,735 US20160295220A1 (en) 2013-11-21 2014-11-21 Signal transceiving apparatus and signal transceiving method
EP14863879.4A EP3073742A4 (en) 2013-11-21 2014-11-21 Signal transceiving apparatus and signal transceiving method
JP2016533135A JP2017500787A (ja) 2013-11-21 2014-11-21 信号送受信装置及び信号送受信方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361906899P 2013-11-21 2013-11-21
US61/906,899 2013-11-21

Publications (1)

Publication Number Publication Date
WO2015076616A1 true WO2015076616A1 (ko) 2015-05-28

Family

ID=53179812

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/011262 WO2015076616A1 (ko) 2013-11-21 2014-11-21 신호 송수신 장치 및 신호 송수신 방법

Country Status (5)

Country Link
US (1) US20160295220A1 (ko)
EP (1) EP3073742A4 (ko)
JP (1) JP2017500787A (ko)
KR (1) KR101832779B1 (ko)
WO (1) WO2015076616A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106341574A (zh) * 2016-08-24 2017-01-18 北京小米移动软件有限公司 色域映射方法及装置
WO2017053863A1 (en) * 2015-09-23 2017-03-30 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
EP3285474A1 (en) * 2016-08-16 2018-02-21 Beijing Xiaomi Mobile Software Co., Ltd. Colour gamut mapping method and apparatus, computer program and recording medium
WO2018037985A1 (ja) * 2016-08-22 2018-03-01 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6289900B2 (ja) * 2013-12-27 2018-03-07 株式会社東芝 放送信号送信装置
US10645404B2 (en) 2014-03-24 2020-05-05 Qualcomm Incorporated Generic use of HEVC SEI messages for multi-layer codecs
US9729801B2 (en) * 2014-10-02 2017-08-08 Dolby Laboratories Licensing Corporation Blending images using mismatched source and display electro-optical transfer functions
US10306269B2 (en) * 2014-10-10 2019-05-28 Qualcomm Incorporated Operation point for carriage of layered HEVC bitstream
GB2534929A (en) * 2015-02-06 2016-08-10 British Broadcasting Corp Method and apparatus for conversion of HDR signals
KR102519209B1 (ko) * 2015-06-17 2023-04-07 한국전자통신연구원 스테레오스코픽 비디오 데이터를 처리하기 위한 mmt 장치 및 방법
EP3119086A1 (en) * 2015-07-17 2017-01-18 Thomson Licensing Methods and devices for encoding/decoding videos
US9916638B2 (en) * 2016-07-20 2018-03-13 Dolby Laboratories Licensing Corporation Transformation of dynamic metadata to support alternate tone rendering
US10834153B2 (en) * 2016-08-24 2020-11-10 Qualcomm Incorporated System level signaling of SEI tracks for media data streaming
CN110915221B (zh) * 2017-07-20 2022-06-07 索尼公司 发送装置、发送方法、接收装置、以及接收方法
CN111373760A (zh) * 2017-11-30 2020-07-03 索尼公司 发送设备、发送方法、接收设备和接收方法
GB2583087B (en) * 2019-04-11 2023-01-04 V Nova Int Ltd Decoding a video signal in a video decoder chipset
BR112022019770A2 (pt) 2020-03-30 2022-11-16 Bytedance Inc Método de processamento de vídeo, aparelho para processar dados de vídeo, meios de armazenamento e de gravação não transitórios legíveis por computador
WO2022067805A1 (zh) * 2020-09-30 2022-04-07 Oppo广东移动通信有限公司 图像预测方法、编码器、解码器以及计算机存储介质
WO2023150074A1 (en) * 2022-02-01 2023-08-10 Dolby Laboratories Licensing Corporation Beta scale dynamic display mapping
CN115499078B (zh) * 2022-08-05 2024-04-16 鹏城实验室 一种新型广播单频网组网方法、系统、介质及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100097204A (ko) * 2007-12-07 2010-09-02 에이티아이 테크놀로지스 유엘씨 와이드 컬러 개멋 디스플레이 시스템
KR101244576B1 (ko) * 2008-07-10 2013-03-25 인텔 코포레이션 색역 스케일링 방법, 장치 및 시스템
US20130088644A1 (en) * 2010-06-15 2013-04-11 Dolby Laboratories Licensing Corporation Encoding, Distributing and Displaying Video Data Containing Customized Video Content Versions
US20130251027A1 (en) * 2012-03-20 2013-09-26 Dolby Laboratories Licensing Corporation Complexity Scalable Multilayer Video Coding

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050254575A1 (en) * 2004-05-12 2005-11-17 Nokia Corporation Multiple interoperability points for scalable media coding and transmission
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
JP2008294870A (ja) * 2007-05-25 2008-12-04 Funai Electric Co Ltd デジタル放送受信機
US9571856B2 (en) * 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
US8731287B2 (en) * 2011-04-14 2014-05-20 Dolby Laboratories Licensing Corporation Image prediction based on primary color grading model
US9060180B2 (en) * 2011-06-10 2015-06-16 Dolby Laboratories Licensing Corporation Drift-free, backwards compatible, layered VDR coding
JP2013090296A (ja) * 2011-10-21 2013-05-13 Sharp Corp 符号化装置、送信装置、符号化方法、復号装置、受信装置、復号方法、プログラム、および記録媒体
US9756353B2 (en) * 2012-01-09 2017-09-05 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for single and multiple layered video coding systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100097204A (ko) * 2007-12-07 2010-09-02 에이티아이 테크놀로지스 유엘씨 와이드 컬러 개멋 디스플레이 시스템
KR101244576B1 (ko) * 2008-07-10 2013-03-25 인텔 코포레이션 색역 스케일링 방법, 장치 및 시스템
US20130088644A1 (en) * 2010-06-15 2013-04-11 Dolby Laboratories Licensing Corporation Encoding, Distributing and Displaying Video Data Containing Customized Video Content Versions
US20130251027A1 (en) * 2012-03-20 2013-09-26 Dolby Laboratories Licensing Corporation Complexity Scalable Multilayer Video Coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LOUIS KEROFSKY ET AL.: "Color Gamut Scalable Video Coding", DATA COMPRESSION CONFERENCE (DCC), 2013, 22 March 2013 (2013-03-22), SNOWBIRD, UT, pages 211 - 220, XP055121596, Retrieved from the Internet <URL:http://ieeexpiore.ieee.org/xpl/login.jsp?tp=&arnumber=6543057&ur1=http%3A%2F%2Fieeexplore.ieee.mg%2Fxpls%2Fabs_all.jsp%3Famumber%3D6543057> *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102061707B1 (ko) * 2015-09-23 2020-01-02 애리스 엔터프라이지즈 엘엘씨 전송 스트림들 내의 하이 다이내믹 레인지 및 와이드 컬러 가무트 콘텐츠의 시그널링
CN108141614B (zh) * 2015-09-23 2021-06-18 艾锐势有限责任公司 信号传送传输流中的高动态范围和宽色域内容
KR20200003254A (ko) * 2015-09-23 2020-01-08 애리스 엔터프라이지즈 엘엘씨 전송 스트림들 내의 하이 다이내믹 레인지 및 와이드 컬러 가무트 콘텐츠의 시그널링
JP7066786B2 (ja) 2015-09-23 2022-05-13 アリス エンタープライジズ エルエルシー トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
GB2556810A (en) * 2015-09-23 2018-06-06 Arris Entpr Inc Signaling high dynamic range and wide color gamut content in transport streams
CN108141614A (zh) * 2015-09-23 2018-06-08 艾锐势有限责任公司 信号传送传输流中的高动态范围和宽色域内容
JP2018530237A (ja) * 2015-09-23 2018-10-11 アリス エンタープライジズ エルエルシーArris Enterprises Llc トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
KR102347034B1 (ko) 2015-09-23 2022-01-04 애리스 엔터프라이지즈 엘엘씨 전송 스트림들 내의 하이 다이내믹 레인지 및 와이드 컬러 가무트 콘텐츠의 시그널링
US11146807B2 (en) 2015-09-23 2021-10-12 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
GB2588736B (en) * 2015-09-23 2021-09-08 Arris Entpr Llc Signaling high dynamic range and wide color gamut content in transport streams
JP2020182233A (ja) * 2015-09-23 2020-11-05 アリス エンタープライジズ エルエルシーArris Enterprises Llc トランスポートストリームにおける高ダイナミックレンジおよび広色域コンテンツの伝達
US10432959B2 (en) 2015-09-23 2019-10-01 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
KR102271252B1 (ko) 2015-09-23 2021-06-30 애리스 엔터프라이지즈 엘엘씨 전송 스트림들 내의 하이 다이내믹 레인지 및 와이드 컬러 가무트 콘텐츠의 시그널링
US11695947B2 (en) 2015-09-23 2023-07-04 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
KR20210082266A (ko) * 2015-09-23 2021-07-02 애리스 엔터프라이지즈 엘엘씨 전송 스트림들 내의 하이 다이내믹 레인지 및 와이드 컬러 가무트 콘텐츠의 시그널링
WO2017053863A1 (en) * 2015-09-23 2017-03-30 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
US10869053B2 (en) 2015-09-23 2020-12-15 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
GB2556810B (en) * 2015-09-23 2021-03-24 Arris Entpr Llc Signaling high dynamic range and wide color gamut content in transport streams
GB2588736A (en) * 2015-09-23 2021-05-05 Arris Entpr Llc Signaling high dynamic range and wide color gamut content in transport streams
KR102189189B1 (ko) * 2016-08-16 2020-12-09 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 색 영역 매핑 방법 및 장치
EP3285474A1 (en) * 2016-08-16 2018-02-21 Beijing Xiaomi Mobile Software Co., Ltd. Colour gamut mapping method and apparatus, computer program and recording medium
US10325569B2 (en) 2016-08-16 2019-06-18 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for coding image information for display
JP2018537870A (ja) * 2016-08-16 2018-12-20 ベイジン シャオミ モバイル ソフトウェア カンパニーリミテッド 色域マッピング方法および装置
KR20180132095A (ko) * 2016-08-16 2018-12-11 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 색 영역 매핑 방법 및 장치
RU2671763C1 (ru) * 2016-08-16 2018-11-06 Бейджин Сяоми Мобайл Софтвеа Ко., Лтд. Способ и устройство для отображения на цветовое пространство
WO2018037985A1 (ja) * 2016-08-22 2018-03-01 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN106341574A (zh) * 2016-08-24 2017-01-18 北京小米移动软件有限公司 色域映射方法及装置

Also Published As

Publication number Publication date
US20160295220A1 (en) 2016-10-06
EP3073742A1 (en) 2016-09-28
JP2017500787A (ja) 2017-01-05
KR101832779B1 (ko) 2018-04-13
KR20160086349A (ko) 2016-07-19
EP3073742A4 (en) 2017-06-28

Similar Documents

Publication Publication Date Title
WO2015076616A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015126144A1 (ko) 파노라마 서비스를 위한 방송 신호 송수신 방법 및 장치
WO2014073927A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2014073853A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015072754A1 (ko) Hdr 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2014084564A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015152635A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2018004291A1 (ko) 방송 신호 송신 방법, 방송 신호 수신 방법, 방송 신호 송신 장치 및 방송 신호 수신 장치
WO2015102449A1 (ko) 컬러 개멋 리샘플링을 기반으로 하는 방송 신호 송수신 방법 및 장치
WO2014025213A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015178598A1 (ko) 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
WO2012036532A2 (en) Method and apparatus for processing a broadcast signal for 3d (3-dimensional) broadcast service
WO2012023789A2 (ko) 디지털 방송 신호 수신 장치 및 방법
WO2016024794A1 (ko) 방송신호 전송방법, 방송신호 수신방법, 방송신호 전송장치, 방송신호 수신장치
WO2011021822A2 (en) Method and apparatus for processing signal for three-dimensional reproduction of additional data
WO2015034306A1 (ko) 디지털 방송 시스템에서 고화질 uhd 방송 컨텐츠 송수신 방법 및 장치
WO2011059290A2 (en) Method and apparatus for generating multimedia stream for adjusitng depth of 3-dimensional additional video reproduction information, and method and apparatus for receiving multimedia stream for adjusitng depth of 3-dimensional additional video reproduction information
WO2009151265A2 (ko) 방송 신호 수신 방법 및 수신 시스템
WO2016018066A1 (ko) 방송신호 전송방법, 방송신호 수신방법, 방송신호 전송장치, 방송신호 수신장치
WO2010021525A2 (en) A method for processing a web service in an nrt service and a broadcast receiver
WO2016204481A1 (ko) 미디어 데이터 전송 장치, 미디어 데이터 수신 장치, 미디어 데이터 전송 방법, 및 미디어 데이터 수신 방법
WO2012030158A2 (en) Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional display
WO2015080414A1 (ko) 트릭 플레이 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2012077987A2 (ko) 디지털 방송 신호 수신 장치 및 방법
WO2015065037A1 (ko) Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14863879

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15034735

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2016533135

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20167014563

Country of ref document: KR

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014863879

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014863879

Country of ref document: EP