JP6633739B2 - Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method - Google Patents

Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method Download PDF

Info

Publication number
JP6633739B2
JP6633739B2 JP2018509764A JP2018509764A JP6633739B2 JP 6633739 B2 JP6633739 B2 JP 6633739B2 JP 2018509764 A JP2018509764 A JP 2018509764A JP 2018509764 A JP2018509764 A JP 2018509764A JP 6633739 B2 JP6633739 B2 JP 6633739B2
Authority
JP
Japan
Prior art keywords
information
service
hdr
metadata
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018509764A
Other languages
Japanese (ja)
Other versions
JP2018532294A (en
Inventor
ヒョンムク オ
ヒョンムク オ
チョンヨル ソ
チョンヨル ソ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2018532294A publication Critical patent/JP2018532294A/en
Application granted granted Critical
Publication of JP6633739B2 publication Critical patent/JP6633739B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、放送信号送信装置、放送信号受信装置、及び放送信号を送受信する方法に関する。   The present invention relates to a broadcast signal transmitting device, a broadcast signal receiving device, and a method for transmitting and receiving a broadcast signal.

アナログ放送信号の送信が終了するに伴い、デジタル放送信号を送受信するための様々な技術が開発されている。デジタル放送信号は、アナログ放送信号に比べてさらに多くの量のビデオ/オーディオデータを含むことができ、ビデオ/オーディオデータに加えて、様々なタイプの付加データをさらに含むことができる。   With the end of transmission of analog broadcast signals, various techniques for transmitting and receiving digital broadcast signals have been developed. The digital broadcast signal may include a larger amount of video / audio data than the analog broadcast signal, and may further include various types of additional data in addition to the video / audio data.

デジタル放送システムは、UHD(Ultra High Definition)イメージ、マルチチャネル(multi channel:多チャネル)オーディオ、及び様々な付加サービスを提供することができる。しかし、デジタル放送のためには、多量のデータ伝送に対するデータ伝送効率、送受信ネットワークのロバスト性(robustness)、及びモバイル受信装置を考慮したネットワーク柔軟性(flexibility)を向上させなければならない。   Digital broadcasting systems can provide UHD (Ultra High Definition) images, multi-channel (multi-channel) audio, and various additional services. However, for digital broadcasting, it is necessary to improve data transmission efficiency for a large amount of data transmission, robustness of a transmission / reception network, and network flexibility considering a mobile reception device.

本発明の目的によって、ここに含まれ、概略的に記載されたように、本発明は、地上波放送網及びインターネット網を用いる次世代ハイブリッド放送をサポートする環境で次世代放送サービスを効果的にサポートすることができるシステム及び関連するシグナリング方案を提案する。   According to the objects of the present invention, the present invention effectively includes a next generation broadcasting service in an environment supporting a next generation hybrid broadcasting using a terrestrial broadcasting network and the Internet network, as included herein and described generally. A system that can be supported and a related signaling scheme are proposed.

本発明は、地上波放送網及びインターネット網を用いる次世代ハイブリッド放送をサポートする環境で次世代放送サービスを効果的にサポートすることができる。   The present invention can effectively support next-generation broadcasting services in an environment that supports next-generation hybrid broadcasting using a terrestrial broadcasting network and the Internet network.

本発明は、放送サービスに含まれるサービスコンポーネントに対して、詳細なシグナリングを提供する方法をサポートすることができる。   The present invention can support a method of providing detailed signaling for service components included in a broadcast service.

本発明は、放送サービスを伝達する方案において、3D、キャプション、WCG、HDRなどの様々な情報を効率的に提供する方法をサポートすることができる。   The present invention can support a method for efficiently providing various information such as 3D, caption, WCG, and HDR in a scheme for transmitting a broadcast service.

本発明の更なる理解を提供するために含まれ、本出願に含まれ、その一部を構成する添付の図面は、本発明の原理を説明する詳細な説明と共に、本発明の実施例を示す。
本発明の一実施例に係るプロトコルスタックを示す図である。 本発明の一実施例に係るサービスディスカバリ手続を示す図である。 本発明の一実施例に係るLLS(Low Level Signaling)テーブル及びSLT(Service List Table)を示す図である。 本発明の一実施例に係る、ROUTEで伝達されるUSBD及びS−TSIDを示す図である。 本発明の一実施例に係る、MMTで伝達されるUSBDを示す図である。 本発明の一実施例に係るリンクレイヤ(Link Layer)動作を示す図である。 本発明の一実施例に係るLMT(Link Mapping Table)を示す図である。 本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置の構造を示す図である。 本発明の一実施例に係るタイムインタリーバの書き込み(writing)動作を示す図である。 本発明の一実施例に係る周波数インタリーバに含まれた各FFTモードによるメイン−PRBS生成器とサブ−PRBS生成器で構成されたインタリービングアドレス生成器のブロックダイヤグラムを示す図である。 本発明の一実施例に係るハイブリッド放送受信装置を示す図である。 本発明の一実施例に係るDASHベースの適応型(Adaptive)ストリーミングモデルの全般的な動作を示す図である。 本発明の一実施例に係る受信機のブロックダイヤグラムを示す図である。 本発明の一実施例に係るメタデータベースのHDR放送サービスを制作、再生する装置を示す図である。 本発明の一実施例に係るHDRビデオに対する受信機の動作方法を示す図である。 本発明の一実施例に係る後処理部を示す図である。 本発明の一実施例に係るSEIメッセージ(SEI message)及びHDR情報ディスクリプタ(HDR information descriptor)のシンタックスを示す図である。 本発明の一実施例に係るSEIメッセージ及びHDR情報ディスクリプタのシンタックスを示す図である。 本発明の一実施例に係るSEIメッセージ及びHDR情報ディスクリプタのシンタックスを示す図である。 本発明の一実施例に係るSEIメッセージ及びHDR情報ディスクリプタのシンタックスを示す図である。 RAPによってメタデータ情報をシグナリングする実施例を示す図である。 RAPによってメタデータ情報をシグナリングする実施例を示す図である。 本発明の一実施例に係るdynamic_range_mapping_infoを示す図である。 本発明の一実施例に係るHEVC内に定義されたSEIメッセージを参照する場合を示す図である。 本発明の一実施例に係るHDR_info descriptorをPMTを介してシグナリングする実施例を示す図である。 本発明の一実施例に係るHDR_info descriptorをPMTを介してシグナリングする実施例を示す図である。 本発明の一実施例に係るHDR_info descriptorをEITを介してシグナリングする実施例を示す図である。 本発明の一実施例に係るHDR_info descriptorをEITを介してシグナリングする実施例を示す図である。 本発明の他の実施例に係るHDR_info_descriptor()を示す図である。 本発明の一実施例に係る受信機のブロック図及び動作方法を示す図である。 本発明の一実施例に係るHDR情報ディスクリプタを示す図である。 本発明の一実施例に係るHDR情報ディスクリプタを示す図である。 本発明の一実施例に係る特性セット(feature set)によってフレーム(frame)内の領域を分割する場合を示す図である。 本発明の一実施例に係るHDR情報及び特性セットをシグナリングする情報を示す図である。 本発明の一実施例に係る空間領域を指定するためのSpatial boundaryフィールドを示す図である。 本発明の一実施例に係る空間領域を指定するためのColorimetry boundaryフィールドを示す図である。 本発明の一実施例に係る空間領域を指定するためのLuminance boundaryフィールド及びLuminance distribution boundaryフィールドを示す図である。 本発明の一実施例に係る空間領域を指定するためのColor volume boundaryフィールドを示す図である。 本発明の一実施例に係る放送送信機を示すブロック図である。 本発明の一実施例に係る放送受信機を示すブロック図である。 本発明の一実施例に係る画質改善メタデータを含む放送信号を送信する方法を示す図である。 本発明の一実施例に係る画質改善メタデータを含む放送信号を受信する方法を示す図である。
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention, and are included in and constitute a part of this application, illustrate embodiments of the invention, together with the detailed description, which describes the principles of the invention. .
FIG. 3 is a diagram illustrating a protocol stack according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a service discovery procedure according to an embodiment of the present invention. FIG. 3 is a diagram illustrating an LLS (Low Level Signaling) table and an SLT (Service List Table) according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a USB and an S-TSID transmitted by ROUTE according to an embodiment of the present invention. FIG. 5 is a diagram illustrating a USBD transmitted by an MMT according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a link layer operation according to an embodiment of the present invention. FIG. 3 is a diagram illustrating an LMT (Link Mapping Table) according to an embodiment of the present invention. FIG. 3 is a diagram illustrating a structure of a broadcast signal transmitting apparatus for a next-generation broadcast service according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a writing operation of a time interleaver according to an embodiment of the present invention. FIG. 4 is a block diagram illustrating an interleaving address generator including a main-PRBS generator and a sub-PRBS generator in each FFT mode included in a frequency interleaver according to an embodiment of the present invention. 1 is a diagram illustrating a hybrid broadcast receiving device according to one embodiment of the present invention. FIG. 3 is a diagram illustrating a general operation of a DASH-based adaptive streaming model according to an embodiment of the present invention. FIG. 3 is a diagram showing a block diagram of a receiver according to one embodiment of the present invention. FIG. 1 is a diagram illustrating an apparatus for creating and reproducing an HDR broadcast service of a meta database according to an embodiment of the present invention. FIG. 4 is a diagram illustrating an operation method of a receiver for HDR video according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a post-processing unit according to an embodiment of the present invention. FIG. 5 is a diagram illustrating syntaxes of an SEI message and an HDR information descriptor according to an embodiment of the present invention. FIG. 5 is a diagram illustrating syntax of an SEI message and an HDR information descriptor according to an embodiment of the present invention. FIG. 5 is a diagram illustrating syntax of an SEI message and an HDR information descriptor according to an embodiment of the present invention. FIG. 5 is a diagram illustrating syntax of an SEI message and an HDR information descriptor according to an embodiment of the present invention. FIG. 4 is a diagram illustrating an embodiment of signaling metadata information by RAP. FIG. 4 is a diagram illustrating an embodiment of signaling metadata information by RAP. FIG. 9 is a diagram illustrating dynamic_range_mapping_info according to an embodiment of the present invention. FIG. 8 is a diagram illustrating a case where an SEI message defined in HEVC according to an embodiment of the present invention is referred to. FIG. 4 is a diagram illustrating an example of signaling an HDR_info descriptor via a PMT according to an embodiment of the present invention. FIG. 4 is a diagram illustrating an example of signaling an HDR_info descriptor via a PMT according to an embodiment of the present invention. FIG. 9 is a diagram illustrating an example of signaling an HDR_info descriptor via an EIT according to an embodiment of the present invention. FIG. 9 is a diagram illustrating an example of signaling an HDR_info descriptor via an EIT according to an embodiment of the present invention. FIG. 15 is a diagram illustrating HDR_info_descriptor () according to another embodiment of the present invention. FIG. 2 is a block diagram and a diagram showing an operation method of a receiver according to an embodiment of the present invention. FIG. 4 is a diagram illustrating an HDR information descriptor according to an embodiment of the present invention. FIG. 4 is a diagram illustrating an HDR information descriptor according to an embodiment of the present invention. FIG. 6 is a diagram illustrating a case where a region in a frame is divided by a feature set according to an embodiment of the present invention. FIG. 5 is a diagram illustrating HDR information and information signaling a feature set according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a Spatial boundary field for specifying a spatial area according to an embodiment of the present invention. FIG. 6 is a diagram illustrating a Colorimetry boundary field for specifying a spatial area according to an embodiment of the present invention. FIG. 5 is a diagram illustrating a Luminance boundary field and a Luminance distribution boundary field for specifying a spatial area according to an embodiment of the present invention. FIG. 6 is a diagram illustrating a Color volume boundary field for specifying a spatial area according to an embodiment of the present invention. FIG. 2 is a block diagram illustrating a broadcast transmitter according to one embodiment of the present invention. 1 is a block diagram illustrating a broadcast receiver according to one embodiment of the present invention. FIG. 3 is a diagram illustrating a method of transmitting a broadcast signal including image quality improvement metadata according to an embodiment of the present invention. FIG. 3 is a diagram illustrating a method of receiving a broadcast signal including image quality improvement metadata according to an embodiment of the present invention.

本発明の好適な実施例について具体的に説明し、その例を添付の図面に示す。添付の図面を参照した下記の詳細な説明は、本発明の具現可能な実施例を限定するものではなく、本発明の好適な実施例を説明するためのものである。下記の詳細な説明は、本発明に関する徹底した理解を提供するために細部事項を含む。しかし、当業者にとってはこれらの細部事項無しにも本発明の実行が可能であるということは明らかである。   Preferred embodiments of the present invention will be specifically described, examples of which are shown in the accompanying drawings. The following detailed description with reference to the accompanying drawings does not limit embodiments in which the present invention can be implemented, but rather describes preferred embodiments of the present invention. The following detailed description includes details to provide a thorough understanding of the present invention. However, it will be apparent to one skilled in the art that the present invention may be practiced without these details.

本発明で使われる大部分の用語は、当該分野で広く使われる一般的なものから選択されるが、一部の用語は出願人によって任意に選択されてもよく、その意味は、必要時に次の説明で詳しく説明する。したがって、本発明は、用語の単純な名称や意味ではなく、用語の意図された意味に基づいて理解しなければならない。   Most of the terms used in the present invention are selected from general terms widely used in the art, but some of the terms may be arbitrarily selected by the applicant, and the meanings will be changed when necessary. This will be described in detail in the description. Therefore, the present invention should be understood based on the intended meaning of the term, and not on the simple name or meaning of the term.

本発明は、次世代放送サービスに対する放送信号の送信及び受信装置並びに方法を提供する。本発明の一実施例に係る次世代放送サービスは、地上波放送サービス、モバイル放送サービス、UHDTVサービスなどを含む。本発明は、一実施例によって、非−MIMO(non−Multiple Input Multiple Output)又はMIMO方式によって次世代放送サービスに対する放送信号を処理することができる。本発明の一実施例に係る非−MIMO方式は、MISO(Multiple Input Single Output)方式、SISO(Single Input Single Output)方式などを含むことができる。本発明は、特定の用途に要求される性能を達成すると共に、受信機の複雑度を最小化するために最適化されたフィジカルプロファイル(又はシステム)を提案する。   The present invention provides an apparatus and method for transmitting and receiving a broadcast signal for a next-generation broadcast service. Next-generation broadcasting services according to an embodiment of the present invention include terrestrial broadcasting services, mobile broadcasting services, UHDTV services, and the like. According to an embodiment of the present invention, a broadcast signal for a next-generation broadcast service can be processed by a non-Multiple Input Multiple Output (MIMO) or MIMO scheme. The non-MIMO scheme according to an embodiment of the present invention may include a multiple input single output (MISO) scheme, a single input single output (SISO) scheme, and the like. The present invention proposes a physical profile (or system) optimized to achieve the performance required for a particular application and to minimize receiver complexity.

図1は、本発明の一実施例に係るプロトコルスタックを示す図である。   FIG. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.

サービスを複数個のレイヤを経て受信機に伝達することができる。まず、送信側ではサービスデータを生成することができる。送信側のデリバリレイヤでは、サービスデータに、伝送のための処理を行い、フィジカルレイヤでは、これを放送信号にエンコードして、放送網又はブロードバンドを介して伝送することができる。   The service can be delivered to the receiver via multiple layers. First, the transmitting side can generate service data. The delivery layer on the transmission side performs processing for transmission on the service data, and the physical layer encodes this into a broadcast signal and can transmit it via a broadcast network or broadband.

ここで、サービスデータは、ISO BMFF(base media file format)によるフォーマットで生成することができる。ISO BMFFメディアファイルは、放送網/ブロードバンドデリバリ、メディアエンカプセレーション(media encapsulation)及び/又は同期化フォーマット(synchronization format)で用いることができる。ここで、サービスデータは、サービスに関連した全てのデータであり、リニアサービスを構成するサービスコンポーネント、それに対するシグナリング情報、NRT(Non Real Time)データ、その他のファイルなどを含む概念であってもよい。   Here, the service data can be generated in a format based on ISO BMFF (base media file format). ISO BMFF media files can be used in broadcast network / broadband delivery, media encapsulation and / or synchronization formats. Here, the service data is all data related to the service, and may be a concept including a service component constituting a linear service, signaling information for the service component, NRT (Non Real Time) data, other files, and the like. .

デリバリレイヤについて説明する。デリバリレイヤはサービスデータに対する伝送機能を提供することができる。サービスデータは、放送網及び/又はブロードバンドを介して伝達することができる。   The delivery layer will be described. The delivery layer can provide a transmission function for service data. The service data can be transmitted via a broadcast network and / or broadband.

放送網を介したサービスデリバリ(broadcast service delivery)において、2つの方法を挙げることができる。   In broadcast service delivery via a broadcast network, there are two methods.

第一の方法は、MMT(MPEG Media Transport)に基づいて、サービスデータをMPU(Media Processing Units)として処理し、これをMMTP(MMT protocol)を用いて伝送することができる。この場合、MMTPによって伝達されるサービスデータは、リニアサービスのためのサービスコンポーネント及び/又はそれに関するサービスシグナリング情報などを含むことができる。   In the first method, service data can be processed as MPU (Media Processing Units) based on MMT (MPEG Media Transport), and transmitted using MMTP (MMT protocol). In this case, the service data transmitted by the MMTP may include a service component for a linear service and / or service signaling information related thereto.

第二の方法は、MPEG DASHに基づいて、サービスデータをDASHセグメントとして処理し、これをROUTE(Real time Object delivery over Unidirectional Transport)を用いて伝送することができる。この場合、ROUTEプロトコルによって伝達されるサービスデータは、リニアサービスのためのサービスコンポーネント、それに関するサービスシグナリング情報、及び/又はNRTデータなどを含むことができる。すなわち、NRTデータ及びファイルなどのノンタイムド(non timed)データは、ROUTEを用いて伝達することができる。   According to the second method, service data is processed as a DASH segment based on MPEG DASH, and can be transmitted using a ROUTE (Real time Object delivery over Unidirectional Transport). In this case, the service data transmitted by the ROUTE protocol may include a service component for a linear service, service signaling information related thereto, and / or NRT data. That is, non-timed data such as NRT data and files can be transmitted using ROUTE.

MMTP又はROUTEプロトコルによって処理されたデータは、UDP/IPレイヤを経てIPパケットとして処理することができる。放送網を介したサービスデータ伝達において、SLT(Service List Table)もUDP/IPレイヤを経て放送網を介して伝達することができる。SLTは、LLS(Low Level Signaling)テーブルに含めて伝達することができる。SLT、LLSテーブルについては後述する。   Data processed by the MMTP or ROUTE protocol can be processed as IP packets via a UDP / IP layer. In transmitting service data via a broadcast network, an SLT (Service List Table) can also be transmitted via a broadcast network via a UDP / IP layer. The SLT can be transmitted by being included in an LLS (Low Level Signaling) table. The SLT and LLS tables will be described later.

IPパケットはリンクレイヤでリンクレイヤパケットとして処理されてもよい。リンクレイヤは、上位レイヤから伝達される様々なフォーマットのデータを、リンクレイヤパケットとしてエンカプセレーションした後、フィジカルレイヤに伝達することができる。リンクレイヤについては後述する。   IP packets may be processed as link layer packets at the link layer. The link layer can transmit data of various formats transmitted from the upper layer as a link layer packet, and then transmit the data to the physical layer. The link layer will be described later.

ハイブリッドサービスデリバリ(hybrid service delivery)においては、少なくとも1つのサービスエレメントをブロードバンドパス(path)を通じて伝達することができる。ハイブリッドサービスデリバリの場合、ブロードバンドで伝達されるデータは、DASHフォーマットのサービスコンポーネント、それに関するサービスシグナリング情報、及び/又はNRTデータなどを含むことができる。これらのデータはHTTP/TCP/IPを経て処理され、ブロードバンド伝送のためのリンクレイヤを経て、ブロードバンド伝送のためのフィジカルレイヤに伝達されてもよい。   In a hybrid service delivery, at least one service element can be transmitted through a broadband path. In the case of hybrid service delivery, data transmitted over broadband may include service components in the DASH format, service signaling information related thereto, and / or NRT data. These data may be processed via HTTP / TCP / IP and transmitted to a physical layer for broadband transmission via a link layer for broadband transmission.

フィジカルレイヤは、デリバリレイヤ(上位レイヤ及び/又はリンクレイヤ)から伝達されたデータを処理して、放送網又はブロードバンドを介して伝送することができる。フィジカルレイヤに関する詳細な事項は後述する。   The physical layer processes data transmitted from a delivery layer (an upper layer and / or a link layer) and can transmit the processed data via a broadcast network or broadband. Detailed items regarding the physical layer will be described later.

サービスについて説明する。サービスは、全体的にユーザに示すサービスコンポーネントのコレクションであり、コンポーネントは、様々なメディアタイプのものであり、サービスは、連続的又は間欠的であり、サービスは、実時間又は非実時間であってもよく、実時間サービスは、TV番組のシーケンスで構成することができる。   The service will be described. A service is a collection of service components that are presented to the user as a whole, components are of different media types, services are continuous or intermittent, and services are real-time or non-real-time. Alternatively, the real-time service may consist of a sequence of TV programs.

サービスは種々のタイプを有することができる。第一に、サービスはアプリベースのエンハンスメントを有し得るリニアオーディオ/ビデオサービス又はオーディオだけのサービスであってもよい。第二に、サービスは、ダウンロードされたアプリケーションによってその再生/構成などが制御されるアプリベースのサービスであってもよい。第三に、サービスは、ESG(Electronic Service Guide)を提供するESGサービスであってもよい。第四に、緊急警報情報を提供するEA(Emergency Alert)サービスであってもよい。   Services can have different types. First, the service may be a linear audio / video service or an audio-only service that may have app-based enhancements. Second, the service may be an application-based service whose playback / configuration is controlled by the downloaded application. Third, the service may be an ESG (Electronic Service Guide) providing ESG (Electronic Service Guide). Fourth, an EA (Emergency Alert) service that provides emergency alert information may be used.

アプリベースのエンハンスメントを有しないリニアサービスを放送網を介して伝達する場合、サービスコンポーネントを、(1)1つ以上のROUTEセッション、又は(2)1つ以上のMMTPセッションで伝達することができる。   When delivering a linear service without application-based enhancement over a broadcast network, the service component can be delivered in (1) one or more ROUTE sessions or (2) one or more MMTP sessions.

アプリベースのエンハンスメントを有するリニアサービスを放送網を介して伝達する場合、サービスコンポーネントを、(1)1つ以上のROUTEセッション、及び(2)0個以上のMMTPセッションで伝達してもよい。この場合、アプリベースのエンハンスメントに用いられるデータは、NRTデータ又はその他のファイルなどの形態でROUTEセッションを通じて伝達してもよい。本発明の一実施例において、1つのサービスのリニアサービスコンポーネント(ストリーミングメディアコンポーネント)が2つのプロトコルによって同時に伝達されることを許容しなくてもよい。   When delivering a linear service with application-based enhancements over a broadcast network, the service component may be delivered in (1) one or more ROUTE sessions and (2) zero or more MMTP sessions. In this case, the data used for the application-based enhancement may be transmitted through the ROUTE session in the form of NRT data or other files. In one embodiment of the present invention, it may not be necessary to allow the linear service components (streaming media components) of one service to be transmitted simultaneously by two protocols.

アプリベースのサービスを放送網を介して伝達する場合、サービスコンポーネントを、1つ以上のROUTEセッションで伝達することができる。この場合、アプリベースのサービスに用いられるサービスデータを、NRTデータ又はその他のファイルなどの形態でROUTEセッションを通じて伝達することができる。   When delivering app-based services over a broadcast network, service components can be delivered in one or more ROUTE sessions. In this case, service data used for the application-based service can be transmitted through a ROUTE session in the form of NRT data or other files.

また、このようなサービスの一部のサービスコンポーネント又は一部のNRTデータ、ファイルなどをブロードバンドを介して伝達してもよい(ハイブリッドサービスデリバリ)。   Also, some service components of such services or some NRT data, files, etc. may be transmitted via broadband (hybrid service delivery).

すなわち、本発明の一実施例で、一つのサービスのリニアサービスコンポーネントをMMTプロトコルによって伝達することができる。本発明の他の実施例で、一つのサービスのリニアサービスコンポーネントは、ROUTEプロトコルによって伝達してもよい。本発明の他の実施例で、一つのサービスのリニアサービスコンポーネント及びNRTデータ(NRTサービスコンポーネント)は、ROUTEプロトコルによって伝達してもよい。本発明の他の実施例で、一つのサービスのリニアサービスコンポーネントは、MMTプロトコルによって伝達し、NRTデータ(NRTサービスコンポーネント)は、ROUTEプロトコルによって伝達してもよい。これらの実施例において、サービスの一部のサービスコンポーネント又は一部のNRTデータは、ブロードバンドを介して伝達してもよい。ここで、アプリベースのサービス又はアプリベースのエンハンスメントに関するデータはNRTデータ形態で、ROUTEによる放送網を介して伝達したり、ブロードバンドを介して伝達してもよい。NRTデータは、ローカリキャッシュドデータ(Locally cashed data)などと呼ぶこともできる。   That is, in one embodiment of the present invention, a linear service component of one service can be transmitted according to the MMT protocol. In another embodiment of the present invention, a linear service component of one service may be transmitted by a ROUTE protocol. In another embodiment of the present invention, the linear service component and the NRT data (NRT service component) of one service may be transmitted by a ROUTE protocol. In another embodiment of the present invention, the linear service component of one service may be transmitted according to the MMT protocol, and the NRT data (NRT service component) may be transmitted according to the ROUTE protocol. In these embodiments, some service components of the service or some NRT data may be communicated over broadband. Here, data related to the application-based service or the application-based enhancement may be transmitted in the form of NRT data via a broadcast network based on ROUTE or via broadband. The NRT data can also be referred to as locally cached data.

それぞれのROUTEセッションは、サービスを構成するコンテンツコンポーネントを全体的に又は部分的に伝達する1つ以上のLCTセッションを含む。ストリーミングサービスデリバリにおいて、LCTセッションはオーディオ、ビデオ、又はクローズドキャプションストリームのようなユーザサービスの個別コンポーネントを伝達することができる。ストリーミングメディアはDASHセグメントとしてフォーマットされる。   Each ROUTE session includes one or more LCT sessions that fully or partially convey the content components that make up the service. In streaming service delivery, an LCT session can carry individual components of a user service, such as an audio, video, or closed caption stream. Streaming media is formatted as a DASH segment.

それぞれのMMTPセッションは、MMTシグナリングメッセージ又は全体又は一部のコンテンツコンポーネントを伝達する1つ以上のMMTPパケットフローを含む。MMTPパケットフローは、MMTシグナリングメッセージ又はMPUとしてフォーマットされたコンポーネントを伝達することができる。   Each MMTP session includes one or more MMTP packet flows that carry MMT signaling messages or all or some content components. An MMTP packet flow may carry a component formatted as an MMT signaling message or MPU.

NRTユーザサービス又はシステムメタデータのデリバリのために、LCTセッションはファイルベースのコンテンツアイテムを伝達する。これらのコンテンツファイルは、NRTサービスの連続的(タイムド)又は離散的(ノンタイムド)メディアコンポーネント、サービスシグナリング、又はESGフラグメントのようなメタデータで構成することができる。サービスシグナリング又はESGフラグメントのようなシステムメタデータのデリバリも、MMTPのシグナリングメッセージモードで行うことができる。   For delivery of NRT user services or system metadata, LCT sessions carry file-based content items. These content files can consist of metadata such as continuous (timed) or discrete (non-timed) media components of the NRT service, service signaling, or ESG fragments. Delivery of system metadata such as service signaling or ESG fragments can also be done in the signaling message mode of MMTP.

受信機では、チューナーが周波数をスキャニングするが、特定周波数で放送シグナルを感知することができる。受信機は、SLTを抽出してその処理モジュールに送ることができる。SLTパーサーは、SLTをパースし、データを取得してチャネルマップに保存することができる。受信機は、SLTのブートストラップ情報を取得してROUTE又はMMTクライアントに伝達することができる。これによって受信機はSLSを取得して保存することができる。USBDなどを取得することができ、これはシグナリングパーサーによってパースされてもよい。   In the receiver, the tuner scans the frequency, but can detect the broadcast signal at a specific frequency. The receiver can extract the SLT and send it to its processing module. The SLT parser can parse the SLT, obtain the data and save it in the channel map. The receiver can obtain the SLT bootstrap information and transmit it to the ROUTE or MMT client. This allows the receiver to acquire and store the SLS. A USBD or the like may be obtained, which may be parsed by a signaling parser.

図2は、本発明の一実施例に係るサービスディスカバリ手続を示す図である。   FIG. 2 is a diagram illustrating a service discovery procedure according to an embodiment of the present invention.

フィジカルレイヤの放送信号フレームが伝達するブロードキャストストリームは、LLS(Low Level Signaling)を運搬することができる。LLSデータは、フェルノウン(well known)IPアドレス/ポートに伝達されるIPパケットのペイロードで運搬することができる。このLLSはそのタイプによってSLTを含むことができる。LLSデータは、LLSテーブルの形態にフォーマットすることができる。LLSデータを運搬する毎UDP/IPパケットの最初のバイトは、LLSテーブルの始めであってもよい。図示の実施例とは違い、LLSデータを伝達するIPストリームは、他のサービスデータと共に同一のPLPを介して伝達してもよい。   The broadcast stream transmitted by the physical layer broadcast signal frame can carry LLS (Low Level Signaling). The LLS data can be carried in the payload of an IP packet delivered to a well known IP address / port. This LLS can include an SLT depending on its type. LLS data can be formatted in the form of an LLS table. The first byte of each UDP / IP packet carrying LLS data may be the beginning of an LLS table. Unlike the illustrated embodiment, the IP stream transmitting the LLS data may be transmitted together with other service data via the same PLP.

SLTは、高速のチャネルスキャンによって受信機がサービスリストを生成できるようにし、SLSをロケーティング(locating)するためのアクセス情報を提供する。SLTは、ブートストラップ情報を含むが、このブートストラップ情報は、受信機がそれぞれのサービスに対するSLS(Service Layer Signaling)を取得できるようにする。SLS、すなわち、サービスシグナリング情報がROUTEで伝達される場合、ブートストラップ情報は、SLSを運搬するLCTチャネル又はそのLCTチャネルを含むROUTEセッションのデスティネーションIPアドレス及びデスティネーションポート情報を含むことができる。SLSがMMTで伝達される場合、ブートストラップ情報は、SLSを運搬するMMTPセッションのデスティネーションIPアドレス及びデスティネーションポート情報を含むことができる。   The SLT enables a receiver to generate a service list by a fast channel scan and provides access information for locating the SLS. The SLT includes bootstrap information, and the bootstrap information enables the receiver to obtain SLS (Service Layer Signaling) for each service. When the SLS, that is, the service signaling information is transmitted in the ROUTE, the bootstrap information may include a destination IP address and destination port information of the LCT channel carrying the SLS or the ROUTE session including the LCT channel. When the SLS is transmitted in the MMT, the bootstrap information may include destination IP address and destination port information of the MMTP session carrying the SLS.

図示された実施例で、SLTが記述するサービス#1のSLSはROUTEで伝達され、SLTは、当該SLSが伝達されるLCTチャネルを含むROUTEセッションに対するブートストラップ情報(sIP1,dIP1,dPort1)を含むことができる。SLTが記述するサービス#2のSLSはMMTで伝達され、SLTは、当該SLSが伝達されるMMTPパケットフローを含むMMTPセッションに対するブートストラップ情報(sIP2,dIP2,dPort2)を含むことができる。   In the illustrated embodiment, the SLS of the service # 1 described by the SLT is transmitted via ROUTE, and the SLT includes bootstrap information (sIP1, dIP1, dPort1) for the ROUTE session including the LCT channel through which the SLS is transmitted. be able to. The SLS of the service # 2 described by the SLT is transmitted by the MMT, and the SLT may include bootstrap information (sIP2, dIP2, dPort2) for the MMTP session including the MMTP packet flow in which the SLS is transmitted.

SLSは、当該サービスに対する特性を記述するシグナリング情報であり、当該サービス及び当該サービスのサービスコンポーネントを取得するための情報を提供したり、当該サービスを有意に再生するための受信機キャパビリティ情報などを含むことができる。各サービスに対して別個のサービスシグナリングを有すると、受信機は、ブロードキャストストリーム内で伝達される全てのSLSをパースしないで、所望のサービスに対する適切なSLSを取得すればよい。   The SLS is signaling information describing characteristics of the service. The SLS provides information for acquiring the service and service components of the service, and receiver capability information for significantly reproducing the service. Can be included. Having separate service signaling for each service allows the receiver to obtain the appropriate SLS for the desired service without parsing all the SLS conveyed in the broadcast stream.

SLSをROUTEプロトコルによって伝達する場合、SLSを、SLTが示すROUTEセッションの特定(dedicated)のLCTチャネルを介して伝達することができる。実施例によって、このLCTチャネルはtsi=0と識別されるLCTチャネルであってもよい。この場合、SLSは、USBD/USD(User Service Bundle Description/User Service Description)、S−TSID(Service−based Transport Session Instance Description)及び/又はMPD(Media Presentation Description)を含むことができる。   When the SLS is transmitted according to the ROUTE protocol, the SLS may be transmitted via a dedicated LCT channel of the ROUTE session indicated by the SLT. Depending on the embodiment, this LCT channel may be an LCT channel identified as tsi = 0. In this case, the SLS can be a USB / USB (User Service Bundle Description / User Service Description), an S-TSID (Service-based Transport Session Session Descriptive Message or Descriptive Message, which can include Service-based Transport Sessions, Sessions, and Descriptive Actions).

ここで、USBD又はUSDは、SLSフラグメントの一つであり、サービスの具体的な技術的情報を記述するシグナリングハブの役割を担うことができる。USBDは、サービス識別情報、デバイスキャパビリティ情報などを含むことができる。USBDは、他のSLSフラグメント(S−TSID、MPDなど)へのリファレンス情報(URIリファレンス)を含むことができる。すなわち、USBD/USDは、S−TSIDとMPDをそれぞれリファレンシングすることができる。また、USBDは、受信機が伝送モード(放送網/ブロードバンド)を決定できるようにするメタデータ情報をさらに含むことができる。USBD/USDの具体的な内容については後述する。   Here, USBD or USD is one of the SLS fragments, and can serve as a signaling hub that describes specific technical information of a service. The USBD may include service identification information, device capability information, and the like. The USBD may include reference information (URI reference) to other SLS fragments (S-TSID, MPD, etc.). That is, USBD / USD can refer to S-TSID and MPD respectively. In addition, the USBD may further include metadata information that enables the receiver to determine a transmission mode (broadcast network / broadband). Specific contents of USBD / USD will be described later.

S−TSIDは、SLSフラグメントの一つであり、当該サービスのサービスコンポーネントを運搬する伝送セッションに対する全体的なセッションデスクリプション情報を提供することができる。S−TSIDは、当該サービスのサービスコンポーネントが伝達されるROUTEセッション及び/又はそのROUTEセッションのLCTチャネルに対する伝送セッションデスクリプション情報を提供することができる。S−TSIDは、一つのサービスと関連したサービスコンポーネントのコンポーネント取得(acquisition)情報を提供することができる。S−TSIDは、MPDのDASHリプレゼンテーション(Representation)と当該サービスコンポーネントのtsi間のマッピングを提供することができる。S−TSIDのコンポーネント取得情報は、tsi、関連DASHリプレゼンテーションの識別子の形態で提供することができ、実施例によってPLP IDを含んでも含まなくてもよい。コンポーネント取得情報を用いて、受信機は一つのサービスのオーディオ/ビデオコンポーネントを収集し、DASHメディアセグメントのバッファリング、デコーディングなどを行うことができる。S−TSIDは、前述したように、USBDによってリファレンシングされてもよい。S−TSIDの具体的な内容については後述する。   The S-TSID is one of the SLS fragments and can provide overall session description information for a transmission session carrying a service component of the service. The S-TSID may provide transmission session description information for a ROUTE session in which a service component of the service is transmitted and / or an LCT channel of the ROUTE session. The S-TSID can provide component acquisition information of a service component related to one service. The S-TSID can provide a mapping between the DASH representation of the MPD and the tsi of the service component. The component acquisition information of the S-TSID may be provided in the form of a tsi, an identifier of the associated DASH representation, and may or may not include a PLP ID depending on the embodiment. Using the component acquisition information, the receiver can collect audio / video components of one service and perform buffering and decoding of DASH media segments. The S-TSID may be referred by the USB as described above. The specific contents of the S-TSID will be described later.

MPDは、SLSフラグメントの一つであり、当該サービスのDASHメディアプレゼンテーションに関するデスクリプションを提供することができる。MPDは、メディアセグメントに対するリソース識別子(resource identifier)を提供し、識別されたリソースに対するメディアプレゼンテーション内におけるコンテクスト情報を提供することができる。MPDは、放送網を介して伝達されるDASHリプレゼンテーション(サービスコンポーネント)を記述し、またブロードバンドを介して伝達される追加的なDASHリプレゼンテーションを記述することができる(ハイブリッドデリバリ)。MPDは、前述したように、USBDによってリファレンシングされてもよい。   The MPD is one of the SLS fragments, and can provide a description regarding the DASH media presentation of the service. The MPD may provide a resource identifier for the media segment and provide context information in the media presentation for the identified resource. The MPD can describe DASH representations (service components) transmitted over the broadcast network and can describe additional DASH representations transmitted over broadband (hybrid delivery). The MPD may be referenced by a USBD, as described above.

SLSをMMTプロトコルによって伝達する場合、SLSは、SLTが示すMMTPセッションの特定(dedicated)MMTPパケットフローで伝達することができる。実施例によって、SLSを伝達するMMTPパケットのpacket_idは00の値を有することができる。この場合、SLSは、USBD/USD及び/又はMMT Package(MP)テーブルを含むことができる。   When the SLS is transmitted according to the MMT protocol, the SLS may be transmitted in a dedicated MMTP packet flow of the MMTP session indicated by the SLT. According to an embodiment, the packet_id of the MMTP packet carrying the SLS may have a value of 00. In this case, the SLS may include a USB / USD and / or MMT Package (MP) table.

ここで、USBDは、SLSフラグメントの一つであり、ROUTEにおけるそれと同様にサービスの具体的な技術的情報を記述することができる。ここでのUSBDも、他のSLSフラグメントへのリファレンス情報(URIリファレンス)を含むことができる。MMTのUSBDは、MMTシグナリングのMPテーブルをリファレンシングすることができる。実施例によって、MMTのUSBDは、S−TSID及び/又はMPDへのリファレンス情報も含むことができる。ここで、S−TSIDは、ROUTEプロトコルによって伝達されるNRTデータのためのものであってもよい。MMTプロトコルによってリニアサービスコンポーネントが伝達される場合にも、NRTデータはROUTEプロトコルによって伝達され得るからである。MPDは、ハイブリッドサービスデリバリにおいて、ブロードバンドで伝達されるサービスコンポーネントのためのものであってもよい。MMTのUSBDの具体的な内容については後述する。   Here, the USBD is one of the SLS fragments, and can describe specific technical information of the service similarly to that in the ROUTE. The USBD here can also include reference information (URI reference) to other SLS fragments. The MMT USBD can refer to the MP table for MMT signaling. Depending on the embodiment, the USB of the MMT may also include reference information to the S-TSID and / or the MPD. Here, the S-TSID may be for NRT data transmitted by the ROUTE protocol. This is because even when the linear service component is transmitted by the MMT protocol, the NRT data can be transmitted by the ROUTE protocol. MPD may be for service components transmitted over broadband in hybrid service delivery. Specific contents of the USB of the MMT will be described later.

MPテーブルは、MPUコンポーネントのためのMMTのシグナリングメッセージであり、当該サービスのサービスコンポーネントを運搬するMMTPセッションに対する全体的なセッションデスクリプション情報を提供することができる。また、MPテーブルは、このMMTPセッションを通じて伝達されるアセット(Asset)に対するデスクリプションを含むことができる。MPテーブルは、MPUコンポーネントのためのストリーミングシグナリング情報であり、一つのサービスに該当するアセットのリストとこれらのコンポーネントのロケーション情報(コンポーネント取得情報)を提供することができる。MPテーブルの具体的な内容は、MMTで定義された形態であってもよく、変形された形態であってもよい。ここでいうアセットは、マルチメディアデータエンティティであり、1つのユニークIDで連合し、1つのマルチメディアプレゼンテーションを生成するために用いられるデータエンティティを意味することができる。アセットは、一つのサービスを構成するサービスコンポーネントに該当してもよい。MPテーブルを用いて、所望のサービスに該当するストリーミングサービスコンポーネント(MPU)に接近することができる。MPテーブルは、前述したように、USBDによってリファレンシングされてもよい。   The MP table is an MMT signaling message for the MPU component, and can provide overall session description information for an MMTP session carrying a service component of the service. In addition, the MP table may include a description for an asset transmitted through the MMTP session. The MP table is streaming signaling information for the MPU component, and can provide a list of assets corresponding to one service and location information (component acquisition information) of these components. The specific contents of the MP table may be in a form defined by the MMT or in a modified form. The asset as referred to herein is a multimedia data entity, and can mean a data entity associated with one unique ID and used to generate one multimedia presentation. An asset may correspond to a service component that constitutes one service. A streaming service component (MPU) corresponding to a desired service can be accessed using the MP table. The MP table may be referenced by the USBD as described above.

その他のMMTシグナリングメッセージを定義することもできる。このようなMMTシグナリングメッセージによってMMTPセッション又はサービスに関連した追加の情報を記述することができる。   Other MMT signaling messages can also be defined. Such MMT signaling messages can describe additional information related to the MMTP session or service.

ROUTEセッションはソースIPアドレス、デスティネーションIPアドレス、デスティネーションポートナンバーによって識別される。LCTセッションはペアレントROUTEセッションの範囲内で唯一のTSI(transport session identifier)によって識別される。MMTPセッションはデスティネーションIPアドレス及びデスティネーションポートナンバーによって識別される。MMTPパケットフローはペアレントMMTPセッションの範囲内で唯一のpacket_idによって識別される。   A ROUTE session is identified by a source IP address, a destination IP address, and a destination port number. An LCT session is identified by a unique transport session identifier (TSI) within the parent ROUTE session. An MMTP session is identified by a destination IP address and a destination port number. An MMTP packet flow is identified by a unique packet_id within a parent MMTP session.

ROUTEの場合、S−TSID、USBD/USD、MPD又はこれらを伝達するLCTセッションをサービスシグナリングチャネルと呼ぶことができる。MMTPの場合、USBD/UD、MMTシグナリングメッセージ、又はこれらを伝達するパケットフローをサービスシグナリングチャネルと呼ぶことができる。   In the case of ROUTE, an S-TSID, USBD / USD, MPD, or an LCT session transmitting these can be called a service signaling channel. In the case of MMTP, USBD / UD, MMT signaling messages, or packet flows carrying these can be referred to as service signaling channels.

図示した実施例とは違い、1つのROUTE又はMMTPセッションは複数個のPLPで伝達されてもよい。すなわち、1つのサービスは1つ以上のPLPを介して伝達されてもよい。図示とは違い、実施例によって、1つのサービスを構成するコンポーネントが別個のROUTEセッションで伝達されてもよい。また、実施例によって、1つのサービスを構成するコンポーネントが別個のMMTPセッションで伝達されてもよい。実施例によって、1つのサービスを構成するコンポーネントがROUTEセッションとMMTPセッションとに分けて伝達されてもよい。図示してはいないが、1つのサービスを構成するコンポーネントがブロードバンドを介して伝達(ハイブリッドデリバリ)されてもよい。   Unlike the illustrated embodiment, one ROUTE or MMTP session may be carried by multiple PLPs. That is, one service may be transmitted via one or more PLPs. Unlike the illustration, the components making up one service may be conveyed in separate ROUTE sessions, depending on the embodiment. Further, according to an embodiment, components constituting one service may be transmitted in a separate MMTP session. According to an embodiment, components constituting one service may be separately transmitted to a ROUTE session and an MMTP session. Although not shown, components constituting one service may be transmitted (hybrid delivery) via broadband.

図3は、本発明の一実施例に係るLLS(Low Level Signaling)テーブル及びSLT(Service List Table)を示す図である。   FIG. 3 is a diagram illustrating an LLS (Low Level Signaling) table and an SLT (Service List Table) according to an embodiment of the present invention.

図示のLLSテーブルの一実施例(t3010)は、LLS_table_idフィールド、provider_idフィールド、LLS_table_versionフィールド及び/又はLLS_table_idフィールドによる情報を含むことができる。   One embodiment (t3010) of the illustrated LLS table may include information according to an LLS_table_id field, a provider_id field, an LLS_table_version field, and / or an LLS_table_id field.

LLS_table_idフィールドは、当該LLSテーブルのタイプを識別し、provider_idフィールドは、当該LLSテーブルによってシグナルされるサービスに関連したサービスプロバイダを識別することができる。ここで、サービスプロバイダは、当該ブロードキャストストリームの全部又は一部を用いるブロードキャスタであり、provider_idフィールドは、当該ブロードキャストストリームを用いている複数のブロードキャスタのうち1つを識別することができる。LLS_table_versionフィールドは、当該LLSテーブルのバージョン情報を提供することができる。   The LLS_table_id field may identify the type of the LLS table, and the provider_id field may identify a service provider associated with the service signaled by the LLS table. Here, the service provider is a broadcaster that uses all or a part of the broadcast stream, and the provider_id field can identify one of a plurality of broadcasters that use the broadcast stream. The LLS_table_version field can provide version information of the LLS table.

LLS_table_idフィールドの値によって、当該LLSテーブルは、前述したSLT、コンテンツアドバイザリレーティング(Content advisory rating)に関連した情報を含むRRT(Rating Region Table)、システムタイムに関連した情報を提供するSystemTime情報、緊急警報に関連した情報を提供するCAP(Common Alert Protocol)メッセージのうち1つを含むことができる。実施例によって、その他の情報がLLSテーブルに含まれてもよい。   Depending on the value of the LLS_table_id field, the LLS table includes the above-described SLT, RRT (Rating Region Table) including information related to content advisory rating (System Advisory Rating), SystemTime information that provides information related to system time, and emergency information. It may include one of CAP (Common Alert Protocol) messages providing information related to the alert. Depending on the embodiment, other information may be included in the LLS table.

図示のSLTの一実施例(t3020)は、@bsid属性、@sltCapabilities属性、sltInetUrlエレメント及び/又はServiceエレメントを含むことができる。各フィールドは、図示されたUseコラムの値によって省略されてもよく、複数個存在してもよい。   One embodiment of the illustrated SLT (t3020) may include a $ bsid attribute, a $ sltCapabilities attribute, a sltInetUrl element and / or a Service element. Each field may be omitted depending on the value of the illustrated Use column, or a plurality of fields may be present.

@bsid属性は、ブロードキャストストリームの識別子であってもよい。@sltCapabilities属性は、当該SLTが記述する全てのサービスをデコードして有意に再生するために必要なキャパビリティ情報を提供することができる。sltInetUrlエレメントは、当該SLTのサービスのためのESG又はサービスシグナリング情報をブロードバンドを介して得るために用いられるベースURL情報を提供することができる。sltInetUrlエレメントは、@urlType属性をさらに含むことができるが、これは、当該URLから得られるデータのタイプを示すことができる。   The $ bsid attribute may be an identifier of a broadcast stream. The $ sltCapabilities attribute can provide the capability information necessary to decode and significantly play back all services described by the SLT. The sltInetUrl element may provide base URL information used to obtain ESG or service signaling information for the service of the SLT via broadband. The sltInetUrl element may further include a $ urlType attribute, which may indicate a type of data obtained from the URL.

Serviceエレメントは、当該SLTが記述するサービスに関する情報を含むエレメントであり、それぞれのサービスに対してServiceエレメントが存在してもよい。Serviceエレメントは、@serviceId属性、@sltSvcSeqNum属性、@protected属性、@majorChannelNo属性、@minorChannelNo属性、@serviceCategory属性、@shortServiceName属性、@hidden属性、@broadbandAccessRequired属性、@svcCapabilities属性、BroadcastSvcSignalingエレメント及び/又はsvcInetUrlエレメントを含むことができる。   The Service element is an element including information on a service described by the SLT, and a Service element may exist for each service. Service elements, @ serviceId attribute, @ sltSvcSeqNum attribute, @ protected attribute, @ majorChannelNo attribute, @ minorChannelNo attribute, @ serviceCategory attribute, @ shortServiceName attribute, @ hidden attributes, @ broadbandAccessRequired attribute, @ svcCapabilities attribute, BroadcastSvcSignaling element and / or svcInetUrl Elements can be included.

@serviceId属性は、当該サービスの識別子であり、@sltSvcSeqNum属性は、当該サービスに対するSLT情報のシーケンスナンバーを示すことができる。@protected属性は、当該サービスの有意な再生のために必要な少なくとも1つのサービスコンポーネントが保護(protected)されているか否かを示すことができる。@majorChannelNo属性と@minorChannelNo属性はそれぞれ、当該サービスのメジャーチャネルナンバーとマイナーチャネルナンバーを示すことができる。   The $ serviceId attribute is an identifier of the service, and the $ sltSvcSeqNum attribute can indicate a sequence number of SLT information for the service. The $ protected attribute may indicate whether at least one service component required for significant reproduction of the service is protected. The $ majorChannelNo attribute and $ minorChannelNo attribute can indicate the major channel number and the minor channel number of the service, respectively.

@serviceCategory属性は、当該サービスのカテゴリーを示すことができる。サービスのカテゴリーとしては、リニアA/Vサービス、リニアオーディオサービス、アプリベースのサービス、ESGサービス、EASサービスなどを挙げることができる。@shortServiceName属性は、当該サービスの短い名(Short name)を提供することができる。@hidden属性は、当該サービスがテスティング又は独占的(proprietary)な使用のためのサービスであるか否かを示すことができる。@broadbandAccessRequired属性は、当該サービスの有意な再生のためにブロードバンドアクセスが必要であるか否かを示すことができる。@svcCapabilities属性は、当該サービスのデコーディング及び有意な再生のために必要なキャパビリティ情報を提供することができる。   The $ serviceCategory attribute can indicate a category of the service. The service category includes a linear A / V service, a linear audio service, an application-based service, an ESG service, an EAS service, and the like. The $ shortServiceName attribute can provide the short name of the service. The $ hidden attribute may indicate whether the service is a service for testing or proprietary use. The $ broadbandAccessRequired attribute may indicate whether broadband access is required for significant playback of the service. The $ svcCapabilities attribute can provide capability information necessary for decoding and significant playback of the service.

BroadcastSvcSignalingエレメントは、当該サービスのブロードキャストシグナリングに関連した情報を提供することができる。このエレメントは、当該サービスの放送網を介したシグナリングに対して、ロケーション、プロトコル、アドレスなどの情報を提供することができる。詳細な事項は後述する。   The BroadcastSvcSignaling element may provide information related to broadcast signaling of the service. This element can provide information such as a location, a protocol, and an address for signaling via the broadcast network of the service. Details will be described later.

svcInetUrlエレメントは、当該サービスのためのシグナリング情報をブロードバンドを介してアクセスするためのURL情報を提供することができる。sltInetUrlエレメントは、@urlType属性をさらに含むことができるが、これは、当該URLから得られるデータのタイプを示すことができる。   The svcInetUrl element can provide URL information for accessing signaling information for the service via broadband. The sltInetUrl element may further include a $ urlType attribute, which may indicate a type of data obtained from the URL.

前述したBroadcastSvcSignalingエレメントは、@slsProtocol属性、@slsMajorProtocolVersion属性、@slsMinorProtocolVersion属性、@slsPlpId属性、@slsDestinationIpAddress属性、@slsDestinationUdpPort属性、及び/又は@slsSourceIpAddress属性を含むことができる。   The BroadcastSvcSignaling element described above includes a \ slsProtocol attribute, a \ slsMajorProtocolVersion attribute, a \ slsMinorProtocolVersion attribute, a \ slsPlpId attribute, a \ ssDlpSurse attribute, a \ ssDestinationRespondA, and a \ ssDestinationIpAddress.

@slsProtocol属性は、当該サービスのSLSを伝達するために用いられるプロトコルを示すことができる(ROUTE、MMTなど)。@slsMajorProtocolVersion属性及び@slsMinorProtocolVersion属性はそれぞれ、当該サービスのSLSを伝達するために用いられるプロトコルのメジャーバージョンナンバー及びマイナーバージョンナンバーを示すことができる。   The $ slsProtocol attribute may indicate a protocol used to transmit the SLS of the service (ROUTE, MMT, etc.). The $ slsMajorProtocolVersion attribute and $ slsMinorProtocolVersion attribute may indicate a major version number and a minor version number of a protocol used for transmitting the SLS of the service, respectively.

@slsPlpId属性は、当該サービスのSLSを伝達するPLPを識別するPLP識別子を提供することができる。実施例によって、このフィールドは省略されてもよく、SLSが伝達されるPLP情報は、後述するLMT内の情報とSLTのブートストラップ情報とを組み合わせて確認してもよい。   The $ slsPlpId attribute may provide a PLP identifier that identifies a PLP that carries the SLS of the service. Depending on the embodiment, this field may be omitted, and the PLP information to which the SLS is transmitted may be confirmed by combining information in the LMT described later and bootstrap information of the SLT.

@slsDestinationIpAddress属性、@slsDestinationUdpPort属性及び@slsSourceIpAddress属性はそれぞれ、当該サービスのSLSを伝達する伝送パケットのデスティネーションIPアドレス、デスティネーションUDPポート及びソースIPアドレスを示すことができる。これらは、SLSが伝達される伝送セッション(ROUTEセッション又はMMTPセッション)を識別することができる。これらはブートストラップ情報に含まれてもよい。   The $ slsDestinationIpAddress attribute, the $ slsDestinationUdPort attribute, and the $ slsSourceIpAddress attribute can indicate a destination IP address, a destination UDP port, and a source IP address of a transmission packet transmitting the SLS of the service, respectively. These can identify the transmission session (ROUTE session or MMTP session) over which the SLS is communicated. These may be included in the bootstrap information.

図4は、本発明の一実施例に係る、ROUTEで伝達されるUSBD及びS−TSIDを示す図である。   FIG. 4 is a diagram illustrating a USB and an S-TSID transmitted by ROUTE according to an embodiment of the present invention.

図示されたUSBDの一実施例(t4010)は、bundleDescriptionルートエレメントを有することができる。bundleDescriptionルートエレメントは、userServiceDescriptionエレメントを有することができる。userServiceDescriptionエレメントは、1つのサービスに対するインスタンスであってもよい。   One embodiment of the illustrated USBD (t4010) may have a bundleDescription root element. The bundleDescription root element can have a userServiceDescription element. The userServiceDescription element may be an instance for one service.

userServiceDescriptionエレメントは、@globalServiceID属性、@serviceId属性、@serviceStatus属性、@fullMPDUri属性、@sTSIDUri属性、nameエレメント、serviceLanguageエレメント、capabilityCodeエレメント及び/又はdeliveryMethodエレメントを含むことができる。各フィールドは、図示されたUseコラムの値によって省略されてもよく、複数個存在してもよい。   The userServiceDescription element includes a $ globalServiceID attribute, a $ serviceId attribute, a $ serviceStatus attribute, a $ fullMPDUri attribute, a $ sSIDUri attribute, a name element, a serviceLanguage element that can be a serviceLanguage element, and a capability / deployment that includes a serviceLanguage element. Each field may be omitted depending on the value of the illustrated Use column, or a plurality of fields may be present.

@globalServiceID属性は、当該サービスのグローバルにユニークな(globally unique)識別子であり、ESGデータとリンクされる上で用いられてもよい(Service@globalServiceID)。@serviceId属性は、SLTの該当のサービスエントリーに対応するリファレンスであり、SLTのサービスID情報と同一であってもよい。@serviceStatus属性は、当該サービスの状態を示すことができる。このフィールドは、当該サービスがアクティブ状態かインアクティブ(inactive)状態かを示すことができる。   The $ globalServiceID attribute is a globally unique identifier of the service, and may be used in linking with the ESG data (Service @ globalServiceID). The $ serviceId attribute is a reference corresponding to the corresponding service entry of the SLT, and may be the same as the service ID information of the SLT. The $ serviceStatus attribute can indicate the status of the service. This field may indicate whether the service is in an active state or an inactive state.

@fullMPDUri属性は、当該サービスのMPDフラグメントをリファレンシングすることができる。MPDは、前述したように、放送網又はブロードバンドを介して伝達されるサービスコンポーネントに対する再生デスクリプションを提供することができる。@sTSIDUri属性は、当該サービスのS−TSIDフラグメントをリファレンシングすることができる。S−TSIDは、前述したように、当該サービスを運搬する伝送セッションへのアクセスに関連したパラメータを提供することができる。   The $ fullMPDUri attribute can refer to the MPD fragment of the service. As described above, the MPD can provide a playback description for a service component transmitted via a broadcast network or broadband. The @sTSIDUri attribute can refer to the S-TSID fragment of the service. The S-TSID may provide parameters related to accessing a transmission session carrying the service, as described above.

nameエレメントは、当該サービスの名を提供することができる。このエレメントは、@lang属性をさらに含むことができるが、このフィールドは、nameエレメントが提供する名の言語を示すことができる。serviceLanguageエレメントは、当該サービスの利用可能な(available)言語を示すことができる。すなわち、このエレメントは、当該サービスを提供できる言語を羅列することができる。   The name element can provide the name of the service. This element may further include a $ lang attribute, but this field may indicate the language of the name provided by the name element. The serviceLanguage element may indicate an available language of the service. That is, this element can list languages in which the service can be provided.

capabilityCodeエレメントは、当該サービスを有意に再生する上で必要な受信機側のキャパビリティ又はキャパビリティグループ情報を示すことができる。これらの情報は、サービスアナウンスメント(announccement)から提供されるキャパビリティ情報フォーマットと互換されてもよい。   The capabilityCode element can indicate receiver-side capability or capability group information necessary for significantly reproducing the service. These information may be compatible with a capability information format provided from a service announcement.

deliveryMethodエレメントは、当該サービスの放送網又はブロードバンドを介してアクセスされるコンテンツに対して、伝送関連情報を提供することができる。deliveryMethodエレメントは、broadcastAppServiceエレメント及び/又はunicastAppServiceエレメントを含むことができる。このエレメントはそれぞれ、basePatternエレメントを下位エレメントとして有することができる。   The deliveryMethod element can provide transmission-related information for content accessed via a broadcast network or broadband of the service. The deliveryMethod element may include a broadcastAppService element and / or a unicastAppService element. Each of these elements can have a basePattern element as a sub-element.

broadcastAppServiceエレメントは放送網を介して伝達されるDASHリプレゼンテーションに対する伝送関連情報を含むことができる。このDASHリプレゼンテーションは、当該サービスメディアプレゼンテーションの全てのピリオド(Period)にわたるメディアコンポーネントを含むことができる。   The broadcastAppService element may include transmission-related information for a DASH representation transmitted via a broadcast network. The DASH representation may include media components that span all periods of the service media presentation.

このエレメントのbasePatternエレメントは、受信機がセグメントURLとマッチするために用いるキャラクタパターンを示すことができる。これは、DASHクライアントが該当のリプレゼンテーションのセグメントを要求するために用いることができる。マッチされるということは、該当のメディアセグメントが放送網を介して伝達されるということを暗示することができる。   The basePattern element of this element can indicate the character pattern that the receiver uses to match the segment URL. This can be used by a DASH client to request a segment of the relevant representation. Being matched can imply that the corresponding media segment is transmitted over the broadcast network.

unicastAppServiceエレメントは、ブロードバンドを介して伝達されるDASHリプレゼンテーションに対する伝送関連情報を含むことができる。このDASHリプレゼンテーションは、該当のサービスメディアプレゼンテーションの全ピリオド(Period)にわたるメディアコンポーネントを含むことができる。   The unicastAppService element may include transmission-related information for a DASH representation transmitted over broadband. This DASH representation may include media components that span all periods of the corresponding service media presentation.

このエレメントのbasePatternエレメントは、受信機がセグメントURLとマッチするために用いるキャラクタパターンを示すことができる。これは、DASHクライアントが該当のリプレゼンテーションのセグメントを要求するために用いることができる。マッチされるということは、当該メディアセグメントがブロードバンドを介して伝達されるということを暗示することができる。   The basePattern element of this element can indicate the character pattern that the receiver uses to match the segment URL. This can be used by a DASH client to request a segment of the relevant representation. Being matched can imply that the media segment is transmitted over broadband.

図示のS−TSIDの一実施例(t4020)は、S−TSIDルートエレメントを有することができる。S−TSIDルートエレメントは、@serviceId属性及び/又はRSエレメントを含むことができる。各フィールドは、図示されたUseコラムの値によって省略されてもよく、複数個存在してもよい。   One embodiment of the S-TSID shown (t4020) may have an S-TSID root element. The S-TSID root element may include a $ serviceId attribute and / or an RS element. Each field may be omitted depending on the value of the illustrated Use column, or a plurality of fields may be present.

@serviceId属性は、当該サービスの識別子であり、USBD/USDの当該サービスをリファレンシングすることができる。RSエレメントは、当該サービスのサービスコンポーネントが伝達されるROUTEセッションに関する情報を記述することができる。このようなROUTEセッションの個数によって、このエレメントは複数個存在してもよい。RSエレメントは、@bsid属性、@sIpAddr属性、@dIpAddr属性、@dport属性、@PLPID属性及び/又はLSエレメントをさらに含むことができる。   The $ serviceId attribute is an identifier of the service, and can refer to the USBD / USD service. The RS element can describe information on a ROUTE session to which a service component of the service is transmitted. Depending on the number of such ROUTE sessions, there may be a plurality of this element. The RS element may further include a $ bsid attribute, a $ sIpAddr attribute, a $ dIpAddr attribute, a $ port attribute, a $ PLPID attribute, and / or a LS element.

@bsid属性は、当該サービスのサービスコンポーネントが伝達されるブロードキャストストリームの識別子であってもよい。このフィールドが省略された場合、デフォルトブロードキャストストリームは、当該サービスのSLSを伝達するPLPを含むブロードキャストストリームであってもよい。このフィールドの値は、SLTの@bsid属性と同じ値であってもよい。   The $ bsid attribute may be an identifier of a broadcast stream in which a service component of the service is transmitted. If this field is omitted, the default broadcast stream may be a broadcast stream that includes a PLP that carries the SLS of the service. The value of this field may be the same value as the SLT $ bsid attribute.

@sIpAddr属性、@dIpAddr属性及び@dport属性はそれぞれ、該当のROUTEセッションのソースIPアドレス、デスティネーションIPアドレス及びデスティネーションUDPポートを示すことができる。このフィールドが省略される場合、デフォルト値は、該当のSLSを伝達する、すなわち、該当のS−TSIDを伝達している現在の、ROUTEセッションのソースIPアドレス、デスティネーションIPアドレス及びデスティネーションUDPポート値であってもよい。現在ROUTEセッションでない、当該のサービスのサービスコンポーネントを伝達する他のROUTEセッションに対しては、本フィールドが省略されなくてもよい。   The $ sIpAddr attribute, the $ dIpAddr attribute, and the $ dport attribute may indicate the source IP address, destination IP address, and destination UDP port of the corresponding ROUTE session, respectively. If this field is omitted, the default value is the source IP address, destination IP address and destination UDP port of the current ROUTE session carrying the corresponding SLS, ie carrying the corresponding S-TSID. It may be a value. This field may not be omitted for another ROUTE session that is not the current ROUTE session and transmits the service component of the service.

@PLPID属性は、該当のROUTEセッションのPLP ID情報を示すことができる。このフィールドが省略される場合、デフォルト値は、該当のS−TSIDが伝達されている現在PLPのPLP ID値であってもよい。実施例によって、このフィールドは省略され、該当のROUTEセッションのPLP ID情報は、後述するLMT内の情報と、RSエレメントのIPアドレス/UDPポート情報とを組み合わせて確認してもよい。   $ PLPID attribute may indicate PLP ID information of the corresponding ROUTE session. If this field is omitted, the default value may be the PLP ID value of the current PLP to which the corresponding S-TSID is transmitted. In some embodiments, this field may be omitted, and the PLP ID information of the corresponding ROUTE session may be confirmed by combining the information in the LMT described later and the IP address / UDP port information of the RS element.

LSエレメントは、当該サービスのサービスコンポーネントが伝達されるLCTチャネルに関する情報を記述することができる。このようなLCTチャネルの個数によって、このエレメントは複数個存在してもよい。LSエレメントは、@tsi属性、@PLPID属性、@bw属性、@startTime属性、@endTime属性、SrcFlowエレメント及び/又はRepairFlowエレメントを含むことができる。   The LS element can describe information on an LCT channel to which a service component of the service is transmitted. Depending on the number of such LCT channels, there may be a plurality of this element. The LS element may include a $ tsi attribute, $ PLPID attribute, $ bw attribute, $ startTime attribute, $ endTime attribute, SrcFlow element and / or RepairFlow element.

@tsi属性は、該当のLCTチャネルのtsi情報を示すことができる。これによって、当該サービスのサービスコンポーネントが伝達されるLCTチャネルを識別することができる。@PLPID属性は、該当のLCTチャネルのPLP ID情報を示すことができる。実施例によって、このフィールドは省略されてもよい。@bw属性は、該当のLCTチャネルの最大の帯域幅を示すことができる。@startTime属性は、該当のLCTセッションのスタートタイムを示し、@endTime属性は、該当のLCTチャネルのエンドタイムを示すことができる。   The @tsi attribute may indicate tsi information of the corresponding LCT channel. Thereby, the LCT channel to which the service component of the service is transmitted can be identified. The $ PLPID attribute may indicate PLP ID information of the corresponding LCT channel. In some embodiments, this field may be omitted. The @bw attribute may indicate the maximum bandwidth of the corresponding LCT channel. The $ startTime attribute may indicate the start time of the corresponding LCT session, and the $ endTime attribute may indicate the end time of the corresponding LCT channel.

SrcFlowエレメントは、ROUTEのソースフローについて記述することができる。ROUTEのソースプロトコルは、デリバリオブジェクトを伝送するために用いられ、1つのROUTEセッション内で少なくとも1つのソースフローを設定(establish)することができる。これらのソースフローは、関連したオブジェクトをオブジェクトフローとして伝達することができる。   The SrcFlow element can describe the source flow of ROUTE. The ROUTE source protocol is used for transmitting the delivery object, and can establish at least one source flow within one ROUTE session. These source flows can communicate the associated objects as object flows.

RepairFlowエレメントは、ROUTEのリペアフローについて記述することができる。ソースプロトコルによって伝達されるデリバリオブジェクトは、FEC(Forward Error Correction)によって保護されてもよいが、リペアプロトコルは、このようなFECプロテクションを可能にするFECフレームワーク(framework)を定義することができる。   The RepairFlow element can describe a repair flow of ROUTE. The delivery object delivered by the source protocol may be protected by Forward Error Correction (FEC), but the repair protocol may define an FEC framework (framework) that enables such FEC protection.

図5は、本発明の一実施例に係る、MMTで伝達されるUSBDを示す図である。   FIG. 5 is a diagram illustrating a USBD transmitted by MMT according to an embodiment of the present invention.

図示されたUSBDの一実施例は、bundleDescriptionルートエレメントを有することができる。bundleDescriptionルートエレメントは、userServiceDescriptionエレメントを有することができる。userServiceDescriptionエレメントは、1つのサービスに対するインスタンスであってもよい。   One embodiment of the USBD shown can have a bundleDescription root element. The bundleDescription root element can have a userServiceDescription element. The userServiceDescription element may be an instance for one service.

userServiceDescriptionエレメントは、@globalServiceID属性、@serviceId属性、Nameエレメント、serviceLanguageエレメント、contentAdvisoryRatingエレメント、Channelエレメント、mpuComponentエレメント、routeComponentエレメント、broadbandComponentエレメント及び/又はComponentInfoエレメントを含むことができる。各フィールドは、図示されたUseコラムの値によって省略されてもよく、複数個存在してもよい。   The userServiceDescription element can include a $ globalServiceID attribute, a $ serviceId attribute, a Name element, a serviceLanguage element, a contentAdvisoryRating element, a Channel element, an mpuComponent element, and a ComponentComponent element, and a routeComponent element. Each field may be omitted depending on the value of the illustrated Use column, or a plurality of fields may be present.

@globalServiceID属性、@serviceId属性、Nameエレメント及び/又はserviceLanguageエレメントは、前述したROUTEで伝達されるUSBDの該当のフィールドと同一であってもよい。contentAdvisoryRatingエレメントは、当該サービスのコンテンツアドバイザリ(advisory)レーティングを示すことができる。これらの情報は、サービスアナウンスメント(announccement)から提供されるコンテンツアドバイザリレーティング情報フォーマットと互換されてもよい。Channelエレメントは、当該サービスに関連した情報を含むことができる。このエレメントの詳細な内容については後述する。   The $ globalServiceID attribute, the $ serviceId attribute, the Name element and / or the serviceLanguage element may be the same as the corresponding field of the USBD transmitted in the above-described ROUTE. The contentAdvisoryRating element may indicate a content advisory rating of the service. These pieces of information may be compatible with a content advisory rating information format provided from a service announcement. The Channel element may include information related to the service. The details of this element will be described later.

mpuComponentエレメントは、当該サービスのMPUとして伝達されるサービスコンポーネントに関するデスクリプションを提供することができる。このエレメントは、@mmtPackageId属性及び/又は@nextMmtPackageId属性をさらに含むことができる。@mmtPackageId属性は、当該サービスのMPUとして伝達されるサービスコンポーネントのMMTパッケージ(Package)をリファレンシングすることができる。@nextMmtPackageId属性は、時間上、@mmtPackageId属性がリファレンシングするMMTパッケージの次に用いられるMMTパッケージをリファレンシングすることができる。このエレメントの情報を用いてMPテーブルをリファレンシングすることができる。   The mpuComponent element can provide a description of a service component transmitted as an MPU of the service. This element can further include a $ mmtPackageId attribute and / or a $ nextMmtPackageId attribute. The $ mmtPackageId attribute can refer to the MMT package (Package) of the service component transmitted as the MPU of the service. The $ nextMmtPackageId attribute can refer to the MMT package that is used next to the MMT package that the $ mmtPackageId attribute references in time. The MP table can be referred by using the information of this element.

routeComponentエレメントは、ROUTEで伝達される当該サービスのサービスコンポーネントに関するデスクリプションを含むことができる。リニアサービスコンポーネントがMMTプロトコルで伝達される場合であっても、NRTデータは、前述したように、ROUTEプロトコルによって伝達されてもよい。このエレメントはこのようなNRTデータに関する情報を記述することができる。このエレメントの詳細な内容については後述する。   The routeComponent element may include a description related to a service component of the service transmitted in the route. Even when the linear service component is transmitted by the MMT protocol, the NRT data may be transmitted by the ROUTE protocol as described above. This element can describe information about such NRT data. The details of this element will be described later.

broadbandComponentエレメントは、ブロードバンドで伝達される当該サービスのサービスコンポーネントに関するデスクリプションを含むことができる。ハイブリッドサービスデリバリにおいて、一つのサービスの一部のサービスコンポーネント又はその他のファイルは、ブロードバンドを介して伝達されてもよい。このエレメントは、このようなデータに関する情報を記述することができる。このエレメントは、@fullMPDUri属性をさらに含むことができる。この属性は、ブロードバンドで伝達されるサービスコンポーネントについて記述するMPDをリファレンシングすることができる。ハイブリッドサービスデリバリの他にも、トンネル内の走行などによって放送信号が弱くなる場合において、放送網−ブロードバンド間のハンドオフ(handoff)を支援するためにこのエレメントが用いられてもよい。放送信号が弱くなる場合、ブロードバンドを介してサービスコンポーネントを取得するが、再び放送信号が強くなると、放送網を介してサービスコンポーネントを取得し、サービスの連続性を保障することができる。   The “broadbandComponent” element may include a description related to a service component of the service transmitted over broadband. In hybrid service delivery, some service components or other files of one service may be transmitted via broadband. This element can describe information about such data. This element can further include a $ fullMPDUri attribute. This attribute can refer to the MPD that describes the service components that are transmitted over broadband. In addition to hybrid service delivery, this element may be used to support handoff between a broadcast network and broadband when a broadcast signal becomes weak due to traveling in a tunnel or the like. When the broadcast signal becomes weak, the service component is obtained via the broadband, but when the broadcast signal becomes strong again, the service component is obtained via the broadcast network, and continuity of service can be ensured.

ComponentInfoエレメントは、当該サービスのサービスコンポーネントに関する情報を含むことができる。サービスのサービスコンポーネントの個数によって、このエレメントは複数個存在してもよい。このエレメントは、各サービスコンポーネントのタイプ、ロール(role)、名、識別子、プロテクションの有無などの情報を記述することができる。このエレメントの詳細な情報については後述する。   The ComponentInfo element can include information on a service component of the service. Depending on the number of service components of the service, there may be a plurality of this element. This element can describe information such as the type, role, name, identifier, and presence / absence of protection of each service component. Detailed information of this element will be described later.

前述したChannelエレメントは、@serviceGenre属性、@serviceIcon属性及び/又はServiceDescriptionエレメントをさらに含むことができる。@serviceGenre属性は、当該サービスのジャンルを示し、@serviceIcon属性は、当該サービスを代表するアイコン(icon)のURL情報を含むことができる。ServiceDescriptionエレメントは、当該サービスのサービスデスクリプションを提供するが、このエレメントは、@serviceDescrText属性及び/又は@serviceDescrLang属性をさらに含むことができる。これらの属性はそれぞれ、当該サービスデスクリプションのテキスト及びそのテキストに用いられる言語を示すことができる。   The above-mentioned Channel element may further include a $ serviceGenre attribute, a $ serviceIcon attribute, and / or a ServiceDescription element. The $ serviceGenre attribute indicates the genre of the service, and the $ serviceIcon attribute may include URL information of an icon representing the service. The ServiceDescription element provides a service description of the service, and may further include a $ serviceDescrText attribute and / or a $ serviceDescrLang attribute. Each of these attributes can indicate the text of the service description and the language used for the text.

前述したrouteComponentエレメントは、@sTSIDUri属性、@sTSIDDestinationIpAddress属性、@sTSIDDestinationUdpPort属性、@sTSIDSourceIpAddress属性、@sTSIDMajorProtocolVersion属性、及び/又は@sTSIDMinorProtocolVersion属性をさらに含むことができる。   The routeComponent element described above may include a $ sSSIDUri attribute, a $ sTSIDDestinationIpAddress attribute, a $ sTSIDDestinationUdPort attribute, a $ sTSIDSourceIpAddress attribute, a $ sTSIDMajorProtocolVersion attribute, and / or a Vsr.

@sTSIDUri属性は、S−TSIDフラグメントをリファレンシングすることができる。このフィールドは、前述したROUTEで伝達されるUSBDの該当のフィールドと同一であってもよい。このS−TSIDは、ROUTEで伝達されるサービスコンポーネントに対するアクセス関連情報を提供することができる。このS−TSIDは、MMTプロトコルによってリニアサービスコンポーネントが伝達される状況で、ROUTEプロトコルによって伝達されるNRTデータのために存在してもよい。   The @sTSIDUri attribute can refer to an S-TSID fragment. This field may be the same as the corresponding field of the USB transmitted by the ROUTE. This S-TSID can provide access-related information for the service component transmitted in ROUTE. This S-TSID may be present for NRT data carried by the ROUTE protocol in situations where the linear service component is carried by the MMT protocol.

@sTSIDDestinationIpAddress属性、@sTSIDDestinationUdpPort属性及び@sTSIDSourceIpAddress属性はそれぞれ、前述したS−TSIDを運搬する伝送パケットのデスティネーションIPアドレス、デスティネーションUDPポート、ソースIPアドレスを示すことができる。すなわち、これらのフィールドは、前述したS−TSIDを運搬する伝送セッション(MMTPセッション又はROUTEセッション)を識別することができる。   The $ sTSIDDestinationIpAddress attribute, the $ sTSIDDestinationUdPort attribute, and the $ sTSIDSourceIpAddress attribute can indicate the destination IP address, destination UDP port, and source IP address of the transmission packet carrying the S-TSID, respectively. That is, these fields can identify the transmission session (MMTP session or ROUTE session) that carries the S-TSID described above.

@sTSIDMajorProtocolVersion属性及び@sTSIDMinorProtocolVersion属性は、前述したS−TSIDを伝達するために用いられる伝送プロトコルのメジャーバージョンナンバー及びマイナーバージョンナンバーを示すことができる。   The @sTSIDMajorProtocolVersion attribute and the TSsTSIDMinorProtocolVersion attribute may indicate a major version number and a minor version number of a transmission protocol used for transmitting the S-TSID.

前述したComponentInfoエレメントは、@componentType属性、@componentRole属性、@componentProtectedFlag属性、@componentId属性及び/又は@componentName属性をさらに含むことができる。   The ComponentInfo element described above may further include a $ componentType attribute, a $ componentRole attribute, a $ componentProtectedFlag attribute, a $ componentId attribute, and / or a $ componentName attribute.

@componentType属性は、当該コンポーネントのタイプを示すことができる。例えば、この属性は、当該コンポーネントがオーディオ、ビデオ、クローズドキャプションコンポーネントのいずれであるかを示すことができる。@componentRole属性は、当該コンポーネントのロール(役割)を示すことができる。例えば、この属性は、当該コンポーネントがオーディオコンポーネントである場合、メインオーディオ、ミュージック、コメンタリなどのいずれであるかを示すことができる。該当のコンポーネントがビデオコンポーネントである場合、プライマリビデオであるかなどを示すことができる。当該コンポーネントがクローズドキャプションコンポーネントである場合、ノーマルキャプションであるか又はイージーリーダー(easy reader)タイプであるかなどを示すことができる。   The $ componentType attribute can indicate the type of the component. For example, this attribute can indicate whether the component is an audio, video, or closed caption component. The $ componentRole attribute can indicate the role of the component. For example, if the component is an audio component, this attribute can indicate whether the component is main audio, music, commentary, or the like. If the corresponding component is a video component, it can indicate whether the component is a primary video. If the component is a closed caption component, it can indicate whether it is a normal caption or an easy reader type.

@componentProtectedFlag属性は、当該サービスコンポーネントが保護されたか、例えば暗号化されたかを示すことができる。@componentId属性は、当該サービスコンポーネントの識別子を示すことができる。この属性の値は、このサービスコンポーネントに該当するMPテーブルのasset_id(アセットID)と同じ値であってもよい。@componentName属性は、当該サービスコンポーネントの名を示すことができる。   The $ componentProtectedFlag attribute can indicate whether the service component is protected, eg, encrypted. The $ componentId attribute can indicate an identifier of the service component. The value of this attribute may be the same value as asset_id (asset ID) of the MP table corresponding to this service component. The $ componentName attribute can indicate the name of the service component.

図6は、本発明の一実施例に係るリンクレイヤ(Link Layer)動作を示す図である。   FIG. 6 is a diagram illustrating a link layer operation according to an embodiment of the present invention.

リンクレイヤは、フィジカルレイヤとネットワークレイヤとの間のレイヤであり得る。送信側では、ネットワークレイヤからフィジカルレイヤにデータを伝送し、受信側では、フィジカルレイヤからネットワークレイヤにデータを伝送することができる(t6010)。リンクレイヤの目的は、フィジカルレイヤによる処理のために全入力パケットタイプを1つのフォーマットに圧縮(abstracting)すること、及びまだ定義されていない入力パケットタイプに対する柔軟性(flexibility)及び将来の拡張可能性を保障することにあり得る。また、リンクレイヤは、入力パケットのヘッダーの不要な情報を圧縮するオプションを提供することによって、入力データが効率的に伝送されるようにすることができる。リンクレイヤのオーバーヘッドリダクション、エンカプセレーションなどの動作は、リンクレイヤプロトコルと呼ばれ、当該プロトコルによって生成されたパケットは、リンクレイヤパケットと呼ぶことができる。リンクレイヤは、パケットエンカプセレーション(packet encapsulation)、オーバーヘッドリダクション(Overhead Reduction)及び/又はシグナリング伝送(Signaling Transmission)などの機能を有することができる。   The link layer may be a layer between the physical layer and the network layer. The transmitting side can transmit data from the network layer to the physical layer, and the receiving side can transmit data from the physical layer to the network layer (t6010). The purpose of the link layer is to abstract all input packet types into one format for processing by the physical layer, and to provide flexibility and future scalability for input packet types that have not yet been defined. Can be guaranteed. In addition, the link layer may provide an option to compress unnecessary information in a header of an input packet so that input data is transmitted efficiently. Operations such as link layer overhead reduction and encapsulation are called a link layer protocol, and packets generated by the protocol can be called link layer packets. The link layer may have a function such as packet encapsulation, overhead reduction, and / or signaling transmission (Signaling Transmission).

送信側基準で、リンクレイヤ(ALP)は、入力パケットに対してオーバーヘッドリダクション過程を行った後、それらをリンクレイヤパケットにエンカプセレーションすることができる。また、実施例によって、リンクレイヤは、オーバーヘッドリダクション過程を行わないで、リンクレイヤパケットにエンカプセレーションしてもよい。リンクレイヤプロトコルの使用によって、フィジカルレイヤ上でデータの伝送に対するオーバーヘッドを大きく減少させることができ、本発明に係るリンクレイヤプロトコルは、IPオーバーヘッドリダクション及び/又はMPEG−2TSオーバーヘッドリダクションを提供することができる。   On a sender basis, the link layer (ALP) can perform an overhead reduction process on incoming packets and then encapsulate them into link layer packets. In some embodiments, the link layer may encapsulate the link layer packet without performing the overhead reduction process. Through the use of the link layer protocol, the overhead for data transmission on the physical layer can be greatly reduced, and the link layer protocol according to the present invention can provide IP overhead reduction and / or MPEG-2TS overhead reduction. .

図示の、IPパケットが入力パケットとして入力される場合において(t6010)、リンクレイヤは、IPヘッダー圧縮、アダプテーション及び/又はエンカプセレーション過程を順に行うことができる。実施例によって、一部の過程は省略されてもよい。まず、RoHCモジュールでIPパケットヘッダー圧縮を行って不要なオーバーヘッドを減らし、アダプテーション過程によってコンテクスト情報を抽出し、これを帯域外で伝送することができる。IPヘッダー圧縮及びアダプテーション過程を総称して、IPヘッダー圧縮ということもできる。その後、エンカプセレーション過程を経てIPパケットをリンクレイヤパケットにエンカプセレーションすることができる。   As shown, when an IP packet is input as an input packet (t6010), the link layer may perform an IP header compression, adaptation, and / or encapsulation process in order. In some embodiments, some steps may be omitted. First, the RoHC module compresses an IP packet header to reduce unnecessary overhead, extracts context information through an adaptation process, and transmits the context information out of band. The IP header compression and adaptation process may be collectively referred to as IP header compression. Thereafter, the IP packet can be encapsulated into a link layer packet through an encapsulation process.

MPEG2TSパケットが入力パケットとして入力される場合において、リンクレイヤは、TSパケットに対するオーバーヘッドリダクション及び/又はエンカプセレーション過程を順に行うことができる。実施例によって、一部の過程は省略されてもよい。オーバーヘッドリダクションにおいて、リンクレイヤは、シンクバイトの除去、ヌルパケットの削除及び/又は共通(common)ヘッダー除去(圧縮)を提供することができる。シンクバイト除去によってTSパケット当たりに1バイトのオーバーヘッドリダクションを提供することができる。受信側で再挿入可能な方式でヌルパケットの削除を行ってもよい。また、連続したヘッダー間の共通した情報を、受信側で復旧可能な方式で削除(圧縮)してもよい。各オーバーヘッドリダクション過程の一部は省略されてもよい。その後、エンカプセレーション過程を経てTSパケットをリンクレイヤパケッにエンカプセレーションすることができる。TSパケットのエンカプセレーションに対するリンクレイヤパケット構造は、他のタイプのパケットとは異なってもよい。   When an MPEG2 TS packet is input as an input packet, the link layer may sequentially perform an overhead reduction and / or an encapsulation process on the TS packet. In some embodiments, some steps may be omitted. In overhead reduction, the link layer may provide for sync byte removal, null packet removal and / or common header removal (compression). The sync byte removal can provide one byte of overhead reduction per TS packet. The null packet may be deleted by a method that can be reinserted on the receiving side. Further, information common between consecutive headers may be deleted (compressed) by a method that can be recovered on the receiving side. Part of each overhead reduction process may be omitted. Thereafter, the TS packet can be encapsulated into a link layer packet through an encapsulation process. The link layer packet structure for the encapsulation of TS packets may be different from other types of packets.

まず、IPヘッダー圧縮(IP Header Compression)について説明する。   First, a description will be given of IP Header Compression.

IPパケットは、固定されたヘッダーフォーマットを有するが、通信環境で必要な一部の情報がブロードキャスト環境では不要な場合がある。リンクレイヤプロトコルは、IPパケットのヘッダーを圧縮することによって、ブロードキャストオーバーヘッドを減らすメカニズムを提供することができる。   IP packets have a fixed header format, but some information needed in a communication environment may not be needed in a broadcast environment. Link layer protocols can provide a mechanism to reduce broadcast overhead by compressing the header of IP packets.

IPヘッダー圧縮は、ヘッダーコンプレッサ/デコンプレッサ及び/又はアダプテーションモジュールを含むことができる。IPヘッダーコンプレッサ(RoHCコンプレッサ)は、RoHC方式に基づいて各IPパケットヘッダーのサイズを減少させることができる。その後、アダプテーションモジュールは、コンテクスト情報を抽出し、各パケットストリームからシグナリング情報を生成することができる。受信機は、該当のパケットストリームに関連したシグナリング情報をパースし、コンテクスト情報をそのパケットストリームに付加(attach)することができる。RoHCデコンプレッサは、パケットヘッダーを復旧して元来のIPパケットを再構成することができる。以下、IPヘッダー圧縮とは、ヘッダーコンプレッサによるIPヘッダー圧縮のみを意味してもよく、IPヘッダー圧縮とアダプテーションモジュールによるアダプテーション過程とを合わせた概念を意味してもよい。デコンプレッシング(decompressing)に対しても同様である。   IP header compression can include a header compressor / decompressor and / or adaptation module. The IP header compressor (RoHC compressor) can reduce the size of each IP packet header based on the RoHC scheme. Thereafter, the adaptation module may extract the context information and generate signaling information from each packet stream. The receiver may parse the signaling information associated with the packet stream and attach context information to the packet stream. The RoHC decompressor can recover the packet header and reconstruct the original IP packet. Hereinafter, IP header compression may mean only IP header compression by a header compressor, or may mean a concept combining IP header compression and an adaptation process by an adaptation module. The same applies to decompressing.

以下、アダプテーション(Adaptation)について説明する。   Hereinafter, the adaptation will be described.

単方向リンク上の伝送において、受信機がコンテクストの情報を有していないと、デコンプレッサは完全なコンテクストを受信するまでは、受信したパケットヘッダーを復旧することができない。これは、チャネル変更遅延及びターンオンディレー(turn−on delay)を招きうる。そこで、アダプテーション機能を用いて、コンプレッサ/デコンプレッサ間のコンフィギュレーションパラメータとコンテクスト情報を帯域外で伝送することができる。アダプテーションファンクション(function)は、コンテクスト情報及び/又はコンフィギュレーションパラメータを用いてリンクレイヤシグナリングを生成(construction)することができる。アダプテーションファンクションは、以前(previous)のコンフィギュレーションパラメータ及び/又はコンテクスト情報を用いて、それぞれのフィジカルフレームを介して周期的にリンクレイヤシグナリングを伝送することができる。   For transmissions on a unidirectional link, if the receiver does not have context information, the decompressor cannot recover the received packet header until it has received the full context. This may cause a channel change delay and a turn-on delay. Therefore, the configuration parameter and the context information between the compressor and the decompressor can be transmitted out of band by using the adaptation function. An adaptation function may generate link layer signaling using context information and / or configuration parameters. The adaptation function may periodically transmit the link layer signaling via each physical frame using the previous configuration parameters and / or context information.

圧縮されたIPパケットからコンテクスト情報を抽出するが、アダプテーションモードによって様々な方法を用いることができる。   Context information is extracted from the compressed IP packet, and various methods can be used depending on the adaptation mode.

モード#1は、圧縮されたパケットストリームに対していかなる動作も行わないモードであり、アダプテーションモジュールがバッファとして動作するモードであるといえる。   Mode # 1 is a mode in which no operation is performed on the compressed packet stream, and can be said to be a mode in which the adaptation module operates as a buffer.

モード#2は、圧縮されたパケットストリームのうち、IRパケットを検出してコンテクスト情報(スタティックチェーン)を抽出するモードであってもよい。抽出の後、IRパケットはIR−DYNパケットに変換され、IR−DYNパケットを元来のIRパケットに代えてパケットストリーム内で同じ順序で伝送することができる。   The mode # 2 may be a mode for detecting an IR packet from a compressed packet stream and extracting context information (static chain). After extraction, the IR packets are converted to IR-DYN packets, and the IR-DYN packets can be transmitted in the same order in the packet stream instead of the original IR packets.

モード#3(t6020)は、圧縮されたパケットストリームのうち、IR及びIR−DYNパケットを検出し、コンテクスト情報を抽出するモードであってもよい。IRパケットからスタティックチェーン及びダイナミックチェーンを、IR−DYNパケットからダイナミックチェーンを抽出することができる。抽出の後、IR及びIR−DYNパケットを一般圧縮パケットに変換することができる。変換されたパケットを、元来のIR及びIR−DYNパケットに代えてパケットストリーム内で同じ順序で伝送することができる。   Mode # 3 (t6020) may be a mode in which IR and IR-DYN packets are detected from the compressed packet stream and context information is extracted. A static chain and a dynamic chain can be extracted from an IR packet, and a dynamic chain can be extracted from an IR-DYN packet. After extraction, the IR and IR-DYN packets can be converted to general compressed packets. The converted packets can be transmitted in the same order in the packet stream instead of the original IR and IR-DYN packets.

各モードで、コンテクスト情報を抽出して残ったパケットは、圧縮されたIPパケットのためのリンクレイヤパケット構造によってエンカプセレーションして伝送することができる。コンテクスト情報は、リンクレイヤシグナリングであり、シグナリング情報のためのリンクレイヤパケット構造によってエンカプセレーションして伝送することができる。   In each mode, the remaining packets after extracting the context information can be transmitted by encapsulation according to the link layer packet structure for the compressed IP packet. The context information is link layer signaling, and can be transmitted by encapsulation according to a link layer packet structure for the signaling information.

抽出されたコンテクスト情報は、RDT(RoHC−U Description Table)に含めてRoHCパケットフローとは別に伝送することができる。コンテクスト情報は、他のシグナリング情報と共に特定(specific)フィジカルデータ経路で伝送することができる。特定フィジカルデータ経路とは、実施例によって、一般PLPのうちの一つを意味することもでき、LLS(Low Level Signaling)が伝達されるPLPを意味することもでき、指定された(dedicated)PLPであってもよく、L1シグナリングパス(path)を意味することもできる。ここで、RDTは、コンテクスト情報(スタティックチェーン及び/又はダイナミックチェーン)及び/又はヘッダーコンプレッションに関連した情報を含むシグナリング情報であってもよい。実施例によって、RDTは、コンテクスト情報が変わる度に伝送されてもよい。また、実施例によって、RDTは、毎フィジカルフレームで伝送されてもよい。毎フィジカルフレームでRDTを伝送するために、以前(previous)のRDTが再利用(re−use)され得る。   The extracted context information may be included in an RHC (RoHC-U Description Table) and transmitted separately from the RoHC packet flow. The context information can be transmitted on a specific physical data path together with other signaling information. The specific physical data path may refer to one of general PLPs according to the embodiment, a PLP to which LLS (Low Level Signaling) is transmitted, and a designated PLP. Which may mean an L1 signaling path. Here, the RDT may be signaling information including context information (static chain and / or dynamic chain) and / or information related to header compression. According to an embodiment, the RDT may be transmitted each time context information changes. In some embodiments, the RDT may be transmitted in every physical frame. In order to transmit the RDT in each physical frame, the previous RDT may be re-used.

受信機はパケットストリームを取得する前に、最初のPLPを選択してSLT、RDT、LMTなどのシグナリング情報をまず取得することができる。受信機は、このシグナリング情報が取得されると、これらを組み合わせてサービス−IP情報−コンテクスト情報−PLP間のマッピングを取得することができる。すなわち、受信機は、どのようなサービスがどのIPストリームで伝送されるのか、どのようなPLPでどのようなIPストリームが伝達されるのか、などを知ることができ、また、PLPの当該コンテクスト情報を取得することができる。受信機は、特定のパケットストリームを運搬するPLPを選択してデコードすることができる。アダプテーションモジュールは、コンテクスト情報をパースし、これを圧縮されたパケットと組み合わせることができる。これによってパケットストリームを復旧することができ、これをRoHCデコンプレッサに伝達することができる。その後、デコンプレッションを始まることができる。このとき、受信機は、アダプテーションモードに応じて、IRパケットをディテクトして、最初に受信されたIRパケットからデコンプレッションを開始したり(モード1)、IR−DYNパケットをディテクトして、最初に受信されたIR−DYNパケットからデコンプレッションを開始したり(モード2)、どの一般の圧縮パケット(compressed packet)からデコンプレッションを開始してもよい(モード3)。   Before acquiring the packet stream, the receiver can first select the first PLP to acquire signaling information such as SLT, RDT, LMT, and so on. When the receiver obtains the signaling information, the receiver can obtain a mapping between service-IP information-context information-PLP by combining them. That is, the receiver can know what service is transmitted by which IP stream, what PLP is transmitted by what PLP, and the like. Can be obtained. The receiver can select and decode the PLP that carries a particular packet stream. The adaptation module can parse the context information and combine it with the compressed packet. This allows the packet stream to be restored, which can be transmitted to the RoHC decompressor. Thereafter, decompression can begin. At this time, the receiver detects the IR packet according to the adaptation mode and starts decompression from the first received IR packet (mode 1), or detects the IR-DYN packet to start the decompression. Decompression may be started from the received IR-DYN packet (mode 2) or decompression may be started from any general compressed packet (mode 3).

以下、パケットエンカプセレーションについて説明する。   Hereinafter, the packet encapsulation will be described.

リンクレイヤプロトコルは、IPパケット、TSパケットなどの全てのタイプのインプットパケットをリンクレイヤパケットにエンカプセレーションすることができる。これによって、フィジカルレイヤは、ネットワークレイヤのプロトコルタイプとは独立して1つのパケットフォーマットだけを処理すればいい(ここでは、ネットワークレイヤパケットの一種としてMPEG−2TSパケットを考慮)。各ネットワークレイヤパケット又は入力パケットは、ゼネリックリンクレイヤパケットのペイロードに変形される。   The link layer protocol can encapsulate all types of input packets, such as IP packets, TS packets, etc. into link layer packets. This allows the physical layer to process only one packet format independently of the network layer protocol type (here, MPEG-2TS packets are considered as a type of network layer packet). Each network layer packet or input packet is transformed into a generic link layer packet payload.

パケットエンカプセレーション過程では分割(segmentation)を活用することができる。ネットワークレイヤパケットが大きすぎてフィジカルレイヤで処理できない場合、ネットワークレイヤパケットを2つ以上のセグメントに分割することができる。リンクレイヤパケットヘッダーは、送信側で分割を実行し、受信側で再結合を実行するためのフィールドを含むことができる。各セグメントを、元来の位置と同じ順序でリンクレイヤパケットにエンカプセレーションすることができる。   In the packet encapsulation process, segmentation can be used. If the network layer packet is too large to be processed by the physical layer, the network layer packet can be divided into two or more segments. The link layer packet header may include fields for performing splitting on the transmitting side and performing recombining on the receiving side. Each segment can be encapsulated in the link layer packet in the same order as the original location.

パケットエンカプセレーション過程で連鎖(concatenation)を活用することもできる。リンクレイヤパケットのペイロードが複数のネットワークレイヤパケットを含む程度にネットワークレイヤパケットが十分に小さい場合、連鎖を行ってもよい。リンクレイヤパケットヘッダーは、連鎖を実行するためのフィールドを含むことができる。連鎖の場合、各入力パケットを、元来の入力順序と同じ順序でリンクレイヤパケットのペイロードにエンカプセレーションすることができる。   Concatenation may be used in the packet encapsulation process. Chaining may be performed if the network layer packet is small enough that the payload of the link layer packet includes a plurality of network layer packets. The link layer packet header may include fields for performing chaining. In the case of chaining, each input packet can be encapsulated in the link layer packet payload in the same order as the original input order.

リンクレイヤパケットは、ヘッダー及びペイロードを含むことができ、ヘッダーは、ベースヘッダー、追加(additional)ヘッダー及び/又はオプショナルヘッダーを含むことができる。追加ヘッダーは、連鎖又は分割などの状況によってさらに追加することができるが、追加ヘッダーには状況に応じて、必要なフィールドを含めることができる。また、追加的な情報の伝達のためにオプショナルヘッダーをさらに追加することもできる。それぞれのヘッダー構造は既に定義されていてもよい。前述したように、入力パケットがTSパケットである場合には、他のパケットとは異なるリンクレイヤヘッダー構造を用いることができる。   The link layer packet may include a header and a payload, and the header may include a base header, an additional header, and / or an optional header. The additional header can be further added depending on circumstances such as chaining or splitting, but the additional header can include necessary fields depending on the situation. In addition, an optional header can be further added for transmitting additional information. Each header structure may already be defined. As described above, when the input packet is a TS packet, a different link layer header structure from other packets can be used.

以下、リンクレイヤシグナリングについて説明する。   Hereinafter, link layer signaling will be described.

リンクレイヤシグナリングは、IPレイヤよりも下位レベルで動作することができる。受信側では、LLS、SLT、SLSなどのIPレベルシグナリングよりもリンクレイヤシグナリングを先に取得することができる。このため、リンクレイヤシグナリングをセッション設定(establishment)の前に取得することができる。   Link layer signaling can operate at a lower level than the IP layer. On the receiving side, link layer signaling can be acquired before IP level signaling such as LLS, SLT, and SLS. Therefore, link layer signaling can be obtained before session establishment (establishment).

リンクレイヤシグナリングには、インターナルリンクレイヤシグナリングとエクスターナルリンクレイヤシグナリングがあり得る。インターナルリンクレイヤシグナリングは、リンクレイヤで生成されたシグナリング情報を意味することができる。前述したRDT又は後述するLMTなどがこれに当たる。エクスターナルリンクレイヤシグナリングは、外部のモジュール又は外部のプロトコル、上位レイヤから伝達されたシグナリング情報であってもよい。リンクレイヤは、リンクレイヤシグナリングをリンクレイヤパケットにエンカプセレーションして伝達することができる。リンクレイヤシグナリングのためのリンクレイヤパケット構造(ヘッダー構造)を定義することができ、この構造によって、リンクレイヤシグナリング情報をエンカプセレーションすることができる。   The link layer signaling may include internal link layer signaling and external link layer signaling. The internal link layer signaling may mean signaling information generated in a link layer. The above-described RDT or LMT described below corresponds to this. The external link layer signaling may be an external module or an external protocol, or signaling information transmitted from an upper layer. The link layer may transmit the link layer signaling by encapsulating the link layer packet. A link layer packet structure (header structure) for link layer signaling can be defined, and this structure allows for encapsulation of link layer signaling information.

図7は、本発明の一実施例に係るLMT(Link Mapping Table)を示す図である。   FIG. 7 is a diagram illustrating an LMT (Link Mapping Table) according to an embodiment of the present invention.

LMTは、PLPで運搬される上位レイヤセッションのリストを提供することができる。また、LMTは、上位レイヤセッションを伝達するリンクレイヤパケットをプロセシングするための追加的な情報を提供することができる。ここで、上位レイヤセッションは、マルチキャスト(multicast)と呼ぶこともできる。LMTから、特定のPLPを介していかなるIPストリーム、いかなる伝送セッションが伝送されているかに関する情報を取得することができる。逆に、特定の伝送セッションがどのPLPで伝達されるかに関する情報も取得することができる。   The LMT may provide a list of higher layer sessions carried on the PLP. Also, the LMT can provide additional information for processing a link layer packet carrying an upper layer session. Here, the upper layer session can also be referred to as multicast. From the LMT, information regarding what IP stream and what transmission session is being transmitted via a specific PLP can be obtained. Conversely, information about which PLP a particular transmission session is conveyed can also be obtained.

LMTは、LLSを運搬するものと識別されたいかなるPLPでも伝達可能である。ここで、LLSが伝達されるPLPは、フィジカルレイヤのL1ディテールシグナリング情報のLLSフラグによって識別され得る。LLSフラグは、それぞれのPLPに対して、当該PLPでLLSが伝達されるか否かを示すフラグフィールドであってもよい。ここで、L1ディテールシグナリング情報は、後述するPLS2データに該当してもよい。   LMT can carry any PLP identified as carrying LLS. Here, the PLP to which the LLS is transmitted can be identified by the LLS flag of the L1 detail signaling information of the physical layer. The LLS flag may be a flag field indicating whether or not the LLS is transmitted to each PLP by the PLP. Here, the L1 detail signaling information may correspond to PLS2 data described later.

すなわち、LMTは、LLSと共に、同じPLPで伝達され得る。それぞれのLMTは、前述したように、PLPとIPアドレス/ポートとの間のマッピングを記述することができる。前述したように、LLSはSLTを含むことができ、LMTが記述するこのIPアドレス/ポートは、当該LMTと同じPLPで伝達されるSLTが記述する、あらゆる(any)サービスと関連するあらゆる(any)IPアドレス/ポートであってもよい。   That is, the LMT may be delivered on the same PLP along with the LLS. Each LMT can describe a mapping between a PLP and an IP address / port, as described above. As described above, the LLS may include an SLT, and the IP address / port described by the LMT may be associated with any service described by the SLT carried on the same PLP as the LMT. ) It may be an IP address / port.

実施例によって、前述したSLT、SLS等におけるPLP識別子情報を用いて、SLT、SLSが示す特定伝送セッションがどのPLPで伝送されているかに関する情報を確認することができる。   According to the embodiment, it is possible to confirm information on which PLP the specific transmission session indicated by the SLT or SLS is transmitted by using the PLP identifier information in the SLT or SLS described above.

他の実施例によって、前述したSLT、SLS等におけるPLP識別子情報は省略され、SLT、SLSが示す特定伝送セッションに対するPLP情報は、LMT内の情報を参照することによって確認することもできる。この場合、受信機は、LMTと他のIPレベルシグナリング情報とを組み合わせて、所望のPLPを識別することができる。この実施例においても、SLT、SLS等におけるPLP情報は省略されず、SLT、SLS等に残っていてもよい。   According to another embodiment, the PLP identifier information in the SLT, the SLS, and the like described above is omitted, and the PLP information for the specific transmission session indicated by the SLT, the SLS can be confirmed by referring to information in the LMT. In this case, the receiver can identify the desired PLP by combining the LMT with other IP level signaling information. Also in this embodiment, the PLP information in the SLT, the SLS, etc. is not omitted and may remain in the SLT, the SLS, etc.

同図の実施例に係るLMTは、signaling_typeフィールド、PLP_IDフィールド、num_sessionフィールド及び/又はそれぞれのセッションに関する情報を含むことができる。同図の実施例のLMTは、1つのPLPに対して、そのPLPで伝送されるIPストリームを記述しているが、実施例によって、LMTにPLPループを追加し、複数個のPLPに関する情報を記述してもよい。この場合、LMTは、前述したように、共に伝達されるSLTが記述するあらゆるサービスと関連するあらゆるIPアドレス/ポートに対するPLPを、PLPループに記述することができる。   The LMT according to the embodiment of the figure may include a signaling_type field, a PLP_ID field, a num_session field, and / or information on each session. In the LMT of the embodiment shown in the figure, an IP stream transmitted by the PLP is described for one PLP. However, according to the embodiment, a PLP loop is added to the LMT, and information on a plurality of PLPs is described. May be described. In this case, as described above, the LMT can describe, in the PLP loop, the PLP for every IP address / port associated with any service described by the SLT conveyed therewith.

signaling_typeフィールドは、当該テーブルによって伝達されるシグナリング情報のタイプを示すことができる。LMTに対するsignaling_typeフィールドの値は、0x01に設定することができる。signaling_typeフィールドは省略されてもよい。PLP_IDフィールドは、記述しようとする対象PLPを識別することができる。PLPループが用いられる場合、それぞれのPLP_IDフィールドは、それぞれの対象PLPを識別することができる。PLP_IDフィールドからはPLPループ内に含まれてもよい。後述するPLP_IDフィールドは、PLPループにおける一つのPLPに対する識別子であり、以下で説明するフィールドは、その当該PLPに対するフィールドであってもよい。   The signaling_type field may indicate a type of signaling information transmitted by the table. The value of the signaling_type field for LMT can be set to 0x01. The signaling_type field may be omitted. The PLP_ID field can identify a target PLP to be described. If a PLP loop is used, each PLP_ID field can identify a respective target PLP. The PLP_ID field may be included in the PLP loop. A PLP_ID field described later is an identifier for one PLP in the PLP loop, and a field described below may be a field for the PLP.

num_sessionフィールドは、当該PLP_IDフィールドによって識別されるPLPで伝達される上位レイヤセッションの個数を示すことができる。num_sessionフィールドが示す個数によって、各セッションに関する情報が含まれてもよい。この情報は、src_IP_addフィールド、dst_IP_addフィールド、src_UDP_portフィールド、dst_UDP_portフィールド、SID_flagフィールド、compressed_flagフィールド、SIDフィールド及び/又はcontext_idフィールドを含むことができる。   The num_session field may indicate the number of upper layer sessions transmitted by the PLP identified by the PLP_ID field. Depending on the number indicated by the num_session field, information on each session may be included. This information may include a src_IP_add field, dst_IP_add field, src_UDP_port field, dst_UDP_port field, SID_flag field, compressed_flag field, SID field and / or context_id field.

src_IP_addフィールド、dst_IP_addフィールド、src_UDP_portフィールド及びdst_UDP_portフィールドは、当該PLP_IDフィールドによって識別されるPLPで伝達される上位レイヤセッションのうち、当該伝送セッションに対するソースIPアドレス、デスティネーションIPアドレス、ソースUDPポート、デスティネーションUDPポートを示すことができる。   The src_IP_add field, dst_IP_add field, src_UDP_port field, and dst_UDP_port field are a source IP address, a destination IP address, a source UDP port, and a destination for the transmission session among upper layer sessions transmitted by the PLP identified by the PLP_ID field. The UDP port can be indicated.

SID_flagフィールドは、当該伝送セッションを伝達するリンクレイヤパケットがそのオプショナルヘッダーにSIDフィールドを有するか否かを示すことができる。上位レイヤセッションを伝達するリンクレイヤパケットは、そのオプショナルヘッダーにSIDフィールドを有することができ、そのSIDフィールドの値は後述するLMT内のSIDフィールドと同一であってもよい。   The SID_flag field may indicate whether a link layer packet transmitting the transmission session has an SID field in an optional header. A link layer packet carrying an upper layer session may have an SID field in its optional header, and the value of the SID field may be the same as the SID field in the LMT described below.

compressed_flagフィールドは、当該伝送セッションを伝達するリンクレイヤパケットのデータにヘッダーコンプレッションが適用されたか否かを示すことができる。また、本フィールドの値によって、後述するcontext_idフィールドの存否が決定されてもよい。ヘッダーコンプレッションが適用された場合(compressed_flag=1)、RDTが存在し得、そのRDTのPLP IDフィールドは、本compressed_flagフィールドに関連する当該PLP_IDフィールドと同じ値を有することができる。   The compressed_flag field may indicate whether header compression has been applied to the data of the link layer packet transmitting the transmission session. Further, the presence or absence of a context_id field described later may be determined based on the value of this field. If header compression is applied (compressed_flag = 1), an RDT may be present, and the PLP ID field of the RDT may have the same value as the PLP_ID field associated with this compressed_flag field.

SIDフィールドは、当該伝送セッションを伝達するリンクレイヤパケットに対するSID(sub stream ID)を示すことができる。このリンクレイヤパケットは、そのオプショナルヘッダーに本SIDフィールドと同一の値を有するSIDを含んでいてもよい。これを通じて、受信機は、リンクレイヤパケットを全部パーシングする必要がなく、LMTの情報及びリンクレイヤパケットヘッダーのSID情報を用いて、リンクレイヤパケットをフィルタリングすることができる。   The SID field may indicate a SID (substream ID) for a link layer packet transmitting the transmission session. This link layer packet may include an SID having the same value as the actual SID field in the optional header. Accordingly, the receiver does not need to parse the entire link layer packet, and can filter the link layer packet using the LMT information and the SID information of the link layer packet header.

context_idフィールドは、RDT内のCID(context id)に対するリファレンスを提供することができる。RDTのCID情報は、該当する圧縮IPパケットストリームに対するコンテクストIDを示すことができる。RDTは、該当する圧縮IPパケットストリームに対するコンテクスト情報を提供することができる。本フィールドによってRDTとLMTとが関連付けられてもよい。   The context_id field may provide a reference to a CID (context id) in the RDT. The CID information of the RDT may indicate a context ID for the corresponding compressed IP packet stream. The RDT can provide context information for a corresponding compressed IP packet stream. This field may associate the RDT with the LMT.

前述した、本発明のシグナリング情報/テーブルの実施例において、それぞれのフィールド、エレメント、属性を省略したり他のフィールドに置き換えてもよく、実施例によって、更なるフィールド、エレメント、属性を追加してもよい。   In the signaling information / table embodiment of the present invention described above, each field, element, and attribute may be omitted or replaced with another field. Depending on the embodiment, additional fields, elements, and attributes may be added. Is also good.

本発明の一実施例で、一つのサービスのサービスコンポーネントを複数個のROUTEセッションで伝達することができる。この場合、SLTのブートストラップ情報を用いてSLSを取得することができる。このSLSのUSBDを用いてS−TSIDとMPDをリファレンシングすることができる。S−TSIDは、SLSを伝達しているROUTEセッションだけでなく、サービスコンポーネントを伝達している他のROUTEセッションに対する伝送セッションデスクリプション情報も記述することができる。これによって、複数個のROUTEセッションで伝達されるサービスコンポーネントを全て収集することができる。このような事項は、一つのサービスのサービスコンポーネントが複数個のMMTPセッションで伝達される場合にも同様に適用することができる。参考として、1つのサービスコンポーネントが複数個のサービスによって同時に用いられてもよい。   In one embodiment of the present invention, a service component of one service can be transmitted through a plurality of ROUTE sessions. In this case, the SLS can be obtained using the bootstrap information of the SLT. S-TSID and MPD can be referred to using the SLS USBD. The S-TSID can describe not only the ROUTE session carrying the SLS, but also the transmission session description information for another ROUTE session carrying the service component. Accordingly, all service components transmitted in a plurality of ROUTE sessions can be collected. Such a matter can be similarly applied to a case where a service component of one service is transmitted through a plurality of MMTP sessions. For reference, one service component may be used simultaneously by multiple services.

本発明の他の実施例で、ESGサービスに対するブートストラピングは放送網又はブロードバンドで行われてもよい。ブロードバンドを介してESGを取得し、SLTのURL情報を活用することができる。このURLにESG情報などを要求することができる。   In another embodiment of the present invention, bootstrapping for the ESG service may be performed on a broadcast network or broadband. An ESG can be obtained via broadband, and URL information of the SLT can be used. ESG information or the like can be requested from this URL.

本発明の他の実施例で、一つのサービスのいずれか一つのサービスコンポーネントは放送網で、いずれか他のサービスコンポーネントはブロードバンドで伝達することができる(ハイブリッド)。S−TSIDは、放送網で伝達されるコンポーネントについて記述して、ROUTEクライアントが所望のサービスコンポーネントを取得できるようにする。また、USBDは、ベースパターン情報を有しており、どのセグメントが(どのコンポーネントが)どの経路で伝達されるかを記述することができる。したがって、受信機は、これを用いて、ブロードバンドサーバーに要求すべきセグメント、及び放送ストリームから見つけるべきセグメントを識別することができる。   In another embodiment of the present invention, any one service component of one service can be transmitted over a broadcast network, and any other service component can be transmitted over a broadband (hybrid). The S-TSID describes a component transmitted in a broadcast network so that a ROUTE client can obtain a desired service component. Further, the USBD has base pattern information, and can describe which segment (which component) is transmitted by which path. Thus, the receiver can use this to identify the segment to request from the broadband server and the segment to find from the broadcast stream.

本発明の他の実施例で、サービスに対するスケーラブル(scalable)コーディングを行うこともできる。USBDは、当該サービスをレンダリングするために必要な全てのキャパビリティ情報を有することができる。例えば、一つのサービスがHD又はUHDで提供される場合、USBDのキャパビリティ情報は、“HD又はUHD”値を有することができる。受信機は、MPDから、UHD又はHDサービスをレンダリングするためにはどのコンポーネントを再生しなければならないかが分かる。   In another embodiment of the present invention, scalable coding for a service may be performed. The USBD can have all the capability information needed to render the service. For example, when one service is provided in HD or UHD, the capability information of the USB may have an “HD or UHD” value. The receiver knows from the MPD which components must be played in order to render a UHD or HD service.

本発明の他の実施例で、SLSを伝達するLCTチャネルで伝達されるLCTパケットのTOIフィールドから、当該LCTパケットがどのSLSフラグメントを伝達しているか(USBD、S−TSID、MPDなど)を識別することができる。   According to another embodiment of the present invention, a TOI field of an LCT packet transmitted on an LCT channel transmitting an SLS identifies which SLS fragment (USBD, S-TSID, MPD, etc.) the LCT packet transmits. can do.

本発明の他の実施例で、アプリベースのエンハンスメント/アプリベースのサービスに用いられるアプリコンポーネントを、NRTコンポーネントとして放送網で伝達されたり、又はブロードバンドで伝達してもよい。また、アプリベースのエンハンスメントに対するアプリシグナリングは、SLSと共に伝達されるAST(Application Signaling Table)によって行われてもよい。また、アプリが行う動作に対するシグナリングであるイベントは、SLSと共にEMT(Event Message Table)の形態で伝達されたり、MPD内にシグナルされたり、DASHリプレゼンテーション内にbox形態でインバンド(in−band)シグナルされてもよい。AST、EMTなどはブロードバンドを介して伝達されてもよい。収集されたアプリコンポーネントとこのようなシグナリング情報を用いてアプリベースのエンハンスメントなどを提供することができる。   In another embodiment of the present invention, an application component used for application-based enhancement / application-based service may be transmitted as an NRT component over a broadcast network or over a broadband. The application signaling for the application-based enhancement may be performed by an AST (Application Signaling Table) transmitted together with the SLS. In addition, an event, which is signaling for an operation performed by the application, is transmitted in the form of an EMT (Event Message Table) together with the SLS, is signaled in the MPD, or is in-band in the box form in the DASH representation. May be signaled. AST, EMT, etc. may be transmitted via broadband. An application-based enhancement can be provided using the collected application components and such signaling information.

本発明の他の実施例で、緊急警報のためにCAPメッセージを前述のLSテーブルに含めて提供することができる。緊急警報のためのリーチメディア(Rich Media)コンテンツも提供することができる。リーチメディアは、CAPメッセージによってシグナルすることができ、リーチメディアが存在する場合、これは、SLTによってシグナルされるEASサービスとして提供することができる。   In another embodiment of the present invention, a CAP message for an emergency alert may be provided in the LS table described above. Rich Media content for emergency alerts can also be provided. The reach media can be signaled by a CAP message, and if reach media is present, it can be provided as an EAS service signaled by the SLT.

本発明の他の実施例で、MMTプロトコルによってリニアサービスコンポーネントを放送網を介して伝達することができる。この場合、当該サービスに対するNRTデータ(例えば、アプリコンポーネント)をROUTEプロトコルによって放送網で伝達することができる。また、当該サービスに対するデータをブロードバンドで伝達することができる。受信機は、SLTのブートストラップ情報を用いてSLSを伝達するMMTPセッションに接近することができる。MMTによるSLSのUSBDは、MPテーブルをリファレンシングして、受信機がMMTプロトコルによって伝達されるMPUにフォーマットされたリニアサービスコンポーネントを取得できるようにする。また、USBDは、S−TSIDをさらにリファレンシングして、受信機がROUTEプロトコルによって伝達されるNRTデータを取得するようにしてもよい。また、USBDは、MPDをさらにリファレンシングして、ブロードバンドを介して伝達されるデータに対する再生デスクリプションを提供することができる。   In another embodiment of the present invention, the linear service component can be transmitted via a broadcast network according to the MMT protocol. In this case, NRT data (for example, an application component) for the service can be transmitted over a broadcast network by the ROUTE protocol. In addition, data for the service can be transmitted over broadband. The receiver can access the MMTP session carrying the SLS using the SLT bootstrap information. The MMT SLS USBD refers to the MP table so that the receiver can obtain the MPU formatted linear service component conveyed by the MMT protocol. The USBD may further refer to the S-TSID so that the receiver acquires the NRT data transmitted by the ROUTE protocol. Also, the USBD can further refer to the MPD to provide a playback description for data transmitted over broadband.

本発明の他の実施例で、受信機はそのコンパニオンデバイスに、ストリーミングコンポーネント及び/又はファイルコンテンツアイテム(ファイルなど)を取得できるロケーションURL情報を、ウェブソケットなどの方法で伝達することができる。コンパニオンデバイスのアプリケーションはこのURLにHTTP GETなどを用いて要求して該当のコンポーネント、データなどを取得することができる。その他にも、受信機はシステムタイム情報、緊急警報情報などの情報をコンパニオンデバイス側に伝達することができる。   In another embodiment of the present invention, the receiver may communicate to its companion device location URL information from which streaming components and / or file content items (such as files) can be obtained, such as through a web socket. The application of the companion device can request the URL using HTTP GET or the like to acquire the corresponding component, data, and the like. In addition, the receiver can transmit information such as system time information and emergency alert information to the companion device.

図8は、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置の構造を示す。   FIG. 8 illustrates a structure of a broadcast signal transmitting apparatus for a next-generation broadcast service according to an embodiment of the present invention.

本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置は、インプットフォーマットブロック(Input Format block)1000、BICM(bit interleaved coding & modulation)ブロック1010、フレームビルディングブロック(Frame building block)1020、OFDM(orthogonal frequency division multiplexing)生成ブロック(OFDM generation block)1030、及びシグナリング生成ブロック1040を含むことができる。放送信号送信装置の各ブロックの動作について説明する。   An apparatus for transmitting a broadcast signal for a next-generation broadcasting service according to an embodiment of the present invention includes an input format block (Input Format block) 1000, a BICM (bit interleaved coding & modulation) block 1010, a frame building block (Frame building block) 1020, An orthogonal frequency division multiplexing (OFDM) generation block (OFDM generation block) 1030 and a signaling generation block 1040 may be included. The operation of each block of the broadcast signal transmitting device will be described.

本発明の一実施例に係る入力データは、IPストリーム/パケット及びMPEG2−TSが主な入力フォーマットであり得、他のストリームタイプは一般ストリームとして扱われる。   The input data according to one embodiment of the present invention may be an IP stream / packet and an MPEG2-TS as a main input format, and other stream types are treated as general streams.

インプットフォーマットブロック1000は、それぞれの入力ストリームを独立したコーディング及び変調が適用される1つ又は多数のデータパイプに逆多重化することができる。データパイプは、ロバスト性(robustness)の制御のための基本単位であり、これは、QoS(Quality of Service)に影響を及ぼす。1つ又は多数のサービス又はサービスコンポーネントが一つのデータパイプによって伝達されてもよい。データパイプは、1つ又は多数のサービス又はサービスコンポーネントを伝達できるサービスデータ又は関連メタデータを伝達する物理層(physical layer)での論理チャネルである。   The input format block 1000 may demultiplex each input stream into one or multiple data pipes to which independent coding and modulation is applied. A data pipe is a basic unit for robustness control, which affects QoS (Quality of Service). One or many services or service components may be conveyed by one data pipe. A data pipe is a logical channel in a physical layer that carries service data or related metadata that can carry one or multiple services or service components.

QoSが、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置によって提供されるサービスの特性に依存するため、それぞれのサービスに該当するデータは、互いに異なる方式を用いて処理されなければならない。   Since the QoS depends on the characteristics of the service provided by the broadcasting signal transmitting apparatus for the next generation broadcasting service according to an embodiment of the present invention, data corresponding to each service must be processed using different methods. Must.

BICMブロック1010は、MIMOが適用されないプロファイル(又はシステム)に適用される処理ブロック、及び/又はMIMOが適用されるプロファイル(又はシステム)の処理ブロックを含むことができ、それぞれのデータパイプを処理するための複数の処理ブロックを含むことができる。   The BICM block 1010 may include processing blocks applied to a profile (or system) to which MIMO is not applied, and / or processing blocks of a profile (or system) to which MIMO is applied, and processes respective data pipes. A plurality of processing blocks.

MIMOが適用されないBICMブロックの処理ブロックは、データFECエンコーダ、ビットインタリーバ、コンステレーションマッパー(mapper)、SSD(signal space diversity)エンコーディングブロック、及びタイムインタリーバを含むことができる。MIMOが適用されるBICMブロックの処理ブロックは、セルワードデマルチプレクサ及びMIMOエンコーディングブロックをさらに含むという点で、MIMOが適用されないBICMの処理ブロックと区別される。   A processing block of a BICM block to which MIMO is not applied may include a data FEC encoder, a bit interleaver, a constellation mapper, a signal space diversity (SSD) encoding block, and a time interleaver. The processing block of the BICM block to which MIMO is applied is distinguished from the processing block of BICM to which MIMO is not applied in that it further includes a cell word demultiplexer and a MIMO encoding block.

データFECエンコーダは、外部コーディング(BCH)及び内部コーディング(LDPC)を用いてFECBLOCK手順を生成するために、入力BBFにFECエンコーディングを実行する。外部コーディング(BCH)は選択的なコーディング方法である。ビットインタリーバは、データFECエンコーダの出力をインタリーブして、LDPCコード及び変調方式の組み合わせにより最適化された性能を達成することができる。コンステレーションマッパーは、QPSK、QAM−16、不均一QAM(NUQ−64、NUQ−256、NUQ−1024)又は不均一コンステレーション(NUC−16、NUC−64、NUC−256、NUC−1024)を用いて、ビットインタリーバ又はセルワードデマルチプレクサからのセルワードを変調して、電力が正規化されたコンステレーションポイントを提供することができる。NUQが任意の形状を有する反面、QAM−16及びNUQは正方形の形状を有することが観察される。NUQ及びNUCはいずれも各コードレート(code rate)に対して特別に定義され、PLS2データのパラメータDP_MODによってシグナリングされる。タイムインタリーバは、データパイプレベルで動作することができる。タイムインタリービングのパラメータは、それぞれのデータパイプに対して異ならせて設定されてもよい。   The data FEC encoder performs FEC encoding on the input BBF to generate a FECBLOCK procedure using outer coding (BCH) and inner coding (LDPC). Outer coding (BCH) is a selective coding method. The bit interleaver can interleave the output of the data FEC encoder to achieve optimized performance with a combination of LDPC code and modulation scheme. The constellation mapper maps QPSK, QAM-16, non-uniform QAM (NUQ-64, NUQ-256, NUQ-1024) or non-uniform constellation (NUC-16, NUC-64, NUC-256, NUC-1024). Can be used to modulate a cell word from a bit interleaver or cell word demultiplexer to provide a power normalized constellation point. While NUQ has an arbitrary shape, it is observed that QAM-16 and NUQ have a square shape. Both NUQ and NUC are specially defined for each code rate and are signaled by the PLS2 data parameter DP_MOD. The time interleaver can operate at the data pipe level. The time interleaving parameter may be set differently for each data pipe.

本発明のタイムインタリーバは、BICMチェーン(BICM chain)ブロックとフレームビルダー(Frame Builder)との間に位置し得る。この場合、本発明のタイムインタリーバは、PLP(Physical Layer Pipe)モードに応じて、コンボリューションインタリーバ(Convolution Interleaver、CI)とブロックインタリーバ(Block Interleaver、BI)を選択的に使用してもよく、両方とも使用してもよい。本発明の一実施例に係るPLPは、上述したDPと同じ概念で使用されるフィジカルパス(physical path)であって、呼称は設計者の意図によって変更可能である。本発明の一実施例に係るPLPモードは、放送信号送信機又は放送信号送信装置で処理するPLPの個数に応じて、シングルPLP(single PLP)モード又はマルチプルPLP(multiple PLP)モードを含むことができる。本発明では、PLPモードに応じて互いに異なるタイムインタリービング方法を適用するタイムインタリービングを、ハイブリッドタイムインタリービング(Hybrid Time Interleaving)と呼ぶことができる。   The time interleaver of the present invention may be located between a BICM chain block and a frame builder. In this case, the time interleaver of the present invention may selectively use a convolution interleaver (Convolution Interleaver, CI) and a block interleaver (Block Interleaver, BI) according to a PLP (Physical Layer Pipe) mode. You may use with. The PLP according to an embodiment of the present invention is a physical path used in the same concept as the above-described DP, and its name can be changed according to a designer's intention. The PLP mode according to an embodiment of the present invention may include a single PLP (single PLP) mode or a multiple PLP (multiple PLP) mode according to the number of PLPs processed by the broadcast signal transmitter or the broadcast signal transmitter. it can. In the present invention, time interleaving that applies different time interleaving methods according to the PLP mode can be referred to as hybrid time interleaving (Hybrid Time Interleaving).

ハイブリッドタイムインタリーバは、ブロックインタリーバ(BI)及びコンボリューションインタリーバ(CI)を含むことができる。PLP_NUM=1である場合、ブロックインタリーバは適用されず(ブロックインタリーバオフ(off))、コンボリューションインタリーバのみが適用される。PLP_NUM>1である場合、ブロックインタリーバ及びコンボリューションインタリーバが両方とも適用(ブロックインタリーバオン(on))されてもよい。PLP_NUM>1である場合に適用されるコンボリューションインタリーバの構造及び動作は、PLP_NUM=1である場合に適用されるコンボリューションインタリーバの構造及び動作と異なってもよい。ハイブリッドタイムデインターリーバは、上述したハイブリッドタイムインタリーバの逆動作に相応する動作を行うことができる。   The hybrid time interleaver may include a block interleaver (BI) and a convolution interleaver (CI). If PLP_NUM = 1, the block interleaver is not applied (block interleaver off (off)) and only the convolution interleaver is applied. If PLP_NUM> 1, both the block interleaver and the convolution interleaver may be applied (block interleaver on). The structure and operation of the convolution interleaver applied when PLP_NUM> 1 may be different from the structure and operation of the convolution interleaver applied when PLP_NUM = 1. The hybrid time deinterleaver can perform an operation corresponding to the inverse operation of the hybrid time interleaver described above.

セルワードデマルチプレクサは、MIMO処理のために、単一のセルワードストリームを二重セルワードストリームに分離するのに用いられる。MIMOエンコーディングブロックは、MIMOエンコーディング方式を用いてセルワードデマルチプレクサの出力を処理することができる。本発明のMIMOエンコーディング方式は、受信機側での比較的小さい複雑度の増加で容量増加を提供するためのFR−SM(full−rate spatial multiplexing)として定義できる。MIMO処理はデータパイプレベルで適用される。コンステレーションマッパー出力のペア(pair、対)であるNUQ(e1,i及びe2,i)は、MIMOエンコーダの入力として供給されると、MIMOエンコーダ出力ペア(pair、対)(g1,i及びg2,i)は、それぞれの送信アンテナの同じキャリアk及びOFDMシンボルlによって伝送される。   Cell word demultiplexers are used to separate a single cell word stream into a dual cell word stream for MIMO processing. The MIMO encoding block can process the output of the cell word demultiplexer using the MIMO encoding scheme. The MIMO encoding scheme of the present invention can be defined as full-rate spatial multiplexing (FR-SM) for providing a capacity increase with a relatively small increase in complexity at the receiver side. MIMO processing is applied at the data pipe level. NUQ (e1, i and e2, i), which is a pair of constellation mapper outputs, is provided as an input of a MIMO encoder, and outputs a MIMO encoder output pair (pair, pair) (g1, i and g2). , I) are transmitted by the same carrier k and OFDM symbol l of each transmit antenna.

フレームビルディングブロック1020は、一つのフレーム内で入力データパイプのデータセルをOFDMシンボルにマッピングし、周波数領域ダイバーシチのために周波数インタリービングを行うことができる。   The frame building block 1020 may map data cells of an input data pipe to OFDM symbols in one frame and perform frequency interleaving for frequency domain diversity.

本発明の一実施例に係るフレームは、プリアンブル、1つ以上のFSS(frame signaling symbol)、ノーマルデータシンボルに分離される。プリアンブルは、信号の効率的な送信及び受信のための基本伝送パラメータの集合を提供する特別なシンボルである。プリアンブルは、フレームの基本伝送パラメータ及び伝送タイプをシグナリングすることができる。特に、プリアンブルは、EAS(emergency alert service)が現フレームに提供されるか否かを示すことができる。FSSの主な目的はPLSデータを伝達することである。高速同期化及びチャネル推定、PLSデータの高速デコーディングのために、FSSは、ノーマルデータシンボルよりも高密度のパイロットパターンを有する。   A frame according to an embodiment of the present invention is separated into a preamble, one or more frame signaling symbols (FSS), and normal data symbols. A preamble is a special symbol that provides a set of basic transmission parameters for efficient transmission and reception of a signal. The preamble may signal basic transmission parameters and transmission type of the frame. In particular, the preamble may indicate whether an emergency alert service (EAS) is provided for the current frame. The main purpose of FSS is to convey PLS data. For fast synchronization and channel estimation, fast decoding of PLS data, FSS has a denser pilot pattern than normal data symbols.

フレームビルディングブロックは、データパイプと該当するPLSデータとの間のタイミングを調節して、送信機側でデータパイプと該当するPLSデータとの間の同時性(co−time)を保障するためのディレイコンペンセーション(delay compensation、遅延補償)ブロック、PLS、データパイプ、補助ストリーム、及びダミーセルなどをフレーム内でOFDMシンボルのアクティブ(active)キャリアにマッピングするためのセルマッパー(cell mapper)、及び周波数インタリーバ(frequency interleaver)を含むことができる。   The frame building block adjusts a timing between the data pipe and the corresponding PLS data, and a delay for ensuring co-time between the data pipe and the corresponding PLS data at the transmitter side. A cell mapper for mapping compensation compensation (delay compensation) blocks, PLS, data pipes, auxiliary streams, dummy cells, and the like to an active carrier of an OFDM symbol in a frame, and a frequency interleaver (frequency) interleaver).

周波数インタリーバは、セルマッパーから受信されたデータセルをランダムにインタリーブして周波数ダイバーシチを提供することができる。また、周波数インタリーバは、単一のフレームで最大のインタリービング利得を得るために、異なるインタリービングシード(seed)順序を用いて、2つの順次的なOFDMシンボルで構成されたOFDMシンボルペア(pair、対)に対応するデータ又は一つのOFDMシンボルに対応するデータに対して動作することができる。   The frequency interleaver may randomly interleave data cells received from the cell mapper to provide frequency diversity. Also, the frequency interleaver uses two different OFDM symbols using different interleaving seed order to obtain the maximum interleaving gain in a single frame. The OFDM symbol pair (pair, It can operate on data corresponding to (pair) or data corresponding to one OFDM symbol.

OFDM生成ブロック1030は、フレームビルディングブロックによって生成されたセルによってOFDMキャリアを変調し、パイロットを挿入し、伝送のための時間領域信号を生成する。また、当該ブロックは、順次にガードインターバルを挿入し、PAPR減少処理を適用して最終RF信号を生成する。   An OFDM generation block 1030 modulates the OFDM carrier with the cells generated by the frame building block, inserts pilots, and generates a time-domain signal for transmission. In addition, the block sequentially inserts a guard interval and applies a PAPR reduction process to generate a final RF signal.

シグナリング生成ブロック1040は、各機能ブロックの動作に用いられる物理層(physical layer)シグナリング情報を生成することができる。本発明の一実施例に係るシグナリング情報はPLSデータを含むことができる。PLSは、受信機で物理層(physical layer)データパイプに接続できる手段を提供する。PLSデータはPLS1データ及びPLS2データで構成される。   The signaling generation block 1040 may generate physical layer signaling information used for the operation of each functional block. The signaling information according to an embodiment of the present invention may include PLS data. PLS provides a means by which a receiver can connect to a physical layer data pipe. PLS data is composed of PLS1 data and PLS2 data.

PLS1データは、PLS2データをデコードするのに必要なパラメータだけでなく、システムに関する基本情報を伝達する固定されたサイズ、コーディング、変調を有するフレームにおいてFSSで伝達されるPLSデータの1番目の集合である。PLS1データは、PLS2データの受信及びデコーディングを可能にするのに要求されるパラメータを含む基本送信パラメータを提供する。PLS2データは、データパイプ及びシステムに関するさらに詳細なPLSデータを伝達し、FSSで伝送されるPLSデータの2番目の集合である。さらに、PLS2シグナリングは、PLS2スタティック(static、静的)データ(PLS2−STATデータ)、及びPLS2ダイナミック(dynamic、動的)データ(PLS2−DYNデータ)の2種類のパラメータで構成される。PLS2スタティック(static、静的)データは、フレームグループのデュレーションの間にスタティック(static、静的)なPLS2データであり、PLS2ダイナミック(dynamic、動的)データは、フレーム毎にダイナミック(dynamic、動的)に変化するPLS2データである。   PLS1 data is the first set of PLS data transmitted in the FSS in a frame having a fixed size, coding, and modulation that conveys basic information about the system as well as the parameters needed to decode the PLS2 data. is there. PLS1 data provides basic transmission parameters, including those required to enable reception and decoding of PLS2 data. PLS2 data conveys more detailed PLS data about data pipes and systems, and is the second set of PLS data transmitted on the FSS. Further, PLS2 signaling is composed of two types of parameters: PLS2 static data (PLS2-STAT data) and PLS2 dynamic data (PLS2-DYN data). PLS2 static data is PLS2 data that is static during the duration of a frame group, and PLS2 dynamic data is dynamic for each frame. PLS2 data that changes in the target.

PLS2データはFIC_FLAG情報を含むことができる。FIC(Fast Information Channel)は、速いサービス取得及びチャネルスキャン(fast service acquisition and channel scanning)を可能にするクロスレイヤ(cross−layer)情報を伝送するための専用チャネル(dedicated channel)である。FIC_FLAG情報は、1ビットのフィールドであって、FIC(fast information channel、高速情報チャネル)が現フレームグループで用いられるか否かを示す。当該フィールドの値が1に設定されると、FICは現フレームで提供される。当該フィールドの値が0に設定されると、FICは現フレームで伝達されない。BICMブロック1010は、PLSデータの保護のためのBICMブロックを含むことができる。PLSデータの保護のためのBICMブロックは、PLS FECエンコーダ、ビットインタリーバ、及びコンステレーションマッパーを含むことができる。   PLS2 data may include FIC_FLAG information. The FIC (Fast Information Channel) is a dedicated channel for transmitting cross-layer information that enables fast service acquisition and channel scanning (fast service acquisition and channel scanning). The FIC_FLAG information is a 1-bit field, and indicates whether or not an FIC (fast information channel) is used in the current frame group. When the value of this field is set to 1, FIC is provided in the current frame. If the value of this field is set to 0, FIC will not be transmitted in the current frame. The BICM block 1010 may include a BICM block for protecting PLS data. A BICM block for protection of PLS data may include a PLS FEC encoder, a bit interleaver, and a constellation mapper.

PLS FECエンコーダは、PLS1データ及びPLS2データをスクランブルするためのスクランブラ、PLS保護のためのショートニングされたBCHコードを用いてスクランブルされたPLS1,2データに外部エンコーディングを行い、BCHエンコーディング後にゼロビットを挿入するためのBCHエンコーディング/ゼロ挿入ブロック、LDPCコードを用いてエンコーディングを行うためのLDPCエンコーディングブロック、及びLDPCパリティパンクチャリング(puncturing)ブロックを含むことができる。PLS1データに対してのみ、ゼロ挿入の出力ビットがLDPCエンコーディングの前にパーミュテーション(permutation)され得る。ビットインタリーバは、それぞれのショートニング及びパンクチャリングされたPLS1データ及びPLS2データをインタリーブし、コンステレーションマッパーは、ビットインタリーブされたPLS1データ及びPLS2データをコンステレーションにマッピングすることができる。   The PLS FEC encoder externally encodes PLS1 and PLS2 data scrambled using a scrambler for scrambling PLS1 data and PLS2 data and a shortened BCH code for PLS protection, and inserts zero bits after BCH encoding. And an LDPC encoding block for performing encoding using an LDPC code, and an LDPC parity puncturing block. For PLS1 data only, the output bits of the zero insertion can be permutated before LDPC encoding. The bit interleaver interleaves the respective shortened and punctured PLS1 and PLS2 data, and the constellation mapper maps the bit-interleaved PLS1 and PLS2 data to a constellation.

本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置は、図8を参照して説明した次世代放送サービスに対する放送信号送信装置の逆過程を行うことができる。   The apparatus for receiving a broadcast signal for a next-generation broadcast service according to an embodiment of the present invention may perform the reverse process of the apparatus for transmitting a broadcast signal for a next-generation broadcast service described with reference to FIG.

本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置は、放送信号送信装置によって行われる手順の逆過程に該当する復調を行う同期及び復調モジュール(synchronization & demodulation module)、入力信号フレームをパーシングし、ユーザによって選択されたサービスが伝送されるデータを抽出するフレームパーシングモジュール(frame parsing module)、入力信号をビット領域データに変換した後、必要によってビット領域データをデインタリーブし、伝送効率のために適用されたマッピングに対するデマッピングを行い、デコーディングを介して伝送チャネルで発生した誤りを訂正するデマッピング及びデコーディングモジュール(demapping & decoding module)、放送信号送信装置によって適用される様々な圧縮/信号処理手順の逆過程を行う出力プロセッサ(output processor)、及び同期及び復調モジュールによって復調された信号からPLS情報を取得、処理するシグナリングデコーディングモジュール(signaling decoding module)を含むことができる。フレームパーシングモジュール、デマッピング及びデコーディングモジュール、及び出力プロセッサは、シグナリングデコーディングモジュールから出力されたPLSデータを用いてその機能を実行することができる。   A broadcast signal receiving apparatus for a next-generation broadcast service according to an embodiment of the present invention includes a synchronization and demodulation module for performing demodulation corresponding to a reverse process of a procedure performed by the broadcast signal transmitting apparatus, and an input signal frame. And a frame parsing module for extracting data for transmitting a service selected by the user, converting an input signal into bit-domain data, de-interleaving the bit-domain data if necessary, and improving transmission efficiency. A demapping and decoding module (demapping) for performing a demapping on a mapping applied for and correcting an error occurring in a transmission channel through decoding. And decoding module), an output processor for performing an inverse process of various compression / signal processing procedures applied by a broadcast signal transmitting apparatus, and PLS information obtained and processed from a signal demodulated by a synchronization and demodulation module. A signaling decoding module may be included. The frame parsing module, the demapping and decoding module, and the output processor can perform their functions using the PLS data output from the signaling decoding module.

以下、タイムインタリーバを説明する。本発明の一実施例に係るタイムインタリービンググループは、一つのフレームに直接マッピングされるか、またはPI個のフレームにわたって拡散される。また、それぞれのタイムインタリービンググループは、一つ以上(NTI個)のタイムインタリービングブロックに分離される。ここで、それぞれのタイムインタリービングブロックは、タイムインタリーバメモリの一つの使用に該当する。タイムインタリービンググループ内のタイムインタリービングブロックは、互いに異なる個数のXFECBLOCKを含むことができる。一般に、タイムインタリーバは、フレーム生成過程の前にデータパイプデータに対するバッファとしても機能することができる。   Hereinafter, the time interleaver will be described. The time interleaving group according to an embodiment of the present invention is directly mapped to one frame or spread over PI frames. Also, each time interleaving group is divided into one or more (NTI) time interleaving blocks. Here, each time interleaving block corresponds to one use of a time interleaver memory. The time interleaving blocks in the time interleaving group may include different numbers of XFECBLOCKs. In general, the time interleaver can also function as a buffer for data pipe data before the frame generation process.

本発明の一実施例に係るタイムインタリーバは、ツイストされた行−列ブロックインタリーバである。本発明の一実施例に係るツイストされた行−列ブロックインタリーバは、1番目のXFECBLOCKをタイムインタリービングメモリの1番目の列に列方向に書き込み、2番目のXFECBLOCKは、次の列に書き込み、同じ方式でタイムインタリービングブロック内の残りのXFECBLOCKを書き込むことができる。そして、インタリービングアレイにおいて、セルは、1番目の行から(最も左側の列から始まって行に沿って右側に)最後の行まで対角線方向に読み取られ得る。この場合、タイムインタリービングブロック内のXFECBLOCKの個数に関係なく受信機側で単一のメモリデインタリービングを達成するために、ツイストされた行−列ブロックインタリーバ用インタリービングアレイは、仮想XFECBLOCKをタイムインタリービングメモリに挿入することができる。この場合、受信機側で単一のメモリデインタリービングを達成するために、仮想XFECBLOCKは、他のXFECBLOCKの最も前に挿入されなければならない。   The time interleaver according to one embodiment of the present invention is a twisted row-column block interleaver. The twisted row-column block interleaver according to one embodiment of the present invention writes the first XFECBLOCK in the first column of the time interleaving memory in the column direction, the second XFECBLOCK writes the next column, The remaining XFEBLOCK in the time interleaving block can be written in the same manner. Then, in the interleaving array, the cells can be read diagonally from the first row (starting from the leftmost column to the right along the row) to the last row. In this case, in order to achieve a single memory deinterleaving at the receiver side irrespective of the number of XFECBLOCKs in the time interleaving block, the interleaving array for the twisted row-column block interleaver uses the virtual XFECBLOCK to time. It can be inserted into an interleaving memory. In this case, a virtual XFECBLOCK must be inserted before other XFECBLOCKs to achieve single memory deinterleaving at the receiver side.

図9は、本発明の一実施例に係るタイムインタリーバの書き込み(writing)動作を示す。   FIG. 9 illustrates a writing operation of a time interleaver according to an embodiment of the present invention.

図中の左側に示されたブロックはTIメモリアドレスアレイ(memory address array)を示し、図中の右側に示されたブロックは、連続した2つのTIグループに対して、それぞれ仮想(virtual)FECブロックがTIグループの最も前にそれぞれ2個及び1個が挿入された場合の書き込み(writing)動作を示す。   The block shown on the left side of the figure shows a TI memory address array, and the block shown on the right side of the figure shows a virtual FEC block for two consecutive TI groups, respectively. Shows a writing operation when two and one are inserted at the forefront of the TI group, respectively.

本発明の一実施例に係る周波数インタリーバは、シンボルペアに対応するデータに適用するためのインタリービングアドレスを生成するためのインタリービングアドレス生成器を含むことができる。   The frequency interleaver according to an embodiment of the present invention may include an interleaving address generator for generating an interleaving address to be applied to data corresponding to the symbol pair.

図10は、本発明の一実施例に係る周波数インタリーバに含まれた各FFTモードによるメインPRBS生成器とサブPRBS生成器で構成されたインタリービングアドレス生成器のブロックダイヤグラムを示す図である。   FIG. 10 is a block diagram of an interleaving address generator including a main PRBS generator and a sub-PRBS generator in each FFT mode included in a frequency interleaver according to an embodiment of the present invention.

(a)は、8K FFTモードに対するインタリービングアドレス生成器のブロックダイヤグラムを示し、(b)は、16K FFTモードに対するインタリービングアドレス生成器のブロックダイヤグラムを示し、(c)は、32K FFTモードに対するインタリービングアドレス生成器のブロックダイヤグラムを示す。   (A) shows a block diagram of the interleaving address generator for the 8K FFT mode, (b) shows a block diagram of the interleaving address generator for the 16K FFT mode, and (c) shows an interleaving address generator for the 32K FFT mode. 3 shows a block diagram of a leaving address generator.

OFDMシンボルペアに対するインタリービング過程は、一つのインタリービングシーケンスを用い、次のように説明される。まず、一つのOFDMシンボルOm,lでインタリーブされる利用可能なデータセル(セルマッパーからの出力セル)は、l=0,…,Nsym−1に対してOm,l=[xm,l,0,…,xm,l,p,…,xm,l,Ndata−1]として定義される。このとき、xm,l,pは、m番目のフレームでl番目のOFDMシンボルのp番目のセルであり、Ndataは、データセルの個数である。フレームシグナリングシンボルに対してNdata=CFSSであり、ノーマルデータに対してNdata=Cdataであり、フレームエッジシンボルに対してNdata=CFESである。また、インタリーブされたデータセルは、l=0,…,Nsym−1に対してPm,l=[vm,l,0,…,vm,l,Ndata−1]として定義される。   The interleaving process for an OFDM symbol pair uses one interleaving sequence and is described as follows. First, available data cells (output cells from the cell mapper) interleaved with one OFDM symbol Om, l are Om, l = [xm, l, 0, for l = 0,..., Nsym-1. , Xm, l, p, ..., xm, l, Ndata-1]. At this time, xm, l, and p are the p-th cell of the l-th OFDM symbol in the m-th frame, and Ndata is the number of data cells. Ndata = CFSS for frame signaling symbols, Ndata = Cdata for normal data, and Ndata = CFES for frame edge symbols. Also, the interleaved data cells are defined as Pm, l = [vm, l, 0, ..., vm, l, Ndata-1] for l = 0, ..., Nsym-1.

OFDMシンボルペアに対して、インタリーブされたOFDMシンボルペアは、各ペアの1番目のOFDMシンボルに対してvm,l,Hi(p)=xm,l,p,p=0,…,Ndata−1として与えられ、各ペアの2番目のOFDMシンボルに対してvm,l,p=xm,l,Hi(p),p=0,…,Ndata−1として与えられる。このとき、Hl(p)は、PRBS生成器及びサブPRBS生成器の巡回シフト値(シンボルオフセット)に基づいて生成されたインタリービングアドレスである。   For an OFDM symbol pair, the interleaved OFDM symbol pair is vm, l, Hi (p) = xm, l, p, p = 0, ..., Ndata-1 for the first OFDM symbol of each pair. ., Ndata-1 for the second OFDM symbol of each pair, vm, l, p = xm, l, Hi (p), p = 0, ..., Ndata-1. At this time, Hl (p) is an interleaving address generated based on the cyclic shift value (symbol offset) of the PRBS generator and the sub-PRBS generator.

図11は、本発明の一実施例に係るハイブリッド放送受信装置を示す図である。   FIG. 11 is a diagram illustrating a hybrid broadcast receiving apparatus according to one embodiment of the present invention.

ハイブリッド放送システムは、地上波放送網及びインターネット網を連動して放送信号を送信することができる。ハイブリッド放送受信装置は、地上波放送網(ブロードキャスト)及びインターネット網(ブロードバンド)を介して放送信号を受信することができる。ハイブリッド放送受信装置は、フィジカルレイヤモジュール、フィジカルレイヤI/Fモジュール、サービス/コンテンツ取得コントローラ、インターネットアクセス制御モジュール、シグナリングデコーダ、サービスシグナリングマネジャー、サービスガイドマネジャー、アプリケーションシグナリングマネジャー、警報信号マネジャー、警報信号パーサー、ターゲッティング信号パーサー、ストリーミングメディアエンジン、非リアルタイムファイルプロセッサ、コンポーネントシンクロナイザ、ターゲッティングプロセッサ、アプリケーションプロセッサ、A/Vプロセッサ、デバイスマネジャー、データシェアリング及びコミュニケーションユニット、再分配モジュール、コンパニオンデバイス及び/又は外部モジュールを含むことができる。   The hybrid broadcast system can transmit a broadcast signal in conjunction with a terrestrial broadcast network and the Internet network. The hybrid broadcast receiving apparatus can receive a broadcast signal via a terrestrial broadcast network (broadcast) and an Internet network (broadband). The hybrid broadcast receiving apparatus includes a physical layer module, a physical layer I / F module, a service / content acquisition controller, an Internet access control module, a signaling decoder, a service signaling manager, a service guide manager, an application signaling manager, an alarm signal manager, and an alarm signal parser. , Targeting signal parser, streaming media engine, non-real-time file processor, component synchronizer, targeting processor, application processor, A / V processor, device manager, data sharing and communication unit, redistribution module, companion device and / or external module. To include It can be.

フィジカルレイヤモジュール(Physical Layer Module(s))は、地上波放送チャネルを介して放送関連信号を受信及び処理し、これを適切な形態に変換してフィジカルレイヤI/Fモジュールに伝達することができる。   A Physical Layer Module (s) receives and processes a broadcast-related signal through a terrestrial broadcast channel, converts the signal into an appropriate form, and transmits the converted signal to a physical layer I / F module. .

フィジカルレイヤI/Fモジュール(Physical Layer I/F Module(s))は、フィジカルレイヤモジュールから取得した情報からIPデータグラムを取得することができる。また、フィジカルレイヤI/Fモジュールは、取得されたIPデータグラムなどを特定のフレーム(例えば、RS Frame、GSEなど)に変換することができる。   The physical layer I / F module (Physical Layer I / F Module (s)) can acquire an IP datagram from information acquired from the physical layer module. Further, the physical layer I / F module can convert the acquired IP datagram or the like into a specific frame (for example, RS Frame, GSE, or the like).

サービス/コンテンツ取得コントローラ(Service/Content Acquisition Controller)は、ブロードキャスト(broadcast)及び/又はブロードバンド(broadband)チャネルを介したサービス、コンテンツ及びこれに関連するシグナリングデータの取得のための制御動作を行うことができる。   The Service / Content Acquisition Controller may perform a control operation for acquiring a service, a content, and signaling data related thereto via a broadcast and / or a broadband channel. it can.

インターネットアクセス制御モジュール(Internet Access Control Module(s))は、ブロードバンドチャネルを介してサービス、コンテンツなどを取得するための受信機の動作を制御することができる。   An Internet Access Control Module (s) can control the operation of a receiver for acquiring services, contents, and the like via a broadband channel.

シグナリングデコーダ(Signaling Decoder)は、ブロードキャストチャネルなどを介して取得したシグナリング情報をデコードすることができる。   A signaling decoder (Signaling Decoder) can decode the signaling information obtained via a broadcast channel or the like.

サービスシグナリングマネジャー(Service Signaling Manager)は、IPデータグラムなどからサービススキャン及びサービス/コンテンツなどに関連するシグナリング情報を抽出、パーシング及び管理することができる。   A service signaling manager can extract, parse and manage signaling information related to service scanning and services / contents from IP datagrams and the like.

サービスガイドマネジャー(Service Guide Manager)は、IPデータグラムなどからアナウンス(announcement)情報を抽出し、SG(Service Guide)データベース(database)を管理し、サービスガイドを提供することができる。   A service guide manager can extract announcement information from IP datagrams and the like, manage a service guide (SG) database (database), and provide a service guide.

アプリケーションシグナリングマネジャー(App Signaling Manager)は、IPデータグラムなどからアプリケーション取得などに関連するシグナリング情報を抽出、パーシング及び管理することができる。   An application signaling manager can extract, parse, and manage signaling information related to application acquisition from IP datagrams and the like.

警報信号パーサー(Alert Signaling Parser)は、IPデータグラムなどから警報(alerting)に関連するシグナリング情報を抽出、パーシング及び管理することができる。   An alert signaling parser can extract, parse, and manage signaling information related to alerting from an IP datagram or the like.

ターゲッティング信号パーサー(Targeting Signaling Parser)は、IPデータグラムなどからサービス/コンテンツの個人化あるいはターゲッティングに関連するシグナリング情報を抽出、パーシング及び管理することができる。また、ターゲッティング信号パーサーは、パーシングされたシグナリング情報をターゲッティングプロセッサに伝達することができる。   A targeting signal parser can extract, parse, and manage signaling information related to personalization or targeting of a service / content from an IP datagram or the like. Further, the targeting signal parser may transmit the parsed signaling information to the targeting processor.

ストリーミングメディアエンジン(Streaming Media Engine)は、IPデータグラムなどからA/Vストリーミングのためのオーディオ/ビデオデータを抽出及びデコードすることができる。   A streaming media engine can extract and decode audio / video data for A / V streaming from an IP datagram or the like.

非リアルタイムファイルプロセッサ(Non−real time File Processor)は、IPデータグラムなどからNRTデータ及びアプリケーション(application)などのファイル形態のデータを抽出、デコーディング、及び管理することができる。   2. Description of the Related Art A non-real time file processor may extract, decode, and manage NRT data and data in a file format such as an application from an IP datagram.

コンポーネントシンクロナイザ(Component Synchronizer)は、ストリーミングオーディオ/ビデオデータ及びNRTデータなどのコンテンツ及びサービスを同期化することができる。   A component synchronizer (Component Synchronizer) can synchronize content and services such as streaming audio / video data and NRT data.

ターゲッティングプロセッサ(Targeting Processor)は、ターゲッティング信号パーサーから受信したターゲッティングシグナリングデータに基づいてサービス/コンテンツの個人化関連演算を処理することができる。   The targeting processor may process a service / content personalization-related operation based on the targeting signaling data received from the targeting signal parser.

アプリケーションプロセッサ(App Processor)は、アプリケーション関連情報、ダウンロードされたアプリケーションの状態及びディスプレイパラメータを処理することができる。   An application processor (App Processor) can process application related information, downloaded application status, and display parameters.

A/Vプロセッサ(A/V Processor)は、デコードされたオーディオ及びビデオデータ、アプリケーションデータなどに基づいてオーディオ/ビデオレンダリング関連動作を行うことができる。   An A / V processor may perform an operation related to audio / video rendering based on decoded audio and video data, application data, and the like.

デバイスマネジャー(Device Manager)は、外部装置との接続及びデータ交換動作を行うことができる。また、デバイスマネジャーは、連動可能な外部装置の追加/削除/更新など、外部装置に対する管理動作を行うことができる。   A device manager can perform connection and data exchange operations with external devices. Also, the device manager can perform management operations on the external device, such as addition / deletion / update of the external device that can be linked.

データシェアリング及びコミュニケーションユニット(Data Sharing & Comm.)は、ハイブリッド放送受信機と外部装置との間のデータ伝送及び交換に関連する情報を処理することができる。ここで、伝送及び交換可能なデータはシグナリング、A/Vデータなどであり得る。   The data sharing and communication unit (Data Sharing & Comm.) Can process information related to data transmission and exchange between the hybrid broadcast receiver and an external device. Here, the data that can be transmitted and exchanged may be signaling, A / V data, and the like.

再分配モジュール(Redistribution Module(s))は、放送受信機が地上波放送信号を直接受信できない場合、次世代放送サービス及びコンテンツに対する関連情報を取得することができる。また、再分配モジュールは、放送受信機が地上波放送信号を直接受信できない場合、次世代放送システムによる放送サービス及びコンテンツ取得をサポートすることができる。   A redistribution module (s) can acquire information related to next-generation broadcasting services and contents when a broadcast receiver cannot directly receive a terrestrial broadcast signal. In addition, the redistribution module can support a broadcast service and content acquisition by a next-generation broadcast system when a broadcast receiver cannot directly receive a terrestrial broadcast signal.

コンパニオンデバイス(Companion device(s))は、本発明の放送受信機に接続されて、オーディオ、ビデオ、またはシグナリングを含むデータを共有することができる。コンパニオンデバイスは、放送受信機と接続された外部装置を指すことができる。   A companion device (s) is connected to the broadcast receiver of the present invention and can share data including audio, video, or signaling. A companion device can refer to an external device connected to a broadcast receiver.

外部モジュール(External Management)は、放送サービス/コンテンツの提供のためのモジュールを指すことができ、例えば、次世代放送サービス/コンテンツサーバーであってもよい。外部モジュールは、放送受信機と接続された外部装置を指すことができる。   The external module may refer to a module for providing a broadcast service / content, and may be, for example, a next-generation broadcast service / content server. The external module may refer to an external device connected to the broadcast receiver.

図12は、本発明の一実施例に係るDASHベースの適応型(Adaptive)ストリーミングモデルの全般的な動作を示した図である。   FIG. 12 is a diagram illustrating an overall operation of a DASH-based adaptive streaming model according to an embodiment of the present invention.

本発明は、HDR(High Dynamic Range)をサポートできるコンテンツを提供する次世代メディアサービス提供方案を提案する。豊かな明るさの表現が可能なHDRコンテンツが提供される場合において、本発明は、これに関連するメタデータ及びその伝達方案を提案する。これを通じて、コンテンツの様々な場面別の特性に応じて適応的にコンテンツを調整することができ、コンテンツを改善された画質で提供することができる。   The present invention proposes a next-generation media service providing method for providing contents capable of supporting HDR (High Dynamic Range). When HDR content capable of expressing rich brightness is provided, the present invention proposes related metadata and a transmission method thereof. Accordingly, the content can be adaptively adjusted according to various scene-specific characteristics of the content, and the content can be provided with improved image quality.

UHD放送などの場合、既存のコンテンツが表現できなかった明るさを表現できるため、高度の臨場感を提供することができる。HDRの導入でコンテンツ映像の明るさの表現範囲が増加して、コンテンツの場面別特性の差が以前よりも大きくなり得る。コンテンツの場面別特徴を効果的にディスプレイに示すために、メタデータが定義され、これらが受信機に伝達され得る。受信機では、伝達されたメタデータに基づいて、サービスプロバイダの意図に従ってコンテンツの映像を適切に提供することができる。   In the case of UHD broadcasting or the like, since the brightness that existing content could not be expressed can be expressed, a high sense of realism can be provided. With the introduction of HDR, the range of expressing the brightness of the content image may be increased, and the difference between the scene-specific characteristics of the content may be larger than before. To effectively show the scene-specific features of the content on the display, metadata can be defined and these can be communicated to the receiver. The receiver can appropriately provide the video of the content according to the service provider's intention based on the transmitted metadata.

図示された実施例に係るDASHベースの適応型ストリーミングモデルは、HTTPサーバーとDASHクライアントとの間の動作を記述している。ここで、DASH(Dynamic Adaptive Streaming over HTTP)は、HTTPベースの適応型ストリーミングをサポートするためのプロトコルであって、ネットワークの状況に応じて動的にストリーミングをサポートすることができる。これによって、AVコンテンツの再生が途切れることなく提供され得る。   The DASH-based adaptive streaming model according to the illustrated embodiment describes the operation between an HTTP server and a DASH client. Here, DASH (Dynamic Adaptive Streaming over HTTP) is a protocol for supporting HTTP-based adaptive streaming, and can dynamically support streaming according to network conditions. Thus, reproduction of AV content can be provided without interruption.

まず、DASHクライアントはMPDを取得することができる。MPDは、HTTPサーバーなどのサービスプロバイダから伝達され得る。MPDは、前述したデリバリの実施例に従って伝達されてもよい。DASHクライアントは、MPDに記述されたセグメントへの接近情報を用いてサーバーに当該セグメントを要求することができる。ここで、この要求は、ネットワークの状態を反映して行われ得る。   First, the DASH client can obtain the MPD. The MPD may be communicated from a service provider, such as an HTTP server. The MPD may be delivered according to the delivery embodiments described above. The DASH client can request the segment from the server using the access information to the segment described in the MPD. Here, this request can be made reflecting the state of the network.

DASHクライアントは、当該セグメントを取得した後、これをメディアエンジンで処理して画面にディスプレイすることができる。DASHクライアントは、再生時間及び/又はネットワークの状況などをリアルタイムに反映して、必要なセグメントを要求、取得することができる(Adaptive Streaming)。これを通じて、コンテンツが途切れることなく再生され得る。   After acquiring the segment, the DASH client can process the segment with the media engine and display the segment on the screen. The DASH client can request and acquire a necessary segment by reflecting a reproduction time and / or a network condition in real time (Adaptive Streaming). Through this, the content can be reproduced without interruption.

MPD(Media Presentation Description)は、DASHクライアントがセグメントを動的に取得できるようにするための詳細情報を含むファイルであって、XMLの形態で表現されてもよい。このMPDは、実施例によって、前述したMPDと同一であってもよい。   An MPD (Media Presentation Description) is a file including detailed information for enabling a DASH client to dynamically acquire a segment, and may be expressed in an XML format. This MPD may be the same as the above-described MPD depending on the embodiment.

DASHクライアントコントローラ(DASH Client Controller)は、ネットワークの状況を反映して、MPD及び/又はセグメントを要求するコマンドを生成することができる。また、このコントローラは、取得された情報をメディアエンジンなどの内部ブロックで利用可能なように制御することができる。   The DASH Client Controller can generate a command for requesting an MPD and / or a segment, reflecting the status of the network. Further, the controller can control the acquired information so that it can be used in an internal block such as a media engine.

MPDパーサー(Parser)は、取得したMPDをリアルタイムでパーシングすることができる。これを通じて、DASHクライアントコントローラは、必要なセグメントを取得できるコマンドを生成できるようになる。   The MPD parser can parse the obtained MPD in real time. Through this, the DASH client controller can generate a command that can acquire a required segment.

セグメントパーサー(Parser)は、取得したセグメントをリアルタイムでパーシングすることができる。セグメントに含まれた情報によって、メディアエンジンなどの内部ブロックは特定の動作を行うことができる。   The segment parser (Parser) can parse the acquired segment in real time. Depending on the information included in the segment, an internal block such as a media engine can perform a specific operation.

HTTPクライアントは、必要なMPD及び/又はセグメントなどをHTTPサーバーに要求することができる。また、HTTPクライアントは、サーバーから取得したMPD及び/又はセグメントをMPDパーサー又はセグメントパーサーに伝達することができる。   The HTTP client can request the necessary MPD and / or segment from the HTTP server. In addition, the HTTP client can transmit the MPD and / or the segment obtained from the server to the MPD parser or the segment parser.

メディアエンジン(Media Engine)は、セグメントに含まれたメディアデータを用いてコンテンツを画面上に表示することができる。このとき、MPDの情報が活用され得る。   A media engine may display content on a screen using media data included in a segment. At this time, the information of the MPD can be used.

図13は、本発明の一実施例に係る受信機のブロックダイヤグラムを示した図である。   FIG. 13 is a diagram showing a block diagram of a receiver according to one embodiment of the present invention.

図示された実施例に係る受信機は、チューナー(Tuner)、フィジカルレイヤコントローラ(Physical Layer Controller)、フィジカルフレームパーサー(Physical Frame Parser)、リンクレイヤフレームプロセッサ(Link Layer Frame Processor)、IP/UDPデータグラムフィルター(IP/UDP Datagram Filter)、DTVコントロールエンジン(DTV Control Engine)、ROUTEクライアント(Route Client)、セグメントバッファコントロール(Segment Buffer Control)、MMTクライアント(MMT Client)、MPUリコンストラクション(MPU reconstruction)、メディアプロセッサ(Media Processor)、シグナリングパーサー(Signaling Parser)、DASHクライアント(DASH Client)、ISO BMFFパーサー(ISO BMFF Parser)、メディアデコーダ(Media Decoder)及び/又はHTTPアクセスクライアント(HTTP Access Client)を含むことができる。受信機の各細部ブロック(block)は、ハードウェアであるプロセッサであってもよい。   The receiver according to the illustrated embodiment includes a tuner (Tuner), a physical layer controller (Physical Layer Controller), a physical frame parser (Physical Frame Parser), a link layer frame processor (Link Layer Frame Processor), and IP / UDP data. Filter (IP / UDP Datagram Filter), DTV Control Engine (DTV Control Engine), ROUTE Client (Route Client), Segment Buffer Control (Segment Buffer Control), MMT Client (MMT Client), MPU Reconstruction (MPU Reconstruction) structure, Media Processor, Signaling Parser, DASH Client (DASH Client), ISO BMFF Parser (ISO BMFF Parser), Media Decoder (Media Decoder) and / or HTTP Access Client (HTPent Ace Client) Can be included. Each detail block of the receiver may be a processor which is hardware.

チューナーは、地上波放送チャネルを介して放送信号を受信及び処理し、これを適切な形態(Physical Frameなど)に変換することができる。フィジカルレイヤコントローラは、受信しようとする放送チャネルのRF情報などを用いて、チューナー、フィジカルフレームパーサーなどの動作を制御することができる。フィジカルフレームパーサーは、受信されたフィジカルフレームをパーシングし、これと関連するプロセッシングを通じてリンクレイヤフレームなどを取得することができる。   The tuner can receive and process a broadcast signal via a terrestrial broadcast channel and convert it into a suitable form (such as a Physical Frame). The physical layer controller can control operations of a tuner, a physical frame parser, and the like using RF information of a broadcast channel to be received. The physical frame parser parses the received physical frame and obtains a link layer frame and the like through processing associated therewith.

リンクレイヤフレームプロセッサは、リンクレイヤフレームからリンクレイヤシグナリングなどを取得するか、またはIP/UDPデータグラムを取得し、関連する演算を行うことができる。IP/UDPデータグラムフィルターは、受信されたIP/UDPデータグラムから特定のIP/UDPデータグラムをフィルタリングすることができる。DTVコントロールエンジンは、各構成間のインターフェースを担当し、パラメータなどの伝達を通じて各構成の動作を制御することができる。   The link layer frame processor may obtain link layer signaling or the like from the link layer frame, or may obtain IP / UDP datagrams and perform related operations. The IP / UDP datagram filter may filter a specific IP / UDP datagram from the received IP / UDP datagram. The DTV control engine is responsible for an interface between the components, and can control the operation of each component through transmission of parameters and the like.

ROUTEクライアントは、リアルタイムオブジェクト伝送をサポートするROUTE(Real−Time Object Delivery over Unidirectional Transport)パケットを処理し、多数のパケットを収集及び処理して一つ以上のISOBMFF(ISO Base Media File Format)オブジェクトを生成することができる。セグメントバッファコントロールは、ROUTEクライアントとDashクライアントとの間のセグメント(segment)伝送に関連するバッファを制御することができる。   The ROUTE client processes a ROTE (Real-Time Object Delivery over Unidirectional Transport) packet that supports real-time object transmission, collects and processes a large number of packets, and generates one or more ISOBMFF (ISO Base Media File) object. can do. The segment buffer control can control a buffer related to a segment transmission between the ROUTE client and the Dash client.

MMTクライアントは、リアルタイムオブジェクト伝送をサポートするMMT(MPEG Media Transport)伝送プロトコルパケットを処理し、多数のパケットを収集及び処理することができる。MPUリコンストラクションは、MMTPパケットからMPU(Media Processing Unit)を再構成することができる。メディアプロセッサは、再構成されたMPUを収集し、処理することができる。   The MMT client processes an MMT (MPEG Media Transport) transmission protocol packet that supports real-time object transmission, and can collect and process a large number of packets. The MPU reconstruction can reconstruct an MPU (Media Processing Unit) from an MMTP packet. The media processor can collect and process the reconstructed MPU.

シグナリングパーサーは、DTV放送サービス関連シグナリング(Link Layer/ Service Layer Signaling)を取得及びパーシングし、これに基づいてチャネルマップなどを生成及び/又は管理することができる。この構成は、ローレベルシグナリング及びサービスレベルシグナリングを処理することができる。   The signaling parser may obtain and parse DTV broadcast service related signaling (Link Layer / Service Layer Signaling), and generate and / or manage a channel map and the like based on the obtained information. This configuration can handle low level signaling and service level signaling.

DASHクライアントは、リアルタイムストリーミングあるいは適応的ストリーミング関連演算及び取得したDASHセグメントなどを処理することができる。ISO BMFFパーサーは、ISO BMFFオブジェクトからオーディオ/ビデオのデータ及び関連パラメータなどを抽出することができる。メディアデコーダは、受信されたオーディオ及びビデオデータをデコーディング及び/又はプレゼンテーション(presentation)処理することができる。HTTPアクセスクライアントは、HTTPサーバーから特定の情報を要求し、要求に対する応答を処理することができる。   The DASH client can process real-time streaming or adaptive streaming related operations and acquired DASH segments. The ISO BMFF parser can extract audio / video data and related parameters from the ISO BMFF object. The media decoder may decode and / or present the received audio and video data. An HTTP access client can request certain information from an HTTP server and process a response to the request.

本発明は、豊かな明るさの表現が可能なHDR(High Dynamic Range)コンテンツが提供されるとき、コンテンツ内に含まれた様々な場面の特性に対して適応的にコンテンツを調整できる要素を受信機に伝送することによって、改善された画質の映像にコンテンツを変換し、表現できる方法を提供することができる。UHD放送では、既存のコンテンツで表現できなかった明るさを表現することによって、既存の放送との差別性を提供し、高度の臨場感を提供することができる。HDR(high dynamic range)の導入を通じて、映像の明るさの表現範囲が増加することによって、コンテンツ内に含まれた場面間の特性の差が以前よりも大きくなり得る。これによって、放送送信装置は、各場面の特徴を効果的にディスプレイに示すための情報を追加的に提供し、受信装置は、伝送された情報に基づいて映像効果を提供することによって、制作者が意図した方向に適した方法で映像を表現することができる。   According to the present invention, when HDR (High Dynamic Range) content capable of expressing rich brightness is provided, an element capable of adaptively adjusting the content according to characteristics of various scenes included in the content is received. By transmitting the content to a device, it is possible to provide a method for converting and expressing the content into a video having improved image quality. In UHD broadcasting, by expressing brightness that could not be expressed by existing content, discrimination from existing broadcasting can be provided, and a high sense of realism can be provided. Through the introduction of high dynamic range (HDR), the range of expressing the brightness of an image increases, so that a difference in characteristics between scenes included in content may be greater than before. Accordingly, the broadcast transmitting apparatus may additionally provide information for effectively displaying the characteristics of each scene on a display, and the receiving apparatus may provide a video effect based on the transmitted information, thereby providing a creator. Can express a video in a method suitable for the intended direction.

UHD放送は、様々な方法を通じて、既存のHD放送に比べて向上した画質及び没入感を視聴者に提供することができる。そのための方法の一つとして、UHD放送は、コンテンツで表現する明るさの表現及び色相の表現の範囲を実際に人間の視覚系で認知可能な明るさ及び色相の範囲に拡張する方法を提供することができる。すなわち、UHDコンテンツに対してHDR(high dynamic range)及びWCG(wide color gamut)を適用することができる。すなわち、コンテンツで向上した高コントラスト及び色感を提供することによって、UHDコンテンツを鑑賞するユーザは、さらに大きな没入感及び臨場感を経験するようになる。本発明では、コンテンツをディスプレイで再生するとき、効果的に制作者の意図などによって映像の明るさ及び色感を再生できる方法を提示することによって、ユーザがより向上した画質の映像を視聴できるようにする。   UHD broadcasting can provide viewers with improved image quality and immersion compared to existing HD broadcasting through various methods. As one of the methods, UHD broadcasting provides a method of extending the range of the brightness expression and the hue expression represented by the content to the range of the brightness and the hue that can be actually recognized by the human visual system. be able to. That is, HDR (high dynamic range) and WCG (wide color gap) can be applied to UHD content. In other words, by providing enhanced high contrast and color sensation in the content, the user viewing the UHD content will experience a greater immersion and realism. According to the present invention, when a content is reproduced on a display, a method for effectively reproducing the brightness and color of the video according to the intention of the creator or the like is provided, so that the user can view the video with improved image quality. To

図14は、本発明の一実施例に係るメタデータベースのHDR放送サービスを制作、再生する装置を示した図である。HDRビデオ制作装置は、キャプチャー/フィルムスキャナー101、ポストプロダクションブロック(マスタリング部)102及び/又はエンコーダ/マルチプレクサ103のうちの少なくとも1つを含むことができる。HDRビデオ再生装置は、デマルチプレクサ104、デコーダ105、メタデータプロセッサ106、ポストプロセッサ107、シンクロナイザ108及び/又はディスプレイ109のうちの少なくとも1つを含むことができる。図面では、ビデオストリームに含まれて受信されるメタデータを示したが、本発明のメタデータは、放送信号だけでなく、他の経路(例えば、IPベースの放送/通信、有/無線通信、有/無線インターフェース、近距離無線通信など)でも送受信され得る。   FIG. 14 is a diagram illustrating an apparatus for creating and reproducing an HDR broadcast service of a meta database according to an embodiment of the present invention. The HDR video production device may include at least one of a capture / film scanner 101, a post-production block (mastering unit) 102, and / or an encoder / multiplexer 103. The HDR video playback device may include at least one of a demultiplexer 104, a decoder 105, a metadata processor 106, a post processor 107, a synchronizer 108, and / or a display 109. In the drawings, the metadata included and received in the video stream is shown. However, the metadata of the present invention includes not only a broadcast signal but also other routes (for example, IP-based broadcast / communication, wired / wireless communication, (Wired / wireless interface, short-range wireless communication, etc.).

HDRビデオ制作装置のキャプチャー/フィルムスキャナー101は、天然色で構成されたシーン(natural scene)をデジタルイメージに変換することができる。例えば、キャプチャー/フィルムスキャナーは、ビデオカメラ、カメラ、スキャナーなどの光学イメージをデジタルイメージに変換する装置であってもよい。キャプチャー/フィルムスキャナー101は、光学イメージをセンシングしてロー(Raw)HDR(High Dynamic Range)ビデオを出力することができる。   The capture / film scanner 101 of the HDR video production device can convert a natural scene composed of natural colors into a digital image. For example, a capture / film scanner may be a device that converts an optical image to a digital image, such as a video camera, camera, scanner, or the like. The capture / film scanner 101 can output an HDR (High Dynamic Range) video by sensing an optical image.

ポストプロダクションブロック(マスタリング部)102は、ロー(Raw)HDRビデオを受信して、マスタリングされたHDRビデオ及びHDRメタデータを出力することができる。ポストプロダクションブロックは、マスタリングディスプレイ情報、視聴環境(viewing condition)情報、カラーエンコーディング情報、色領域(Gamut)マッピング情報、及び/又はDR(dynamic range)情報などを受信してマスタリングを行うことができる。ここで、カラーエンコーディング情報は、例えば、EOTF(electro−optical transfer function)、BT.2020を例に挙げることができる。   The post-production block (mastering unit) 102 can receive the raw HDR video and output the mastered HDR video and HDR metadata. The post-production block may receive mastering display information, viewing condition information, color encoding information, color gamut mapping information, and / or DR (dynamic range) information, and perform mastering. Here, the color encoding information includes, for example, EOTF (electro-optical transfer function), BT. 2020 as an example.

エンコーダ/マルチプレクサ103は、少なくとも1つ以上のマスタリングされたHDRビデオ及びHDRメタデータをエンコードし、多重化することができる。   The encoder / multiplexer 103 can encode and multiplex at least one or more mastered HDR videos and HDR metadata.

HDRビデオ再生装置のデマルチプレクサ104は、HDRストリームを受信して逆多重化することができる。一つのHDRストリームには複数のコンテンツが含まれ得、デマルチプレクサは、デコーディングの対象であるHDRストリームをデコーダに出力することができる。   The demultiplexer 104 of the HDR video playback device can receive and demultiplex the HDR stream. One HDR stream may include a plurality of contents, and the demultiplexer may output an HDR stream to be decoded to a decoder.

デコーダ105は、HDRストリームを受信してデコーディングを行うことができる。この過程でデコーダは、デコードされたHDRビデオ及びHDRメタデータを出力することができる。デコードされたHDRビデオはポストプロセッサに出力され、HDRメタデータはメタデータプロセッサに出力され得る。   The decoder 105 can receive the HDR stream and perform decoding. In this process, the decoder can output the decoded HDR video and HDR metadata. The decoded HDR video may be output to a post processor, and the HDR metadata may be output to a metadata processor.

メタデータプロセッサ106は、HDRメタデータを受信して格納することができる。メタデータプロセッサは、HDRメタデータ内に含まれたセット(set)ナンバー又はバージョンナンバーを確認して、格納されたHDRメタデータに対する変更があるかを確認し、変更がある場合、既存のHDRメタデータをアップデートすることができる。メタデータプロセッサは、シンクロナイザから受信されるタイミング情報に従ってHDRメタデータをポストプロセッサに出力することができる。   The metadata processor 106 can receive and store HDR metadata. The metadata processor checks a set number or a version number included in the HDR metadata to determine whether there is a change to the stored HDR metadata, and if there is a change, the existing HDR metadata. Data can be updated. The metadata processor can output HDR metadata to the post-processor according to the timing information received from the synchronizer.

ポストプロセッサ107は、メタデータプロセッサから受信したHDRメタデータを用いて、デコーダから受信したHDRビデオに対して後処理作業を行うことができる。この過程を通じて、HDRビデオは、HDRメタデータが反映された改善されたHDRビデオに変換され得る。   The post processor 107 can perform post-processing work on the HDR video received from the decoder using the HDR metadata received from the metadata processor. Through this process, the HDR video can be converted into an improved HDR video reflecting the HDR metadata.

シンクロナイザ108は、メタデータプロセッサ及びポストプロセッサにタイミング情報を提供することによって、HDRビデオ全体、または各場面、各ビデオクリップ又は各フレーム別に正確な時点でメタデータが適用されるようにすることができる。ここで、メタデータは、マスタリングディスプレイ(mastering display)に関する情報を示してもよく、チャネル(channel)、プログラム(program)、コンテンツ(content)の単位で共通に適用される情報、または連続した場面、ビデオクリップ、フレームのそれぞれに適用される情報を意味してもよい。   The synchronizer 108 can provide timing information to the metadata processor and post-processor so that the metadata is applied at the exact moment for the entire HDR video or for each scene, each video clip or each frame. . Here, the metadata may indicate information on a mastering display, information commonly applied in units of a channel, a program, a content, or a continuous scene, It may mean information applied to each of a video clip and a frame.

HDRディスプレイ109は、改善されたHDRビデオをディスプレイしてユーザに提供することができる。   The HDR display 109 may display and provide the enhanced HDR video to a user.

図15は、本発明の一実施例に係るHDRビデオに対する受信機の動作方法を示す。本発明では、受信機の動作を主に説明するが、関連シグナルを生成する場合にも同じ事項を考慮し得、プロダクション(production)間の伝達信号及びマスタリング(mastering)信号に対しても適用することができる。また、ソース(source)とシンク(sink)との間の情報伝送の場合にも、本発明で考慮する事項が伝達され得る。   FIG. 15 illustrates an operation method of a receiver for HDR video according to an embodiment of the present invention. In the present invention, the operation of the receiver will be mainly described, but the same matter can be considered when generating a related signal, and the present invention is also applied to a transmission signal between productions and a mastering signal. be able to. Also, in the case of information transmission between a source and a sink, matters to be considered in the present invention can be transmitted.

ビデオストリームが受信されると、受信機は、ビデオデコーダ201を用いてHDRメタデータをHDRビデオ信号から分離して別途のメタデータプロセッサ202に格納することができる。メタデータプロセッサは、メタデータパーサー、メタデータバッファ及びメタデータアップデーターを含むことができる。HDRメタデータは、共通適用情報(common HDR metadata)及び部分適用情報(scene/frame HDR metadata)を含むことができる。共通適用情報は、コンテンツ全般に対して適用可能なメタデータであり、チャネル、プログラム、コンテンツの単位で共通に適用される情報を意味し得る。   When the video stream is received, the receiver can separate the HDR metadata from the HDR video signal using the video decoder 201 and store it in a separate metadata processor 202. The metadata processor may include a metadata parser, a metadata buffer, and a metadata updater. The HDR metadata may include common application information (common HDR metadata) and partial application information (scene / frame HDR metadata). The common application information is metadata that can be applied to the entire content, and may mean information that is commonly applied in units of channels, programs, and contents.

部分適用情報は、コンテンツの一部分に限定して適用可能なメタデータを示すことができ、連続した場面、ビデオクリップまたはフレームのそれぞれに適用される情報を意味し得る。受信機は、再生可能なコンテンツ種類に対する性能を判断した後、受信された共通情報あるいは部分情報をコンテンツに適用してプロセッシングすることができる。HDRビデオを再生できる受信機は、受信されたメタデータを用いてコンテンツを変換することができる。受信機は、プロセッシング作業の後の変換されたコンテンツを最終映像としてディスプレイすることができる。具体的な受信機の動作方法は、次の通りである。   The partial application information may indicate metadata applicable only to a part of the content, and may mean information applied to each of a continuous scene, a video clip, or a frame. After judging the performance for the type of content that can be reproduced, the receiver can apply the received common information or partial information to the content for processing. A receiver that can play HDR video can convert the content using the received metadata. The receiver can display the converted content after the processing operation as a final video. A specific operation method of the receiver is as follows.

第一のステップとして、受信機は、ビデオストリームをデコードし、HDRメタデータを取得することができる。HDRメタデータは、HDRビデオ情報(以下、HDR_info())を意味し得る。受信機は、ビデオストリームから取得したメタデータをメタデータパーサー(metadata parser)202に伝達して分析し、メモリに格納することができる。メタデータは、共通適用情報(common HDR metadata)と部分適用情報(scene/frame HDR metadata)とに区分できる。本発明では、後述するタイプ情報(HDR_info_type)を用いて当該メタデータが適用される範囲を伝達することによって、マスタリングディスプレイに応じてメタデータを適用したり、チャネル、プログラム、コンテンツの単位で共通にメタデータを適用したり、連続した場面、ビデオクリップ、フレームのそれぞれにメタデータを適用したりすることができる。   As a first step, the receiver can decode the video stream and obtain HDR metadata. The HDR metadata may mean HDR video information (hereinafter, HDR_info ()). The receiver may transmit metadata obtained from the video stream to a metadata parser 202, analyze the metadata, and store the metadata in a memory. The metadata can be classified into common application information (common HDR metadata) and partial application information (scene / frame HDR metadata). In the present invention, the range to which the metadata is applied is transmitted by using type information (HDR_info_type) to be described later, so that the metadata is applied according to the mastering display, and the metadata is commonly used in units of channels, programs, and contents. You can apply metadata or apply it to each successive scene, video clip, or frame.

これに加えて、メタデータは、当該メタデータが適用される区間、例えば、当該メタデータと適用される映像フレームをマッチングできる情報を同期化開始情報(sync_start)、同期化区間情報(sync_duration)の形式でさらに含むことができる。   In addition to this, the metadata includes information indicating a section to which the metadata is applied, for example, information capable of matching a video frame to be applied with the synchronization start information (sync_start) and synchronization section information (sync_duration). It can further include in form.

実施例によって、共通適用情報は、例えば、最大最小明るさ又は高コントラストのようにコンテンツ/マスタリングディスプレイ/フレームのダイナミックレンジ(dynamic range)を示すことができる値、EOTFのような変換関数(transfer function)、コンテンツあるいはマスタリングディスプレイの色空間、コンテンツあるいはマスタリングディスプレイの色温度、明るさ範囲変換関数、色空間変換関数及び/又は視聴環境情報のうちの少なくとも1つの情報を含むことができる。   In some embodiments, the common application information may be a value that can indicate a dynamic range of a content / mastering display / frame, such as a maximum / minimum brightness or a high contrast, a transfer function such as EOTF, or the like. ), The color space of the content or the mastering display, the color temperature of the content or the mastering display, the brightness range conversion function, the color space conversion function, and / or the viewing environment information.

本明細書において、コンテンツ/マスタリングディスプレイ/フレームのダイナミックレンジを示すことができる値は、DR情報タイプ(dynamic_range_info_type)及びDRバリュー情報(dynamic_range_info_value[i])を通じて伝送されてもよい。また、EOTFのような変換関数は、変換関数タイプ(transfer_function_type)を通じて伝送されてもよい。コンテンツあるいはマスタリングディスプレイの色空間は、CG情報タイプ(color_gamut_type)を通じて伝送されてもよい。コンテンツあるいはマスタリングディスプレイの色温度は、色温度情報タイプ(color_temperature_type)を通じて伝送されてもよい。明るさ範囲変換関数は、DRマッピング情報タイプ(dynamic_range_mapping_info_type)を通じて伝送されてもよい。色空間変換関数は、CGマッピング情報タイプ(color_gamut_mapping_info_type)を通じて伝送されてもよい。視聴環境情報は、視聴環境情報タイプ(viewing_condition_info_type)を通じて伝送されてもよい。各情報のシンタックス及び含むフィールドについては後述する。   In this specification, a value indicating a dynamic range of content / mastering display / frame may be transmitted through a DR information type (dynamic_range_info_type) and DR value information (dynamic_range_info_value [i]). In addition, a conversion function such as EOTF may be transmitted through a transfer function type (transfer_function_type). The color space of the content or the mastering display may be transmitted through a CG information type (color_gamut_type). The color temperature of the content or the mastering display may be transmitted through a color temperature information type (color_temperature_type). The brightness range conversion function may be transmitted through a DR mapping information type (dynamic_range_mapping_info_type). The color space conversion function may be transmitted through a CG mapping information type (color_gamut_mapping_info_type). The viewing environment information may be transmitted through a viewing environment information type (viewing_condition_info_type). The syntax of each piece of information and the fields it contains will be described later.

部分適用情報は、共通適用情報と同一又は類似の情報を含むことができ、その適用範囲に関する情報を共に含むことができる。部分適用情報は、その適用範囲がコンテンツの一定の部分に限定されているという点でさらに具体的な情報を伝達することができる。例えば、共通適用情報は、コンテンツ全体に適用される明るさ範囲をf−stopや高コントラストのような値として伝達することができる。これに比べて部分適用情報は、フレーム単位に対しては最大最小値を伝達して、さらに具体的な情報を伝達することができる。これを通じて、伝送される適用情報の種類によって、情報伝達範囲を各ステップ別に差等的に適用することができる。同様に、ダイナミックレンジマッピング(dynamic range mapping)の場合、共通適用情報として全般的なコンテンツ変換情報を伝達した後、部分適用情報を通じて場面毎の特徴を生かし得る複雑な変換関数を伝達することができる。   The partial application information may include the same or similar information as the common application information, and may also include information on the applicable range. Partial application information can convey more specific information in that its application range is limited to certain parts of the content. For example, the common application information can transmit a brightness range applied to the entire content as a value such as f-stop or high contrast. On the other hand, the partial application information can transmit more specific information by transmitting the maximum and minimum values for each frame. Through this, the information transmission range can be differentially applied to each step according to the type of applied information to be transmitted. Similarly, in the case of dynamic range mapping, after transmitting general content conversion information as common application information, it is possible to transmit a complex conversion function that can make use of a feature of each scene through partial application information. .

第二のステップとして、受信機は、自身が含むディスプレイがHDRディスプレイであるか否かを決定することができる。受信機は、共通情報を用いて取得したコンテンツに関する情報(又はマスタリングディスプレイに関する情報)に基づいて受信機の再生環境が適しているか否かを決定することができる。例えば、受信機は、上述した共通適用情報を用いることができ、もし、コンテンツ再生環境が適していない場合、SDRディスプレイ、あるいはSDRとHDRとの間の性能に該当するディスプレイを考慮することができる。   As a second step, the receiver can determine whether the display it contains is an HDR display. The receiver can determine whether or not the reproduction environment of the receiver is suitable based on the information on the content acquired using the common information (or the information on the mastering display). For example, the receiver may use the common application information described above, and may consider an SDR display or a display corresponding to the performance between SDR and HDR if the content reproduction environment is not suitable. .

まず、受信機に含まれたディスプレイがSDRディスプレイ又はこれに準ずる性能を有するディスプレイである場合について説明する。受信機のディスプレイがデコードされたHDRコンテンツを完全に再生できないと決定される場合、受信機は、HDRコンテンツを再生しないか、またはコンテンツを再生するための変換を行うことができる。HDRビデオをSDRビデオに変換できる受信機は、受信されたHDRビデオをSDRビデオに変換して再生することができる。そのために、HDRメタデータは、HDRビデオをSDRビデオに変換する変換関数に関する情報を含むことができる。例えば、上述した変換関数に関する情報として、dynamic_range_mapping_info_type又はcolor_gamut_mapping_info_typeなどを使用することができ、HDRメタデータは、必要であれば、当該情報がHDRビデオをSDRビデオに変換する用途に使用されるということを追加的にシグナリングすることができる。   First, a case where the display included in the receiver is an SDR display or a display having performance equivalent thereto will be described. If it is determined that the display of the receiver cannot completely play the decoded HDR content, the receiver may not play the HDR content or perform a conversion to play the content. A receiver that can convert HDR video to SDR video can convert the received HDR video to SDR video and play it. To that end, the HDR metadata may include information about a conversion function that converts HDR video to SDR video. For example, as the information on the above-described conversion function, dynamic_range_mapping_info_type or color_gamut_mapping_info_type may be used, and HDR metadata may be used for converting HDR video to SDR video if necessary. Additional signaling can be provided.

次に、受信機に含まれたディスプレイがHDRディスプレイである場合について説明する。これは、受信機のディスプレイがデコードされたコンテンツを完全に再生可能であると決定される場合に該当する。この場合、HDRメタデータに含まれた共通適用情報を用いてビデオに対する画質改善が可能であり、ダイナミックレンジマッピング(dynamic range mapping)、カラーガマットマッピング(color gamut mapping)、視聴環境マッピング(viewing condition mapping)などを用いて画質改善を行うことができる。実施例によって、共通適用情報を用いたコンテンツ全般に対する画質改善は、後述する第三のステップで部分適用情報の適用が可能な場合、省略されてもよい。また、共通適用情報を用いたビデオに対する画質改善作業は、別途のモジュールを通じて具現してもよく、図16で説明するポストプロセッシング(post processing)モジュールと連携して適用してもよい。   Next, a case where the display included in the receiver is an HDR display will be described. This is the case when it is determined that the display of the receiver can completely play the decoded content. In this case, the image quality of the video can be improved using the common application information included in the HDR metadata, and dynamic range mapping, color gamut mapping, and viewing condition mapping. ) Can be used to improve image quality. According to the embodiment, the image quality improvement for the entire content using the common application information may be omitted when the partial application information can be applied in the third step described later. In addition, the image quality improvement operation on the video using the common application information may be implemented through a separate module, or may be applied in cooperation with a post processing module described with reference to FIG.

第三のステップとして、受信機は、HDRビデオの場面別に画質改善作業を行うことができる。メタデータ情報に基づいて受信機がHDRコンテンツを再生できると決定される場合、受信機は、追加的なHDRメタデータの処理が可能であるかを決定することができる。   As a third step, the receiver can perform an image quality improvement operation for each scene of the HDR video. If it is determined based on the metadata information that the receiver can play HDR content, the receiver can determine whether additional HDR metadata processing is possible.

図15では、場面別(scene−by−scene)(又はクリップ別(clip−by−clip)又はフレーム別(frame−by−frame))の処理を追加で行う場合を例に挙げており、この場合、各場面、クリップ、またはフレームの単位で提供されるメタデータを用いて各コンテンツの場面、ビデオクリップまたはフレーム別にディテールな動的変換を通じて、さらに向上した画質のHDRビデオをディスプレイすることができる。この場合、本発明の一実施例によって、放送送信装置は、HDR_info_typeを用いて、受信機が場面、ビデオクリップまたはフレーム単位の情報が伝送されることをSEI(supplemental enhancement information)メッセージ内で識別するようにすることができる。また、放送送信装置は、同期化情報タイプ(sync_info_type)、同期化開始情報(sync_start)、同期化区間情報(sync_duration)を用いて、受信機に、場面又はフレーム単位の情報を適用しなければならない時点に関する情報を提供することができる。受信機は、HDRビデオ情報タイプ(HDR_info_type)を介して場面、ビデオクリップまたはフレーム単位の情報が伝送されることを識別し、sync_info_type、sync_start、sync_durationを介して場面、ビデオクリップまたはフレーム単位の情報を適用する時点に関するタイミング情報を取得することができる。また、必要に応じて、受信機は、メタデータを介して提供されるタイミング情報を、映像とsyncを取るための情報に変換することもできる。   FIG. 15 shows an example in which a process for each scene (scene-by-scene) (or a process for each clip (clip-by-clip) or each frame (frame-by-frame)) is additionally performed. In this case, it is possible to display HDR video with improved quality through dynamic conversion in detail for each content scene, video clip or frame using metadata provided in units of scenes, clips, or frames. . In this case, according to an embodiment of the present invention, the broadcast transmitting apparatus may identify, in the SEI (supplemental enhancement information) message, that the receiver is to transmit scene, video clip, or frame unit information using HDR_info_type. You can do so. In addition, the broadcast transmitting apparatus must apply scene or frame unit information to the receiver using the synchronization information type (sync_info_type), synchronization start information (sync_start), and synchronization section information (sync_duration). Information about the time can be provided. The receiver identifies that information of a scene, a video clip, or a frame unit is transmitted through an HDR video information type (HDR_info_type), and transmits the information of a scene, a video clip, or a frame unit through a sync_info_type, a sync_start, and a sync_duration. Timing information about the point of application can be obtained. If necessary, the receiver can also convert timing information provided via the metadata into information for taking a video and a sync.

また、放送送信装置は、共通適用情報を提供するとき、後でどのような種類の場面、ビデオクリップまたはフレーム単位のメタデータが提供されるかを受信機に知らせることができる。放送送信装置は、HDR_video_enhancement_info_present_typeを介して前記情報を受信機に予め知らせることができる。すなわち、受信機は、共通適用情報から、部分適用情報の受信有無及びその種類に関する情報を予め取得することによって、関連モジュールの動作を準備することができる。実施例によって、放送送信装置は、共通適用情報を用いて、フレーム、ビデオクリップまたは場面の単位のメタデータが提供されるという事実自体を示したり、フレーム単位、ビデオクリップ単位または場面単位で具体的にどのような情報があるかを示すことができる。例えば、放送送信装置は、共通適用情報を用いて、フレーム単位又は場面単位でダイナミックレンジマッピング(dynamic range mapping)又は/及びカラーガマットマッピング(color gamut mapping)情報が提供されることを示すことができる。   In addition, when providing the common application information, the broadcast transmitting apparatus can notify the receiver of what kind of scene, video clip, or metadata in frame units will be provided later. The broadcast transmitting apparatus can notify the receiver of the information in advance through HDR_video_enhancement_info_present_type. That is, the receiver can prepare the operation of the related module by acquiring in advance information on the presence or absence of the partial application information and the type thereof from the common application information. According to an embodiment, the broadcast transmitting apparatus may use the common application information to indicate the fact that metadata is provided in units of frames, video clips, or scenes, or may use a specific application in units of frames, video clips, or scenes. Can indicate what information is available. For example, the broadcast transmitting apparatus may indicate that dynamic range mapping or / and color gamut mapping information is provided in frame units or scene units using the common application information. .

実施例によって、受信機は、共通適用情報及び場面適用情報をHDRビデオに対して段階的に適用してもよく、一つの動作として適用してもよい。また、受信機は、ダイナミックレンジマッピング及びカラーガマットマッピング別に共通適用情報及び場面適用情報をHDRビデオに適用してもよく、一つの変換式で適用してもよい。   According to an embodiment, the receiver may apply the common application information and the scene application information to the HDR video in a stepwise manner or may apply the common application information and the scene application information as one operation. In addition, the receiver may apply the common application information and the scene application information to the HDR video for each of the dynamic range mapping and the color gamut mapping, or may apply the common application information and the scene application information by one conversion formula.

図16は、本発明の一実施例に係る後処理部を示す。本発明において、後処理部(post processor)は、DRマッピングブロック(Dynamic range mapping)301、CGマッピングブロック(Color Gamut mapping)302及び視聴環境調整ブロック(viewing condition adjustment)303を含むことができる。後処理部は、HDRビデオデータの入力を受けてダイナミックレンジマッピング(dynamic range mapping)、カラーガマットマッピング(color gamut mapping)、視聴環境マッピング(viewing condition mapping)などを用いて画質改善を行うことができる。DRマッピングブロック(Dynamic range mapping)301は、入力されたHDRビデオデータに対してダイナミックレンジ(dynamic range)情報、変換関数(transfer function)情報及びDRマッピング情報を適用して画質改善作業を行うことができる。CGマッピングブロック(Color Gamut mapping)302は、入力されたHDRビデオデータに対してカラーガマット(Color gamut)情報、色温度(color temperature)情報、及びCGマッピング情報を適用して画質改善作業を行うことができる。視聴環境調整ブロック(viewing condition adjustment)303は、視聴環境情報をHDRビデオデータに適用して画質改善作業を行うことができる。各情報に関する詳細な説明は、図17乃至図29で後述する。   FIG. 16 shows a post-processing unit according to one embodiment of the present invention. In the present invention, the post processor may include a dynamic range mapping (DR) block 301, a color gamut mapping (CG) block 302, and a viewing condition adjustment block 303. The post-processing unit may receive the HDR video data and improve image quality using dynamic range mapping, color gamut mapping, viewing condition mapping, and the like. . The DR mapping block 301 performs image quality improvement by applying dynamic range information, transfer function information, and DR mapping information to the input HDR video data. it can. The CG mapping block 302 performs image quality improvement by applying color gamut information, color temperature information, and CG mapping information to the input HDR video data. Can be. A viewing condition adjustment block 303 can perform image quality improvement work by applying the viewing condition information to the HDR video data. A detailed description of each information will be described later with reference to FIGS.

図17乃至図20は、本発明の一実施例に係るSEIメッセージ及びHDR情報ディスクリプタ(HDR information descriptor)のシンタックスを示す。   17 to 20 show syntax of an SEI message and an HDR information descriptor according to an embodiment of the present invention.

SEIメッセージはHDR情報ディスクリプタを含むことができ、HDR情報ディスクリプタは、次のフィールドのうち少なくとも1つのフィールドを含むことができる。本発明において、HDR情報(HDR information)は、HDRビデオ情報(HDR video information)と同じ意味で使用することができる。   The SEI message may include an HDR information descriptor, and the HDR information descriptor may include at least one of the following fields. In the present invention, HDR information (HDR information) can be used in the same meaning as HDR video information (HDR video information).

HDR情報タイプ(HDR_info_type)情報は、HDR情報ディスクリプタ内の情報が適用される単位を示すことができる。例えば、マスタリングディスプレイ(mastering display)に対する情報を示すか、またはチャネル(channel)、プログラム(program)、コンテンツ(content)の単位で共通に適用され得る。また、連続した場面、ビデオクリップ、フレームのそれぞれに適用される形態で区分することができ、他の方法(例えば、変換前と変換後、伝送フォーマット、変換後の目標対象フォーマット、static/dynamic metadataなど)で分類される場合を追加してもよい。   The HDR information type (HDR_info_type) information may indicate a unit to which information in the HDR information descriptor is applied. For example, the information may indicate information on a mastering display, or may be commonly applied to a unit of a channel, a program, and a content. In addition, it can be classified in a form applied to each of a continuous scene, a video clip, and a frame, and can be divided into other methods (for example, before and after conversion, a transmission format, a target format after conversion, static / dynamic metadata). Etc.) may be added.

前記のような分類によって、現在のpayloadType内で定義されたHDR情報(HDR information)の種類を区分することができる。このとき、図17の実施例のように、payloadType内に1つのHDR_info_typeに該当する細部情報のみが記述されてもよく、2つ以上の情報が全て記述されてもよい。この場合、それぞれのHDR_info_typeによって分類された情報が連続して位置するようにシンタックス(syntax)を構成することができる。   According to the above classification, the type of HDR information (HDR information) defined in the current payloadType can be classified. At this time, as in the embodiment of FIG. 17, only the detailed information corresponding to one HDR_info_type may be described in the payloadType, or two or more pieces of information may all be described. In this case, the syntax can be configured so that the information classified according to each HDR_info_type is continuously located.

また、情報が適用される単位をSEIメッセージ内で分類する方法だけでなく、互いに異なるpayloadTypeを割り当てて区分することもできる。例えば、payloadType=52(mastering display)、payloadType=53(channal)、payloadType=54(program)、payloadType=55(content)、payloadType=56(scene)、payloadType=57(clip)、payloadType=58(frame)のように区分することができる。   In addition, not only a method of classifying units to which information is applied in the SEI message but also different payloadTypes can be allocated and classified. For example, payloadType = 52 (mastering display), payloadType = 53 (channel), payloadType = 54 (program), payloadType = 55 (content), payloadType = epaypeape, typepeape, typePayType = 56 (scenipetype) ).

トランジションフラグ(transition_flag)情報は、現在記述しているSEIメッセージと関連するコンテンツの終了時点に対するシグナルである。例えば、HDRコンテンツが終了し、SDRコンテンツに切り替わる場合、最後のフレームに対してtransition_flagを1にセットする。このとき、適用分野に応じてHDR情報ディスクリプタ(HDR information descriptor)の伝送が終了するという意味として考慮することもでき、受信機では、本シグナルに基づいて、HDR情報ディスクリプタと関連するモジュールをoffさせるなどの動作につながり得る。もし、受信機がSTB(settop box)とdisplay deviceに区分されて有/無線インターフェースで接続された場合(例えば、HDMI、DisplayPort、MHLなど)、これと類似に、HDR関連情報の中断あるいはHDRコンテンツの終了のような情報をSTBからdisplay deviceに伝達することができる。transition_flagは終了時点を知らせるという意味でHDR情報ディスクリプタが終了するフレームで知らせることができる。予め約束された場合、終了フレームが含まれたRAPで知らせる方法も適用することができる。   The transition flag (transition_flag) information is a signal indicating the end point of the content related to the currently described SEI message. For example, when the HDR content ends and switches to the SDR content, the transition_flag is set to 1 for the last frame. At this time, it can be considered that transmission of the HDR information descriptor (HDR information descriptor) ends according to the application field, and the receiver turns off the module related to the HDR information descriptor based on the signal. And so on. If the receiver is divided into an STB (set box) and a display device and connected by a wired / wireless interface (for example, HDMI, DisplayPort, MHL, etc.), similarly, the interruption of the HDR related information or the HDR content , Etc., can be transmitted from the STB to the display device. The transition_flag can be notified by a frame in which the HDR information descriptor ends, meaning that the end point is notified. If promised in advance, a method of notifying by the RAP including the end frame may be applied.

セット(set_number)情報は、HDR情報ディスクリプタの固有の識別番号を示すことができる。すなわち、時間単位又はフレーム単位で複数のHDR情報ディスクリプタが放送送信装置から受信機に伝達される状況で、それぞれのHDR情報ディスクリプタを区分する役割を果たすことができる。必要であれば、上述したHDR_info_typeと連携してチャネル(channel)、プログラム(program)、コンテンツ(content)、フレーム(frame)、シーン(scene)、クリップ(clip)などのそれぞれに対して複数のディスクリプタを区分する役割を果たすことができる。例えば、様々な種類の輝度(luminance)を有するディスプレイのサポートを目的で互いに異なるDR mapping functionを伝達する場合、上述したHDR_info_typeと連携してチャネル、プログラム、コンテンツ、フレーム、シーン、クリップなどのそれぞれに対して複数のディスクリプタを区分する役割を果たすことができる。   The set (set_number) information may indicate a unique identification number of the HDR information descriptor. That is, in a situation in which a plurality of HDR information descriptors are transmitted from the broadcast transmitting apparatus to the receiver in units of time or frames, each of the HDR information descriptors can play a role in distinguishing each HDR information descriptor. If necessary, a plurality of descriptors for each of a channel (channel), a program (program), a content (content), a frame (frame), a scene (scene), a clip (clip), etc., in cooperation with the above-described HDR_info_type. Can play a role. For example, when different DR mapping functions are transmitted to support displays having various types of luminance, each of channels, programs, contents, frames, scenes, clips, and the like is linked to the above-described HDR_info_type. On the other hand, it can play a role of partitioning a plurality of descriptors.

バージョン(version_number)情報は、HDR情報ディスクリプタのバージョンを示すことができる。HDR_info_type及びset_numberのうちの少なくとも1つと連携して現在のディスクリプタにおいて情報の変更があることを示すことができる。例えば、同じHDR_info_type及び/又はset_numberを有するディスクリプタに対して同じバージョンナンバー(version number)を有する場合、メタデータプロセッサ(metadata processor)内の情報を映像にそのまま適用することができる。しかし、放送受信装置は、version_numberが変更された場合、メタデータバッファ(metadata buffer)内の情報をアップデートし、新しい情報を映像に適用することができる。   The version (version_number) information can indicate a version of the HDR information descriptor. In cooperation with at least one of HDR_info_type and set_number, it can indicate that there is a change in information in the current descriptor. For example, when descriptors having the same HDR_info_type and / or set_number have the same version number, information in a metadata processor can be directly applied to a video. However, when the version_number is changed, the broadcast receiving apparatus can update information in a metadata buffer and apply new information to a video.

DRフラグ(dynamic_range_mapping_info_present_flag)情報は、ディスクリプタ内にダイナミックレンジマッピング(dynamic range mapping)関連情報が含まれていることを示すことができる。   The DR flag (dynamic_range_mapping_info_present_flag) information may indicate that the descriptor includes dynamic range mapping related information.

CGフラグ(color_gamut_mapping_info_present_flag)情報は、ディスクリプタ内にガマットマッピング(gamut mapping)関連情報が含まれていることを示すことができる。   The CG flag (color_gamut_mapping_info_present_flag) information can indicate that gamut mapping related information is included in the descriptor.

視聴環境フラグ(viewing_condition_info_present_flag)情報は、ディスクリプタ内に視聴環境(viewing condition)関連情報が含まれていることを示すことができる。   The viewing environment flag (viewing_condition_info_present_flag) information can indicate that the viewing environment (viewing condition) related information is included in the descriptor.

追加改善情報個数(number_of_HDR_video_enhancement_info)情報は、現在のSEIメッセージと関連する追加のSEIメッセージがある場合に対して関連する情報の数を示す。または、向上した情報を提供することもできる。例えば、HDR_info_type=0011(content)情報を伝達している場合、マスタリングディスプレイ(mastering display)、シーン(scene)に対する情報がこれと関連して伝達され得、この場合、3値を有するようになる。このとき、受信機では、トーンマッピング(tone mapping)、ガマットマッピング(gamut mapping)などの画質処理を行うとき、性能に応じてコンテンツ(content)内の情報のみを用いることができる。また、より詳細な情報を有していると判断される場合、例えば、HDR_info_type=0100(scene)の情報のみを用いたり、実施例によっては、全ての情報を総合して用いることができる。   The number of additional improvement information (number_of_HDR_video_enhancement_info) information indicates the number of pieces of related information when there is an additional SEI message related to the current SEI message. Alternatively, improved information can be provided. For example, when HDR_info_type = 0011 (content) information is transmitted, information on a mastering display and a scene may be transmitted in connection therewith. In this case, the information has three values. At this time, when performing image quality processing such as tone mapping and gamut mapping, the receiver can use only information in the content according to the performance. When it is determined that the information has more detailed information, for example, only the information of HDR_info_type = 0100 (scene) can be used, or depending on the embodiment, all the information can be used collectively.

追加改善情報種類(HDR_video_enhancement_info_present_type)情報は、現在のSEIメッセージと関連する追加情報の種類を示し、図18のHDR_info_typeと同じ値を用いて定義することができる。このとき、enh_dynamic_range_mapping_info_ present_flag、enh_color_gamut_mapping_info_present_flag、enh_viewing_condition_info_present_flagを通じてDRマッピング(DR mapping)、ガマットマッピング(gamut mapping)、視聴環境(viewing condition)関連情報が伝達されるか否かを知らせることができ、これに対する情報処理のための受信機の動作を予め準備したり、現在の情報に比べて向上した情報が使用されるか否かを判断するときに用いることができる。   The additional improvement information type (HDR_video_enhancement_info_present_type) information indicates the type of additional information related to the current SEI message, and may be defined using the same value as HDR_info_type in FIG. At this time, enh_dynamic_range_mapping_info_ present_flag, enh_color_gamut_mapping_info_present_flag, DR mapping (DR mapping) through Enh_viewing_condition_info_present_flag, gamut mapping (gamut mapping), can inform whether the viewing environment (viewing condition) related information is transmitted, the information processing for this To prepare for the operation of the receiver in advance, or to judge whether or not information improved compared to the current information is used.

改善DRフラグ(enh_dynamic_range_mapping_info_present_flag)は、その値が1である場合、関連するメタデータ情報に対してDRマッピング(DR mapping)情報が存在することを示すことができる。   If the value of the improved DR flag (enh_dynamic_range_mapping_info_present_flag) is 1, it can indicate that DR mapping information exists for the related metadata information.

改善CGフラグ(enh_color_gamut_mapping_info_present_flag)は、その値が1である場合、関連するメタデータ情報に対してガマットマッピング(gamut mapping)情報が存在することを示すことができる。   If the value of the improved CG flag (enh_color_gamut_mapping_info_present_flag) is 1, it can indicate that gamut mapping information exists for the related metadata information.

改善視聴環境フラグ(enh_viewing_condition_info_present_flag)は、その値が1である場合、関連するメタデータ情報に対して視聴環境(viewing condition)情報が存在することを示すことができる。   If the value of the enhanced viewing environment flag (enh_viewing_condition_info_present_flag) is 1, it can indicate that viewing environment information is present for the related metadata information.

メタデータタイプ(metadata type)が、HDR情報(HDR info)ではなく、SEIメッセージのpayloadTypeの値で区分される場合、前記のようにHDR_info_type及びそれと関連するフラグ(flag)を用いる方法以外にも、当該SEIメッセージのpayloadTypeの値を直接伝達することができる。すなわち、前記の例に対して、payloadType=53(content)に対する追加(向上)情報として、payloadType=52(mastering display)、payloadType=56(scene)を伝達することができる。または、payloadTypeを追加してHDR_info_typeと共に情報を提供することもできる。   When the metadata type (metadata type) is divided not by the HDR information (HDR info) but by the value of the payloadType of the SEI message, besides the method of using the HDR_info_type and the related flag as described above, The value of the payloadType of the SEI message can be directly transmitted. That is, with respect to the above example, payloadType = 52 (mastering display) and payloadType = 56 (scene) can be transmitted as additional (improved) information for payloadType = 53 (content). Alternatively, information may be provided along with HDR_info_type by adding a payloadType.

同期化情報タイプ(sync_info_type)情報は、HDR情報ディスクリプタ(HDR information descriptor)内の情報が適用されなければならないコンテンツ、シーン、クリップまたはフレームとの同期化のための情報の表現方法を示すことができる。例えば、デコーダ内で使用されるPOC(Picture order count)値を伝達してもよく、またはpic_order_count_lsb値を直接伝達してもよい。ストレージメディア(Storage media)である場合、メディアタイム(media time)情報を使用することができ、ビデオ開始に対するリファレンスタイム(reference time)を基準とした累積フレーム(frame)の数で定めることもできる。   The synchronization information type (sync_info_type) information may indicate a method for expressing information for synchronization with a content, a scene, a clip, or a frame to which information in an HDR information descriptor must be applied. . For example, a POC (Picture order count) value used in the decoder may be transmitted, or a pic_order_count_lsb value may be transmitted directly. In the case of a storage medium, media time information may be used, and may be determined by the number of accumulated frames based on a reference time for a video start.

同期化開始(sync_start)情報は、同期化の開始地点と関連する情報である。フレーム毎に関連情報を送る場合ではなく、RAPなどの特定の周期毎に当該情報を伝達する場合、当該情報が使用される区間の始まりと終わりをビデオフレームと連結させる必要がある。本発明では、sync_start情報を使用して当該情報が適用される区間又はフレームの開始情報をsync_info_typeと連携して時間、POC、フレームの数、PTSなどの情報として示す実施例を適用することができる。sync_info_typeは、時間、時間差、開始順序、POC(picture order count)、PTS、合算されたフレームの数として同期化情報のタイプを定義することができる。   The synchronization start (sync_start) information is information related to a synchronization start point. In the case where the information is transmitted in a specific cycle such as RAP instead of transmitting the related information for each frame, it is necessary to connect the start and end of the section where the information is used with the video frame. In the present invention, the embodiment in which the start information of the section or frame to which the information is applied using the sync_start information is shown as information such as time, POC, number of frames, and PTS in cooperation with sync_info_type can be applied. . The sync_info_type can define a type of synchronization information as time, a time difference, a start order, a POC (picture order count), a PTS, and the number of frames added.

例えば、2秒のRAP間隔を有する50fpsビデオストリームに対して2〜4秒のRAP区間内で3つのメタデータがそれぞれ2秒(開始時点)、2.5秒、3.5秒に適用される場合を考慮することができる。   For example, for a 50 fps video stream with a RAP interval of 2 seconds, three metadata are applied for 2 seconds (start time), 2.5 seconds, and 3.5 seconds, respectively, in a 2-4 second RAP interval. The case can be considered.

Sync_info_type=0×00である場合、同期化情報のタイプは時間として設定され、各メタデータのsync_start情報を2000、2500、3500として伝達することができる。また、追加的に、sync_durationを500、1000、1000としてシグナリングすることができる。このとき、時間の判断のために時間に対する基準が必要な場合があり、TSヘッダーのアダプテーションフィールド(adaptation field)に時間を定義することのように別途にシグナリングすることができる。   When Sync_info_type = 0x00, the type of the synchronization information is set as time, and the sync_start information of each metadata can be transmitted as 2000, 2500, or 3500. Also, the sync_duration may be additionally signaled as 500, 1000, or 1000. At this time, a time reference may be needed to determine the time, and the signaling may be separately performed such as defining the time in an adaptation field of the TS header.

Sync_info_type=0×01である場合、同期化情報のタイプは時間差として設定され得る。放送送信装置は、sync_start=0、500、1000としてそれぞれシグナリングすることによって、それぞれ直ちに適用、RAPから0.5秒後に適用、RAPから1.5秒後に適用であることを受信機に知らせることができる。   If Sync_info_type = 0x01, the type of synchronization information may be set as a time difference. The broadcast transmitting apparatus can notify the receiver that it is applied immediately, applied 0.5 seconds after RAP, and applied 1.5 seconds after RAP, by signaling as sync_start = 0, 500, and 1000, respectively. it can.

Sync_info_type=0×02である場合、同期化情報のタイプは開始順序として設定され、sync_start=0、1、2のように順序を知らせることができる。開始順序がシグナリングされると、受信機は、一定の時間間隔で順序に従って同期化情報を適用できる。一定の時間間隔は、固定された値であってもよく、順序に従って定められた値を有してもよい。例えば、0は、直ちに適用開始、1は、RAP+0.5秒に適用、2は、RAP+1.5秒に適用のように推定することができる。   When Sync_info_type = 0 × 02, the type of the synchronization information is set as a start order, and the order can be notified as in sync_start = 0, 1, 2. Once the start order is signaled, the receiver can apply the synchronization information according to the order at regular time intervals. The fixed time interval may be a fixed value or may have a value determined according to an order. For example, 0 can be estimated to start immediately, 1 applies to RAP + 0.5 seconds, 2 applies to RAP + 1.5 seconds, and so on.

Sync_info_type=0×03である場合、同期化情報のタイプはPOCとして設定され得る。この場合、メタデータの適用時点のビデオのPOC値を100、125、175のように伝達することができ、後述するdurationも、POCの単位に応じて25、50、50のように伝達することができる。また、ビデオコーデックシンタックス(video codec syntax)内のPOCと関連する値を直接伝達することもできる。   If Sync_info_type = 0x03, the type of synchronization information may be set as POC. In this case, the POC value of the video at the time of application of the metadata can be transmitted as 100, 125 and 175, and the duration described later can be transmitted as 25, 50 and 50 according to the POC unit. Can be. Also, a value associated with a POC in a video codec syntax may be directly transmitted.

PTS(presentation time stamp)、フレームの数をシグナリングする場合にも、前記のPOCの例とほぼ同様に、PTS、フレームの数の情報を通じてメタデータの適用時点を示すことができる。   Also in the case of signaling a PTS (Presentation time stamp) and the number of frames, it is possible to indicate the application point of the metadata through the information on the PTS and the number of frames, similarly to the case of the POC.

同期化区間(sync_duration)情報は、同期化開始(sync_start)から持続する区間に関する情報である。先の例のように、同期化終了地点はsync_start+sync_durationで計算することができ、必要であれば、sync_durationと共に、又はその代わりに同期化終了時点情報を直接伝達することもできる。Live放送の場合、終了時間を予め定めることができないため、FFFFのように予め約束された値に設定することができる。もし、sync_start情報のみでメタデータの適用時間に対する判断が可能な場合、sync_duration値が使用されなくてもよい。この場合、sync_durationは、当該メタデータの後に他のメタデータが伝送されるか否かのような追加情報を提供するフラグとして使用してもよい。   The synchronization section (sync_duration) information is information relating to a section that continues from the start of synchronization (sync_start). As in the previous example, the synchronization end point can be calculated by sync_start + sync_duration, and if necessary, the synchronization end point information can be directly transmitted together with or instead of the sync_duration. In the case of Live broadcasting, the end time cannot be determined in advance, and thus can be set to a value promised in advance, such as FFFF. If it is possible to determine the application time of the metadata only by the sync_start information, the sync_duration value may not be used. In this case, sync_duration may be used as a flag that provides additional information such as whether or not other metadata is transmitted after the metadata.

DR情報個数(number_of_dynamic_range_info)情報は、マスタリングディスプレイ(mastering display)、チャネル(channel)、プログラム(program)、コンテンツ(content)、シーン(scene)、クリップ(clip)またはフレーム(frame)に該当するダイナミックレンジ情報の表現方法の数を示すことができる。   The DR information number (number_of_dynamic_range_info) information is a dynamic range corresponding to a mastering display (mastering display), a channel (channel), a program (program), a content (content), a scene (scene), a clip (clip), or a frame (frame). The number of ways of expressing information can be indicated.

DR情報タイプ(dynamic_range_info_type)情報は、マスタリングディスプレイ、チャネル、プログラム、コンテンツ、シーン、クリップまたはフレームに該当するダイナミックレンジ情報の表現方法を示す。ダイナミックレンジを表現するための方法は、図19の下段の通りであり得る。ダイナミックレンジは、最大明るさ、最小明るさ、平均明るさ、一定の成分で構成された平均又はメディアン(median)値のうちの少なくとも1つを用いて示すことができる。また、whiteの場合にも、normal white、diffuse white、specular whiteのように、明るい部分を特性に応じて細部的に区分することができ、blackの場合にも、normal black、deep black、pitch darkのように、特性に応じて種類を区分して表示することができる。   The DR information type (dynamic_range_info_type) information indicates a method of expressing dynamic range information corresponding to a mastering display, channel, program, content, scene, clip, or frame. A method for expressing the dynamic range may be as shown in the lower part of FIG. The dynamic range may be indicated using at least one of a maximum brightness, a minimum brightness, an average brightness, an average including a constant component, and a median value. Also, in the case of white, a bright portion can be classified in detail according to characteristics, such as normal white, diffuse white, and spectral white. In the case of black, normal black, deep black, and pitch dark As described above, the types can be classified and displayed according to the characteristics.

下記の例示のように、放送送信装置は、HDR情報(HDR info)を介してspecular white及びpitch darkのような情報を提供することによって、コンテンツ内に明部及び暗部に対して明るさを細分化して表現することができ、このような情報は、受信機のディスプレイ環境に対する判断基準として用いたり、ディスプレイ環境によるマッピングのための情報として活用したりすることができる。   As described below, the broadcast transmitting apparatus may provide information such as a spectral white and a pitch dark through HDR information (HDR info), thereby subdividing brightness for bright and dark portions in the content. Such information can be used as a criterion for the display environment of the receiver or can be used as information for mapping according to the display environment.

DR情報バリュー(dynamic_range_info_value)情報は、dynamic_range_info_typeに応じて該当する値を伝達することができる。すなわち、下記のようにdynamic_range_info_typeに応じてコンテンツ、マスタリングディスプレイ、シーンのDRのそれぞれを細かく表現することができる。または、コンテナビデオフォーマット(container video format)と実際のコンテンツ(content)の特性を区分して記述するために使用してもよい。   As the DR information value (dynamic_range_info_value) information, a corresponding value can be transmitted according to dynamic_range_info_type. That is, the content, the mastering display, and the DR of the scene can be expressed in detail according to the dynamic_range_info_type as described below. Alternatively, it may be used to separately describe a characteristic of a container video format and a characteristic of an actual content.

Ex)content:peak_luminance_level=2000(nit),minimum_luminance_level=0.1(nit)   Ex) content: peak_luminance_level = 2000 (nit), minimum_luminance_level = 0.1 (nit)

mastering display:peak_luminance_level=4000(nit),minimum_luminance_level=0.01(nit)   mastering display: peak_luminance_level = 4000 (nit), minimum_luminance_level = 0.01 (nit)

scene:white_level_A=800(nit),white_level_B=1500(nit),black_level_A=1(nit),black_level_B=0.1(nit)   scene: white_level_A = 800 (nit), white_level_B = 1500 (nit), black_level_A = 1 (nit), black_level_B = 0.1 (nit)

変換関数タイプ(transfer_function_type)情報は、HDRビデオのマスタリングディスプレイ、チャネル、プログラム、コンテンツ、シーン、クリップまたはフレームに使用された変換関数(transfer function)の種類を示すことができる。例えば、SMPTE ST 2084、ITU BT.1886、BT.2020などのように予め定められたEOTFがシグナリングされてもよい。変換関数の種類によって絶対明るさ表現方法、相対明るさ表現方法などのように区分し、具体的な方法をシグナリングすることもできる。必要であれば、任意の変換関数の係数を伝達することもできる。   The transfer function type (transfer_function_type) information may indicate a type of a transfer function used for a mastering display, a channel, a program, content, a scene, a clip, or a frame of the HDR video. For example, SMPTE ST 2084, ITU BT. 1886, BT. A predetermined EOTF such as 2020 may be signaled. Depending on the type of the conversion function, the method may be divided into an absolute brightness expression method, a relative brightness expression method, and the like, and a specific method may be signaled. If necessary, the coefficients of any transformation function can be transmitted.

CGタイプ(color_gamut_type)情報は、HDRビデオのマスタリングディスプレイ、チャネル、プログラム、コンテンツ、シーン、クリップまたはフレームに該当するカラーガマット(color gamut)の種類を示すことができる。例えば、BT.709、BT.2020、DCI−P3のような標準カラーガマットを示したり、必要によっては、RGB color primary(XYZ、RGBWなども可能)を通じて任意のカラーガマットを示すことができる。   The CG type (color_gamut_type) information may indicate a type of a color gamut corresponding to a mastering display, a channel, a program, content, a scene, a clip, or a frame of the HDR video. For example, BT. 709, BT. A standard color gamut such as 2020, DCI-P3, or an optional color gamut can be indicated through RGB color primary (XYZ, RGBW, etc. is also possible).

色温度タイプ(color_temperature_type)情報は、マスタリングディスプレイ、チャネル、プログラム、コンテンツ、シーン、クリップまたはフレームに該当する基準whiteに対する情報を示すことができる。例えば、D65、D50のような標準光源色温度であってもよく、必要によっては、whiteに対するRGB color primary(XYZ、RGBWなども可能)のように色温度に対する代表性を帯びる任意の値を示してもよい。   The color temperature type information may indicate information about a reference white corresponding to a mastering display, a channel, a program, content, a scene, a clip, or a frame. For example, a standard light source color temperature such as D65 or D50 may be used. If necessary, an arbitrary value having a representative value for the color temperature such as RGB color primary (XYZ, RGBW, or the like is also possible) for white is shown. You may.

DRマッピングタイプ(dynamic_range_mapping_info_type)情報は、マスタリングディスプレイ、チャネル、プログラム、コンテンツ、シーン、クリップまたはフレームに該当するダイナミックレンジマッピング情報の種類を示す。例えば、図20の上段に示したように、HEVCに含まれているKnee function information SEI message又はTone mapping information SEI messageを指称することによって、他のSEIメッセージの情報を参照することができる。また、予め約束されたHDR情報ディスクリプタ内に直接内容を記述することもできる。   The DR mapping type (dynamic_range_mapping_info_type) information indicates the type of dynamic range mapping information corresponding to a mastering display, channel, program, content, scene, clip, or frame. For example, as shown in the upper part of FIG. 20, by pointing to Knee function information SEI message or Tone mapping information SEI message included in HEVC, information of another SEI message can be referred to. Also, the content can be described directly in the HDR information descriptor promised in advance.

CGマッピングタイプ(color_gamut_mapping_info_type)情報は、マスタリングディスプレイ、チャネル、プログラム、コンテンツ、シーン、クリップまたはフレームに該当するカラーガマットマッピング(color gamut mapping)情報の種類を示す。例えば、図20の下段に示したように、HEVCに含まれているColour remapping information SEI messageに定義された情報を引用することができる。また、予め約束されたHDR情報ディスクリプタ内に直接内容を記述することもできる。   The CG mapping type (color_gamut_mapping_info_type) information indicates a type of color gamut mapping information corresponding to a mastering display, channel, program, content, scene, clip, or frame. For example, as shown in the lower part of FIG. 20, information defined in Color remapping information SEI message included in HEVC can be cited. Also, the content can be described directly in the HDR information descriptor promised in advance.

視聴環境タイプ(viewing_condition_info_type)情報は、マスタリングディスプレイ、チャネル、プログラム、コンテンツ、シーン、クリップまたはフレームに該当する視聴環境(viewing condition)情報の種類を示す。例えば、viewing_condition_info_type情報は、別途のSEIメッセージとして定義されたviewing_conditionに定義された情報を引用してもよく、予め約束されたHDR情報ディスクリプタ内に直接内容を記述してもよい。   The viewing environment type (viewing_condition_info_type) information indicates the type of viewing environment (viewing condition) information corresponding to the mastering display, channel, program, content, scene, clip, or frame. For example, the viewing_condition_info_type information may refer to the information defined in the viewing_condition defined as a separate SEI message, or the content may be directly described in a previously promised HDR information descriptor.

上述したdynamic_range_mapping_info_type、color_gamut_mapping_info_type、viewing_condition_info_typeに対して外部のSEIメッセージを参考する場合、前記とは異なり、SEIメッセージのpayloadTypeを直接シグナリングする方法を用いることもできる。例えば、Knee function information SEI messageを参考する場合、dynamic_range_mapping_info_type=0、payloadType=141を通じてより具体的に知らせる方法を用いることもできる。   In the case where an external SEI message is referred to the dynamic_range_mapping_info_type, color_gamut_mapping_info_type, and viewing_condition_info_type, the method of using the SEI message is different from the above method. For example, when referring to the Knee function information SEI message, a more specific method may be used through dynamic_range_mapping_info_type = 0 and payloadType = 141.

図21は、本発明の一実施例に係る時間の流れに基づいてメタデータ情報をシグナリングする方法を示す。   FIG. 21 illustrates a method for signaling metadata information based on a time flow according to an embodiment of the present invention.

時間によるメタデータの伝送は、1)毎フレームごとに当該情報を全て伝送する方法、2)RAP内でメタデータが変更されて適用される区間の時点のフレーム内に伝送する方法、3)RAPなどの周期をもって周期内で適用されるメタデータを周期時点に一度に伝送する方法、4)適用時点と関連するRAPの前に伝送する方法のように様々な方法を考慮することができる。また、1)〜4)の方法を混合して用いてもよい。   The transmission of the metadata according to time is 1) a method of transmitting all the information for each frame, 2) a method of transmitting the metadata in a frame at a section where the metadata is changed and applied in the RAP, 3) a RAP. For example, various methods may be considered, such as a method of transmitting metadata applied within a period with a period at a time at a period time, and a method of transmitting metadata before a RAP associated with an application point. Further, the methods 1) to 4) may be used in combination.

図21は、RAPによってメタデータ情報をシグナリングする実施例を示す。ビデオ全体に適用される共通適用情報(common type)は、各RAP毎に伝送され得る。これは、図21でHDR_info_typeが0000に設定された場合である。共通適用情報は繰り返される情報であるが、放送送信装置は、RAP毎に共通適用情報を伝送することによって伝送誤りによる情報の損失を補完するようにすることができる。   FIG. 21 shows an embodiment of signaling metadata information by RAP. Common type information applied to the entire video may be transmitted for each RAP. This is the case where HDR_info_type is set to 0000 in FIG. Although the common application information is information that is repeated, the broadcast transmitting apparatus can compensate for information loss due to a transmission error by transmitting the common application information for each RAP.

場面によって異なって適用される情報を提供する必要がある場合、シーンメタデータ(Scene metadata)を用いて伝送することができる。これは、図21でHDR_info_typeが0100に設定された場合である。この場合、RAP時点に該当する情報、及びRAP内のシーンチェンジ(scene change)の後に適用される情報を共に伝送することができる。RAP時点に該当する情報及びRAP内のシーンチェンジの後に適用される情報は、それぞれを互いに異なる役割を果たすsetとして定義することができ、互いに異なるset_numberが付与されることによって区分することができる。また、実施例によって、同じ場面に適用される情報でも、互いに異なる役割を果たす情報を分離して別途に伝達する場合、これを区分するための目的としても互いに異なるset_numberを使用することができる。もし、同じ情報が2つ以上のRAPにわたって適用される場合には、同じset_numberを有し、細部情報のアップデートがない場合、同じversion_numberを設定することができる。ここで、細部情報の変更がある場合には異なるversion_numberを有するようにすることによって、メタデータプロセッサ(metadata processor)がどのsetに情報の変更があるかを確認し、アップデートするか否かを決定することができる。次のRAPが到来すると、scene開始時点が新しいRAPに変わるため、sync_startが新しいRAPに変わって適用され得る。この場合、シンク区間の終了地点(sync_start+sync_duration)が同一である場合、情報の変更がないと見なし、同じversion_numberを適用することができる。   If it is necessary to provide information that is applied differently depending on the scene, it can be transmitted using scene metadata. This is the case where HDR_info_type is set to 0100 in FIG. In this case, information corresponding to the RAP time point and information applied after a scene change in the RAP can be transmitted together. The information corresponding to the RAP time point and the information applied after the scene change in the RAP can be defined as sets that play different roles, and can be distinguished by being given different set_numbers. In addition, according to the embodiment, even if information applied to the same scene is different from each other and transmitted separately, different set_numbers can be used to separate the information. If the same information is applied over two or more RAPs, it has the same set_number, and if there is no update of detailed information, the same version_number can be set. Here, when there is a change in the detailed information, the metadata processor has a different version_number so that the metadata processor checks which set has the information change and determines whether or not to update the set. can do. When the next RAP arrives, the sync_start may be applied instead of the new RAP because the scene start time changes to the new RAP. In this case, when the end point (sync_start + sync_duration) of the sync section is the same, it is considered that there is no change in information, and the same version_number can be applied.

プログラム内で使用されるメタデータの適用時点と関連するRAPが到来する前に適用情報を予め伝送する場合には、時間差、順序、フレームの数のように相対的な概念を通じて適用時点を知らせることができる。この場合、Sync_start=FFFFのように予め約束されたシグナリング或いはRAPよりも長い区間の長さでシグナリングする方法を用いて、当該RAPではなく後で適用されるメタデータであることを知らせることもできる。   If the application information is transmitted in advance before the RAP associated with the application time of the metadata used in the program arrives, the application time should be notified through a relative concept such as time difference, order, and number of frames. Can be. In this case, it is also possible to notify that the metadata is not the RAP but a metadata to be applied later by using a predetermined signaling such as Sync_start = FFFF or a method of signaling with a longer section length than the RAP. .

図21の00:00:00:00〜00:00:02:00の区間で2番目のHDR_info_type=0100は、sync_start=0及びsync_duration=180に設定され、00:00:02:00〜00:00:04:00の区間で2番目のHDR_info_type=0100は、sync_start=0及びsync_duration=60に設定され得る。Start時点が00:00:00:00から00:00:02:00に変わることによって、同一の情報(set 1,ver 0)に対してdurationを変更してシグナリングすることができる。同一の情報であることが確認される場合、受信機ではメタデータアップデート(metadata update)を行わない。   In the section from 00: 00: 00: 00 to 00: 00: 02: 00 in FIG. 21, the second HDR_info_type = 0100 is set to sync_start = 0 and sync_duration = 180, and 00: 00: 02: 00: 00: 00. The second HDR_info_type = 0100 in the section of 00:04:00 may be set to sync_start = 0 and sync_duration = 60. By changing the start time from 00: 00: 00: 00 to 00: 00: 02: 00, it is possible to change the duration and signal the same information (set 1, ver 0). If it is confirmed that the information is the same, the receiver does not perform metadata update.

以前の情報と同じ役割を果たす情報に対して細部内容の変更がある場合、放送送信装置は、共通適用情報のset_numberは維持したまま、version_numberを増加させることができる。受信機のメタデータプロセッサ(metadata processor)は、変更されたversion_numberに基づいて情報の変更を認知することができ、既存の情報を新しい情報にアップデートすることができる。   If there is a change in the details of the information having the same role as the previous information, the broadcast transmitting apparatus can increase the version_number while maintaining the set_number of the common application information. The metadata processor of the receiver can recognize the change of the information based on the changed version_number, and can update the existing information with new information.

図21に示したように、00:00:04:00〜00:00:06:00の区間でメタデータ内の情報の変更がある場合、追加で開始時点などの情報を伝達することもできる。メタデータ内の情報の変更がある場合、例えば、図示のように、B情報がB’に変更されると、新しいバージョンナンバー(version number)を付与することができる。図面で00:00:02:00〜00:00:04:00の区間でset_number=2に対するバージョンナンバーが0であったが、00:00:04:00〜00:00:06:00の区間ではバージョンナンバーが1に増加したことが確認できる。終了時点が変わる場合などにも、バージョンナンバーを通じて、アップデートされなければならないことを知らせることができる。   As shown in FIG. 21, when there is a change in the information in the metadata in the section from 00: 00: 04: 00 to 00: 00: 06: 00, information such as the start time can be additionally transmitted. . When the information in the metadata is changed, for example, as shown, when the B information is changed to B ', a new version number (version number) can be assigned. In the drawing, the version number for set_number = 2 was 0 in the section from 00: 00: 02: 00 to 00: 00: 04: 00, but the section from 00: 00: 04: 00 to 00: 00: 06: 00. Now you can see that the version number has increased to 1. Even when the end point changes, it can be notified through the version number that the update is required.

図22は、本発明の他の実施例に係る時間の流れに基づいてメタデータ情報をシグナリングする方法を示す。図22は、メタデータ情報をシグナリングするにおいて、HDRとSDRとの間に切り替えがある場合を示す。図示のように、3番目のRAPでHDRビデオストリームはSDRビデオストリームに切り替わり、この場合、3番目のRAPの後にはHDR情報ディスクリプタ(HDR information descriptor)がこれ以上送受信されない。   FIG. 22 illustrates a method for signaling metadata information based on a time flow according to another embodiment of the present invention. FIG. 22 shows a case where there is a switch between HDR and SDR in signaling metadata information. As shown in the figure, the HDR video stream is switched to the SDR video stream at the third RAP, and in this case, no HDR information descriptor (HDR information descriptor) is transmitted or received after the third RAP.

HDR情報ディスクリプタの伝送が中断される場合、放送送信装置は、transition_flagを介して受信機に知らせることができる。コンテンツのDRがHDRからSDRに切り替わる場合、HDR/WCGコンテンツに対するビデオ特性を伝達していたSEIメッセージの伝達が中断され、コンテンツの切り替え時点の後にこれ以上の情報が伝達されなくなり得る。勿論、SDRコンテンツに対してもマスタリングディスプレイ(mastering display)情報、カラーガマットマッピング(color gamut mapping)、視聴環境(viewing condition)のようにHDR情報ディスクリプタを使用する場合も発生し得るが、本例示では、HDR情報ディスクリプタを使用しないlegacy SDR contentに対して考慮し得る。この場合、transition_flagをonする時点、すなわち、1にセットする時点が重要であり、前記の例示のように切り替えが起こる時点の直前のフレーム及びそのフレームを含むRAP(図面において2番目のRAP)でtransition_flagをonにセットすることができる。   When the transmission of the HDR information descriptor is interrupted, the broadcast transmitting apparatus can notify a receiver via a transition_flag. When the DR of the content is switched from HDR to SDR, the transmission of the SEI message that has transmitted the video characteristics for the HDR / WCG content is interrupted, and no more information may be transmitted after the point of switching the content. Of course, the HDR information descriptor such as mastering display information, color gamut mapping, and viewing condition may also be used for the SDR content. , Legacy SDR content that does not use the HDR information descriptor. In this case, the point at which the transition_flag is turned on, that is, the point at which the transition_flag is set to 1, is important, and the RAP including the frame immediately before the point at which the switching occurs and the RAP (the second RAP in the drawing) including the frame as described above. transition_flag can be set to on.

図23は、本発明の一実施例に係るdynamic_range_mapping_infoを示した図である。図20の上段で説明したdynamic_range_mapping_info_typeが0×03に設定されると、dynamic_range_mapping_info()がHDR_info descriptor内で直接定義され得る。HDR_info_typeが、マスタリングディスプレイ(Mastering display)又はビデオ(video)と関連する共通適用情報としてチャネル、プログラムまたはコンテンツである場合、映像(チャネル、プログラムまたはコンテンツ)の全般にわたって図22で説明する情報を使用することができ、部分適用情報としてシーンタイプ(scene type)又はフレームタイプ(frame type)である場合、該当する区間に対して図22で説明する情報を使用することができる。以下では、dynamic_range_mapping_info()が含むフィールドについて説明する。   FIG. 23 is a diagram illustrating dynamic_range_mapping_info according to an embodiment of the present invention. When dynamic_range_mapping_info_type described in the upper part of FIG. 20 is set to 0 × 03, dynamic_range_mapping_info () can be directly defined in HDR_info descriptor. When the HDR_info_type is a channel, a program, or content as common application information related to a mastering display or a video, the information described in FIG. 22 is used for the entire video (channel, program, or content). If the partial application information is a scene type or a frame type, the information described in FIG. 22 can be used for the corresponding section. Hereinafter, the fields included in dynamic_range_mapping_info () will be described.

本発明の一実施例に係るdynamic_range_mapping_info()は、最大基準明るさ情報(luminance_max)、最小基準明るさ情報(luminance_min)、任意のEOTF情報(private_EOTF)、EOTF係数個数情報(number_of_coeff)、EOTF係数情報(transfer_curve_coeff[i])、クリッピングフラグ情報(clipping_flag)、線形マッピングフラグ情報(linear_mapping_flag)、クリッピング最大明るさ範囲情報(luma_clipping_upper_bound)、クリッピング最小明るさ範囲情報(luma_clipping_lower_bound)、最大明るさ情報(luminance_upper_bound)、最小明るさ情報(luminance_lower_bound)、最大明るさデジタル値(luma_upper_value)、最小明るさデジタル値(luma_lower_value)、核心領域変換曲線タイプ情報(mid_DR_transformation_curve_type)、核心領域変換曲線細部情報(mid_DR_transformation_curve())、核心明るさ範囲領域割合情報(mid_DR_percentage)、上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type)、上位領域変換曲線細部情報(upper_DR_transformation_curve())、上位明るさ範囲領域割合情報(upper_DR_percentage)、下位領域変換曲線タイプ情報(lower_DR_transformation_curve_type)、下位領域変換曲線細部情報(lower_DR_transformation_curve())、追加領域個数情報(number_luminance_upper_bound_diff)、追加領域差情報(luminance_upper_bound_diff[i])、追加領域差デジタル値(luma_upper_value_diff[i])、変更上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type[i])、変更上位領域変換曲線細部情報(upper_DR_transformation_curve())、変更上位明るさ範囲領域割合情報(upper_DR_percentage[i])及び/又は変更核心明るさ範囲領域割合情報(mid_DR_percentage[i])を含むことができる。   The dynamic_range_mapping_info () according to an embodiment of the present invention includes maximum reference brightness information (luminance_max), minimum reference brightness information (luminance_min), arbitrary EOTF information (private_EOTF), EOTF coefficient number information (number_ofETF), and EOTF coefficient number information (number_ofETF). (transfer_curve_coeff [i]), the clipping flag information (clipping_flag), linear mapping flag information (linear_mapping_flag), clipping the maximum brightness range information (luma_clipping_upper_bound), clipping the minimum brightness range information (luma_clipping_lower_bound), the maximum brightness information (l minance_upper_bound), minimum brightness information (luminance_lower_bound), maximum brightness digital value (luma_upper_value), minimum brightness digital value (luma_lower_value_transition_transformation_core_transform_currency_transform_core) , Core brightness range area ratio information (mid_DR_percentage), upper area conversion curve type information (upper_DR_transformation_curve_type), upper area conversion curve detail information (upper_DR_transformation_curve ()), Brightness range area ratio information (upper_DR_percentage), lower-area conversion curve type information (lower_DR_transformation_curve_type), lower-area conversion curve detailed information (lower_DR_transformation_curve_curve_curve ()), additional area number information (number_changer_bubble_update_bubble_muffle_bubble_move_bubble) , Additional region difference digital value (luma_upper_value_diff [i]), changed upper region conversion curve type information (upper_DR_transformation_curve_type [i]), changed upper region conversion curve detailed information (upper_DR_trans) format_curve ()), changed upper brightness range area ratio information (upper_DR_percentage [i]), and / or changed core brightness range area ratio information (mid_DR_percentage [i]).

最大基準明るさ情報(luminance_max)は、超高画質放送コンテンツで表現された最大基準明るさを示す。すなわち、明るさ範囲(DR)の最大値を示す。例えば、参照モニタ(reference monitor)の場合、100cd/mを最大基準明るさとして定めており、この場合、一般的な範囲を考慮して前記値を100(10進数)で割った値の商である1が伝送され得る。 The maximum reference brightness information (luminance_max) indicates the maximum reference brightness expressed in the ultra-high-definition broadcast content. That is, it indicates the maximum value of the brightness range (DR). For example, in the case of a reference monitor, 100 cd / m 2 is set as the maximum reference brightness. In this case, a quotient of a value obtained by dividing the value by 100 (decimal number) in consideration of a general range is used. Can be transmitted.

最小基準明るさ情報(luminance_min)は、超高画質放送コンテンツで表現された最小基準明るさを示す。すなわち、明るさ範囲(DR)の最小値を示す。例えば、参照モニタ(reference monitor)の場合、0.05cd/mを最小基準明るさとして定めており、この場合、一般的な範囲を考慮して前記値に100(10進数)を乗じた値である5が伝送され得る。 The minimum reference brightness information (luminance_min) indicates the minimum reference brightness expressed in the ultra-high definition broadcast content. That is, it indicates the minimum value of the brightness range (DR). For example, in the case of a reference monitor, 0.05 cd / m 2 is set as the minimum reference brightness. In this case, a value obtained by multiplying the above value by 100 (decimal number) in consideration of a general range is used. 5 can be transmitted.

任意のEOTF情報(private_EOTF)は、任意のEOTF関数が使用されるか否かを示す。一般的にITU−R BT.1886、REC.709、BT.2020などのように広く使用されるEOTFが使用される場合には、VUI情報によって伝達され得る。しかし、まだ標準として定められていないEOTFが使用される場合、当該フィールド値を1に設定して示すことができる。例えば、標準として定められていないEOTF、すなわち、任意のEOTFとして知覚量子化(perceptual quantization)が使用されてもよい。   The arbitrary EOTF information (private_EOTF) indicates whether or not an arbitrary EOTF function is used. Generally, ITU-R BT. 1886, REC. 709, BT. If a widely used EOTF, such as 2020, is used, it may be conveyed by VUI information. However, if an EOTF that is not yet defined as a standard is used, the field value can be set to 1 to indicate. For example, perceptual quantization may be used as an EOTF that is not defined as a standard, that is, an arbitrary EOTF.

EOTF係数個数情報(number_of_coeff)は、任意のEOTFに使用された係数の個数を示す。   The EOTF coefficient number information (number_of_coeff) indicates the number of coefficients used for an arbitrary EOTF.

EOTF係数情報(transfer_curve_coeff[i])は、任意のEOTFに使用された係数を示す。   The EOTF coefficient information (transfer_curve_coeff [i]) indicates a coefficient used for an arbitrary EOTF.

クリッピングフラグ情報(clipping_flag)は、クリッピングオプションが使用されるか否かを示す情報であって、クリッピングオプションの使用が許容される場合、1の値を有することができる。   The clipping flag information (clipping_flag) is information indicating whether or not the clipping option is used, and may have a value of 1 when the use of the clipping option is permitted.

線形マッピングフラグ情報(linear_mapping_flag)は、線形明るさ範囲変換(linear dynamic range transformation)方法が使用されるか否かを示す。線形明るさ範囲変換(linear dynamic range transformation)方法が使用される場合、1の値を有する。   The linear mapping flag information (linear_mapping_flag) indicates whether or not a linear dynamic range transformation method is used. It has a value of 1 when a linear dynamic range transformation method is used.

クリッピング最大明るさ範囲情報(luma_clipping_upper_bound)は、クリッピングオプションが使用される場合にディスプレイされる明るさ範囲(DR)で上位臨界点に対するデジタル値(digtal value)を示す。   The clipping maximum brightness range information (luma_clipping_upper_bound) indicates a digital value with respect to an upper critical point in a brightness range (DR) displayed when a clipping option is used.

クリッピング最小明るさ範囲情報(luma_clipping_lower_bound)は、クリッピングオプションが使用される場合にディスプレイされる明るさ範囲(DR)で下位臨界点に対するデジタル値(digtal value)を示す。   The clipping minimum brightness range information (luma_clipping_lower_bound) indicates a digital value for a lower critical point in a brightness range (DR) displayed when the clipping option is used.

最大明るさ情報(luminance_upper_bound)は、超高画質放送コンテンツで表現された明るさ範囲において必須に表現されなければならない明るさ範囲の最大値(nit単位)を示す。最大明るさ情報は、受信装置のディスプレイの種類を判断する基準となり得る。また、受信装置のディスプレイの種類を判断する別途の基準をシグナリングすることができる。   The maximum brightness information (luminance_upper_bound) indicates the maximum value (unit of nit) of the brightness range that must be expressed in the brightness range expressed by the ultra-high definition broadcast content. The maximum brightness information can be a reference for determining the type of display of the receiving device. Also, a separate criterion for determining the type of display of the receiving device can be signaled.

最小明るさ情報(luminance_lower_bound)は、超高画質放送コンテンツで表現された明るさ範囲において必須に表現されなければならない明るさ範囲の最小値(nit単位)を示す。最小明るさ情報は、受信装置のディスプレイの種類を判断する基準となり得る。また、受信装置のディスプレイの種類を判断する別途の基準をシグナリングすることができる。   The minimum brightness information (luminance_lower_bound) indicates the minimum value (unit: nit) of the brightness range that must be expressed in the brightness range expressed by the ultra-high definition broadcast content. The minimum brightness information can be a criterion for determining the type of display of the receiving device. Also, a separate criterion for determining the type of display of the receiving device can be signaled.

最大明るさデジタル値(luma_upper_value)は、最大明るさ情報(luminance_upper_bound)に該当するデジタル値(digital value)を示す。   The maximum brightness digital value (luma_upper_value) indicates a digital value (digital value) corresponding to the maximum brightness information (luminance_upper_bound).

最小明るさデジタル値(luma_lower_value)は、最小明るさ情報(luminance_lower_bound)に該当するデジタル値(digital value)を示す。   The minimum brightness digital value (luma_lower_value) indicates a digital value (digital value) corresponding to the minimum brightness information (luminance_lower_bound).

核心領域変換曲線タイプ情報(mid_DR_transformation_curve_type)は、核心明るさ範囲領域で使用される明るさ範囲変換曲線を識別する。変換曲線は、線形曲線(linear curve)、指数曲線(exponential curve)、S曲線(s curve)、ログ曲線(logarithmic curve)、多数の曲線が組み合わされた曲線(combination curve)及びLUT(Look Up Table)のいずれか1つを使用することができる。   The core region conversion curve type information (mid_DR_transformation_curve_type) identifies a brightness range conversion curve used in the core brightness range region. The conversion curve includes a linear curve, an exponential curve, an S curve (s curve), a logarithmic curve, a combination curve, and a LUT (Look Up Table). ) Can be used.

核心領域変換曲線細部情報(mid_DR_transformation_curve())は、核心領域変換曲線タイプ情報(mid_DR_transformation_curve_type)によって識別された変換曲線による追加情報を示す。例えば、線形曲線(linear curve)が使用される場合、勾配情報が伝送され得、指数曲線(exponential curve)やログ曲線(logarithmic curve)が使用される場合、底に関する情報が伝送され得、S曲線(s curve)が使用される場合、変曲点の座標及び各区間に対する底とy切片に関する情報が伝送され得、複数の曲線が組み合わされた曲線(combination curve)が使用される場合、各区間のx座標、各区間の曲線の種類及び当該グラフに関する情報が伝送され得る。   The core area conversion curve detailed information (mid_DR_transformation_curve ()) indicates additional information based on the conversion curve identified by the core area conversion curve type information (mid_DR_transformation_curve_type). For example, when a linear curve is used, gradient information may be transmitted, and when an exponential curve or a logarithmic curve is used, information about a bottom may be transmitted, and an S curve may be transmitted. When (s curve) is used, the coordinates of the inflection point and information about the base and the y-intercept for each section may be transmitted. When a combination curve is used, each section may be transmitted. , The type of curve in each section, and information on the graph can be transmitted.

核心明るさ範囲領域割合情報(mid_DR_percentage)は、超高画質放送コンテンツの明るさ範囲における核心明るさ範囲領域が受信装置のディスプレイの全体明るさ範囲(DR)において占める割合を示す。   The core brightness range region ratio information (mid_DR_percentage) indicates the ratio of the core brightness range region in the brightness range of the ultra-high-definition broadcast content to the entire brightness range (DR) of the display of the receiving device.

上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type)は、上位明るさ範囲領域で使用される明るさ範囲変換曲線を識別する。変換曲線は、線形曲線(linear curve)、指数曲線(exponential curve)、S曲線(s curve)、ログ曲線(logarithmic curve)、多数の曲線が組み合わされた曲線(combination curve)及びLUT(Look Up Table)のいずれか1つを使用することができる。   Upper region conversion curve type information (upper_DR_transformation_curve_type) identifies a brightness range conversion curve used in the upper brightness range region. The conversion curve includes a linear curve, an exponential curve, an S curve (s curve), a logarithmic curve, a combination curve, and a LUT (Look Up Table). ) Can be used.

上位領域変換曲線細部情報(upper_DR_transformation_curve())は、上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type)によって識別された変換曲線による追加情報を示す。例えば、線形曲線(linear curve)が使用される場合、勾配情報が伝送され得、指数曲線(exponential curve)やログ曲線(logarithmic curve)が使用される場合、底に関する情報が伝送され得、S曲線(s curve)が使用される場合、変曲点の座標及び各区間に対する底とy切片に関する情報が伝送され得、多数の曲線が組み合わされた曲線(combination curve)が使用される場合、各区間のx座標、各区間の曲線の種類及び当該グラフに関する情報が伝送され得る。   The upper region conversion curve detail information (upper_DR_transformation_curve ()) indicates additional information based on the conversion curve identified by the upper region conversion curve type information (upper_DR_transformation_curve_type). For example, when a linear curve is used, gradient information may be transmitted, and when an exponential curve or a logarithmic curve is used, information about the bottom may be transmitted, and the S curve may be transmitted. If (s curve) is used, the coordinates of the inflection point and information about the base and the y-intercept for each section may be transmitted. , The type of curve in each section and information on the graph can be transmitted.

上位明るさ範囲領域割合情報(upper_DR_percentage)は、超高画質放送コンテンツの明るさ範囲における上位明るさ範囲領域が受信装置のディスプレイの全体明るさ範囲(DR)において占める割合を示す。   The upper brightness range region ratio information (upper_DR_percentage) indicates the ratio of the upper brightness range region in the brightness range of the ultra-high-definition broadcast content to the entire brightness range (DR) of the display of the receiving device.

下位領域変換曲線タイプ情報(lower_DR_transformation_curve_type)は、下位明るさ範囲領域で使用される明るさ範囲変換曲線を識別する。変換曲線は、線形曲線(linear curve)、指数曲線(exponential curve)、S曲線(s curve)、ログ曲線(logarithmic curve)、多数の曲線が組み合わされた曲線(combination curve)及びLUT(Look Up Table)のいずれか1つを使用することができる。   The lower region conversion curve type information (lower_DR_transformation_curve_type) identifies a brightness range conversion curve used in the lower brightness range region. The conversion curve includes a linear curve, an exponential curve, an S curve (s curve), a logarithmic curve, a combination curve, and a LUT (Look Up Table). ) Can be used.

下位領域変換曲線細部情報(lower_DR_transformation_curve())は、下位領域変換曲線タイプ情報(lower_DR_transformation_curve_type)によって識別された変換曲線による追加情報を示す。例えば、線形曲線(linear curve)が使用される場合、勾配情報が伝送され得、指数曲線(exponential curve)やログ曲線(logarithmic curve)が使用される場合、底に関する情報が伝送され得、S曲線(s curve)が使用される場合、変曲点の座標及び各区間に対する底とy切片に関する情報が伝送され得、多数の曲線が組み合わされた曲線(combination curve)が使用される場合、各区間のx座標、各区間の曲線の種類及び当該グラフに関する情報が伝送され得る。   The lower region conversion curve detail information (lower_DR_transformation_curve ()) indicates additional information based on the conversion curve identified by the lower region conversion curve type information (lower_DR_transformation_curve_type). For example, when a linear curve is used, gradient information may be transmitted, and when an exponential curve or a logarithmic curve is used, information about the bottom may be transmitted, and the S curve may be transmitted. If (s curve) is used, the coordinates of the inflection point and information about the base and the y-intercept for each section may be transmitted. , The type of curve in each section and information on the graph can be transmitted.

追加領域個数情報(number_luminance_upper_bound_diff)は、核心明るさ範囲領域を拡張するために使用される変数の個数を示す。   The additional area number information (number_luminance_upper_bound_diff) indicates the number of variables used to extend the core brightness range area.

追加領域差情報(luminance_upper_bound_diff[i])は、超高画質放送コンテンツでi+1番目の明るさ値を構成するための差値を示す。既存の明るさ範囲より広い明るさ範囲を有するが、超高画質放送コンテンツで表現された明るさ範囲を全て受容できないディスプレイ(ケース2)で核心明るさ範囲領域を拡張する場合、最大明るさ情報(luminance_upper_bound)は、luminance_upper_bound+luminance_upper_bound_diff[0]+…+luminance_upper_bound_diff[i]が示す値に変更され得る。   The additional area difference information (luminance_upper_bound_diff [i]) indicates a difference value for forming the (i + 1) th brightness value in the ultra-high-definition broadcast content. When extending the core brightness range area on a display (Case 2) having a brightness range wider than the existing brightness range but not accepting all the brightness ranges expressed in the ultra-high-definition broadcast content, the maximum brightness information (Luminance_upper_bound) can be changed to a value indicated by luminance_upper_bound + luminance_upper_bound_diff [0] + ... + luminance_upper_bound_diff [i].

追加領域差デジタル値(luma_upper_value_diff[i])は、超高画質放送コンテンツでi+1番目の明るさ値に対するデジタル値(digital value)を示す。既存の明るさ範囲より広い明るさ範囲を有するが、超高画質放送コンテンツで表現された明るさ範囲を全て受容できないディスプレイ(ケース2)で核心明るさ範囲領域を拡張する場合、最大明るさデジタル値(luma_upper_value)は、luma_upper_value+luma_upper_value_diff[0]+…+luma_upper_value_diff[i]が示す値に変更され得る。   The additional area difference digital value (luma_upper_value_diff [i]) indicates a digital value (digital value) for the (i + 1) th brightness value in the ultra-high-definition broadcast content. If the core brightness range is extended on a display (Case 2) that has a brightness range wider than the existing brightness range but cannot accept all the brightness range expressed in the ultra-high-definition broadcast content, the maximum brightness digital The value (luma_upper_value) can be changed to a value indicated by luma_upper_value + luma_upper_value_diff [0] +... + Luma_upper_value_diff [i].

変更上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type[i])は、i+1番目の明るさ範囲をサポートする場合、変更された上位明るさ範囲領域で使用される変換曲線を識別することができる。すなわち、変更上位領域変換曲線タイプ情報は、核心明るさ範囲領域が拡張される場合、これに従って変更された上位明るさ範囲領域で使用される変換曲線を識別することができる。   The changed upper region conversion curve type information (upper_DR_transformation_curve_type [i]) can identify a conversion curve used in the changed upper brightness range region when supporting the (i + 1) th brightness range. That is, when the core brightness range area is extended, the changed upper area conversion curve type information can identify a conversion curve used in the changed upper brightness range area according to the expansion.

変更上位領域変換曲線細部情報(upper_DR_transformation_curve())は、変更上位領域変換曲線タイプ情報(upper_DR_transformation_curve_type[i])によって識別された変換曲線による追加情報を示す。すなわち、i+1番目の明るさ範囲をサポートする場合、変更された上位明るさ範囲領域で使用される変換曲線に対する細部事項を示す。   The changed upper region conversion curve detailed information (upper_DR_transformation_curve ()) indicates additional information based on the conversion curve identified by the changed upper region conversion curve type information (upper_DR_transformation_curve_type [i]). That is, in the case of supporting the (i + 1) th brightness range, details of a conversion curve used in the changed upper brightness range area are shown.

変更上位明るさ範囲領域割合情報(upper_DR_percentage[i])は、超高画質放送コンテンツの核心明るさ範囲領域が変更される場合、これに従って変更された上位明るさ範囲領域が受信装置のディスプレイの全体明るさ範囲(DR)において占める割合を示す。   The changed upper brightness range area ratio information (upper_DR_percentage [i]) indicates that when the core brightness range area of the ultra-high-definition broadcast content is changed, the changed upper brightness range area is changed to the entire display of the receiving device. The ratio occupied in the brightness range (DR) is shown.

変更核心明るさ範囲領域割合情報(mid_DR_percentage[i])は、超高画質放送コンテンツの核心明るさ範囲領域が変更される場合、変更された核心明るさ範囲領域が受信装置のディスプレイの全体明るさ範囲(DR)において占める割合を示す。   The changed core brightness range area ratio information (mid_DR_percentage [i]) indicates that when the core brightness range area of the ultra-high definition broadcast content is changed, the changed core brightness range area is the overall brightness of the display of the receiving device. The ratio occupied in the range (DR) is shown.

図24は、本発明の一実施例に係るHEVC内に定義されたSEIメッセージを参照する場合を示す。図20の下段で説明したcolor_gamut_mapping_info_typeが0×00に設定されると、gamut_mapping_info()がHDR_info descriptor内に直接定義されず、HEVCに定義されたSEIメッセージを参照することができる。ここで、SEIメッセージは、HEVCに定義されたcolour remapping information SEI message syntaxに従うことができる。   FIG. 24 illustrates a case of referring to an SEI message defined in HEVC according to an embodiment of the present invention. When the color_gamut_mapping_info_type described in the lower part of FIG. 20 is set to 0 × 00, gamut_mapping_info () is not directly defined in the HDR_info descriptor, but can refer to an SEI message defined in HEVC. Here, the SEI message may conform to a color mapping information SEI message syntax defined in HEVC.

HDR_info_typeがマスタリングディスプレイ(Mastering display)又はビデオ(video)と関連する共通適用情報としてチャネル、プログラムまたはコンテンツである場合、映像(チャネル、プログラムまたはコンテンツ)の全般にわたって参照された情報を使用することができ、部分適用情報としてシーンタイプ(scene type)又はフレームタイプ(frame type)である場合、該当する区間にのみ参照された情報を適用することができる。   If the HDR_info_type is a channel, a program, or content as common application information related to a mastering display or a video, information referred to throughout the video (channel, program, or content) may be used. If the partial application information is a scene type or a frame type, the information referred to only the corresponding section can be applied.

図25及び図26は、本発明の一実施例に係るHDR_info descriptorをPMTを介してシグナリングする実施例を示す。PMTは、プログラムマッピングテーブル(program mapping table)を意味し、テーブル識別子情報、セクションシンタックス指示子情報、セクション長情報、プログラム番号情報、バージョン番号情報、current_next指示子情報、セクション番号情報、PCR_PID情報、program info長情報、第1ディスクリプタ情報、ストリームタイプ情報、基本PID(elementary PID)情報、エレメンタリストリーム情報長(Es_info_length)情報、第2ディスクリプタ情報、CRC情報などを含むことができる。第1ディスクリプタ情報は、program info長情報に後続する1番目のループに含まれたディスクリプタ情報を示すことができ、第2ディスクリプタ情報は、エレメンタリストリーム情報長情報に後続する2番目のループに含まれたディスクリプタ情報を示すことができる。   FIGS. 25 and 26 show an embodiment of signaling an HDR_info descriptor through a PMT according to an embodiment of the present invention. PMT means a program mapping table, which includes table identifier information, section syntax indicator information, section length information, program number information, version number information, current_next indicator information, section number information, PCR_PID information, It may include program info length information, first descriptor information, stream type information, elementary PID (elementary PID) information, elementary stream information length (Es_info_length) information, second descriptor information, CRC information, and the like. The first descriptor information can indicate the descriptor information included in the first loop following the program info length information, and the second descriptor information can be included in the second loop following the elementary stream information length information. Can be indicated.

本発明の一実施例に係るUHD_program_info_descriptorは、PMTに含まれた第1ディスクリプタ情報内に含まれてシグナリングされ得、前述したHDR_info descriptorは、PMTに含まれた第2ディスクリプタ情報内に含まれてシグナリングされ得る。   The UHD_program_info_descriptor according to an embodiment of the present invention may be signaled in the first descriptor information included in the PMT, and the HDR_info descriptor may be signaled in the second descriptor information included in the PMT. Can be done.

UHD_program_info_descriptorは、図26の上段に示したように、ディスクリプタタグ(descriptor_tag)情報、ディスクリプタ長(descriptor_length)情報及びサービスタイプ情報(UHD_service_type)のうちの少なくとも1つを含むことができる。ここで、サービスタイプ情報(UHD_service_type)は、図26の下段に示したように、UHDサービスの種類を示すことができる。例えば、サービスタイプ情報は、UHD1(4K)、UHD2(8K)、またはqualityによる区分など、ユーザが指定したUHDサービスの種類を示すことができる。これを通じて、受信機に様々なUHDサービスを提供することができる。本発明の場合、UHD_service_type=1100(UHD1 service with HDR information metadata、4Kの例)に指定して、ビデオ、シーン、クリップまたはフレームなどの互いに異なる段階又は単位に対するHDR情報(HDR info)が提供されることを示すことができる。   The UHD_program_info_descriptor may include at least one of descriptor tag (descriptor_tag) information, descriptor length (descriptor_length) information, and service type information (UHD_service_type), as shown in the upper part of FIG. Here, the service type information (UHD_service_type) can indicate the type of UHD service, as shown in the lower part of FIG. For example, the service type information can indicate the type of UHD service specified by the user, such as UHD1 (4K), UHD2 (8K), or classification based on quality. Through this, various UHD services can be provided to the receiver. In the case of the present invention, HDR information (HDR info) for different stages or units such as video, scene, clip or frame is provided by specifying UHD_service_type = 1100 (UHD1 service with HDR information metadata, 4K example). Can be shown.

図27及び図28は、本発明の一実施例に係るHDR_info descriptorをEITを介してシグナリングする実施例を示す。ATSC及びDVBシステムは、シグナリングテーブルとしてEITを含むことができ、その中に含まれたシンタックスは、図27及び図28の通りである。   FIGS. 27 and 28 show an embodiment of signaling an HDR_info descriptor via an EIT according to an embodiment of the present invention. The ATSC and DVB systems can include an EIT as a signaling table, and the syntax included therein is as shown in FIGS. 27 and 28.

本発明の一実施例に係るATSC及びDVBシステムのEIT(Event Information Table)は、共通にtable_idフィールド、section_syntax_indicatorフィールド、section_lengthフィールド、source_id(service_id)フィールド、version_numberフィールド、current_next_indicatorフィールド、section_numberフィールド、last_section_numberフィールド、num_events_in_section(segment_last_section_number)フィールド、event_idフィールド、start_timeフィールド、length_in_seconds(duration)フィールド、descriptors_lengthフィールド、descriptor()フィールド及び/又はCRC_32フィールドを含むことができる。   An EIT (Event Information Table) of the ATSC and the DVB system according to an embodiment of the present invention is commonly a table_id field, a section_syntax_indicator field, a section_length_service field, a survey_icon_service, a service_id_service, a service_id_service, a service_id_service, a service_id_service, a service_id_service, and a service_id_service. num_events_in_section (segment_last_section_number) field, event_id field, start_time field, length _In_seconds (duration) field, descriptors_length field, descriptor () field, and / or CRC_32 field.

table_idフィールドは、当該テーブルがEIT(Event Information Table)であることを識別する。section_syntax_indicatorフィールドは、MPEG−2 private_section tableのロング(long)形態を示すために1にセットされる1ビットフィールドである。section_lengthフィールドは、このフィールドの後にあるテーブルセクションの長さをバイト数で示す。source_idフィールドは、当該セクションで記述されるイベントを伝送する仮想チャネルのソースID(source id)を示す。version_numberフィールドは、テーブルのバージョン番号を示す5ビットフィールドである。current_next_indicatorフィールドは、1ビットフィールドであって、このテーブルが現在適用可能であるか、それとも次に適用可能であるかを示す。section_numberフィールドは、セクションの番号を示す。last_section_numberフィールドは、最後のセクションの番号を識別する。num_events_in_sectionフィールドは、当該テーブルセクションに含まれたイベントの個数を示す。event_idフィールドは、記述されたイベントを示す特定の数字を識別する。start_timeフィールドは、当該イベントの開始時間をGPSセカンドを基準として示す。仮想チャネルでイベントの開始時間を示す値は、放映中のイベントの終了時間を示す値よりも大きくなり得る。イベントの終了時間は、イベントの開始時間とイベントの長さを時間で表した値との和として定義できる。length_in_seconds(duration)フィールドは、イベントの持続時間を秒単位で示す。descriptors_lengthフィールドは、後続して記述されるイベントディスクリプタ(descriptor())の全長を示す。descriptor()は、テーブル内に位置するディスクリプタループ(descriptor loop)である。ディスクリプタループ(descriptor loop)は、追加的なディスクリプタを含むことができる。EIT内には、0個以上のディスクリプタが含まれてもよく、当該ディスクリプタは、各イベント毎に適用される情報を記述するイベントレベルディスクリプタ(event level descriptor)に該当し得る。本発明の一実施例によって、UHD_program_info_descriptor及びHDR_info descriptorは、イベントレベルディスクリプタに含まれて伝送されてもよい。UHD_program_info_descriptorは、UHDサービスの種類を区分するために使用することができ、HDR_info descriptorは、イベントレベル(event level)でHDR映像情報メタデータが含まれているか否かを確認することができ、受信機で受容可能であるか否かを判断するために使用することができる。ケーブル放送の場合、前記ディスクリプタの代わりに、AEITに同じ情報を提供することができる。   The table_id field identifies that the table is an EIT (Event Information Table). The section_syntax_indicator field is a one-bit field that is set to 1 to indicate a long form of the MPEG-2 private_section table. The section_length field indicates the length of the table section following this field in bytes. The source_id field indicates a source ID (source id) of a virtual channel that transmits an event described in the section. The version_number field is a 5-bit field indicating the version number of the table. The current_next_indicator field is a 1-bit field that indicates whether this table is currently applicable or next applicable. The section_number field indicates a section number. The last_section_number field identifies the number of the last section. The num_events_in_section field indicates the number of events included in the table section. The event_id field identifies a specific number that indicates the described event. The start_time field indicates the start time of the event with reference to GPS second. The value indicating the start time of the event in the virtual channel may be greater than the value indicating the end time of the event being broadcast. The end time of an event can be defined as the sum of the start time of the event and a value representing the length of the event in time. The length_in_seconds (duration) field indicates the duration of the event in seconds. The descriptors_length field indicates the total length of an event descriptor (descriptor ()) described subsequently. descriptor () is a descriptor loop located in the table. A descriptor loop can include additional descriptors. The EIT may include zero or more descriptors, and the descriptor may correspond to an event level descriptor that describes information applied to each event. According to an embodiment of the present invention, the UHD_program_info_descriptor and the HDR_info descriptor may be transmitted by being included in an event level descriptor. The UHD_program_info_descriptor can be used to distinguish the type of UHD service, and the HDR_info descriptor can check whether or not HDR video information metadata is included at an event level. Can be used to determine if it is acceptable. In the case of cable broadcasting, the same information can be provided to the AEIT instead of the descriptor.

CRC_32フィールドは、データの無欠性をチェックできるCRC値を含む。CRC値は、EITセクション全体が処理された後、Annex A of ISO−13818−1 “MPEG−2 Systems”に定義されているデコーダ内のレジスタから0値が出力されることを保証することができる。   The CRC_32 field contains a CRC value that can check the integrity of the data. The CRC value can guarantee that after the entire EIT section has been processed, a zero value is output from a register in the decoder defined in Annex A of ISO-13818-1 "MPEG-2 Systems". .

EITを介してシグナリングされるUHD_program_info_descriptorのUHD_service_typeが1100に設定されると、受信機は、適正視聴環境に対する情報がメタデータを介して伝達されることを確認できる。例えば、UHD_service_typeが1100である場合、受信機は、当該サービスがUHD1 service with HDR information metadata、4Kであることを確認できる。   When UHD_service_type of UHD_program_info_descriptor signaled via the EIT is set to 1100, the receiver can confirm that information on a proper viewing environment is transmitted via metadata. For example, if UHD_service_type is 1100, the receiver can confirm that the service is UHD1 service with HDR information metadata, 4K.

EITを介してシグナリングされるUHD_program_info_descriptorのUHD_service_typeが0000に設定されると、受信機は、HDR_info_descriptor()が存在するか否かを確認し、ビデオ、シーンまたはフレームなどの互いに異なる段階又は単位に対するHDR情報(HDR info)が提供されることを知ることができる。ここで、UHD_service_typeが0000であると、UHD1サービスであることを示すことができる。   When UHD_service_type of UHD_program_info_descriptor signaled via the EIT is set to 0000, the receiver checks whether HDR_info_descriptor () is present and outputs HDR information for different stages or units such as video, scene or frame. (HDR info) is provided. Here, if UHD_service_type is 0000, it can be indicated that the service is a UHD1 service.

上述した場合に対して、HDR_info_descriptor()を用いて、コンテンツ供給者が望むマスタリングディスプレイ、コンテンツ、シーンまたはフレーム単位の情報を視聴者のディスプレイで活用できるかを判断することができる。これを用いて、現在又は未来の時点で再生されるコンテンツに対してコンテンツ、シーンまたはフレーム単位のメタデータが使用されるか否かを予め判断することができ、予約録画などの状況のためのセッティングを受信機で予め準備することができる効果がある。   In the case described above, it is possible to determine whether or not information on a mastering display, a content, a scene, or a frame unit desired by the content provider can be used on the display of the viewer using HDR_info_descriptor (). Using this, it is possible to determine in advance whether content, scene or frame-based metadata will be used for content that is played back at the current or future point in time, for situations such as scheduled recording. There is an effect that the setting can be prepared in the receiver in advance.

図29は、本発明の他の実施例に係るHDR_info_descriptor()を示す。一つのイベント(event)に対して複数の情報が存在し得る。すなわち、コンテンツに情報が一貫して適用されるものではなく、時間によって、又は挿入されたコンテンツの有無などによって適用される情報が変換され得る。または、一つのコンテンツに対して制作者が意図する様々なモードをサポートすることもできる。このとき、受信機のディスプレイでこのようなモードを受容可能であるかを判断する必要があり、これに関する情報は、放送送信装置によってviewing_condition_metadataを介して提供され得る。viewing_condition_metadata内のシンタックスは、SEIメッセージの視聴環境ディスクリプタタ(viewing condition descriptor)の定義に従うことができる。   FIG. 29 illustrates HDR_info_descriptor () according to another embodiment of the present invention. A plurality of pieces of information may exist for one event. That is, the information is not applied consistently to the content, and the information applied depending on time or the presence or absence of the inserted content may be converted. Alternatively, various modes intended by a creator for one content can be supported. At this time, it is necessary to determine whether such a mode is acceptable on the display of the receiver, and information on this may be provided by the broadcast transmitting apparatus via the viewing_condition_metadata. The syntax in the viewing_condition_metadata can conform to the definition of the viewing condition descriptor of the SEI message (viewing condition descriptor).

HDR_info_descriptorは、図29の上端に示したように、ディスクリプタタグ(descriptor_tag)情報、ディスクリプタ長(descriptor_length)情報、及び情報の個数(number_of_info)情報のうちの少なくとも1つを含むことができる。HDR_info_descriptorはループを含むことができ、number_of_infoが指示する個数だけのHDR_info_metadata()を含むことができる。HDR_info_metadata()のシンタックスは、図17のHDR情報ディスクリプタ(HDR information descriptor)構成の実施例のスクリプト又はその一部が伝達され得る。   The HDR_info_descriptor may include at least one of descriptor tag (descriptor_tag) information, descriptor length (descriptor_length) information, and information number (number_of_info) information, as shown at the top of FIG. The HDR_info_descriptor may include a loop, and may include HDR_info_metadata () as many as the number indicated by the number_of_info. The syntax of the HDR_info_metadata () may be a script of the embodiment of the HDR information descriptor (HDR information descriptor) shown in FIG. 17 or a part thereof.

図30は、本発明の一実施例に係る受信機のブロック図及び動作方法を示す。前述した方法を通じてHDR情報(HDR information)が伝送される場合、受信機でシグナルを分析し、これに基づいてHDR映像に情報を適用するプロセスは、次の通りである。   FIG. 30 shows a block diagram and an operation method of a receiver according to an embodiment of the present invention. When HDR information is transmitted through the above-described method, a process of analyzing a signal at a receiver and applying the information to an HDR image based on the signal is as follows.

本発明の一実施例に係る受信機は、チューナー及びデモジュレータ1601を用いてRF(radio frequency)チャネルから放送信号を受信することができる。図示していないが、放送信号は、RFチャネルだけでなく、他の経路でも受信することができる。例えば、放送信号は、IPベースの放送/通信、有/無線通信、有/無線インターフェースを介して受信されてもよい。また、放送信号及び後述するメタデータは、互いに異なる経路で受信されてもよい。後述するメタデータは、放送信号だけでなく、他の経路(例えば、IPベースの放送/通信、有/無線通信、有/無線インターフェース、近距離無線通信など)でも送受信可能である。   The receiver according to an embodiment of the present invention can receive a broadcast signal from an RF (radio frequency) channel using a tuner and a demodulator 1601. Although not shown, the broadcast signal can be received not only on the RF channel but also on other routes. For example, the broadcast signal may be received via an IP-based broadcast / communication, wired / wireless communication, wired / wireless interface. Further, the broadcast signal and the metadata described later may be received through different paths. Metadata described later can be transmitted and received not only by a broadcast signal but also by another route (for example, IP-based broadcast / communication, wired / wireless communication, wired / wireless interface, short-range wireless communication, and the like).

受信機は、チャネルデコーダ1602を用いて、受信された放送信号をデコードすることができる。ここで、チャネルデコーダは、VSB又はQAM方式を用いてデコードすることができる。デコードされた放送信号は、デマルチプレクサ1603によって放送コンテンツデータ及びシグナリングデータに逆多重化することができる。放送コンテンツデータは、HDRビデオデータを含むことができ、ビデオデコーダ1605によってデコードすることができる。シグナリングデータは、放送コンテンツデータに関する情報を含むことができ、実施例によって、PMT、VCT、EIT、SDTなどのシグナリングテーブル又はシグナリング情報を含むことができる。受信機は、セクションデータプロセッサ1604を用いてシグナリング情報(例えば、PMT)からUHD_program_info_descriptorを抽出することができる。   The receiver can decode the received broadcast signal using the channel decoder 1602. Here, the channel decoder can decode using the VSB or QAM method. The decoded broadcast signal can be demultiplexed by the demultiplexer 1603 into broadcast content data and signaling data. Broadcast content data can include HDR video data and can be decoded by video decoder 1605. The signaling data may include information on broadcast content data, and may include a signaling table or signaling information such as PMT, VCT, EIT, and SDT according to an embodiment. The receiver may extract UHD_program_info_descriptor from the signaling information (eg, PMT) using section data processor 1604.

受信機は、UHD_program_info_descriptorを用いて、原本UHDTV放送を構成するために追加で受信しなければならない別途のサービスやメディアがあるかを把握する。本発明の実施例では、受信機が、UHD_service_type=1100であることを受信する場合、SEIメッセージを通じて追加情報があることを把握できる。または、受信機は、UHD_service_type=0000(8Kは0001)を受信した後、EITを介して、SEIメッセージを通じたビデオ関連追加情報があることを把握できる。   The receiver uses the UHD_program_info_descriptor to determine whether there are additional services or media that must be additionally received to configure the original UHDTV broadcast. In the embodiment of the present invention, when the receiver receives that UHD_service_type = 1100, it can recognize that there is additional information through the SEI message. Alternatively, after receiving UHD_service_type = 0000 (8K is 0001), the receiver can recognize through EIT that there is video-related additional information through an SEI message.

追加情報が存在することを確認した受信機は、HDR information SEI message又はHDR_info_typeに基づいて、追加情報が適用される範囲がチャネル単位であるか、プログラム単位であるか、コンテンツ単位であるか、シーン、クリップ又はフレームであるかを区分することができる。また、各場合に対して追加情報が適用される範囲を同期化するために、HDR_info_descriptor()は、追加情報の開始時点及び終了時点に関する情報を含むことができる。本発明の一実施例では、ビデオフレーム(video frame)を基準として同期化するための情報であるsync_info_type、sync_start、及びsync_durationを例示として用いた。また、HDR_info_descriptor()は、HDRの終了時点を示すtransition_flag情報を含むことができる。   Based on the HDR information SEI message or HDR_info_type, the receiver that has confirmed that the additional information exists may determine whether the range to which the additional information is applied is a channel unit, a program unit, a content unit, or a scene. , Clips or frames. Also, in order to synchronize the range in which the additional information is applied in each case, the HDR_info_descriptor () may include information regarding a start time and an end time of the additional information. In one embodiment of the present invention, sync_info_type, sync_start, and sync_duration, which are information for synchronization based on a video frame, are used as examples. HDR_info_descriptor () can include transition_flag information indicating the end point of HDR.

また、HDR_info_typeがコンテンツ(content)全般に対して適用される情報である場合、シグナリング情報は、HDR_video_enhancement_info_present_typeを介して、追加的にシーン、クリップ、フレームの単位の情報が提供されるか否かをシグナリングすることができる。これを通じて、受信機は、後でシーン、クリップまたはフレーム単位の情報が提供されることを予め知ることができ、シーン、クリップまたはフレーム単位のメタデータ処理及びHDR映像画質改善のためのセッティングを予め行うことができる。   Also, when HDR_info_type is information applied to the entire content, the signaling information indicates whether additional scene, clip, or frame information is provided via HDR_video_enhancement_info_present_type. can do. Through this, the receiver can know in advance that scene, clip or frame unit information will be provided later, and set in advance the metadata processing for scene, clip or frame unit and the setting for improving the HDR image quality. It can be carried out.

受信機は、シグナリング情報を介してダイナミックレンジ(dynamic range)を表現できる情報として高コントラストに関する情報や明るさを示す情報の種類を、dynamic_range_info_typeを通じて把握することができる。例えば、dynamic_range_info_typeは、高コントラスト情報としてアスペクト比(aspect ratio)、f−stopを指示するか、または明るさ情報としてpeak luminance、minimum luminanceなどを指示することができる。各タイプによるバリューは、dynamic_range_info_value[i]を介して受信機に伝達することができる。特に、本発明の一実施例によれば、コンテンツ(content)、マスタリングディスプレイ(mastering display)、フレーム(frame)、シーン(scene)の特徴によるダイナミックレンジ情報をそれぞれ示すことができ、dynamic_range_info_typeを通じて明るさをさらに細分化して示すことができる。これと共に、受信機は、カラー符号化(color encoding)に使用されたEOTFの種類、カラーガマット(color gamut)の種類、及び色温度(color temperature)の種類を、それぞれtransfer_function_type、color_gamut_type、及びcolor_temperature_typeを通じて把握することができる。   The receiver can recognize, through dynamic_range_info_type, information about high contrast and information indicating brightness as information capable of expressing a dynamic range through signaling information. For example, dynamic_range_info_type may indicate an aspect ratio and f-stop as high contrast information, or may indicate peak luminance, minimum luminance, and the like as brightness information. The value according to each type can be transmitted to the receiver through dynamic_range_info_value [i]. In particular, according to an embodiment of the present invention, dynamic range information according to characteristics of a content, a mastering display, a frame, and a scene can be indicated, and brightness can be indicated through dynamic_range_info_type. Can be further subdivided and shown. At the same time, the receiver determines the type of the EOTF, the type of the color gamut, and the type of the color temperature used for the color encoding, respectively, through the transfer_function_type, the color_gap_emission_type, and the color_gap_aperture_type through the transfer_function_type_emission_type. I can figure it out.

HDR_info_descriptor()は、追加的な情報として、ダイナミックレンジマッピング(dynamic range mapping)、カラーガマットマッピング(color gamut mapping)、視聴環境情報(viewing condition information)などを受信機に提供することができる。追加的な情報を様々な方法で提供できる場合、それぞれに対してdynamic_range_mapping_info_type、color_gamut_mapping_info_type、viewing_condition_info_typeを通じてHEVC内に定義されたSEIメッセージ又は予め約束されたSEIメッセージを指定することができる。HDR_info descriptor内で追加情報を直接定義する場合、受信機は、dynamic_range_mapping_info()、color_gamut_mapping_info()、及びviewing_condition_info()を通じて細部情報を把握することができる。   The HDR_info_descriptor () can provide a receiver with additional information such as dynamic range mapping, color gamut mapping, and viewing condition information. If additional information can be provided in various ways, an SE or I message is defined in advance in the HEVC through a message that defines a dynamic_range_mapping_info_type, a color_gamut_mapping_info_type, and a viewing_condition_info_type in the HEVC. When the additional information is directly defined in the HDR_info descriptor, the receiver can understand the detailed information through dynamic_range_mapping_info (), color_gamut_mapping_info (), and viewing_condition_info ().

上述したシグナリング情報は、受信機のメタデータプロセッサ1606に格納することができる。格納されたシグナリング情報は、前述したセット番号(set number)又はバージョン(version)が変更される場合にアップデートされ得る。受信機は、シンクロナイザ1607を用いて、メタデータプロセッサ1606に格納された画質改善情報が適用単位によってビデオデータに適用され得るように、画質改善情報(シグナリング情報)とビデオデータを同期化することができる。   The signaling information described above can be stored in the metadata processor 1606 of the receiver. The stored signaling information may be updated when the set number or version is changed. The receiver may use the synchronizer 1607 to synchronize the image quality improvement information (signaling information) and the video data such that the image quality improvement information stored in the metadata processor 1606 can be applied to the video data in application units. it can.

受信機は、与えられた情報に基づいてコンテンツ、シーンまたはフレーム単位のダイナミックレンジ情報をHDRアルゴリズム又は既存の後処理部(post−processing module)1608のような画質改善部に伝達して画質を向上させることができる。また、受信機は、ダイナミックレンジマッピン(dynamic range mapping)、カラーガマットマッピング(color gamut mapping)、視聴環境情報(viewing condition information)と関連する細部情報がある場合、トーンマッピング(tone mapping)、カラーマッピング(color mapping)、色補正(color correction)、ホワイトバランス(white balance)などのように関連するモジュールを直接連結して画質を向上させることができる。もし、受信機の内部で映像処理がlinear luminance domainで行われる場合、transfer_function_typeを通じて把握したEOTFを適用することができる。   The receiver transmits the dynamic range information of a content, a scene, or a frame to an image quality improving unit such as an HDR algorithm or an existing post-processing module 1608 based on the provided information to improve the image quality. Can be done. Also, the receiver may include a dynamic range mapping, a color gamut mapping, a tone mapping, a detailed mapping related to viewing condition information, and a detailed information related to a viewing condition information. Related modules such as color mapping, color correction, and white balance may be directly connected to improve image quality. If image processing is performed in a linear luminance domain inside the receiver, the EOTF obtained through transfer_function_type may be applied.

受信機は、後処理されたHDRビデオをディスプレイ部1609を介して表示し、ユーザに提供することができる。   The receiver can display the post-processed HDR video via the display unit 1609 and provide it to the user.

図31は、本発明の一実施例に係るHDR情報ディスクリプタを示す。本発明で提示するHDR情報(information)をより正確に適用するためには、入力ビデオフォーマット(input video format)及び出力ビデオフォーマット(ouput video format)について詳述する必要がある。すなわち、放送信号送信装置は、ビデオデータに対するプロセッシングの前及びプロセッシング後に適用されるビデオフォーマットに関する情報を追加的にシグナリングすることによって、放送信号受信装置がより正確なカラーマッピングを行うことができる。図示された情報は、図17で説明したHDR情報ディスクリプタに含まれた情報と共に追加的に当該ディスクリプタに含まれ得る。図示された情報は、本実施例のように、SEIメッセージ内の全てのHDRビデオプロセッシング(video processing)に同一に適用することができる。また、それぞれのHDRビデオプロセッシング、例えば、色相表現マッピング(color gamut mapping)及びダイナミックレンジマッピング(dynamic range mapping)にそれぞれ定義されて、互いに異なる入力/出力(input/output)特性を定義することもできる。   FIG. 31 shows an HDR information descriptor according to an embodiment of the present invention. In order to more accurately apply the HDR information (information) presented in the present invention, it is necessary to describe an input video format and an output video format in detail. That is, the broadcast signal transmitting apparatus additionally signals information on a video format applied before and after processing the video data, so that the broadcast signal receiving apparatus can perform more accurate color mapping. The illustrated information may be additionally included in the HDR information descriptor along with the information included in the HDR information descriptor described with reference to FIG. The illustrated information can be applied equally to all HDR video processing in the SEI message as in the present embodiment. Also, different HDR video processing, such as color gap mapping and dynamic range mapping, may define different input / output characteristics. .

入力色空間タイプ情報(Input_color_space_type)は、本発明で伝達するHDRビデオプロセッシングの対象となる映像に関する情報のうち、カラー表現の基準を示すことができる。カラー表現の基準としては、RGB、YCbCr、xvYCC、XYZなどを使用することができる。すなわち、入力色空間タイプ情報が0000に設定される場合、カラー表現の基準がRGBであることを示し、0001である場合にYCbCr、0010である場合にxvYCC、0011である場合にXYZであることを示すことができる。0100〜1111である場合は、将来の使用のためにリザーブド(reserved)され得る。また、入力色空間タイプ情報は、カラーガマットタイプ情報(color gamut type)と共に使用され得る。例えば、入力色空間タイプ情報(input_color_space_type)がRGBであり、カラーガマットタイプ情報(color_gamut_type)がBT.2020一定輝度(constant luminance)である場合、映像がBT.2020 CLベースのRGBで表現されたことを示すことができる。   The input color space type information (Input_color_space_type) may indicate a standard of color expression among information regarding an image to be subjected to HDR video processing transmitted in the present invention. RGB, YCbCr, xvYCC, XYZ, or the like can be used as a reference for color expression. That is, when the input color space type information is set to 0000, it indicates that the reference of color expression is RGB, and when it is 0001, it is YCbCr, when it is 0010, it is xvYCC, and when it is 0011, it is XYZ. Can be shown. If it is 0100-1111, it may be reserved for future use. Also, the input color space type information may be used together with the color gamut type information. For example, the input color space type information (input_color_space_type) is RGB, and the color gamut type information (color_gamut_type) is BT. If the image has a constant luminance, the image is displayed in BT. 2020 CL-based RGB.

入力色相精度情報(Input_color_precision)は、カラー表現の正確度を示し、必要であれば、入力色空間タイプ情報(Input_color_space_type)と連動して使用されてもよい。例えば、RGBの場合、同じ色に対しても10ビット/12ビット/14ビットのように異なる精度で表現することができる。または、浮動小数点(floating point)で示す必要がある場合、少数点以下の何桁まで精度を有するかについて示すこともできる。   The input hue accuracy information (Input_color_precision) indicates the accuracy of the color expression, and may be used in conjunction with the input color space type information (Input_color_space_type) if necessary. For example, in the case of RGB, the same color can be expressed with different precisions such as 10 bits / 12 bits / 14 bits. Alternatively, if it is necessary to indicate by a floating point, it can indicate how many digits below the decimal point have precision.

出力色空間タイプ情報(Output_color_space_type)は、入力色空間タイプ情報(Input_color_space_type)と反対の概念であって、HDRビデオプロセッシングの後にターゲットとする最終カラー表現の基準を示す。カラー表現の基準としては、RGB、YCbCr、xvYCC、XYZなどを使用することができる。すなわち、出力色空間タイプ情報が0000に設定される場合、カラー表現の基準がRGBであることを示し、0001である場合にYCbCr、0010である場合にxvYCC、0011である場合にXYZであることを示すことができる。0100〜1111である場合は、将来の使用のためにリザーブド(reserved)され得る。出力色相精度情報(Output_color_precision)はカラー表現の正確度を示し、必要であれば、出力色空間タイプ情報(Output_color_space_type)と連動して使用されてもよい。出力色相精度情報に対する実施例は、入力色相精度情報(Input_color_precision)の実施例と同一に適用することができる。プロセッシング色空間タイプ情報(processing_color_space_type)は、HDRビデオプロセッシングが行われる色空間(Color space)を示す。一般的にXYZのような中立色空間を使用することができるが、特定の色空間(color space)を指定して使用してもよい。プロセッシング色空間としては、XYZ、YCbCr(BT.2020,non−CL)、YCbCr(BT.2020,CL)、CIE L*a*b*、及びYUVを使用することができる。すなわち、プロセッシング色空間タイプ情報の値が0000に設定された場合にXYZ、0001に設定された場合にYCbCr(BT.2020,non−CL)、0010に設定された場合にYCbCr(BT.2020,CL)、0011に設定された場合にCIE L*a*b*、及び0100に設定された場合にYUVが色空間タイプとして指定され得る。   The output color space type information (Output_color_space_type) is the opposite concept of the input color space type information (Input_color_space_type) and indicates a reference of a final color expression to be targeted after HDR video processing. RGB, YCbCr, xvYCC, XYZ, or the like can be used as a reference for color expression. That is, when the output color space type information is set to 0000, it indicates that the reference of color expression is RGB, and when it is 0001, it is YCbCr, when it is 0010, it is xvYCC, and when it is 0011, it is XYZ. Can be shown. If it is 0100-1111, it may be reserved for future use. The output hue accuracy information (Output_color_precision) indicates the accuracy of the color expression, and may be used in conjunction with the output color space type information (Output_color_space_type) if necessary. The embodiment for the output hue accuracy information can be applied in the same manner as the embodiment for the input hue accuracy information (Input_color_precision). Processing color space type information (processing_color_space_type) indicates a color space (Color space) in which HDR video processing is performed. Generally, a neutral color space such as XYZ can be used, but a specific color space may be designated and used. As the processing color space, XYZ, YCbCr (BT. 2020, non-CL), YCbCr (BT. 2020, CL), CIE L * a * b *, and YUV can be used. That is, when the value of the processing color space type information is set to 0000, it is XYZ, when it is set to 0001, it is YCbCr (BT.2020, non-CL), and when it is set to 0010, it is YCbCr (BT.2020, BT.2020). CL), CIE L * a * b * when set to 0011, and YUV when set to 0100 may be specified as the color space type.

プロセッシング色相精度情報(Processing_color_precision)はカラー表現の正確度を示し、必要であれば、プロセッシング色空間タイプ情報(processing_color_space_type)と連動して使用することができる。これに対する実施例は、入力色相精度情報(Input_color_precision)の実施例と同一に適用することができる。   Processing hue accuracy information (Processing_color_precision) indicates the accuracy of color expression, and may be used in conjunction with processing color space type information (processing_color_space_type) if necessary. This embodiment can be applied in the same way as the embodiment of the input hue accuracy information (Input_color_precision).

HDR情報ディスクリプタは、ターゲット情報をさらに含むことができる。ダイナミックレンジ情報に対してターゲット情報は、HDR情報ディスクリプタを介して当該フレーム/場面の画質改善を追求するときに目標(target)となる結果に関する情報を示す。ここで、目標は、ビデオフォーマットまたは目標となるディスプレイなどであってもよい。   The HDR information descriptor may further include target information. The target information with respect to the dynamic range information indicates information regarding a result that is a target when pursuing improvement in image quality of the frame / scene via the HDR information descriptor. Here, the target may be a video format or a target display.

ターゲット情報は、次のような要素を含むことができる。ターゲットダイナミックレンジ情報タイプ個数(Number_of_target_dynamic_range_info_type)情報は、ターゲットダイナミックレンジ情報タイプの個数を示すことができる。ターゲットダイナミックレンジ情報タイプ(target_dynamic_range_info_type)情報は、HDRビデオプロセッシングがターゲットとするダイナミックレンジ情報の種類を定義することができる。これに対して、ターゲットダイナミックレンジ情報バリュー(target_dynamic_range_info_value)情報は、ターゲットダイナミックレンジ情報タイプ情報が定義した情報に対する具体的な値を示すことができる。ターゲット変換関数タイプ情報(target_transfer_function_type)、ターゲットカラーガマットタイプ情報(target_color_gamut_type)、及びターゲットカラー温度タイプ情報(target_color_temperature_type)は、それぞれターゲットとする変換関数の種類、カラーガマットの種類、カラー温度の種類に関する情報を示すことができる。これらの情報は、前述したNumber_of_dynamic_range_info_type、dynamic_range_info_type、dynamic_range_info_value、transfer_function_ type、color_gamut_type、及びcolor_temperature_typeに対応する意味を有することができる。ここで、既存に定義した値は、HDRビデオプロセッシングの対象となる映像のダイナミックレンジ(dynamic range)、カラーガマット(color gamut)、及び変換関数(transfer function)を示すものと意味を具体化して適用できる。   The target information can include the following elements. The target dynamic range information type number (Number_of_target_dynamic_range_info_type) information may indicate the number of target dynamic range information types. The target dynamic range information type (target_dynamic_range_info_type) information can define the type of dynamic range information targeted by HDR video processing. On the other hand, the target dynamic range information value (target_dynamic_range_info_value) information can indicate a specific value for the information defined by the target dynamic range information type information. The target conversion function type information (target_transfer_function_type), the target color gamut type information (target_color_gamut_type), and the target color temperature type information (target_color_temperature_type) are the type of the color and the type of the conversion function that target the color, and the type of the color conversion matte with the target. Can be shown. The above information includes the above-mentioned Number_of_dynamic_range_info_type, dynamic_range_info_type, dynamic_range_info_value, transfer_function_emission_type, and transfer_function_type. Here, the previously defined values indicate the dynamic range, the color gamut, and the transfer function of an image to be subjected to HDR video processing, and are applied with specific meaning. it can.

図32は、本発明の一実施例に係るHDR情報ディスクリプタを示す。図示された情報は、図17で説明したHDR情報ディスクリプタに含まれた情報と共に追加的に当該ディスクリプタに含まれ得る。HDR情報ディスクリプタは、追加で、HDRプログラムトランジションフラグ情報、トランジションセットナンバー情報、及びトランジションバージョンナンバー情報をさらに含むことができる。HDRトランジションフラグ情報(HDR_program_transition_flag)は、HDR情報ディスクリプタに主要な変化がある場合を示す。例えば、当該フラグが1である場合、現在のHDRプログラム/コンテンツの終了の意味を有することができる。また、当該フラグが1である場合、HDRコンテンツの変化、適用されるHDR情報の種類の変化などを意味し得る。放送送信装置は、上述した変化が発生した後、一定のフレーム/時間の間1にセットすることによって、HDR情報ディスクリプタに主要な変化、HDRコンテンツ/プログラムの変化があることを知らせてもよい。または、変化が起こる直前に一定のフレーム/時間の間1にセットすることによって、一定のフレーム/時間の後にHDR情報ディスクリプタに変化があること、すなわち、HDRコンテンツ/プログラムの変化がある予定であることを知らせることができる。本フラグがシグナリングされる場合、主要な変化事項を適用するために、当該SEIメッセージを必須に参考するように条件を与えることもできる。必要に応じて、このようなシグナリングは、ビデオレベルだけでなく、システムレベル又はサービスレベルでも行うことができる。トランジションセットナンバー情報(transition_set_number)及びトランジションバージョンナンバー情報(transition_version_number)は、変更されたHDRコンテンツ/プログラムの特徴を知らせるための追加情報として伝送され得る。例えば、トランジションセットナンバー(set_number)情報を介して、変更された又は変更されるHDRコンテンツ/プログラムで使用するHDRシステムをシグナリングするか、または多数のHDRターゲットに関する情報がある場合、現在のターゲットと連携されたセットナンバー情報(set_number)をシグナリングすることができる。セットナンバー(Set_number)情報だけでなくトランジションバージョンナンバー(version_number)情報も、次のHDRコンテンツ/プログラムに関する情報として提供することができる。必要に応じて、様々な種類の情報に対するリンクを提供することもできる。例えば、1000nit/500nit/100nitのターゲットディスプレイ(target display)に該当するそれぞれのセットナンバー情報(set_number)及びバージョンナンバー情報(version_number)を提供することができる。   FIG. 32 shows an HDR information descriptor according to an embodiment of the present invention. The illustrated information may be additionally included in the HDR information descriptor along with the information included in the HDR information descriptor described with reference to FIG. The HDR information descriptor may additionally include HDR program transition flag information, transition set number information, and transition version number information. The HDR transition flag information (HDR_program_transition_flag) indicates a case where there is a major change in the HDR information descriptor. For example, if the flag is 1, it may have the meaning of the end of the current HDR program / content. When the flag is 1, it may mean a change in HDR content, a change in the type of HDR information to be applied, or the like. After the above-mentioned change has occurred, the broadcast transmitting apparatus may notify the HDR information descriptor that there is a major change, a change in the HDR content / program, by setting it to 1 for a certain frame / time. Alternatively, by setting to 1 for a certain frame / time just before the change occurs, there will be a change in the HDR information descriptor after a certain frame / time, that is, a change in the HDR content / program. I can let you know. When this flag is signaled, a condition may be provided to refer to the SEI message in order to apply a main change. If desired, such signaling can be performed at the system or service level as well as at the video level. The transition set number information (transition_set_number) and the transition version number information (transition_version_number) may be transmitted as additional information for notifying the characteristics of the changed HDR content / program. For example, signaling the HDR system to be used in the changed or changed HDR content / program via the transition set number (set_number) information, or linking with the current target when there is information on multiple HDR targets The set number information (set_number) may be signaled. Not only the set number (Set_number) information but also the transition version number (version_number) information can be provided as information on the next HDR content / program. Links to various types of information can be provided as needed. For example, each set number information (set_number) and version number information (version_number) corresponding to a target display (target display) of 1000 nit / 500 nit / 100 nit can be provided.

HDRトランジションフラグ情報と関連して図17で説明したトランジションフラグ情報(transition_flag)は、次のように使用することができる。トランジションフラグ情報(Transition_flag)の意味を拡張して、HDR情報ディスクリプタ(HDR information descriptor)に主要な変化がある場合を示すように設定することができる。すなわち、トランジションフラグ情報(transition_flag)の値が1である場合、現在の又は現在のプログラムに該当するHDR情報ディスクリプタ(HDR information descriptor)の伝送が終了するという意味を付与することによって、SDRが開始されるという意味だけでなく、他のHDRプログラムが開始されるか、または他の種類のメタデータを適用するという意味などで使用することができる。具体的なシグナリングの意味及び方法は、HDR_program_transition_flagに従うようにすることができる。ここで、トランジションフラグ情報(transition_flag)が単独で使用されるか、またはHDRトランジションフラグ情報(HDR_program_transition_flag)と連携して2つの信号を全て使用することができる。例えば、トランジションフラグ情報(transition_flag)は、当該HDR情報ディスクリプタの終了時点(HDRコンテンツの終了時点)にシグナリングし、HDRトランジションフラグ情報(HDR_program_transition_flag)は、次のHDRコンテンツの開始時点にシグナリングすることができる。   The transition flag information (transition_flag) described with reference to FIG. 17 in connection with the HDR transition flag information can be used as follows. The meaning of the transition flag information (Transition_flag) can be extended to indicate that there is a major change in the HDR information descriptor (HDR information descriptor). That is, when the value of the transition flag information (transition_flag) is 1, the SDR is started by giving the meaning that the transmission of the HDR information descriptor (HDR information descriptor) corresponding to the current or the current program ends. In addition to this, it can be used to mean that another HDR program is started or other types of metadata are applied. The specific meaning and method of the signaling may be in accordance with the HDR_program_transition_flag. Here, the transition flag information (transition_flag) may be used alone, or all two signals may be used in conjunction with the HDR transition flag information (HDR_program_transition_flag). For example, the transition flag information (transition_flag) can be signaled at the end of the HDR information descriptor (end of HDR content), and the HDR transition flag information (HDR_program_transition_flag) can be signaled at the start of the next HDR content. .

HDRトランジションフラグ情報と関連して図17で説明したセットナンバー情報(set_number)は、その意味を拡張して使用することができる。セットナンバー情報(set_number)の意味を拡張して、HDR情報ディスクリプタに主要な変化がある場合を示すように設定することができる。すなわち、プログラム/コンテンツ/チャネルに応じてHDR情報ディスクリプタに互いに異なるセットナンバー(set_number)を指定することができ、この場合、HDR情報ディスクリプタの内容が変化したという意味を付与し、HDRコンテンツが終了し、新しいHDRコンテンツが開始されるなどの変化が起こったことを知らせることができる。また、セットナンバー情報(set_number)が特定のHDR情報ディスクリプタに対して固定値を有するように設定することもできる。例えば、HDRシステムに応じて互いに異なる種類のパラメータの伝達が可能な場合、それぞれのHDRシステムをセットナンバー情報(set_number)を用いて区分することができる。   The set number information (set_number) described with reference to FIG. 17 in connection with the HDR transition flag information can be used with its meaning extended. The meaning of the set number information (set_number) can be extended to indicate that there is a major change in the HDR information descriptor. That is, a different set number (set_number) can be specified for the HDR information descriptor according to the program / content / channel. In this case, the meaning that the content of the HDR information descriptor has changed is given, and the HDR content ends. , The start of a new HDR content or the like. In addition, the set number information (set_number) may be set to have a fixed value for a specific HDR information descriptor. For example, if different types of parameters can be transmitted according to the HDR system, each HDR system can be classified using set number information (set_number).

HDRトランジションフラグ情報と関連して図17で説明したバージョンナンバー情報(version_number)は、その意味を拡張して使用することができる。バージョンナンバー情報(version_number)の意味を拡張して、HDR情報ディスクリプタに主要な変化がある場合を示すように設定することができる。すなわち、放送送信装置は、HDR情報ディスクリプタに変化があるとき、変更されたバージョンナンバー(version_number)を付与し、放送受信装置が、変更されたHDR情報ディスクリプタが適用されるフレームからは新しいHDR情報ディスクリプタを必須に参考するように設定することができる。この場合、プログラム内でフレーム/場面単位の変化だけでなく、チャネル内でプログラム/コンテンツ自体が変わる場合、すなわち、現在のHDRコンテンツが他の種類のHDRコンテンツに変更される場合にも使用することができる。このとき、放送送信装置は、特定のバージョンナンバー(version_number)を付与してシグナリングすることによって、プログラム/コンテンツ自体が変わる場合のように主要な切り替えが起こる場合を特徴的に知らせることもできる。   The version number information (version_number) described with reference to FIG. 17 in relation to the HDR transition flag information can be used with its meaning extended. The meaning of the version number information (version_number) can be extended to indicate that there is a major change in the HDR information descriptor. That is, when there is a change in the HDR information descriptor, the broadcast transmitting apparatus assigns a changed version number (version_number), and the broadcast receiving apparatus transmits a new HDR information descriptor from a frame to which the changed HDR information descriptor is applied. Can be set to be referred to as mandatory. In this case, it is used not only when the program / content itself changes within the channel, that is, when the current HDR content is changed to another type of HDR content, as well as the frame / scene unit change within the program. Can be. At this time, the broadcast transmitting apparatus may give a specific version number (version_number) and perform signaling, thereby characteristically notifying a case where a major switch occurs, such as a case where a program / content itself changes.

図33は、本発明の一実施例に係る特性セット(feature set)によってフレーム(frame)内の領域を分割する場合を示す。ここで、フレームは、画面を構成するピクチャ内の全てのピクセルを含む全領域範囲を意味し得、実施例によっては、ウィンドウと呼ぶこともできる。ダイナミックメタデータ(Dynamic metadata)は、時間によって変更されるフレーム又はシーン(frame/scene)の特性を反映する情報であり得る。これと関連して、一つのフレーム内でも一定の特性に応じて互いに異なるメタデータプロセッシング(metadata processing)を適用することができる。例えば、フレーム内に暗い領域と明るい領域が共に存在する場合、それぞれの領域に対して互いに異なるプロセッシングを適用することによって、HDR映像の効果を極大化することができる。この場合、送信端では、それぞれの特性(feature)を区分する特徴を伝達することができ、各領域に対する互いに異なる処理方法を伝達することができる。受信端では、受信された領域別の特性(feature)の特徴又は処理方法に基づいて領域適応的(area−adaptive)に処理するようにすることができる。ここで、領域とは、閉曲線内で定義される単一の領域を意味してもよく、または同一又は類似の特性を有する少なくとも1つ以上の領域の集合を意味してもよい。例えば、図示のように、一つのフレームを構成する3つの領域が存在し得る。3つの領域は、互いに異なる特性(feature)を有することができる。ここで、互いに異なる領域間に重なる(overlapped)部分が存在し得る。この場合には、各領域の優先順位(priority)を指定して処理するようにすることができる。各領域別の優先順位は、映像制作者が指定することができ、制作者の意図が反映され得る。例えば、図示のように、特性セット1(feature set 1)と特性セット2(feature set 2)が重なる場合があり得る。この場合、優先順位1(priority 1)を有する特性セット2がさらに高い優先順位を有するため、重なった領域に対しては特性セット2を適用することができる。また、領域を指定する場合、各領域の和集合がフレーム(frame)全体となるように指定して、全ての領域に対するプロセッシングが可能なようにすることができる。すなわち、フレーム全体において、領域の指定から除外されてプロセッシングされない部分が発生しないようにすることができる。勿論、意図的に処理しないようにすることができるが、一般的にこの場合にも、意図的に処理しないというシグナルを伝達することが必要である。前述したように領域を指定又は区分するための基準として、位置、色相特性、明るさ特性などを使用することができる。また、特定の物体(object)に対するトラッキング(tracking)をサポートする場合、当該物体を領域として指定することもできる。この場合、当該物体がフレーム内で移動する場合、指定された領域も共に移動することができる。   FIG. 33 illustrates a case where a region in a frame is divided by a feature set according to an embodiment of the present invention. Here, a frame may mean an entire area range including all pixels in a picture constituting a screen, and may be referred to as a window in some embodiments. The dynamic metadata may be information reflecting characteristics of a frame or a scene (frame / scene) that changes with time. In this regard, different metadata processing may be applied to one frame according to certain characteristics. For example, when both a dark region and a bright region exist in a frame, the effect of the HDR image can be maximized by applying different processing to each region. In this case, the transmitting end can transmit a feature for distinguishing each characteristic, and can transmit different processing methods for each region. The receiving end may perform the area-adaptive processing based on the received characteristic of each area or the processing method. Here, the region may mean a single region defined in a closed curve, or may mean a set of at least one or more regions having the same or similar characteristics. For example, as shown, there may be three regions that make up one frame. The three regions may have different features from each other. Here, there may be an overlapped portion between different regions. In this case, processing can be performed by designating the priority (priority) of each area. The priority order for each area can be specified by the video producer, and the intention of the producer can be reflected. For example, as shown in the figure, a feature set 1 (feature set 1) and a feature set 2 (feature set 2) may overlap. In this case, since the property set 2 having the priority 1 (priority 1) has a higher priority, the property set 2 can be applied to the overlapping area. In addition, when specifying an area, it is possible to specify that the union of each area is the entire frame, so that processing can be performed on all the areas. That is, it is possible to prevent a part that is excluded from the area designation and is not processed from occurring in the entire frame. Of course, it is possible to intentionally not perform processing, but in this case also, it is generally necessary to transmit a signal indicating that processing is not intentionally performed. As described above, a position, a hue characteristic, a brightness characteristic, or the like can be used as a reference for designating or dividing an area. In addition, when tracking a specific object (object) is supported, the object can be designated as an area. In this case, when the object moves in the frame, the designated area can also move.

図34は、本発明の一実施例に係るHDR情報(HDR information)及び特性セット(feature set)をシグナリングする情報を示す。一つのフレームを多数の領域に対応する特性セットに区分し、各特性(feature)に応じてそれぞれに互いに異なるプロセッシングを適用できる。そのために、各領域別に特性セットの特徴を指定し、これに従ってそれぞれマッチングされる情報を並べることができる。図面では、一つのメタデータ内に情報が並列的に記述される場合を示した。すなわち、HDR情報タイプ(HDR information type)、transition_flag、セットナンバー(set number)、バージョンナンバー(version number)、sync情報、及び入力/出力/プロセッシング色空間タイプ(input/output/processing color space type)のようにフレーム全体に適用される情報を除いたダイナミックレンジマッピング情報(dynamic range mapping information)、カラーガマットマッピング情報(color gamut mapping information)、及び視聴環境情報(viewing condition information)のように特性セットによる処理過程を並列的に伝達するものである。特性セットを区分するための基準として、位置、カラー、明るさ、ヒストグラムなどを考慮することができ、これらの積集合でセット(set)を定義することができる。同一のフレームに対して複数の特性セットが適用される場合、HDR情報は、次のようなフィールドを含むことができる。   FIG. 34 illustrates information for signaling HDR information (HDR information) and a feature set according to an embodiment of the present invention. One frame can be divided into characteristic sets corresponding to a plurality of regions, and different processing can be applied to each of the characteristic sets according to each characteristic. For this purpose, the characteristics of the characteristic set can be specified for each region, and the information to be matched can be arranged according to the characteristics. The drawing shows a case where information is described in parallel in one piece of metadata. That is, the HDR information type (HDR information type), the transition_flag, the set number (set number), the version number (version number), the sync information, and the input / output / processing color space type (input / output / processing section) As described above, dynamic range mapping information excluding information applied to an entire frame, color gamut mapping information, and viewing environment information (viewing information set characteristics). It is intended to convey the process by parallel. Position, color, brightness, histogram, and the like can be considered as a criterion for classifying the characteristic set, and a set can be defined by an intersection of these. When multiple property sets are applied to the same frame, the HDR information may include the following fields.

total_number_of_feature_sets_in_a_frameフィールドは、フレーム内で区分される特性セット(feature set)の個数を示すことができる。領域が区分されない場合は、当該フィールドを1に指定することができる。   The total_number_of_feature_sets_in_a_frame field may indicate the number of feature sets classified in the frame. If the area is not partitioned, the field can be designated as 1.

feature_spatial_boundaryフィールドは、特性セットを指定する基準の一つとして、領域の位置を直接指定することができる。領域の位置は、一般的にx,y indexで示すことができる。例えば、領域の形状に応じて、四角形である場合、開始地点の座標(x,y)及び終了地点の座標(x+N,y+M)で示すことができる。または、開始地点及び各辺の長さN,Mで示すことができる。領域の形状が円形である場合、円の中心部及び直径で示すこともできる。特定の値を有する場合、使用しないことを示すこともできる。これについての詳細な実施例は、後述する図面で説明する。   The feature_spatial_boundary field can directly specify the position of the region as one of the criteria for specifying the characteristic set. The location of the region can generally be indicated by an x, y index. For example, if the area is a rectangle according to the shape of the area, it can be indicated by the coordinates (x, y) of the start point and the coordinates (x + N, y + M) of the end point. Alternatively, it can be indicated by the start point and the lengths N and M of each side. When the shape of the region is circular, it can be indicated by the center and the diameter of the circle. Having a particular value can also indicate that it is not used. A detailed example of this will be described later with reference to the drawings.

feature_colorimetry_boundaryフィールドは、特性セットを指定する基準の一つとして、特定のカラーを有する領域を指定することができる。一般的にRGB colorimetryをCIE xy座標で示すことができる。または色空間(color space)内で中心座標及び円(又は球)の直径で示してもよく、または任意の範囲を指定するようにしてもよい。特定の値を有する場合、使用しないことを示すこともできる。   The feature_colorimetry_boundary field can specify an area having a specific color as one of the criteria for specifying a characteristic set. Generally, RGB colorimetry can be represented by CIE xy coordinates. Alternatively, it may be indicated by the center coordinates and the diameter of a circle (or sphere) in a color space, or an arbitrary range may be specified. Having a particular value can also indicate that it is not used.

feature_luminance_boundaryフィールドは、特性セットを指定する基準の一つとして、特定の明るさを有する領域を指定することができる。明るさの最大最小値の範囲又は特定の明るさを中心に加減(+−)される明るさ範囲を知らせることもできる。特定の値を有する場合、使用しないことを示すこともできる。   The feature_luminance_boundary field can specify an area having a specific brightness as one of the criteria for specifying a characteristic set. It is also possible to indicate a range of maximum and minimum brightness values or a brightness range that is adjusted (+-) around a specific brightness. Having a particular value can also indicate that it is not used.

feature_histogram_boundaryフィールドは、特性セットを指定する基準の一つとして、ヒストグラムの特性によって領域を区分する場合に使用することができる。例えば、映像ヒストグラムのlocal maximumを有する部分の中心明るさ(又はデジタル値)情報及びboundary情報を伝達することができる。このとき、ヒストグラムは、luminanceに対する明るさ分布、又はRGBのうち特定のチャネルあるいはそれぞれに関する情報を伝達して特性(feature)を指定することができる。特定の値を有する場合、使用しないことを示すこともできる。   The feature_histogram_boundary field can be used as one of criteria for designating a characteristic set when a region is classified according to characteristics of a histogram. For example, the center brightness (or digital value) information and the boundary information of a portion having the local maximum of the image histogram can be transmitted. At this time, the histogram may transmit a brightness distribution with respect to luminance or information on a specific channel or each of RGB to specify a characteristic. Having a particular value can also indicate that it is not used.

feature_priorityフィールドは、特性セットとして指定された領域が重なる場合に適用される優先順位を示すことができる。前述した実施例のように、全ての特性セットに対して互いに異なる優先順位が適用されてもよく、複数の特性セットが同じ優先順位を有してもよい。また、当該フィールドが0である場合、重なる領域に対してブレンディング(blending)のような処理が行われるように指定することができる。前記に記述した部分以外にも、区分される領域間のバウンダリ(boundary)処理に関連する部分が追加されてもよい。   The feature_priority field may indicate a priority applied when areas specified as a property set overlap. As in the above-described embodiment, different priorities may be applied to all characteristic sets, and a plurality of characteristic sets may have the same priority. When the field is 0, it is possible to specify that a process such as blending is performed on an overlapping area. In addition to the parts described above, a part related to a boundary process between the divided areas may be added.

フレーム内で領域に応じて互いに異なるメタデータによる処理のためには、フレーム内の領域を区分するための特徴を伝達しなければならない。このとき、前述した図面で定義したように、spatial、colorimetry、luminance、color volume、histogramのような互いに異なるカテゴリーに対するシグナリングを考慮することができる。また、少なくとも2つ以上のカテゴリーの積集合として1つの領域を区分することができる。例えば、spatial boundaryフィールドで矩形領域を指定し、その矩形領域内でcolorimetry boundaryフィールドで特定のカラーを有する領域を指定することができる。すなわち、spatial boundaryフィールド及びcolorimetry boundaryフィールドがそれぞれ示す指定領域を同時に満足させる領域を特定の特性セット(feature set)に対応させることができる。各カテゴリーに対するシグナリングは1つ以上使用することができ、各カテゴリーについての具体的な実施例として、以下のようなシグナリングを考慮することができる。   In order to perform processing using different metadata according to regions in a frame, features for distinguishing regions in a frame must be transmitted. At this time, as described in the above-described drawings, signaling for different categories such as spatial, colorimetry, luminance, color volume, and histogram can be considered. In addition, one area can be divided as an intersection of at least two or more categories. For example, a rectangular area can be specified in the spatial boundary field, and an area having a specific color can be specified in the colorimetric boundary field in the rectangular area. In other words, regions that simultaneously satisfy the specified regions indicated by the spatial boundary field and the colorimetric boundary field can be made to correspond to a specific characteristic set. One or more signalings for each category can be used, and the following signaling can be considered as a specific example for each category.

図35は、本発明の一実施例に係る空間領域を指定するためのSpatial boundaryフィールドを示した図である。空間領域を指定するための方法として、フレーム内の一定の領域に対するシグナリングを考慮することができる。第一の方法として、矩形領域を空間領域として指定することができる(d35010)。Spatial boundaryフィールドは、矩形領域の頂点をシグナリングすることができ、より効率的なシグナリングとして、図示のように、左上端及び右下端の点をシグナリングすることができる。図面において、top_left_corner_x_axis及びtop_left_corner_y_axisは、それぞれ矩形の左上端に位置した頂点のx,y座標を示す。同様に、bottom_right_corner_x_axis及びbottom_right_corner_y_axisは、矩形の右下端に位置した頂点のx,y座標を示す。d35010に示された方法を用いて領域がシグナリングされる場合、対角線に位置した2つの頂点によって決定される矩形の内部を含む領域を空間領域として指定することができる。   FIG. 35 is a diagram illustrating a Spatial boundary field for designating a spatial area according to an embodiment of the present invention. As a method for specifying a spatial region, signaling for a certain region in a frame can be considered. As a first method, a rectangular area can be designated as a spatial area (d35010). The Spatial boundary field may signal the vertices of the rectangular area, and may signal the upper left and lower right points as shown in the drawing as more efficient signaling. In the drawing, top_left_corner_x_axis and top_left_corner_y_axis indicate the x and y coordinates of the vertex located at the upper left corner of the rectangle. Similarly, bottom_right_corner_x_axis and bottom_right_corner_y_axis indicate the x and y coordinates of the vertex located at the lower right corner of the rectangle. When a region is signaled using the method shown in d35010, a region including the inside of a rectangle determined by two vertices located diagonally can be designated as a spatial region.

第二の方法として、矩形ではなく円形状の領域を指定する場合、円の内部に属する領域を空間領域として指定することができる。この場合、Spatial boundaryフィールドは、円の中心座標(center_of_circle_x_axis,center_of_circle_y_axis)及び円の半径(radius_of_circle)に対する情報をシグナリングすることができる(d35020)。この方法を用いて領域がシグナリングされる場合、円の内部に属するピクセル(pixel)を全て含むものと考慮することができる。   As a second method, when specifying a circular area instead of a rectangle, an area belonging to the inside of the circle can be specified as a spatial area. In this case, the Spatial boundary field may signal information on the center coordinates of the circle (center_of_circle_x_axis, center_of_circle_y_axis) and the radius of the circle (radius_of_circle) (d35020). When a region is signaled using this method, it can be considered to include all pixels belonging to the inside of the circle.

第三の方法として、前述した矩形及び円以外にも、楕円などのよく知られた図形の形状を考慮できる。任意の多角形としてシグナリングする場合、d35030に示したように、多角形の頂点の数(number_of_points_minus_2)及び各頂点の位置(x_axis [i],y_axis [i])をシグナリングすることができる。このとき、多角形を作るために、頂点の個数は最小3個となり得る。number_of_points_minus_2フィールドは、多角形の実際の頂点の個数より2だけ少ない数をシグナリングすることもできる。例えば、number_of_points_minus_2フィールドが2である場合は、前述した矩形の形状をシグナリングすることができる。このように、任意の多角形としてシグナリングされる場合、当該多角形に含まれた点を全て使用して構成される多角形の内部の領域を指称するものと考慮することができる。   As a third method, a well-known figure shape such as an ellipse can be considered in addition to the above-described rectangle and circle. When signaling as an arbitrary polygon, as shown in d35030, the number of vertices of the polygon (number_of_points_minus_2) and the position of each vertex (x_axis [i], y_axis [i]) can be signaled. At this time, the number of vertices may be a minimum of three in order to create a polygon. The number_of_points_minus_2 field may signal a number that is two less than the actual number of vertices of the polygon. For example, when the number_of_points_minus_2 field is 2, the rectangular shape described above can be signaled. Thus, when signaled as an arbitrary polygon, it can be considered that the signal points to an area inside the polygon configured by using all the points included in the polygon.

第四の方法は、任意の多角形に対する他のシグナリング方法として、予め定められた又は予め伝送された領域を使用することができる。このとき、d35040に示したように、マスク(mask)の種類(mask_type)、マスクの開始又は中心位置(location_x_axis,location_y_axis)、マスクのサイズ(ratio:基準サイズに対する比率)のような情報を通じて、一定の形状の領域を指定することができる。このとき、マスクの種類は、予め指定又は伝送された領域を使用することができる。マスクの種類による領域の形状のディテールは、静的メタデータ(static metadata)を介して予め伝送されてもよく、以前のフレーム情報を使用してもよく、マスクを直接ピクセルデータ(pixel data)として送ってもよい。   A fourth method can use a predefined or pre-transmitted area as another signaling method for any polygon. At this time, as shown in d35040, a constant is obtained through information such as the type (mask_type) of the mask (mask), the start or center position of the mask (location_x_axis, location_y_axis), and the size of the mask (ratio: ratio to the reference size). Can be specified. At this time, an area designated or transmitted in advance can be used as the type of the mask. The details of the shape of the area according to the type of the mask may be transmitted in advance through static metadata, or previous frame information may be used. The mask may be directly used as pixel data. You may send it.

図36は、本発明の一実施例に係る空間領域を指定するためのColorimetry boundaryフィールドを示した図である。特性セット(feature set)に対応する領域を指定するために、HDR情報は、色度平面上での色相範囲を指定することもできる。一般的に映像において基本的に使用する色空間をベースとする色度平面を使用することができる。しかし、場合によって、制作者が意図する特定の色度平面上での色相範囲を考慮することができる。制作者が意図する特定の色度平面上での色相範囲をシグナリングするためには、当該色度平面に対するシグナリングが必要となり得る。この場合、d36010に示したように、特定の色空間タイプ(color_space_type)、及び必要に応じて変換式(coefficient [i])を提供することもできる。ここで、色空間タイプ(color space type)は、d36020に示したように、YCbCr、Lab、Yuvなどの色空間を使用することができる。また、luminance表現方法(linear,non−linear)、luminance変換式(EOTF a,EOTF b)、中心色温度(D65,D50など)のような基準によって区分されてもよい。実施例によって、既存に定義された色空間ではなく任意の色空間を使用してもよく、この場合、XYZのような中立(neutral)色空間から任意の色空間への変換式を用いて定義することができる。   FIG. 36 is a diagram illustrating a Colorimetric boundary field for specifying a spatial area according to an embodiment of the present invention. In order to specify an area corresponding to a feature set, the HDR information may specify a hue range on a chromaticity plane. Generally, a chromaticity plane based on a color space basically used in an image can be used. However, in some cases, a hue range on a specific chromaticity plane intended by the creator can be considered. In order to signal the hue range on a specific chromaticity plane intended by the creator, signaling for the chromaticity plane may be required. In this case, as shown in d36010, a specific color space type (color_space_type) and, if necessary, a conversion equation (coefficient [i]) can be provided. Here, as the color space type, a color space such as YCbCr, Lab, and Yuv can be used as shown in d36020. In addition, the image data may be classified based on criteria such as a luminance expression method (linear, non-linear), a luminance conversion equation (EOTFa, EOTFb), and a center color temperature (D65, D50, etc.). Depending on the embodiment, an arbitrary color space may be used instead of the color space defined in advance. In this case, the color space is defined using a conversion formula from a neutral color space such as XYZ to an arbitrary color space. can do.

色相範囲を指定するための色座標が指定された後、与えられた色空間内での一定の範囲内の色相の集合として色相範囲を考慮することができる。この場合、色座標上での任意の多角形、円、楕円などで色相範囲を指定することができる。多角形の場合、d36030に示したように、点の個数(number_of_points_minus_3)による頂点の座標値(x_axis[i],y_axis[i])を通じて指定された多角形の内部のカラー領域を限定することができる。具体的な領域の指定は、前の図面で説明した通りである。   After the color coordinates for specifying the hue range are specified, the hue range can be considered as a set of hues within a certain range in a given color space. In this case, the hue range can be specified by an arbitrary polygon, circle, ellipse, or the like on the color coordinates. In the case of a polygon, as shown in d36030, it is possible to limit the color region inside the specified polygon through the coordinate values (x_axis [i], y_axis [i]) of the vertices based on the number of points (number_of_points_minus_3). it can. The specific area is specified as described in the previous drawing.

また、d36040に示したように、特定のカラー座標(center_of_circle_x_axis,center_of_circle_y_axis)を中心に一定の半径(radius_of_circle)内のカラーの集合としてカラー領域をシグナリングすることができる。   Also, as shown in d36040, a color area can be signaled as a set of colors within a certain radius (radius_of_circle) centered on specific color coordinates (center_of_circle_x_axis, center_of_circle_y_axis).

これと同様に、d36050に示したように、特定のカラー座標(center_of_ellipsoid_x_axis,center_of_ellipsoid_y_axis)を中心にする一定の勾配(angle)を有する軸を中心に楕円の形状(coefficient_a,coefficient_b)でカラー領域を限定することもできる。   Similarly, as shown in d36050, an elliptical shape (coefficient_a, coefficent) with an elliptical shape (coefficient_a, coefficient) around an axis having a constant gradient (angle) centered on a specific color coordinate (center_of_ellipsid_x_axis, center_of_ellipsioid_y_axis). You can also.

図37は、本発明の一実施例に係る空間領域を指定するためのLuminance boundaryフィールド及びLuminance distribution boundaryフィールドを示した図である。特性セット(feature set)に対応する領域を指定するために、HDR情報は、明るさの範囲を指定するか、または映像内の明るさ分布を指定することができる。Luminance boundaryフィールドは、d37010に示したように、明るさの範囲として領域を指定することができる。ピクセル(Pixel)の明るさがblack−whiteの両極端を結ぶ線分上に存在するという仮定下に、当該線分上の点で明るさ範囲を区分することができる。このとき、明るさに対する表現は、明るさの相対分布を示すデジタル値(digital_value)で表現されるか、または絶対明るさ値(luminance_value)で表現されてもよい。   FIG. 37 illustrates a Luminance boundary field and a Luminance distribution boundary field for designating a spatial area according to an embodiment of the present invention. In order to specify an area corresponding to a feature set, the HDR information can specify a range of brightness or a brightness distribution in an image. In the Luminance boundary field, as shown in d37010, an area can be specified as a range of brightness. Under the assumption that the brightness of a pixel exists on a line segment connecting the extremes of black-white, the brightness range can be divided by points on the line segment. At this time, the expression for the brightness may be represented by a digital value (digital_value) indicating a relative distribution of the brightness, or may be represented by an absolute brightness value (luminance_value).

Luminance distribution boundaryフィールドは、d37020に示したように、明るさ分布として領域を指定することができる。明るさ範囲による特性(feature)区分の他の方法の一つとして、映像内の明るさ分布を用いることができる。このとき、明るさ範囲を区分するために、明るさが主要に分布する地点の明るさ(local_maximum)を基準として高い明るさ限界(upper_bound)及び低い明るさ限界(lower_bound)を指定することができる。すなわち、基準明るさを基準として上限及び下限をシグナリングすることができる。ここで、各フィールド値は、明るさの相対分布を示すデジタル値(digital_value)又は絶対明るさ値(luminance_value)であってもよく、必要に応じて、図示のように2つを全て使用してもよい。本発明では、明るさ分布に対する代表例として、ヒストグラム(histogram)分布に基づいて範囲を指定する例を示したが、実施例によっては、明るさ累積分布のような他の種類の分布を用いることができる。   The Luminance distribution boundary field can specify an area as a brightness distribution, as shown in d37020. As another method of classifying features according to a brightness range, a brightness distribution in an image can be used. At this time, in order to divide the brightness range, a high brightness limit (upper_bound) and a low brightness limit (lower_bound) can be designated based on the brightness (local_maximum) of a point where brightness is mainly distributed. . That is, the upper limit and the lower limit can be signaled based on the reference brightness. Here, each field value may be a digital value (digital_value) or an absolute brightness value (luminance_value) indicating a relative distribution of brightness, and if necessary, use all two as shown in the figure. Is also good. In the present invention, as an example of a brightness distribution, an example in which a range is specified based on a histogram distribution has been described. However, in some embodiments, another type of distribution such as a brightness accumulation distribution may be used. Can be.

図38は、本発明の一実施例に係る空間領域を指定するためのColor volume boundaryフィールドを示した図である。特性セット(feature set)に対応する領域は、一つの色空間内で定義され得る。すなわち、前述した実施例とは異なり、カラー領域と明るさ領域を一つの色空間内で定義することができる。このとき、色相範囲(color volume)が定義された色空間(color space)に対する定義が別途に必要な場合、上述したfeature_color_spaceを用いることができる。   FIG. 38 is a diagram illustrating a Color volume boundary field for specifying a spatial area according to an embodiment of the present invention. A region corresponding to a feature set may be defined in one color space. That is, unlike the above-described embodiment, the color area and the brightness area can be defined in one color space. At this time, if a color space (color space) in which a hue range (color volume) is defined needs to be separately defined, the above-described feature_color_space can be used.

色空間内で色相範囲(color volume)を定義する方法としては、多面体の頂点を定義することができる。ここで、d38010に示したように、頂点の個数(number_of_points)及び各頂点の座標(color_volume_x_axis,color_volume_y_axis)を通じて多面体を定義することができる。すなわち、色空間内でこのように定義された多面体の内部に含まれる色相を色相範囲(color volume)の必要領域として指定することができる。   As a method of defining a hue range (color volume) in a color space, a vertex of a polyhedron can be defined. Here, as shown in d38010, a polyhedron can be defined through the number of vertices (number_of_points) and the coordinates of each vertex (color_volume_x_axis, color_volume_y_axis). That is, the hue included in the polyhedron thus defined in the color space can be designated as a necessary region of the hue range (color volume).

次に、色相範囲(color volume)内での範囲を指定する他の方法として、d38020に示したように、明るさの段階によるカラリメトリー(colorimetry)を定義する方法を考慮することができる。例えば、HSI(Hue Saturation Intensity)色空間(color space)のようにカラー(hue,saturation)と明るさ(intensity)が分離される場合、色相(hue)、彩度(saturation)及び明度(intensity)のそれぞれをxyz座標平面上の各軸に対応させることができる。この場合、明るさの段階(color_volume_z_axis)を一定の個数(number_of_luminance_levels)に対応するレベルに分け、各明るさの段階による多角形の色座標(color_volume_x_axis,color_volume_y_axis)を定義することができる。すなわち、明るさのレベルによるカラリメトリーを定義し、各層間は補間(interpolation)を通じて色相範囲(color volume)を定義することができる。言い換えれば、色空間(color space)内で定義しようとする色相範囲(color volume)を、色空間内で区分された少なくとも1つ以上の明るさ区間に対してそれぞれ定義された少なくとも1つ以上の色相範囲を通じて示すことができる。例えば、色空間内で第1明るさ区間に対しては第1色相範囲をシグナリングし、第2明るさ区間に対しては第2色相範囲をシグナリングして、各明るさ区間別に互いに異なって定義される色相範囲を示すことができる。このような色相範囲に対するシグナリングは、フレーム全体に対して定義することができ、また、実施例によって、一つのフレームを構成する複数の領域に対してそれぞれ定義されてもよい。ここで、フレームとは、画面を構成するピクチャ内の全てのピクセルを含む全領域範囲を意味し得、実施例によってはウィンドウと呼ぶこともできる。   Next, as another method of specifying a range in a color volume, a method of defining colorimetry according to a brightness level as shown in d38020 can be considered. For example, when a color (hue, saturation) and a brightness (intensity) are separated like an HSI (Hue Saturation Intensity) color space, a hue, a saturation, and a lightness (intensity) are separated. Can correspond to each axis on the xyz coordinate plane. In this case, the brightness level (color_volume_z_axis) is divided into levels corresponding to a predetermined number (number_of_luminance_levels), and the color coordinates (color_volume_x_axis, color_volume_y_axis_) of a polygon according to each brightness level can be defined. That is, colorimetry according to a brightness level may be defined, and a color volume may be defined between each layer through interpolation. In other words, a hue range to be defined in a color space is defined by at least one or more brightness sections defined for at least one or more brightness sections divided in the color space. It can be indicated through the hue range. For example, in a color space, a first hue range is signaled for a first brightness section, and a second hue range is signaled for a second brightness section. Hue range to be displayed. Such signaling for the hue range may be defined for the entire frame, or may be defined for each of a plurality of regions constituting one frame, according to an embodiment. Here, a frame may mean an entire area range including all pixels in a picture constituting a screen, and may be called a window in some embodiments.

明るさレベルの区分による色相範囲(color volume)のシグナリングに対する他の例として、d38030に示したように、カラリメトリー(colorimetry)を円の形態でシグナリングすることができる。すなわち、区分される明るさ値(color_volume_z_axis)で定義されるカラープレーン(color plane)に対して中心色相のカラー座標(center_of_circle_x_axis,center_of_circle_y_axis)と類似のカラーが含まれるものと予想される半径(radius_of_circle)をシグナリングし、カラープレーンの間は、補間(interpolation)を通じて全体色相範囲(color volume)に関する情報を提供することができる。   As another example of signaling the color volume according to the brightness level, colorimetry may be signaled in the form of a circle as shown in d38030. In other words, the radius of the color plane expected to include a color similar to the color coordinates (center_of_circle_x_axis, center_of_circle_y_axis) of the center hue with respect to the color plane defined by the divided brightness value (color_volume_z_axis). , And information on the entire color volume can be provided through interpolation between color planes.

色相範囲(color volume)内で特定の明るさでの特定のカラーに対するバウンダリ(boundary)をシグナリングする方法として、d38040に示したように、対象カラー座標(center_of_circle_x_axis,center_of_circle_y_axis,center_of_circle_z_axis)及び対象カラーを中心にする類似のカラーに対する半径(radius_of_circle)に対してシグナリングする方法を用いて、色相範囲(color volume)情報を提供することもできる。この場合、当該カラー座標を中心にした類似のカラーに対する半径を有する球(sphere)の内部として色相範囲(color volume)が定義され得る。   As a method of signaling a boundary for a specific color at a specific brightness within a color volume (color volume), as shown in d38040, target color coordinates (center_of_circle_x_axis, center_of_circle_axis_center, color_center, color_center, object_of_circle_axis, object_center, object_center) Color volume information may be provided using a signaling method for a radius for similar colors (radius_of_circle). In this case, a color volume may be defined as the interior of a sphere having a radius for a similar color centered on the color coordinate.

上述した方法以外にも、カラープレーン(color plane)での楕円又は楕円をベースとした立体図形を色相範囲(color volume)として考慮することもできる。一般に、類似のカラー/明るさ群は、中心カラーから一定の範囲内に存在するようになり、このとき、方向性による互いに異なる加重値が必要な場合、楕円又は楕円形の立体のような形状を使用することができる。   In addition to the above-described method, an ellipse in a color plane or a three-dimensional figure based on the ellipse may be considered as a hue range. In general, similar colors / brightness groups will be within a certain range from the center color, and if different weights depending on directionality are required, a shape such as an ellipse or an ellipsoidal solid may be used. Can be used.

図39は、本発明の一実施例に係る放送送信機を示したブロック図である。本発明に係る放送送信機d39010は、エンコーダd39020、多重化部d39030及び/又は送信部d39040を含むことができる。   FIG. 39 is a block diagram illustrating a broadcast transmitter according to an embodiment of the present invention. The broadcast transmitter d39010 according to the present invention may include an encoder d39020, a multiplexing unit d39030, and / or a transmitting unit d39040.

放送送信機d39010に入力されるビデオデータの解像度はUHDであってもよい。また、放送送信機d39010に入力されるメタデータは、UHDビデオに対する画質改善メタデータを含むことができる。画質改善メタデータは、ビデオデータと共に伝送されるSEIメッセージに含まれて伝送されてもよい。図17乃至図38で前述したように、画質改善メタデータはHDR情報ディスクリプタ(HDR_info_descriptor)を含むことができ、これは、UHDビデオの画質改善に必要な情報を含むことができる。UHDビデオの画質改善に必要な情報は、コンテンツ全体(channel、program、content)、シーン(scene)、クリップ(clip)またはフレームの単位で適用され得、コンテンツ全体に適用される共通適用情報、及びシーン、クリップまたはフレーム単位で適用される部分適用情報を共に含むこともできる。また、HDR_info_descriptor()は、HDRの終了時点を示すtransition_flag情報を含むことができる。   The resolution of the video data input to the broadcast transmitter d39010 may be UHD. Also, the metadata input to the broadcast transmitter d39010 may include image quality improvement metadata for UHD video. The image quality improvement metadata may be transmitted by being included in an SEI message transmitted together with the video data. As described above with reference to FIGS. 17 to 38, the image quality improvement metadata may include an HDR information descriptor (HDR_info_descriptor), which may include information necessary for improving the image quality of UHD video. Information necessary for improving the image quality of UHD video can be applied in units of the entire content (channel, program, content), scene, scene, clip, or frame, and common application information applied to the entire content, and It may also include partial application information applied on a scene, clip, or frame basis. HDR_info_descriptor () can include transition_flag information indicating the end point of HDR.

また、HDR情報ディスクリプタは、前述したように、画質改善のためのプロセッシングステップに対するプロセッシング色空間タイプ情報及びプロセッシング色相精度情報を含むことができる。これに加えて、HDR情報ディスクリプタは、プロセッシングステップの前に対する入力色空間タイプ情報及び入力色相精度情報、及びプロセッシングステップの後に対する出力色空間タイプ情報及び出力色相精度情報をさらに含むことができる。また、HDR情報ディスクリプタは、画質改善プロセッシングがターゲットとするダイナミックレンジ、変換関数タイプ、カラーガマット、及び色温度タイプに関する情報も含むことができる。また、HDRコンテンツ又はHDR情報に対する変更が予定されていることを示すHDRプログラムトランジションフラグ情報、及びそのトランジションの対象となるセットナンバー情報及びバージョンナンバー情報を含むことができる。   Also, the HDR information descriptor may include processing color space type information and processing hue accuracy information for a processing step for improving image quality, as described above. In addition, the HDR information descriptor may further include input color space type information and input hue accuracy information before the processing step, and output color space type information and output hue accuracy information after the processing step. The HDR information descriptor may also include information on a dynamic range, a conversion function type, a color gamut, and a color temperature type targeted by the image quality improvement processing. Also, it may include HDR program transition flag information indicating that a change to HDR content or HDR information is scheduled, and set number information and version number information to be subjected to the transition.

また、HDR情報ディスクリプタは、フレーム内に含まれた複数の領域を区分することができ、各領域に対応する特性セット(feature set)情報を含むことができる。特性セット情報は、同じフレーム内でも領域別に互いに異なるメタデータプロセッシングを適用することができる。各特性セットは、領域位置によって区分されるか、または色空間で一定の範囲内の色相によって区分されてもよい。また、特性セットは、明るさ範囲や明るさ分布によって区分されてもよい。また、色空間内で定義された多面体によって区分される色相範囲(color volume)内で、前述した位置、色相、明るさ範囲、及び明るさ分布のうちの少なくとも1つによって区分されてもよい。HDR情報ディスクリプタは、前述した特性セットを区分する情報を含むことができ、例えば、Spatial boundary情報、Colorimetry boundary情報、Luminance boundary情報、Luminance distribution boundary情報、及びColor volume boundary情報のうちの少なくとも1つを含むことができる。各情報についての詳細な説明は、図35乃至図38で説明した通りである。   Also, the HDR information descriptor can divide a plurality of areas included in the frame, and can include feature set information corresponding to each area. For the property set information, different metadata processing can be applied to each area even in the same frame. Each characteristic set may be divided by a region position or by a hue within a certain range in a color space. Further, the characteristic set may be classified according to a brightness range or a brightness distribution. In addition, within a color volume defined by a polyhedron defined in a color space, the color may be classified by at least one of the position, the hue, the brightness range, and the brightness distribution. The HDR information descriptor may include information for distinguishing the above-described property set. Can be included. The detailed description of each piece of information is as described with reference to FIGS.

放送送信機d39010に入力されたビデオデータは、エンコーダd39020によってエンコードされ得る。送信端は、ビデオデータに対するエンコーディング方式としてHEVC(High Efficiency Video Coding)を用いることができる。送信端は、エンコードされたビデオデータと画質改善メタデータを同期化し、多重化部d39030を用いて多重化することができる。画質改善メタデータは同期化情報をさらに含むことができる。画質改善メタデータは、同期化方法に応じて、時間、時間差、開始順序、POC、PTS、累積されたフレームの個数などの同期化情報を含むことができる。   Video data input to the broadcast transmitter d39010 may be encoded by the encoder d39020. The transmitting end can use HEVC (High Efficiency Video Coding) as an encoding method for video data. The transmitting end can synchronize the encoded video data with the image quality improvement metadata and multiplex the encoded video data using the multiplexing unit d39030. The image quality improvement metadata may further include synchronization information. The image quality improvement metadata may include synchronization information such as time, time difference, start order, POC, PTS, and the number of accumulated frames according to the synchronization method.

送信部d39040は、多重化部d39030から出力されたトランスポートストリームを放送信号として送信することができる。ここで、トランスポートストリームは、送信の前にチャネルコーディング及び変調された後、放送信号として送信され得る。本発明の他の実施例によれば、メタデータは、放送信号だけでなく、他の経路(例えば、IPベースの放送/通信、有/無線通信、有/無線インターフェース、近距離無線通信など)でも送信することができる。また、ビデオデータと別途の経路で送信されてもよい。   The transmission unit d39040 can transmit the transport stream output from the multiplexing unit d39030 as a broadcast signal. Here, the transport stream may be channel-coded and modulated before transmission, and then transmitted as a broadcast signal. According to another embodiment of the present invention, the metadata is not only a broadcast signal, but also other routes (eg, IP-based broadcast / communication, wired / wireless communication, wired / wireless interface, short-range wireless communication, etc.). But you can send. Also, the video data may be transmitted through a separate path from the video data.

図40は、本発明の一実施例に係る放送受信機を示したブロック図である。本発明に係る放送受信機d40010は、受信部d40020、逆多重化部d40030及び/又はデコーダd40040を含むことができる。   FIG. 40 is a block diagram illustrating a broadcast receiver according to an embodiment of the present invention. The broadcast receiver d40010 according to the present invention may include a receiving unit d40020, a demultiplexing unit d40030, and / or a decoder d40040.

受信部d40020によって受信された放送信号は、復調された後、チャネルデコードされ得る。チャネルデコードされた放送信号は、逆多重化部d40030に入力されてビデオストリーム及び画質改善メタデータに逆多重化され得る。メタデータは、放送信号だけでなく、他の経路(例えば、IPベースの放送/通信、有/無線通信、有/無線インターフェース、近距離無線通信など)でも受信することができる。逆多重化部の出力は、デコーダd40040に入力され得る。デコーダは、ビデオデコーダ及びメタデータプロセッサを含むことができる。すなわち、ビデオストリームはビデオデコーダによって、画質改善メタデータはメタデータプロセッサを介してデコードされ得る。それぞれデコードされたビデオストリーム及び画質改善メタデータは、図19で説明したように、後処理部によってUHDビデオの画質改善に使用することができる。受信機は、画質改善メタデータに基づいてデコードされたビデオデータを後処理することができ、HDR及びWCGのうちの少なくとも1つに対してビデオデータの画質を改善する効果を得ることができる。前記画質改善メタデータは、前述したように、HDR情報ディスクリプタを含むことができ、また、HDR情報ディスクリプタは、前述したように、画質改善のためのプロセッシングステップに対するプロセッシング色空間タイプ情報、及びプロセッシング色相精度情報を含むことができる。これに加えて、HDR情報ディスクリプタは、プロセッシングステップの前に対する入力色空間タイプ情報及び入力色相精度情報及びプロセッシングステップの後に対する出力色空間タイプ情報及び出力色相精度情報をさらに含むことができる。また、HDR情報ディスクリプタは、画質改善プロセッシングがターゲットとするダイナミックレンジ、変換関数タイプ、カラーガマット、及び色温度タイプに関する情報も含むことができる。また、HDRコンテンツ又はHDR情報に対する変更が予定されていることを示すHDRプログラムトランジションフラグ情報、及びそのトランジションの対象となるセットナンバー情報及びバージョンナンバー情報を含むことができる。   The broadcast signal received by the receiving unit d40020 can be channel-decoded after being demodulated. The channel-decoded broadcast signal may be input to the demultiplexer d40030 and may be demultiplexed into a video stream and image quality improvement metadata. The metadata can be received not only on the broadcast signal but also on other routes (eg, IP-based broadcast / communication, wired / wireless communication, wired / wireless interface, short-range wireless communication, etc.). The output of the demultiplexer can be input to the decoder d40040. The decoder can include a video decoder and a metadata processor. That is, the video stream may be decoded by a video decoder and the image quality improving metadata may be decoded via a metadata processor. The decoded video stream and the image quality improvement metadata can be used by the post-processing unit to improve the image quality of the UHD video, as described with reference to FIG. The receiver can post-process the decoded video data based on the image quality improvement metadata, and can obtain an effect of improving the image quality of the video data for at least one of HDR and WCG. The image quality improvement metadata may include an HDR information descriptor, as described above, and the HDR information descriptor may include, as described above, processing color space type information for a processing step for improving image quality, and processing hue. Accuracy information can be included. In addition, the HDR information descriptor may further include input color space type information and input hue accuracy information before the processing step, and output color space type information and output hue accuracy information after the processing step. The HDR information descriptor may also include information on a dynamic range, a conversion function type, a color gamut, and a color temperature type targeted by the image quality improvement processing. Also, it may include HDR program transition flag information indicating that a change to HDR content or HDR information is scheduled, and set number information and version number information to be subjected to the transition.

また、HDR情報ディスクリプタは、フレーム内に含まれた複数の領域を区分することができ、各領域に対応する特性セット(feature set)情報を含むことができる。特性セット情報は、同じフレーム内でも領域別に互いに異なるメタデータプロセッシングを適用することができる。各特性セットは、領域位置によって区分されるか、または色空間で一定の範囲内の色相によって区分されてもよい。また、特性セットは、明るさ範囲や明るさ分布によって区分されてもよい。また、色空間内で定義された多面体によって区分される色相範囲(color volume)内で、前述した位置、色相、明るさ範囲、及び明るさ分布のうちの少なくとも1つによって区分されてもよい。HDR情報ディスクリプタは、前述した特性セットを区分する情報を含むことができ、例えば、Spatial boundary情報、Colorimetry boundary情報、Luminance boundary情報、Luminance distribution boundary情報、及びColor volume boundary情報のうちの少なくとも1つを含むことができる。各情報についての詳細な説明は、図35乃至図38で説明した通りである。   In addition, the HDR information descriptor can divide a plurality of areas included in the frame, and can include feature set information corresponding to each area. For the property set information, different metadata processing can be applied to each area even in the same frame. Each characteristic set may be divided by a region position or by a hue within a certain range in a color space. Further, the characteristic set may be classified according to a brightness range or a brightness distribution. In addition, within a color volume defined by a polyhedron defined in a color space, the color may be classified by at least one of the above-described position, hue, brightness range, and brightness distribution. The HDR information descriptor may include information for distinguishing the above-mentioned property set. For example, at least one of spatial boundary information, colorimetric boundary information, luminance boundary information, luminance distribution boundary information, and color information of the color boundary of the boundary list. Can be included. The detailed description of each piece of information is as described with reference to FIGS.

図41は、本発明の一実施例に係る画質改善メタデータを含む放送信号を送信する方法を示した図である。画質改善メタデータを含む放送信号を送信する方法は、ビデオストリームをエンコードしてビデオデータを生成するステップ(ds41010)、生成されたビデオデータ及び画質改善メタデータを含む放送信号を生成するステップ(ds41020)、及び生成された放送信号を送信するステップ(ds41030)を含むことができる。   FIG. 41 is a diagram illustrating a method of transmitting a broadcast signal including image quality improvement metadata according to an embodiment of the present invention. A method of transmitting a broadcast signal including image quality improvement metadata includes encoding a video stream to generate video data (ds41010), and generating a broadcast signal including the generated video data and image quality improvement metadata (ds41020). ) And transmitting the generated broadcast signal (ds41030).

ビデオストリームをエンコードしてビデオデータを生成するステップ(ds41010)は、UHDの解像度を有するビデオストリームを受信し、ビデオストリームをエンコードしてビデオデータを生成することができる。ここで、ビデオストリームは、HEVC(High Efficiency Video Coding)によってエンコードされ得る。これと共に、ビデオデータを生成するステップ(ds41010)は画質改善メタデータを生成することができる。前述したように、放送送信装置は、ビデオデータを生成するステップ(ds41010)でビデオデータの全体コンテンツ(channel、program、content)、シーン(scene)、クリップ(clip)またはフレーム(frame)の単位で適用される画質改善メタデータを共に生成することができる。画質改善メタデータは、HDR及びWCGのうちの少なくとも1つに対するデータであってもよく、適用単位に応じて互いに異なる情報量を有することができる。画質改善メタデータは、前述したHDR_info_descriptor()に含まれて送信され得る。また、HDR_info_descriptor()は、HDRの終了時点を示すtransition_flag情報を含むことができる。また、HDR情報ディスクリプタは、前述したように、画質改善のためのプロセッシングステップに対するプロセッシング色空間タイプ情報及びプロセッシング色相精度情報を含むことができる。これに加えて、HDR情報ディスクリプタは、プロセッシングステップの前に対する入力色空間タイプ情報及び入力色相精度情報、及びプロセッシングステップの後に対する出力色空間タイプ情報及び出力色相精度情報をさらに含むことができる。また、HDR情報ディスクリプタは、画質改善プロセッシングがターゲットとするダイナミックレンジ、変換関数タイプ、カラーガマット、及び色温度タイプに関する情報も含むことができる。また、HDRコンテンツ又はHDR情報に対する変更が予定されていることを示すHDRプログラムトランジションフラグ情報、及びそのトランジションの対象となるセットナンバー情報及びバージョンナンバー情報を含むことができる。   Encoding the video stream to generate video data (ds41010) may include receiving a video stream having a UHD resolution and encoding the video stream to generate video data. Here, the video stream may be encoded by HEVC (High Efficiency Video Coding). At the same time, the step of generating video data (ds41010) may generate image quality improvement metadata. As described above, in the step of generating the video data (ds41010), the broadcast transmitting apparatus may transmit the entire content (channel, program, content), scene, scene, clip, or frame of the video data. Applicable image quality improvement metadata can be generated together. The image quality improvement metadata may be data for at least one of HDR and WCG, and may have different amounts of information according to application units. The image quality improvement metadata may be transmitted by being included in the HDR_info_descriptor () described above. HDR_info_descriptor () can include transition_flag information indicating the end point of HDR. Also, the HDR information descriptor may include processing color space type information and processing hue accuracy information for a processing step for improving image quality, as described above. In addition, the HDR information descriptor may further include input color space type information and input hue accuracy information before the processing step, and output color space type information and output hue accuracy information after the processing step. The HDR information descriptor may also include information on a dynamic range, a conversion function type, a color gamut, and a color temperature type targeted by the image quality improvement processing. Also, it may include HDR program transition flag information indicating that a change to HDR content or HDR information is scheduled, and set number information and version number information to be subjected to the transition.

また、HDR情報ディスクリプタは、フレーム内に含まれた複数の領域を区分することができ、各領域に対応する特性セット(feature set)情報を含むことができる。特性セット情報は、同じフレーム内でも領域別に互いに異なるメタデータプロセッシングを適用することができる。各特性セットは、領域位置によって区分されるか、または色空間で一定の範囲内の色相によって区分されてもよい。また、特性セットは、明るさ範囲や明るさ分布によって区分されてもよい。また、色空間内で定義された多面体によって区分される色相範囲(color volume)内で、前述した位置、色相、明るさ範囲、及び明るさ分布のうちの少なくとも1つによって区分されてもよい。HDR情報ディスクリプタは、前述した特性セットを区分する情報を含むことができ、例えば、Spatial boundary情報、Colorimetry boundary情報、Luminance boundary情報、Luminance distribution boundary情報、及びColor volume boundary情報のうちの少なくとも1つを含むことができる。各情報についての詳細な説明は、図35乃至図38で説明した通りである。   Also, the HDR information descriptor can divide a plurality of areas included in the frame, and can include feature set information corresponding to each area. For the property set information, different metadata processing can be applied to each area even in the same frame. Each characteristic set may be divided by a region position or by a hue within a certain range in a color space. Further, the characteristic set may be classified according to a brightness range or a brightness distribution. In addition, within a color volume defined by a polyhedron defined in a color space, the color may be classified by at least one of the above-described position, hue, brightness range, and brightness distribution. The HDR information descriptor may include information for distinguishing the above-mentioned property set. For example, at least one of spatial boundary information, colorimetric boundary information, luminance boundary information, luminance distribution boundary information, and color information of the color boundary of the boundary list. Can be included. The detailed description of each piece of information is as described with reference to FIGS.

また、画質改善メタデータは、シグナリング情報内で直接定義されるか、または他のメッセージを参照する方式で生成されてもよい。このような画質改善メタデータは、受信機にとって、適用単位に応じてビデオデータの画質を改善する参照データとなり得る。結果的に、受信機は、ビデオデータと共に受信される画質改善メタデータを用いて、ビデオデータの画質を動的に改善することができる。   Also, the image quality improvement metadata may be defined directly in the signaling information or may be generated in a manner that refers to another message. Such image quality improvement metadata can be reference data for the receiver to improve the image quality of video data according to the application unit. As a result, the receiver can dynamically improve the quality of the video data using the quality improvement metadata received with the video data.

生成されたビデオデータ及び画質改善メタデータを含む放送信号を生成するステップ(ds41020)は、放送信号フレームをビルドし、変調過程を用いて放送信号を生成することができる。   The step of generating a broadcast signal including the generated video data and the image quality improvement metadata (ds41020) may include building a broadcast signal frame and generating the broadcast signal using a modulation process.

生成された放送信号を送信するステップ(ds41030)は、トランスポートストリームを放送信号として送信することができる。   The step of transmitting the generated broadcast signal (ds41030) may transmit the transport stream as a broadcast signal.

図42は、本発明の一実施例に係る画質改善メタデータを含む放送信号を受信する方法を示した図である。画質改善メタデータを含む放送信号を受信する方法は、放送信号を受信するステップ(ds42010)、受信された放送信号をビデオデータ及び画質改善メタデータに逆多重化するステップ(ds42020)、及びビデオデータ及び画質改善メタデータをデコードし、適用するステップ(ds42030)を含むことができる。   FIG. 42 is a diagram illustrating a method for receiving a broadcast signal including image quality improvement metadata according to an embodiment of the present invention. A method of receiving a broadcast signal including image quality improvement metadata includes receiving a broadcast signal (ds42010), demultiplexing the received broadcast signal into video data and image quality improvement metadata (ds42020), And decoding and applying the image quality improvement metadata (ds42030).

放送信号を受信するステップ(ds42010)は、受信部を用いて放送信号を受信し、受信された放送信号は、復調された後、チャネルデコードされ得る。放送信号は、UHD放送信号を含むことができ、UHD放送コンテンツ(content)に対する画質改善メタデータをさらに含むことができる。画質改善メタデータについての詳細な説明は、図17乃至図38で説明した通りである。   In the receiving the broadcast signal (ds42010), the broadcast signal may be received using a receiving unit, and the received broadcast signal may be demodulated and then channel-decoded. The broadcast signal may include a UHD broadcast signal, and may further include image quality improvement metadata for the UHD broadcast content. The detailed description of the image quality improvement metadata is as described with reference to FIGS.

受信された放送信号をビデオデータ及び画質改善メタデータに逆多重化するステップ(ds42020)は、チャネルデコードされた放送信号を、逆多重化部を用いてビデオデータ及び画質改善メタデータに逆多重化することができる。ビデオデータはUHDビデオデータを含むことができ、画質改善メタデータは、UHDビデオデータに適用されるHDR又はWCG関連データを含むことができる。画質改善メタデータは、前述したHDR_info_descriptor()に含まれて受信されてもよい。また、HDR_info_descriptor()は、HDRの終了時点を示すtransition_flag情報を含むことができる。ここで、画質改善メタデータは、その適用範囲によって共通適用情報と部分適用情報に区分できる。画質改善メタデータは、共通適用情報及び部分適用情報のうちの少なくとも1つを含むことができる。共通適用情報は、チャネル全体、プログラム全体、または一つのコンテンツを形成するビデオデータ全体に対して適用される情報であり、部分適用情報は、ビデオデータの一部のシーン、クリップまたはフレームに部分的に適用可能なデータであり得る。画質改善メタデータは、放送信号のシグナリング情報内で直接定義されるか、または予め定義されたメッセージを参照する方式が用いられてもよい。   The step of demultiplexing the received broadcast signal into video data and image quality improving metadata (ds42020) includes demultiplexing the channel-decoded broadcast signal into video data and image quality improving metadata using a demultiplexing unit. can do. The video data may include UHD video data, and the image quality improvement metadata may include HDR or WCG related data applied to UHD video data. The image quality improvement metadata may be included and received in the HDR_info_descriptor () described above. HDR_info_descriptor () can include transition_flag information indicating the end point of HDR. Here, the image quality improvement metadata can be divided into common application information and partial application information according to its application range. The image quality improvement metadata may include at least one of common application information and partial application information. The common application information is information applied to the entire channel, the entire program, or the entire video data forming one content, and the partial application information is partially applied to some scenes, clips, or frames of the video data. May be applicable to the data. The image quality improvement metadata may be directly defined in the signaling information of the broadcast signal, or a method of referring to a predefined message may be used.

ビデオデータ及び画質改善メタデータをそれぞれデコードし、適用するステップ(ds42030)は、ビデオデコーダを用いてビデオデータをデコードし、ビデオデータを取得することができる。このステップで、画質改善メタデータに対しては、シグナリングデータパーサー又はメタデータデコーダを用いて画質改善メタデータを取得することができる。受信機は、画質改善メタデータに基づいて、デコードされたビデオデータの画質を改善することができる。画質改善メタデータは、ビデオデータに対するHDR又はWCG情報を含むことができ、各情報が適用される時点を示す同期化情報をさらに含むことができる。前記画質改善メタデータは、前述したようにHDR情報ディスクリプタを含むことができ、また、HDR情報ディスクリプタは、前述したように、画質改善のためのプロセッシングステップに対するプロセッシング色空間タイプ情報及びプロセッシング色相精度情報を含むことができる。これに加えて、HDR情報ディスクリプタは、プロセッシングステップの前に対する入力色空間タイプ情報及び入力色相精度情報、及びプロセッシングステップの後に対する出力色空間タイプ情報及び出力色相精度情報をさらに含むことができる。また、HDR情報ディスクリプタは、画質改善プロセッシングがターゲットとするダイナミックレンジ、変換関数タイプ、カラーガマット、及び色温度タイプに関する情報も含むことができる。また、HDRコンテンツ又はHDR情報に対する変更が予定されていることを示すHDRプログラムトランジションフラグ情報、及びそのトランジションの対象となるセットナンバー情報及びバージョンナンバー情報を含むことができる。   Decoding and applying the video data and the image quality improvement metadata, respectively (ds42030), can decode the video data using a video decoder to obtain the video data. In this step, for the image quality improvement metadata, the image quality improvement metadata can be obtained using a signaling data parser or a metadata decoder. The receiver can improve the quality of the decoded video data based on the quality improvement metadata. The image quality improvement metadata may include HDR or WCG information for video data, and may further include synchronization information indicating a time when each information is applied. The image quality improvement metadata may include an HDR information descriptor as described above, and the HDR information descriptor may include, as described above, processing color space type information and processing hue accuracy information for a processing step for improving image quality. Can be included. In addition, the HDR information descriptor may further include input color space type information and input hue accuracy information before the processing step, and output color space type information and output hue accuracy information after the processing step. The HDR information descriptor may also include information on a dynamic range, a conversion function type, a color gamut, and a color temperature type targeted by the image quality improvement processing. Also, it may include HDR program transition flag information indicating that a change to HDR content or HDR information is scheduled, and set number information and version number information to be subjected to the transition.

また、HDR情報ディスクリプタは、フレーム内に含まれた複数の領域を区分することができ、各領域に対応する特性セット(feature set)情報を含むことができる。特性セット情報は、同じフレーム内でも領域別に互いに異なるメタデータプロセッシングを適用することができる。各特性セットは、領域位置によって区分されるか、または色空間で一定の範囲内の色相によって区分されてもよい。また、特性セットは、明るさ範囲や明るさ分布によって区分されてもよい。また、色空間内で定義された多面体によって区分される色相範囲(color volume)内で、前述した位置、色相、明るさ範囲、及び明るさ分布のうちの少なくとも1つによって区分されてもよい。HDR情報ディスクリプタは、前述した特性セットを区分する情報を含むことができ、例えば、Spatial boundary情報、Colorimetry boundary情報、Luminance boundary情報、Luminance distribution boundary情報、及びColor volume boundary情報のうちの少なくとも1つを含むことができる。各情報についての詳細な説明は、図35乃至図38で説明した通りである。   Also, the HDR information descriptor can divide a plurality of areas included in the frame, and can include feature set information corresponding to each area. For the property set information, different metadata processing can be applied to each area even in the same frame. Each characteristic set may be divided by a region position or by a hue within a certain range in a color space. Further, the characteristic set may be classified according to a brightness range or a brightness distribution. In addition, within a color volume defined by a polyhedron defined in a color space, the color may be classified by at least one of the above-described position, hue, brightness range, and brightness distribution. The HDR information descriptor may include information for distinguishing the above-mentioned property set. Can be included. The detailed description of each piece of information is as described with reference to FIGS.

画質改善メタデータは、同期化情報に基づいてビデオデータに適用され得る。これを通じて、ビデオデータは、全体的に又は区間別に画質改善が適用され得る。ユーザは、既存のUHDコンテンツに追加的に適用されたHDR又はWCG情報を通じて改善された画質のUHDコンテンツの提供を受けることができる。   The image quality improvement metadata can be applied to the video data based on the synchronization information. Through this, the image quality of the video data can be applied to all or sections. The user can receive the improved quality UHD content through the HDR or WCG information additionally applied to the existing UHD content.

モジュール又はユニットは、メモリ(又は格納ユニット)に格納された連続した過程を実行するプロセッサであってもよい。前述した実施例に記述された各ステップは、ハードウェア/プロセッサによって行われてもよい。前述した実施例に記述された各モジュール/ブロック/ユニットは、ハードウェア/プロセッサとして動作することができる。また、本発明が提示する方法はコードとして実行されてもよい。このコードは、プロセッサが読み取り可能な格納媒体に書き込まれてもよく、したがって、装置(apparatus)の提供するプロセッサによって読み取られてもよい。   A module or unit may be a processor that performs a series of steps stored in a memory (or storage unit). Each of the steps described in the above embodiments may be performed by a hardware / processor. Each of the modules / blocks / units described in the embodiments described above can operate as hardware / processors. Also, the method presented by the present invention may be implemented as code. This code may be written to a processor-readable storage medium and, therefore, may be read by a processor provided by the apparatus.

説明の便宜のために各図に分けて説明したが、各図に開示した実施例を組み合わせて新しい実施例を具現するように設計することも可能である。そして、通常の技術者の必要によって、以前に説明された実施例を実行するためのプログラムが記録されているコンピュータで読み取り可能な記録媒体を設計することも、本発明の権利範囲に属する。   Although the drawings are described separately for convenience of description, the embodiments disclosed in the drawings may be combined to design a new embodiment. The design of a computer-readable recording medium on which a program for executing the above-described embodiments is recorded is also within the scope of the present invention.

本発明に係る装置及び方法は、上述したように、説明された実施例の構成及び方法が限定的に適用されるものではなく、上述した実施例は、様々な変形が可能なように、各実施例の全部又は一部が選択的に組み合わされて構成されてもよい。   As described above, the apparatus and method according to the present invention are not limited to the configuration and method of the above-described embodiment, and the above-described embodiment may be modified so that various modifications are possible. All or some of the embodiments may be selectively combined and configured.

一方、本発明が提案する方法を、ネットワークデバイスに備えられた、プロセッサが読み取り可能な記録媒体に、プロセッサが読み取り可能なコードとして具現することが可能である。プロセッサが読み取り可能な記録媒体は、プロセッサで読み出し可能なデータが格納されるいかなる種類の記録装置をも含む。プロセッサが読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあり、また、インターネットを介した伝送などのようなキャリアウェーブの形態で具現されるものも含む。また、プロセッサが読み取り可能な記録媒体は、ネットワークで接続されたコンピュータシステムに分散されて、分散方式でプロセッサが読み取り可能なコードが格納され、実行されてもよい。   On the other hand, the method proposed by the present invention can be embodied as a processor-readable code on a processor-readable recording medium provided in a network device. The processor-readable storage medium includes any type of storage device in which data that can be read by the processor is stored. Examples of recording media readable by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and in the form of a carrier wave such as a transmission via the Internet. Includes what is embodied. Further, the recording medium readable by the processor may be distributed to computer systems connected via a network, and may store and execute a code readable by the processor in a distributed manner.

また、以上では、本発明の好適な実施例について図示し、説明したが、本発明は、上述した特定の実施例に限定されず、特許請求の範囲で請求する本発明の要旨を逸脱することなく、当該発明の属する技術分野における通常の知識を有する者によって様々な変形実施が可能であることは勿論であり、このような変形実施は、本発明の技術的思想や展望から個別的に理解されてはならない。   Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the above-described specific embodiments, and departs from the spirit of the present invention as set forth in the appended claims. Of course, various modifications can be made by those having ordinary knowledge in the technical field to which the present invention pertains, and such modifications are individually understood from the technical idea and perspective of the present invention. Must not be done.

そして、当該明細書では、物の発明及び方法の発明の両方が説明されており、必要に応じて、両発明の説明は補充的に適用されてもよい。   In this specification, both the invention of the product and the invention of the method are described, and the description of both the inventions may be supplementarily applied as necessary.

本発明の思想や範囲から逸脱することなく、本発明の様々な変更及び変形が可能であることは、当業者にとって明らかである。したがって、本発明は、添付の請求項及びその同等範囲内で提供される本発明の変更及び変形を含むものとして意図される。   It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. Thus, it is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.

本明細書では装置の発明及び方法の発明を両方とも言及しており、装置の発明及び方法の発明の説明を互いに補完して適用することもできる。   In this specification, both the device invention and the method invention are referred to, and the description of the device invention and the method invention may be applied in a complementary manner to each other.

様々な実施例が、発明を実施するための最良の形態で説明された。   Various embodiments have been described in the detailed description of the invention.

本発明は一連の放送信号提供分野で利用される。   The present invention is used in the field of providing a series of broadcast signals.

本発明の思想や範囲から逸脱することなく、本発明で様々な変更及び変形が可能であることは当業者には自明である。したがって、本発明は、添付の請求項及びその同等範囲内で提供される本発明の変更及び変形を含むものとして意図される。   It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. Thus, it is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.

Claims (6)

放送信号を送信する方法であって、
ビデオデータを生成するステップと、
質改善メタデータを生成するステップと、
前記ビデオデータと前記画質改善メタデータを含む前記放送信号を送信するステップと、を含み、
前記画質改善メタデータは、SEI(supplemental enhancement information)メッセージであり、
前記SEIメッセージは、前記ビデオデータのフレーム内の矩形領域の個数を特定するための個数情報及び各領域の位置を特定するための座標情報を含み、
HEVCで定義されるcolor remapping information SEI messageは、前記矩形領域の少なくとも1つに適用され、
前記color remapping information SEI messageは、前記ビデオデータのカラーサンプルのリマッピングに対する情報を提供する、放送信号送信方法。
A method of transmitting a broadcast signal,
Generating video data;
A step that generates a picture quality improvement metadata,
Transmitting the broadcast signal including the video data and the image quality improvement metadata ,
The image quality improvement metadata is an SEI (supplemental enhancement information) message,
The SEI message includes number information for specifying the number of rectangular areas in the video data frame and coordinate information for specifying the position of each area,
The color mapping information SEI message defined in HEVC is applied to at least one of the rectangular areas,
The method of transmitting a broadcast signal , wherein the color remapping information SEI message provides information on remapping of color samples of the video data .
前記SEIメッセージは、前記矩形領域を区分する明るさ範囲情報又は明るさ分布情報を更に含む、請求項に記載の放送信号送信方法。 The method of claim 1 , wherein the SEI message further includes brightness range information or brightness distribution information for dividing the rectangular area. 前記SEIメッセージは、前記矩形領域を区分する色相範囲情報を更に含む、請求項に記載の放送信号送信方法。 The method of claim 1 , wherein the SEI message further includes hue range information for dividing the rectangular area. 放送信号を受信する方法であって、
ビデオデータ及び画質改善メタデータを含む前記放送信号を受信するステップと、
前記放送信号を前記ビデオデータ及び前記画質改善メタデータに逆多重化するステップと、
前記ビデオデータ及び前記画質改善メタデータをそれぞれデコードするステップと、
前記画質改善メタデータを前記ビデオデータに適用するステップと、を含み、
前記画質改善メタデータは、SEI(supplemental enhancement information)メッセージであり、
前記SEIメッセージは、前記ビデオデータのフレーム内の矩形領域の個数を特定するための個数情報及び各領域の位置を特定するための座標情報を含み、
HEVCで定義されるcolor remapping information SEI messageは、前記矩形領域の少なくとも1つに適用され、
前記color remapping information SEI messageは、前記ビデオデータのカラーサンプルのリマッピングに対する情報を提供する、放送信号受信方法。
A method for receiving a broadcast signal,
Receiving the broadcast signal including video data and the image quality improvement metadata,
Demultiplexing the broadcast signal into the video data and the image quality improvement metadata;
Decoding the video data and the image quality improvement metadata, respectively;
Applying the image quality improvement metadata to the video data.
The image quality improvement metadata is an SEI (supplemental enhancement information) message,
The SEI message includes number information for specifying the number of rectangular areas in the video data frame and coordinate information for specifying the position of each area,
The color mapping information SEI message defined in HEVC is applied to at least one of the rectangular areas,
The method for receiving a broadcast signal , wherein the color remapping information SEI message provides information on remapping of color samples of the video data .
前記SEIメッセージは、前記矩形領域を区分する明るさ範囲情報又は明るさ分布情報を更に含む、請求項に記載の放送信号受信方法。 The method of claim 4 , wherein the SEI message further includes brightness range information or brightness distribution information for dividing the rectangular area. 前記SEIメッセージは、前記矩形領域を区分する色相範囲情報を更に含む、請求項に記載の放送信号受信方法。 The method of claim 4 , wherein the SEI message further includes hue range information for dividing the rectangular area.
JP2018509764A 2015-08-20 2016-08-22 Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method Active JP6633739B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562207896P 2015-08-20 2015-08-20
US62/207,896 2015-08-20
US201562210438P 2015-08-26 2015-08-26
US62/210,438 2015-08-26
PCT/KR2016/009230 WO2017030425A1 (en) 2015-08-20 2016-08-22 Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method and broadcast signal reception method

Publications (2)

Publication Number Publication Date
JP2018532294A JP2018532294A (en) 2018-11-01
JP6633739B2 true JP6633739B2 (en) 2020-01-22

Family

ID=58051091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018509764A Active JP6633739B2 (en) 2015-08-20 2016-08-22 Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method

Country Status (5)

Country Link
US (1) US20190007709A1 (en)
EP (1) EP3340636A4 (en)
JP (1) JP6633739B2 (en)
CN (1) CN107925780B (en)
WO (1) WO2017030425A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI763074B (en) * 2020-10-12 2022-05-01 宏碁股份有限公司 Method of dynamic adjustment to color of display screen

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105165001B (en) * 2013-04-30 2019-08-09 索尼公司 Sending device, sending method, receiving device and method of reseptance
US10476693B2 (en) * 2014-02-24 2019-11-12 Lg Electronics Inc. Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
US10687080B2 (en) * 2015-08-28 2020-06-16 Arris Enterprises Llc Color volume transforms in coding of high dynamic range and wide color gamut sequences
US11102495B2 (en) * 2016-05-17 2021-08-24 Qualcomm Incorporated Methods and systems for generating and processing content color volume messages for video
IL296162B2 (en) * 2016-10-05 2024-04-01 Dolby Laboratories Licensing Corp Source color volume information messaging
WO2020000135A1 (en) * 2018-06-25 2020-01-02 华为技术有限公司 Method and apparatus for processing high dynamic range video including captions
JP2020022118A (en) * 2018-08-02 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 Receiver, communication system, and control method of receiver
US10652512B1 (en) * 2018-11-20 2020-05-12 Qualcomm Incorporated Enhancement of high dynamic range content
US10791296B2 (en) * 2018-11-23 2020-09-29 Sony Corporation Apparatus and method for tuner control by middleware
JP7118911B2 (en) 2019-03-08 2022-08-16 株式会社東芝 Image processing device
WO2023012727A1 (en) * 2021-08-06 2023-02-09 Sony Group Corporation Techniques for atsc 3.0 broadcast boundary area management using signal quality and packet errors to differentiate between duplicated services on different frequencies during scan
US11611790B2 (en) 2021-08-06 2023-03-21 Sony Group Corporation RF channel description for multiple frequency networks
US11611792B2 (en) 2021-08-06 2023-03-21 Sony Group Corporation ATSC 3 reception across boundary conditions using location data
US11601707B2 (en) 2021-08-06 2023-03-07 Sony Group Corporation Techniques for ATSC 3.0 broadcast boundary area management using plural tuners
US11711568B2 (en) 2021-08-06 2023-07-25 Sony Group Corporation Techniques for ATSC 3.0 broadcast boundary area management using plural tuners handing off between presentation and scanning
US11611799B2 (en) 2021-08-06 2023-03-21 Sony Group Corporation ATSC 3 application context switching and sharing
US11838680B2 (en) 2021-08-06 2023-12-05 Sony Group Corporation Techniques for ATSC 3.0 broadcast boundary area management using complete service reception during scan to determine signal quality of frequencies carrying the duplicate service
US11848716B2 (en) 2021-08-06 2023-12-19 Sony Group Corporation Techniques for ATSC 3.0 broadcast boundary area management using signal quality and packet errors to differentiate between duplicated services on different frequencies during scan
US11962545B2 (en) 2021-12-27 2024-04-16 Samsung Electronics Co., Ltd. Method and device for providing chatbot participating chat service
CN114693567B (en) * 2022-05-30 2022-09-20 深圳思谋信息科技有限公司 Image color adjusting method and device, computer equipment and storage medium

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009038409A2 (en) * 2007-09-21 2009-03-26 Lg Electronics Inc. Digital broadcasting system and method of processing data in digital broadcasting system
CA2749583C (en) * 2009-02-01 2016-01-12 Lg Electronics Inc. Broadcast receiver and 3d video data processing method
EP2422522A1 (en) * 2009-04-20 2012-02-29 Dolby Laboratories Licensing Corporation Directed interpolation and data post-processing
KR101683119B1 (en) * 2009-06-16 2016-12-06 엘지전자 주식회사 Broadcast transmitter, Broadcast receiver and 3D video processing method thereof
CA2820574C (en) * 2010-11-24 2016-10-25 Lg Electronics Inc. Method of receiving enhanced service and video display device thereof
WO2013077236A1 (en) * 2011-11-21 2013-05-30 Canon Kabushiki Kaisha Image coding apparatus, image coding method, image decoding apparatus, image decoding method, and storage medium
US10114838B2 (en) * 2012-04-30 2018-10-30 Dolby Laboratories Licensing Corporation Reference card for scene referred metadata capture
EP3008902A1 (en) * 2013-06-10 2016-04-20 Thomson Licensing Encoding and decoding methods for adapting the average luminance of high dynamic range pictures and corresponding encoder and decoder
EP3011741B1 (en) * 2013-06-17 2018-03-07 Dolby Laboratories Licensing Corporation Adaptive reshaping for layered coding of enhanced dynamic range signals
EP2819414A3 (en) * 2013-06-28 2015-02-25 Samsung Electronics Co., Ltd Image processing device and image processing method
KR102176398B1 (en) * 2013-06-28 2020-11-09 삼성전자주식회사 A image processing device and a image processing method
KR20160031466A (en) * 2013-07-14 2016-03-22 엘지전자 주식회사 Method and apparatus for transmitting and receiving ultra high-definition broadcasting signal for expressing high-quality color in digital broadcasting system
US9483816B2 (en) * 2013-09-03 2016-11-01 Litel Instruments Method and system for high accuracy and reliability registration of multi modal imagery
WO2015065037A1 (en) * 2013-10-29 2015-05-07 엘지전자 주식회사 Method and apparatus for transmitting and receiving broadcast signal for providing hevc based ip broadcast service
KR101797505B1 (en) * 2013-11-13 2017-12-12 엘지전자 주식회사 Broadcast signal transmission method and apparatus for providing hdr broadcast service
KR101804925B1 (en) * 2014-01-06 2017-12-05 엘지전자 주식회사 Method and device for transmitting and receiving broadcast signal on basis of color gamut resampling
KR101844236B1 (en) * 2014-02-10 2018-04-02 엘지전자 주식회사 Method and apparatus for transmitting/receiving broadcast signal for 3-dimentional (3d) broadcast service
TWI764870B (en) * 2015-07-28 2022-05-21 法商內數位麥德遜專利控股有限公司 Video signal processing device and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI763074B (en) * 2020-10-12 2022-05-01 宏碁股份有限公司 Method of dynamic adjustment to color of display screen

Also Published As

Publication number Publication date
US20190007709A1 (en) 2019-01-03
JP2018532294A (en) 2018-11-01
CN107925780B (en) 2021-03-19
EP3340636A1 (en) 2018-06-27
CN107925780A (en) 2018-04-17
WO2017030425A1 (en) 2017-02-23
EP3340636A4 (en) 2019-01-09

Similar Documents

Publication Publication Date Title
JP6633739B2 (en) Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method
US11178436B2 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
US11323755B2 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
US10841627B2 (en) Broadcast signal transmission method, broadcast signal reception method, broadcast signal transmission apparatus, and broadcast signal reception apparatus
US20230007316A1 (en) Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal and method for receiving broadcast signal
US10171849B1 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
US10349095B2 (en) Transmission device for processing video data related to HDR/SDR and method for controlling the same
US10666549B2 (en) Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method and broadcast signal reception method
US10616618B2 (en) Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method and broadcast signal receiving method
KR102023018B1 (en) A broadcast signal transmitting device, a broadcast signal receiving device, a broadcast signal transmitting method, and a broadcast signal receiving method
US10237591B2 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
EP3448043B1 (en) Broadcast signal transmission/reception method and apparatus for providing high-quality media in dash-based system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191212

R150 Certificate of patent or registration of utility model

Ref document number: 6633739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250