WO2017007263A1 - Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method, and broadcast signal receiving method - Google Patents

Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method, and broadcast signal receiving method Download PDF

Info

Publication number
WO2017007263A1
WO2017007263A1 PCT/KR2016/007384 KR2016007384W WO2017007263A1 WO 2017007263 A1 WO2017007263 A1 WO 2017007263A1 KR 2016007384 W KR2016007384 W KR 2016007384W WO 2017007263 A1 WO2017007263 A1 WO 2017007263A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
hdr
box
video
field
Prior art date
Application number
PCT/KR2016/007384
Other languages
French (fr)
Korean (ko)
Inventor
윤준희
오현묵
오세진
이장원
서종열
황수진
김진필
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2017007263A1 publication Critical patent/WO2017007263A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems

Definitions

  • the present invention relates to a broadcast signal transmission apparatus, a broadcast signal reception apparatus, and a broadcast signal transmission and reception method.
  • the digital broadcast signal may include a larger amount of video / audio data than the analog broadcast signal, and may further include various types of additional data as well as the video / audio data.
  • UHD broadcasting aims to provide viewers with improved image quality and immersion through various aspects compared to existing HD broadcasting.
  • UHD extends the range of brightness and color expression expressed in content to the range of perceived brightness and color in the real human visual system, that is, high dynamic range (HDR) and wide color (WCG). gamut) is likely to be introduced.
  • HDR high dynamic range
  • WCG wide color
  • gamut is likely to be introduced.
  • HDR high dynamic range
  • WCG wide color
  • gamut wide color
  • users who watch UHD content will experience greater immersion and presence.
  • the present invention when the content is reproduced on the display, by presenting a method for effectively reproducing the image brightness and color in accordance with the intention of the producer, it is possible to watch the image of the improved image quality.
  • the digital broadcasting system may provide high definition (HD) images, multichannel audio, and various additional services.
  • HD high definition
  • data transmission efficiency for a large amount of data transmission, robustness of a transmission / reception network, and network flexibility in consideration of a mobile receiving device should be improved.
  • the present invention provides a system and an associated signaling scheme that can effectively support next-generation broadcast services in an environment that supports next-generation hybrid broadcasting using terrestrial broadcasting networks and Internet networks. Suggest.
  • the present invention can provide a method for producing and viewing HDR content that is adaptive to scene characteristics.
  • the present invention can control copying on a media element basis for HDR content.
  • FIG. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a service discovery process according to an embodiment of the present invention.
  • LLS low level signaling
  • SLT service list table
  • FIG. 4 illustrates a USBD and an S-TSID delivered to ROUTE according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a USBD delivered to MMT according to an embodiment of the present invention.
  • FIG. 6 illustrates a link layer operation according to an embodiment of the present invention.
  • FIG. 7 illustrates a link mapping table (LMT) according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a hybrid broadcast reception device according to an embodiment of the present invention.
  • FIG. 9 is a diagram illustrating the overall operation of the DASH-based adaptive streaming model according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating a dynamic adaptive streaming over HTTP (DASH) data model according to an embodiment of the present invention.
  • DASH dynamic adaptive streaming over HTTP
  • FIG. 11 illustrates a DASH data model in detail according to an embodiment of the present invention.
  • FIG. 12 is a block diagram of a receiver according to an embodiment of the present invention.
  • FIG. 13 is a diagram illustrating an apparatus for producing and playing a metadata-based HDR broadcast service according to an embodiment of the present invention.
  • FIG. 14 illustrates a method of operating a receiver for HDR video according to an embodiment of the present invention.
  • FIG. 15 illustrates a post-processing unit according to an embodiment of the present invention.
  • 16 through 19 illustrate syntax of an SEI message and an HDR information descriptor according to an embodiment of the present invention.
  • 20 to 21 illustrate an embodiment of signaling metadata information according to a RAP.
  • FIG. 23 shows a case of referring to an SEI message defined in HEVC according to an embodiment of the present invention.
  • 26 and 27 illustrate an embodiment of signaling HDR_info descriptor through EIT according to an embodiment of the present invention.
  • 29 is a diagram showing the structure of a media file according to an embodiment of the present invention.
  • FIG. 30 is a diagram illustrating an HDR configuration box for providing HDR information according to an embodiment of the present invention.
  • FIG. 31 illustrates a scheme for defining HDR information in a tkhd box according to an embodiment of the present invention.
  • FIG. 32 is a diagram illustrating a method of defining HDR information in a vmhd box according to an embodiment of the present invention.
  • FIG. 33 is a diagram illustrating a method of defining HDR information in a trex box according to an embodiment of the present invention.
  • FIG. 34 is a diagram illustrating a method of defining HDR information in a tfhd box according to an embodiment of the present invention.
  • 35 is a diagram illustrating a method of defining HDR information in a trun box according to an embodiment of the present invention.
  • FIG. 36 illustrates a scheme for defining HDR information in various flags, sample group entries, or sample entries according to an embodiment of the present invention.
  • FIG. 37 illustrates a scheme for defining HDR information in a HEVC sample entry, an HEVC configuration box, or an HEVC decoder configuration record according to an embodiment of the present invention.
  • FIG. 38 is a diagram illustrating a method of storing / delivering HDR information by defining an HDR information SEI box according to an embodiment of the present invention.
  • 39 is a diagram illustrating an HDR information box for providing image quality improvement information according to an embodiment of the present invention.
  • FIG. 40 is a diagram illustrating an HDR information box for providing image quality improvement information according to an embodiment of the present invention.
  • FIG. 41 is a diagram illustrating an embodiment related to a specific type of field included in an HDR information box.
  • FIG. 42 is a diagram illustrating a method of defining image quality improvement information in a stsd box according to an embodiment of the present invention.
  • FIG. 43 is a diagram illustrating a method of defining image quality improvement information in a tkhd box according to an embodiment of the present invention.
  • 44 is a diagram illustrating a method of defining image quality improvement information in a vmhd box according to an embodiment of the present invention.
  • 45 is a diagram illustrating a method of defining image quality improvement information in a trex box according to an embodiment of the present invention.
  • 46 is a diagram illustrating a method of defining image quality improvement information in a tfhd box according to an embodiment of the present invention.
  • FIG. 47 is a diagram illustrating a method of defining image quality improvement information in a trun box according to an embodiment of the present invention.
  • FIG. 48 is a diagram illustrating a method of defining image quality improvement information in a sample group entry or a sample entry according to an embodiment of the present invention.
  • FIG. 49 is a diagram illustrating a method of defining picture quality improvement information in an HEVC sample entry, an HEVC configuration box, or an HEVC decoder configuration record according to an embodiment of the present invention.
  • 50 is a diagram illustrating a method of defining image quality improvement information in an sbgp box or an sgpd box according to an embodiment of the present invention.
  • 51 is a diagram illustrating a copy control box for providing copy control information according to an embodiment of the present invention.
  • FIG. 52 is a diagram illustrating a method of defining copy control information in a tkhd box according to an embodiment of the present invention.
  • FIG. 53 illustrates a scheme for defining copy control information in a vmhd box, smhd box, hmhd box, or nmhd box according to an embodiment of the present invention.
  • FIG. 54 is a diagram illustrating a method of defining copy control information in a trek box according to an embodiment of the present invention.
  • 55 is a diagram illustrating a method of defining copy control information in a tfhd box according to an embodiment of the present invention.
  • 56 is a diagram illustrating a method of defining copy control information in a trun box according to an embodiment of the present invention.
  • 57 illustrates a method of defining copy control information in a visual sample group entry according to an embodiment of the present invention.
  • FIG. 58 is a diagram illustrating a method of defining copy control information in a visual sample entry according to an embodiment of the present invention.
  • FIG. 59 is a diagram illustrating a method of defining copy control information in a pssh box according to an embodiment of the present invention.
  • 60 is a diagram illustrating a method of defining copy control information in a tenc box according to an embodiment of the present invention.
  • FIG. 61 is a diagram illustrating a method of defining copy control information in a senc box according to an embodiment of the present invention.
  • FIG. 62 is a diagram illustrating a method of defining copy control information in CencSampleEncryptionInformationVideoGroupEntry or CencSampleEncryptionInformationGroupEntry according to an embodiment of the present invention.
  • FIG. 63 is a view showing a copy control box according to an embodiment of the present invention.
  • 64 is a diagram illustrating a description of an HDR configuration description including image quality improvement information according to an embodiment of the present invention.
  • 65 and 66 illustrate a description of @schemeIdUri and @value of an HDRConfiguration element including picture quality improvement information according to an embodiment of the present invention.
  • 67 is a view showing an embodiment related to a specific type of field included in an HDRConfiguration element.
  • 68 is a diagram illustrating an embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
  • 69 is a view showing another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
  • 70 is a view illustrating another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
  • 71 is a view showing another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
  • FIG. 72 is a diagram illustrating a configuration of a content component including image quality improvement information according to an embodiment of the present invention.
  • 73 is a diagram illustrating a configuration of a segment base including image quality improvement information according to an embodiment of the present invention.
  • 74 is a flowchart illustrating a method of transmitting a broadcast signal according to an embodiment of the present invention.
  • 75 is a diagram illustrating a configuration of an apparatus for transmitting a broadcast signal according to an embodiment of the present invention.
  • 76 is a flowchart illustrating a method of receiving a broadcast signal according to an embodiment of the present invention.
  • 77 is a diagram showing the configuration of an apparatus for receiving a broadcast signal according to an embodiment of the present invention.
  • the present invention provides an apparatus and method for transmitting and receiving broadcast signals for next generation broadcast services.
  • the next generation broadcast service includes a terrestrial broadcast service, a mobile broadcast service, a UHDTV service, and the like.
  • a broadcast signal for a next generation broadcast service may be processed through a non-multiple input multiple output (MIMO) or MIMO scheme.
  • the non-MIMO scheme according to an embodiment of the present invention may include a multiple input single output (MISO) scheme, a single input single output (SISO) scheme, and the like.
  • MISO multiple input single output
  • SISO single input single output
  • the present invention proposes a physical profile (or system) that is optimized to minimize receiver complexity while achieving the performance required for a particular application.
  • FIG. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.
  • the service may be delivered to the receiver through a plurality of layers.
  • the transmitting side can generate service data.
  • the delivery layer on the transmitting side performs processing for transmission to the service data, and the physical layer encodes it as a broadcast signal and transmits it through a broadcasting network or broadband.
  • the service data may be generated in a format according to ISO BMFF (base media file format).
  • the ISO BMFF media file may be used in broadcast network / broadband delivery, media encapsulation and / or synchronization format.
  • the service data is all data related to the service, and may include a concept including service components constituting the linear service, signaling information thereof, non real time (NRT) data, and other files.
  • the delivery layer will be described.
  • the delivery layer may provide a transmission function for service data.
  • the service data may be delivered through a broadcast network and / or broadband.
  • the first method may be to process service data into Media Processing Units (MPUs) based on MPEG Media Transport (MMT) and transmit the data using MMM protocol (MMTP).
  • MPUs Media Processing Units
  • MMT MPEG Media Transport
  • MMTP MMM protocol
  • the service data delivered through the MMTP may include service components for linear service and / or service signaling information thereof.
  • the second method may be to process service data into DASH segments based on MPEG DASH and transmit it using Real Time Object Delivery over Unidirectional Transport (ROUTE).
  • the service data delivered through the ROUTE protocol may include service components for the linear service, service signaling information and / or NRT data thereof. That is, non-timed data such as NRT data and files may be delivered through ROUTE.
  • Data processed according to the MMTP or ROUTE protocol may be processed into IP packets via the UDP / IP layer.
  • a service list table (SLT) may also be transmitted through a broadcasting network through a UDP / IP layer.
  • the SLT may be included in the LLS (Low Level Signaling) table and transmitted. The SLT and the LLS table will be described later.
  • IP packets may be treated as link layer packets at the link layer.
  • the link layer may encapsulate data of various formats delivered from an upper layer into a link layer packet and then deliver the data to the physical layer. The link layer will be described later.
  • At least one or more service elements may be delivered via a broadband path.
  • the data transmitted through the broadband may include service components in a DASH format, service signaling information and / or NRT data thereof. This data can be processed via HTTP / TCP / IP, passed through the link layer for broadband transmission, and delivered to the physical layer for broadband transmission.
  • the physical layer may process data received from a delivery layer (upper layer and / or link layer) and transmit the data through a broadcast network or a broadband. Details of the physical layer will be described later.
  • the service may be a collection of service components that are shown to the user as a whole, the components may be of different media types, the service may be continuous or intermittent, the service may be real time or non-real time, and the real time service may be a sequence of TV programs. It can be configured as.
  • the service may be a linear audio / video or audio only service that may have app-based enhancements.
  • the service may be an app-based service whose reproduction / configuration is controlled by the downloaded application.
  • the service may be an ESG service that provides an electronic service guide (ESG).
  • ESG electronic service guide
  • EA Emergency Alert
  • the service component may be delivered by (1) one or more ROUTE sessions or (2) one or more MMTP sessions.
  • the service component When a linear service with app-based enhancement is delivered through a broadcast network, the service component may be delivered by (1) one or more ROUTE sessions and (2) zero or more MMTP sessions.
  • data used for app-based enhancement may be delivered through a ROUTE session in the form of NRT data or other files.
  • linear service components (streaming media components) of one service may not be allowed to be delivered using both protocols simultaneously.
  • the service component may be delivered by one or more ROUTE sessions.
  • the service data used for the app-based service may be delivered through a ROUTE session in the form of NRT data or other files.
  • some service components or some NRT data, files, etc. of these services may be delivered via broadband (hybrid service delivery).
  • the linear service components of one service may be delivered through the MMT protocol.
  • the linear service components of one service may be delivered via a ROUTE protocol.
  • the linear service component and NRT data (NRT service component) of one service may be delivered through the ROUTE protocol.
  • linear service components of one service may be delivered through the MMT protocol, and NRT data (NRT service components) may be delivered through the ROUTE protocol.
  • some service component or some NRT data of a service may be delivered over broadband.
  • the data related to the app-based service or the app-based enhancement may be transmitted through a broadcast network according to ROUTE or through broadband in the form of NRT data.
  • NRT data may also be referred to as locally cashed data.
  • Each ROUTE session includes one or more LCT sessions that deliver, in whole or in part, the content components that make up the service.
  • an LCT session may deliver an individual component of a user service, such as an audio, video, or closed caption stream.
  • Streaming media is formatted into a DASH segment.
  • Each MMTP session includes one or more MMTP packet flows carrying an MMT signaling message or all or some content components.
  • the MMTP packet flow may carry a component formatted with an MMT signaling message or an MPU.
  • an LCT session For delivery of NRT user service or system metadata, an LCT session carries a file based content item.
  • These content files may consist of continuous (timed) or discrete (non-timed) media components of an NRT service, or metadata such as service signaling or ESG fragments.
  • Delivery of system metadata, such as service signaling or ESG fragments, can also be accomplished through the signaling message mode of the MMTP.
  • the tuner can scan frequencies and detect broadcast signals at specific frequencies.
  • the receiver can extract the SLT and send it to the module that processes it.
  • the SLT parser can parse the SLT, obtain data, and store it in the channel map.
  • the receiver may acquire bootstrap information of the SLT and deliver it to the ROUTE or MMT client. This allows the receiver to obtain and store the SLS. USBD or the like can be obtained, which can be parsed by the signaling parser.
  • FIG. 2 is a diagram illustrating a service discovery process according to an embodiment of the present invention.
  • the broadcast stream delivered by the broadcast signal frame of the physical layer may carry LLS (Low Level Signaling).
  • LLS data may be carried through the payload of an IP packet delivered to a well known IP address / port. This LLS may contain an SLT depending on its type.
  • LLS data may be formatted in the form of an LLS table. The first byte of every UDP / IP packet carrying LLS data may be the beginning of the LLS table. Unlike the illustrated embodiment, the IP stream carrying LLS data may be delivered to the same PLP along with other service data.
  • the SLT enables the receiver to generate a service list through a fast channel scan and provides access information for locating the SLS.
  • the SLT includes bootstrap information, which enables the receiver to obtain Service Layer Signaling (SLS) for each service.
  • SLS Service Layer Signaling
  • the bootstrap information may include destination IP address and destination port information of the ROUTE session including the LCT channel carrying the SLS and the LCT channel.
  • the bootstrap information may include a destination IP address and destination port information of the MMTP session carrying the SLS.
  • the SLS of service # 1 described by the SLT is delivered via ROUTE, and the SLT includes bootstrap information (sIP1, dIP1, dPort1) for the ROUTE session including the LCT channel to which the SLS is delivered. can do.
  • SLS of service # 2 described by the SLT is delivered through MMT, and the SLT may include bootstrap information (sIP2, dIP2, and dPort2) for an MMTP session including an MMTP packet flow through which the SLS is delivered.
  • the SLS is signaling information describing characteristics of a corresponding service and may include information for acquiring a corresponding service and a service component of the corresponding service, or may include receiver capability information for reproducing the corresponding service significantly. Having separate service signaling for each service allows the receiver to obtain the appropriate SLS for the desired service without having to parse the entire SLS delivered in the broadcast stream.
  • the SLS When the SLS is delivered through the ROUTE protocol, the SLS may be delivered through a dedicated LCT channel of a ROUTE session indicated by the SLT.
  • the SLS may include a user service bundle description (USBD / USD), a service-based transport session instance description (S-TSID), and / or a media presentation description (MPD).
  • USBD / USD user service bundle description
  • S-TSID service-based transport session instance description
  • MPD media presentation description
  • USBD to USD is one of the SLS fragments and may serve as a signaling hub for describing specific technical information of a service.
  • the USBD may include service identification information, device capability information, and the like.
  • the USBD may include reference information (URI reference) to other SLS fragments (S-TSID, MPD, etc.). That is, USBD / USD can refer to S-TSID and MPD respectively.
  • the USBD may further include metadata information that enables the receiver to determine the transmission mode (broadcast network / broadband). Details of the USBD / USD will be described later.
  • the S-TSID is one of the SLS fragments, and may provide overall session description information for a transport session carrying a service component of a corresponding service.
  • the S-TSID may provide transport session description information for the ROUTE session to which the service component of the corresponding service is delivered and / or the LCT channel of the ROUTE sessions.
  • the S-TSID may provide component acquisition information of service components related to one service.
  • the S-TSID may provide a mapping between the DASH Representation of the MPD and the tsi of the corresponding service component.
  • the component acquisition information of the S-TSID may be provided in the form of tsi, an identifier of an associated DASH representation, and may or may not include a PLP ID according to an embodiment.
  • the component acquisition information enables the receiver to collect audio / video components of a service and to buffer, decode, and the like of DASH media segments.
  • the S-TSID may be referenced by the USBD as described above. Details of the S-TSID will be described later.
  • the MPD is one of the SLS fragments and may provide a description of the DASH media presentation of the service.
  • the MPD may provide a resource identifier for the media segments and may provide contextual information within the media presentation for the identified resources.
  • the MPD may describe the DASH representation (service component) delivered through the broadcast network, and may also describe additional DASH representations delivered through the broadband (hybrid delivery).
  • the MPD may be referenced by the USBD as described above.
  • the SLS When the SLS is delivered through the MMT protocol, the SLS may be delivered through a dedicated MMTP packet flow of an MMTP session indicated by the SLT.
  • packet_id of MMTP packets carrying SLS may have a value of 00.
  • the SLS may include a USBD / USD and / or MMT Package (MP) table.
  • USBD is one of the SLS fragments, and may describe specific technical information of a service like that in ROUTE.
  • the USBD here may also include reference information (URI reference) to other SLS fragments.
  • the USBD of the MMT may refer to the MP table of the MMT signaling.
  • the USBD of the MMT may also include reference information on the S-TSID and / or the MPD.
  • the S-TSID may be for NRT data transmitted through the ROUTE protocol. This is because NRT data can be delivered through the ROUTE protocol even when the linear service component is delivered through the MMT protocol.
  • MPD may be for a service component delivered over broadband in hybrid service delivery. Details of the USBD of the MMT will be described later.
  • the MP table is a signaling message of the MMT for MPU components and may provide overall session description information for an MMTP session carrying a service component of a corresponding service.
  • the MP table may also contain descriptions for assets delivered via this MMTP session.
  • the MP table is streaming signaling information for MPU components, and may provide a list of assets corresponding to one service and location information (component acquisition information) of these components. Specific contents of the MP table may be in a form defined in MMT or a form in which modifications are made.
  • Asset is a multimedia data entity, which may mean a data entity associated with one unique ID and used to generate one multimedia presentation. Asset may correspond to a service component constituting a service.
  • the MP table may be used to access a streaming service component (MPU) corresponding to a desired service.
  • the MP table may be referenced by the USBD as described above.
  • MMT signaling messages may be defined. Such MMT signaling messages may describe additional information related to the MMTP session or service.
  • ROUTE sessions are identified by source IP address, destination IP address, and destination port number.
  • the LCT session is identified by a transport session identifier (TSI) that is unique within the scope of the parent ROUTE session.
  • MMTP sessions are identified by destination IP address and destination port number.
  • the MMTP packet flow is identified by a unique packet_id within the scope of the parent MMTP session.
  • the S-TSID, the USBD / USD, the MPD, or the LCT session carrying them may be called a service signaling channel.
  • the S-TSID, the USBD / USD, the MPD, or the LCT session carrying them may be called a service signaling channel.
  • the S-TSID, the USBD / USD, the MPD, or the LCT session carrying them may be called a service signaling channel.
  • the MMT signaling messages or packet flow carrying them may be called a service signaling channel.
  • one ROUTE or MMTP session may be delivered through a plurality of PLPs. That is, one service may be delivered through one or more PLPs. Unlike shown, components constituting one service may be delivered through different ROUTE sessions. In addition, according to an embodiment, components constituting one service may be delivered through different MMTP sessions. According to an embodiment, components constituting one service may be delivered divided into a ROUTE session and an MMTP session. Although not shown, a component constituting one service may be delivered through a broadband (hybrid delivery).
  • LLS low level signaling
  • SLT service list table
  • An embodiment t3010 of the illustrated LLS table may include information according to an LLS_table_id field, a provider_id field, an LLS_table_version field, and / or an LLS_table_id field.
  • the LLS_table_id field may identify a type of the corresponding LLS table, and the provider_id field may identify service providers related to services signaled by the corresponding LLS table.
  • the service provider is a broadcaster using all or part of the broadcast stream, and the provider_id field may identify one of a plurality of broadcasters using the broadcast stream.
  • the LLS_table_version field may provide version information of a corresponding LLS table.
  • the corresponding LLS table includes the above-described SLT, a rating region table (RRT) including information related to a content advisory rating, a SystemTime information providing information related to system time, and an emergency alert. It may include one of the CAP (Common Alert Protocol) message that provides information related to. According to an embodiment, other information other than these may be included in the LLS table.
  • RRT rating region table
  • CAP Common Alert Protocol
  • One embodiment t3020 of the illustrated SLT may include an @bsid attribute, an @sltCapabilities attribute, a sltInetUrl element, and / or a Service element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @bsid attribute may be an identifier of a broadcast stream.
  • the @sltCapabilities attribute can provide the capability information required to decode and significantly reproduce all services described by the SLT.
  • the sltInetUrl element may provide base URL information used to obtain ESG or service signaling information for services of the corresponding SLT through broadband.
  • the sltInetUrl element may further include an @urlType attribute, which may indicate the type of data that can be obtained through the URL.
  • the service element may be an element including information on services described by the corresponding SLT, and a service element may exist for each service.
  • the Service element contains the @serviceId property, the @sltSvcSeqNum property, the @protected property, the @majorChannelNo property, the @minorChannelNo property, the @serviceCategory property, the @shortServiceName property, the @hidden property, the @broadbandAccessRequired property, the @svcCapabilities property, the BroadcastSvcSignaling element, and / or the svcInetUrl element. It may include.
  • the @serviceId attribute may be an identifier of a corresponding service, and the @sltSvcSeqNum attribute may indicate a sequence number of SLT information for the corresponding service.
  • the @protected attribute may indicate whether at least one service component necessary for meaningful playback of the corresponding service is protected.
  • the @majorChannelNo and @minorChannelNo attributes may indicate the major channel number and the minor channel number of the corresponding service, respectively.
  • the @serviceCategory attribute can indicate the category of the corresponding service.
  • the service category may include a linear A / V service, a linear audio service, an app-based service, an ESG service, and an EAS service.
  • the @shortServiceName attribute may provide a short name of the corresponding service.
  • the @hidden attribute can indicate whether the service is for testing or proprietary use.
  • the @broadbandAccessRequired attribute may indicate whether broadband access is required for meaningful playback of the corresponding service.
  • the @svcCapabilities attribute can provide the capability information necessary for decoding and meaningful reproduction of the corresponding service.
  • the BroadcastSvcSignaling element may provide information related to broadcast signaling of a corresponding service. This element may provide information such as a location, a protocol, and an address with respect to signaling through a broadcasting network of a corresponding service. Details will be described later.
  • the svcInetUrl element may provide URL information for accessing signaling information for a corresponding service through broadband.
  • the sltInetUrl element may further include an @urlType attribute, which may indicate the type of data that can be obtained through the URL.
  • the aforementioned BroadcastSvcSignaling element may include an @slsProtocol attribute, an @slsMajorProtocolVersion attribute, an @slsMinorProtocolVersion attribute, an @slsPlpId attribute, an @slsDestinationIpAddress attribute, an @slsDestinationUdpPort attribute, and / or an @slsSourceIpAddress attribute.
  • the @slsProtocol attribute can indicate the protocol used to deliver the SLS of the service (ROUTE, MMT, etc.).
  • the @slsMajorProtocolVersion attribute and @slsMinorProtocolVersion attribute may indicate the major version number and the minor version number of the protocol used to deliver the SLS of the corresponding service, respectively.
  • the @slsPlpId attribute may provide a PLP identifier for identifying a PLP that delivers the SLS of the corresponding service.
  • this field may be omitted, and the PLP information to which the SLS is delivered may be identified by combining information in the LMT to be described later and bootstrap information of the SLT.
  • the @slsDestinationIpAddress attribute, @slsDestinationUdpPort attribute, and @slsSourceIpAddress attribute may indicate the destination IP address, the destination UDP port, and the source IP address of the transport packet carrying the SLS of the corresponding service, respectively. They can identify the transport session (ROUTE session or MMTP session) to which the SLS is delivered. These may be included in the bootstrap information.
  • FIG. 4 illustrates a USBD and an S-TSID delivered to ROUTE according to an embodiment of the present invention.
  • One embodiment t4010 of the illustrated USBD may have a bundleDescription root element.
  • the bundleDescription root element may have a userServiceDescription element.
  • the userServiceDescription element may be an instance of one service.
  • the userServiceDescription element may include an @globalServiceID attribute, an @serviceId attribute, an @serviceStatus attribute, an @fullMPDUri attribute, an @sTSIDUri attribute, a name element, a serviceLanguage element, a capabilityCode element, and / or a deliveryMethod element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @globalServiceID attribute is a globally unique identifier of the service and can be used to link with ESG data (Service @ globalServiceID).
  • the @serviceId attribute is a reference corresponding to the corresponding service entry of the SLT and may be the same as service ID information of the SLT.
  • the @serviceStatus attribute may indicate the status of the corresponding service. This field may indicate whether the corresponding service is active or inactive.
  • the @fullMPDUri attribute can refer to the MPD fragment of the service. As described above, the MPD may provide a reproduction description for a service component delivered through a broadcast network or a broadband.
  • the @sTSIDUri attribute may refer to the S-TSID fragment of the service.
  • the S-TSID may provide parameters related to access to the transport session carrying the service as described above.
  • the name element may provide the name of the service.
  • This element may further include an @lang attribute, which may indicate the language of the name provided by the name element.
  • the serviceLanguage element may indicate the available languages of the service. That is, this element may list the languages in which the service can be provided.
  • the capabilityCode element may indicate capability or capability group information of the receiver side necessary for significantly playing a corresponding service. This information may be compatible with the capability information format provided by the service announcement.
  • the deliveryMethod element may provide delivery related information with respect to contents accessed through a broadcasting network or a broadband of a corresponding service.
  • the deliveryMethod element may include a broadcastAppService element and / or a unicastAppService element. Each of these elements may have a basePattern element as its child element.
  • the broadcastAppService element may include transmission related information on the DASH presentation delivered through the broadcast network.
  • These DASH representations may include media components across all periods of the service media presentation.
  • the basePattern element of this element may represent a character pattern used by the receiver to match the segment URL. This can be used by the DASH client to request segments of the representation. Matching may imply that the media segment is delivered over the broadcast network.
  • the unicastAppService element may include transmission related information on the DASH representation delivered through broadband. These DASH representations may include media components across all periods of the service media presentation.
  • the basePattern element of this element may represent a character pattern used by the receiver to match the segment URL. This can be used by the DASH client to request segments of the representation. Matching may imply that the media segment is delivered over broadband.
  • An embodiment t4020 of the illustrated S-TSID may have an S-TSID root element.
  • the S-TSID root element may include an @serviceId attribute and / or an RS element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @serviceId attribute is an identifier of a corresponding service and may refer to a corresponding service of USBD / USD.
  • the RS element may describe information on ROUTE sessions through which service components of a corresponding service are delivered. Depending on the number of such ROUTE sessions, there may be a plurality of these elements.
  • the RS element may further include an @bsid attribute, an @sIpAddr attribute, an @dIpAddr attribute, an @dport attribute, an @PLPID attribute, and / or an LS element.
  • the @bsid attribute may be an identifier of a broadcast stream through which service components of a corresponding service are delivered. If this field is omitted, the default broadcast stream may be a broadcast stream that includes a PLP that carries the SLS of the service. The value of this field may be the same value as the @bsid attribute of SLT.
  • the @sIpAddr attribute, the @dIpAddr attribute, and the @dport attribute may indicate a source IP address, a destination IP address, and a destination UDP port of the corresponding ROUTE session, respectively. If these fields are omitted, the default values may be the source IP address, destination IP address, and destination UDP port values of the current, ROUTE session carrying that SLS, that is, carrying that S-TSID. For other ROUTE sessions that carry service components of the service but not the current ROUTE session, these fields may not be omitted.
  • the @PLPID attribute may indicate PLP ID information of a corresponding ROUTE session. If this field is omitted, the default value may be the PLP ID value of the current PLP to which the corresponding S-TSID is being delivered. According to an embodiment, this field is omitted, and the PLP ID information of the corresponding ROUTE session may be confirmed by combining information in the LMT to be described later and IP address / UDP port information of the RS element.
  • the LS element may describe information on LCT channels through which service components of a corresponding service are delivered. Depending on the number of such LCT channels, there may be a plurality of these elements.
  • the LS element may include an @tsi attribute, an @PLPID attribute, an @bw attribute, an @startTime attribute, an @endTime attribute, an SrcFlow element, and / or a RepairFlow element.
  • the @tsi attribute may represent tsi information of a corresponding LCT channel. Through this, LCT channels through which a service component of a corresponding service is delivered may be identified.
  • the @PLPID attribute may represent PLP ID information of a corresponding LCT channel. In some embodiments, this field may be omitted.
  • the @bw attribute may indicate the maximum bandwidth of the corresponding LCT channel.
  • the @startTime attribute may indicate the start time of the LCT session, and the @endTime attribute may indicate the end time of the LCT channel.
  • the SrcFlow element may describe the source flow of ROUTE.
  • the source protocol of ROUTE is used to transmit the delivery object, and can establish at least one source flow in one ROUTE session. These source flows can deliver related objects as an object flow.
  • the RepairFlow element may describe the repair flow of ROUTE. Delivery objects delivered according to the source protocol may be protected according to Forward Error Correction (FEC).
  • FEC Forward Error Correction
  • the repair protocol may define a FEC framework that enables such FEC protection.
  • FIG. 5 is a diagram illustrating a USBD delivered to MMT according to an embodiment of the present invention.
  • One embodiment of the illustrated USBD may have a bundleDescription root element.
  • the bundleDescription root element may have a userServiceDescription element.
  • the userServiceDescription element may be an instance of one service.
  • the userServiceDescription element may include an @globalServiceID attribute, an @serviceId attribute, a Name element, a serviceLanguage element, a content advisoryRating element, a Channel element, an mpuComponent element, a routeComponent element, a broadbandComponent element, and / or a ComponentInfo element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @globalServiceID attribute, the @serviceId attribute, the Name element and / or the serviceLanguage element may be the same as the corresponding fields of the USBD delivered to the above-described ROUTE.
  • the contentAdvisoryRating element may indicate the content advisory rating of the corresponding service. This information may be compatible with the content advisory rating information format provided by the service announcement.
  • the channel element may include information related to the corresponding service. The detail of this element is mentioned later.
  • the mpuComponent element may provide a description for service components delivered as an MPU of a corresponding service.
  • This element may further include an @mmtPackageId attribute and / or an @nextMmtPackageId attribute.
  • the @mmtPackageId attribute may refer to an MMT package of service components delivered as an MPU of a corresponding service.
  • the @nextMmtPackageId attribute may refer to an MMT package to be used next to the MMT package referenced by the @mmtPackageId attribute in time.
  • the MP table can be referenced through the information of this element.
  • the routeComponent element may include a description of service components of the corresponding service delivered to ROUTE. Even if the linear service components are delivered in the MMT protocol, the NRT data may be delivered according to the ROUTE protocol as described above. This element may describe information about such NRT data. The detail of this element is mentioned later.
  • the broadbandComponent element may include a description of service components of the corresponding service delivered over broadband.
  • some service components or other files of a service may be delivered over broadband. This element may describe information about these data.
  • This element may further include the @fullMPDUri attribute. This attribute may refer to an MPD that describes service components delivered over broadband.
  • the element when the broadcast signal is weakened due to driving in a tunnel or the like, the element may be needed to support handoff between the broadcast network and the broadband band. When the broadcast signal is weakened, while acquiring the service component through broadband, and when the broadcast signal is stronger, the service continuity may be guaranteed by acquiring the service component through the broadcast network.
  • the ComponentInfo element may include information on service components of a corresponding service. Depending on the number of service components of the service, there may be a plurality of these elements. This element may describe information such as the type, role, name, identifier, and protection of each service component. Detailed information on this element will be described later.
  • the aforementioned channel element may further include an @serviceGenre attribute, an @serviceIcon attribute, and / or a ServiceDescription element.
  • the @serviceGenre attribute may indicate the genre of the corresponding service
  • the @serviceIcon attribute may include URL information of an icon representing the corresponding service.
  • the ServiceDescription element provides a service description of the service, which may further include an @serviceDescrText attribute and / or an @serviceDescrLang attribute. Each of these attributes may indicate the text of the service description and the language used for that text.
  • the aforementioned routeComponent element may further include an @sTSIDUri attribute, an @sTSIDDestinationIpAddress attribute, an @sTSIDDestinationUdpPort attribute, an @sTSIDSourceIpAddress attribute, an @sTSIDMajorProtocolVersion attribute, and / or an @sTSIDMinorProtocolVersion attribute.
  • the @sTSIDUri attribute may refer to an S-TSID fragment. This field may be the same as the corresponding field of USBD delivered to ROUTE described above. This S-TSID may provide access related information for service components delivered in ROUTE. This S-TSID may exist for NRT data delivered according to the ROUTE protocol in the situation where linear service components are delivered according to the MMT protocol.
  • the @sTSIDDestinationIpAddress attribute, the @sTSIDDestinationUdpPort attribute, and the @sTSIDSourceIpAddress attribute may indicate a destination IP address, a destination UDP port, and a source IP address of a transport packet carrying the aforementioned S-TSID, respectively. That is, these fields may identify a transport session (MMTP session or ROUTE session) carrying the aforementioned S-TSID.
  • the @sTSIDMajorProtocolVersion attribute and the @sTSIDMinorProtocolVersion attribute may indicate a major version number and a minor version number of the transport protocol used to deliver the aforementioned S-TSID.
  • ComponentInfo element may further include an @componentType attribute, an @componentRole attribute, an @componentProtectedFlag attribute, an @componentId attribute, and / or an @componentName attribute.
  • the @componentType attribute may indicate the type of the corresponding component. For example, this property may indicate whether the corresponding component is an audio, video, or closed caption component.
  • the @componentRole attribute can indicate the role (role) of the corresponding component. For example, this property can indicate whether the main audio, music, commentary, etc., if the corresponding component is an audio component. If the corresponding component is a video component, it may indicate whether it is primary video. If the corresponding component is a closed caption component, it may indicate whether it is a normal caption or an easy reader type.
  • the @componentProtectedFlag attribute may indicate whether a corresponding service component is protected, for example, encrypted.
  • the @componentId attribute may represent an identifier of a corresponding service component.
  • the value of this attribute may be a value such as asset_id (asset ID) of the MP table corresponding to this service component.
  • the @componentName attribute may represent the name of the corresponding service component.
  • FIG. 6 illustrates a link layer operation according to an embodiment of the present invention.
  • the link layer may be a layer between the physical layer and the network layer.
  • the transmitter may transmit data from the network layer to the physical layer
  • the receiver may transmit data from the physical layer to the network layer (t6010).
  • the purpose of the link layer may be to compress all input packet types into one format for processing by the physical layer, to ensure flexibility and future scalability for input packet types not yet defined. have.
  • the link layer may provide an option of compressing unnecessary information in the header of the input packet, so that the input data may be efficiently transmitted. Operations such as overhead reduction and encapsulation of the link layer may be referred to as a link layer protocol, and a packet generated using the corresponding protocol may be referred to as a link layer packet.
  • the link layer may perform functions such as packet encapsulation, overhead reduction, and / or signaling transmission.
  • the link layer ALP may perform an overhead reduction process on input packets and then encapsulate them into link layer packets.
  • the link layer may encapsulate the link layer packet without performing an overhead reduction process.
  • the use of the link layer protocol can greatly reduce the overhead for data transmission on the physical layer, and the link layer protocol according to the present invention can provide IP overhead reduction and / or MPEG-2 TS overhead reduction. have.
  • the link layer may sequentially perform IP header compression, adaptation, and / or encapsulation. In some embodiments, some processes may be omitted.
  • the RoHC module performs IP packet header compression to reduce unnecessary overhead, and context information may be extracted and transmitted out of band through an adaptation process.
  • the IP header compression and adaptation process may be collectively called IP header compression.
  • IP packets may be encapsulated into link layer packets through an encapsulation process.
  • the link layer may sequentially perform an overhead reduction and / or encapsulation process for the TS packet. In some embodiments, some processes may be omitted.
  • the link layer may provide sync byte removal, null packet deletion and / or common header removal (compression).
  • Sync byte elimination can provide overhead reduction of 1 byte per TS packet. Null packet deletion can be performed in a manner that can be reinserted at the receiving end. In addition, common information between successive headers can be deleted (compressed) in a manner that can be recovered at the receiving side. Some of each overhead reduction process may be omitted. Thereafter, TS packets may be encapsulated into link layer packets through an encapsulation process.
  • the link layer packet structure for encapsulation of TS packets may be different from other types of packets.
  • IP header compression will be described.
  • the IP packet has a fixed header format, but some information required in a communication environment may be unnecessary in a broadcast environment.
  • the link layer protocol may provide a mechanism to reduce broadcast overhead by compressing the header of the IP packet.
  • IP header compression may include a header compressor / decompressor and / or adaptation module.
  • the IP header compressor (RoHC compressor) may reduce the size of each IP packet header based on the RoHC scheme.
  • the adaptation module may then extract the context information and generate signaling information from each packet stream.
  • the receiver may parse signaling information related to the packet stream and attach context information to the packet stream.
  • the RoHC decompressor can reconstruct the original IP packet by recovering the packet header.
  • IP header compression may mean only IP header compression by a header compressor, or may mean a concept in which the IP header compression and the adaptation process by the adaptation module are combined. The same is true for decompressing.
  • the adaptation function may generate link layer signaling using context information and / or configuration parameters.
  • the adaptation function may periodically send link layer signaling over each physical frame using previous configuration parameters and / or context information.
  • the context information is extracted from the compressed IP packets, and various methods may be used according to the adaptation mode.
  • Mode # 1 is a mode in which no operation is performed on the compressed packet stream, and may be a mode in which the adaptation module operates as a buffer.
  • Mode # 2 may be a mode for extracting context information (static chain) by detecting IR packets in the compressed packet stream. After extraction, the IR packet is converted into an IR-DYN packet, and the IR-DYN packet can be transmitted in the same order in the packet stream by replacing the original IR packet.
  • context information static chain
  • Mode # 3 t6020 may be a mode for detecting IR and IR-DYN packets and extracting context information from the compressed packet stream.
  • Static chains and dynamic chains can be extracted from IR packets and dynamic chains can be extracted from IR-DYN packets.
  • the IR and IR-DYN packets can be converted into regular compressed packets.
  • the switched packets can be sent in the same order within the packet stream, replacing the original IR and IR-DYN packets.
  • the remaining packets after the context information is extracted may be encapsulated and transmitted according to the link layer packet structure for the compressed IP packet.
  • the context information may be transmitted by being encapsulated according to a link layer packet structure for signaling information as link layer signaling.
  • the extracted context information may be included in the RoHC-U Description Table (RTT) and transmitted separately from the RoHC packet flow.
  • the context information may be transmitted through a specific physical data path along with other signaling information.
  • a specific physical data path may mean one of general PLPs, a PLP to which LLS (Low Level Signaling) is delivered, a dedicated PLP, or an L1 signaling path. path).
  • the RDT may be signaling information including context information (static chain and / or dynamic chain) and / or information related to header compression.
  • the RDT may be transmitted whenever the context information changes.
  • the RDT may be transmitted in every physical frame. In order to transmit the RDT in every physical frame, a previous RDT may be re-use.
  • the receiver may first select PLP to acquire signaling information such as SLT, RDT, LMT, and the like. When the signaling information is obtained, the receiver may combine these to obtain a mapping between the service-IP information-context information-PLP. That is, the receiver can know which service is transmitted to which IP streams, which IP streams are delivered to which PLP, and can also obtain corresponding context information of the PLPs. The receiver can select and decode a PLP carrying a particular packet stream. The adaptation module can parse the context information and merge it with the compressed packets. This allows the packet stream to be recovered, which can be delivered to the RoHC decompressor. Decompression can then begin.
  • signaling information such as SLT, RDT, LMT, and the like.
  • the receiver may combine these to obtain a mapping between the service-IP information-context information-PLP. That is, the receiver can know which service is transmitted to which IP streams, which IP streams are delivered to which PLP, and can also obtain corresponding context information of the PLPs.
  • the receiver detects the IR packet and starts decompression from the first received IR packet according to the adaptation mode (mode 1), or detects the IR-DYN packet to perform decompression from the first received IR-DYN packet.
  • the link layer protocol may encapsulate all types of input packets, such as IP packets and TS packets, into link layer packets. This allows the physical layer to process only one packet format independently of the protocol type of the network layer (here, consider MPEG-2 TS packet as a kind of network layer packet). Each network layer packet or input packet is transformed into a payload of a generic link layer packet.
  • Segmentation may be utilized in the packet encapsulation process. If the network layer packet is too large to be processed by the physical layer, the network layer packet may be divided into two or more segments.
  • the link layer packet header may include fields for performing division at the transmitting side and recombination at the receiving side. Each segment may be encapsulated into a link layer packet in the same order as the original position.
  • Concatenation may also be utilized in the packet encapsulation process. If the network layer packet is small enough that the payload of the link layer packet includes several network layer packets, concatenation may be performed.
  • the link layer packet header may include fields for executing concatenation. In the case of concatenation, each input packet may be encapsulated into the payload of the link layer packet in the same order as the original input order.
  • the link layer packet may include a header and a payload, and the header may include a base header, an additional header, and / or an optional header.
  • the additional header may be added depending on the chaining or splitting, and the additional header may include necessary fields according to the situation.
  • an optional header may be further added to transmit additional information.
  • Each header structure may be predefined. As described above, when the input packet is a TS packet, a link layer header structure different from other packets may be used.
  • Link layer signaling may operate at a lower level than the IP layer.
  • the receiving side can acquire the link layer signaling faster than the IP level signaling such as LLS, SLT, SLS, and the like. Therefore, link layer signaling may be obtained before session establishment.
  • Link layer signaling may include internal link layer signaling and external link layer signaling.
  • Internal link layer signaling may be signaling information generated in the link layer.
  • the above-described RDT or LMT to be described later may correspond to this.
  • the external link layer signaling may be signaling information received from an external module, an external protocol, or an upper layer.
  • the link layer may encapsulate link layer signaling into a link layer packet and deliver it.
  • a link layer packet structure (header structure) for link layer signaling may be defined, and link layer signaling information may be encapsulated according to this structure.
  • FIG. 7 illustrates a link mapping table (LMT) according to an embodiment of the present invention.
  • the LMT may provide a list of higher layer sessions carried by the PLP.
  • the LMT may also provide additional information for processing link layer packets carrying higher layer sessions.
  • the higher layer session may be called multicast.
  • Information on which IP streams and which transport sessions are being transmitted through a specific PLP may be obtained through the LMT. Conversely, information on which PLP a specific transport session is delivered to may be obtained.
  • the LMT may be delivered to any PLP identified as carrying an LLS.
  • the PLP through which the LLS is delivered may be identified by the LLS flag of the L1 detail signaling information of the physical layer.
  • the LLS flag may be a flag field indicating whether LLS is delivered to the corresponding PLP for each PLP.
  • the L1 detail signaling information may correspond to PLS2 data to be described later.
  • the LMT may be delivered to the same PLP together with the LLS.
  • Each LMT may describe the mapping between PLPs and IP address / port as described above.
  • the LLS may include an SLT, where these IP addresses / ports described by the LMT are all IP addresses associated with any service described by the SLT forwarded to the same PLP as that LMT. It can be / ports.
  • the PLP identifier information in the above-described SLT, SLS, etc. may be utilized, so that information on which PLP the specific transmission session indicated by the SLT, SLS is transmitted may be confirmed.
  • the PLP identifier information in the above-described SLT, SLS, etc. may be omitted, and the PLP information for the specific transport session indicated by the SLT, SLS may be confirmed by referring to the information in the LMT.
  • the receiver may identify the PLP to know by combining LMT and other IP level signaling information.
  • PLP information in SLT, SLS, and the like is not omitted, and may remain in the SLT, SLS, and the like.
  • the LMT according to the illustrated embodiment may include a signaling_type field, a PLP_ID field, a num_session field, and / or information about respective sessions.
  • a PLP loop may be added to the LMT according to an embodiment, so that information on a plurality of PLPs may be described.
  • the LMT may describe PLPs for all IP addresses / ports related to all services described by the SLTs delivered together, in a PLP loop.
  • the signaling_type field may indicate the type of signaling information carried by the corresponding table.
  • the value of the signaling_type field for the LMT may be set to 0x01.
  • the signaling_type field may be omitted.
  • the PLP_ID field may identify a target PLP to be described. When a PLP loop is used, each PLP_ID field may identify each target PLP. From the PLP_ID field may be included in the PLP loop.
  • the PLP_ID field mentioned below is an identifier for one PLP in a PLP loop, and the fields described below may be fields for the corresponding PLP.
  • the num_session field may indicate the number of upper layer sessions delivered to the PLP identified by the corresponding PLP_ID field. According to the number indicated by the num_session field, information about each session may be included. This information may include an src_IP_add field, a dst_IP_add field, a src_UDP_port field, a dst_UDP_port field, a SID_flag field, a compressed_flag field, a SID field, and / or a context_id field.
  • the src_IP_add field, dst_IP_add field, src_UDP_port field, and dst_UDP_port field are the source IP address, destination IP address, source UDP port, destination UDP port for the transport session among the upper layer sessions forwarded to the PLP identified by the corresponding PLP_ID field. It can indicate a port.
  • the SID_flag field may indicate whether a link layer packet carrying a corresponding transport session has an SID field in its optional header.
  • a link layer packet carrying an upper layer session may have an SID field in its optional header, and the SID field value may be the same as an SID field in an LMT to be described later.
  • the compressed_flag field may indicate whether header compression has been applied to data of a link layer packet carrying a corresponding transport session.
  • the existence of the context_id field to be described later may be determined according to the value of this field.
  • the SID field may indicate a sub stream ID (SID) for link layer packets carrying a corresponding transport session.
  • SID sub stream ID
  • These link layer packets may include an SID having the same value as this SID field in the optional header.
  • the context_id field may provide a reference to a context id (CID) in the RDT.
  • the CID information of the RDT may indicate the context ID for the corresponding compressed IP packet stream.
  • the RDT may provide context information for the compressed IP packet stream. RDT and LMT may be associated with this field.
  • each field, element, or attribute may be omitted or replaced by another field, and additional fields, elements, or attributes may be added according to an embodiment. .
  • service components of one service may be delivered through a plurality of ROUTE sessions.
  • the SLS may be obtained through the bootstrap information of the SLT.
  • the SLS's USBD allows the S-TSID and MPD to be referenced.
  • the S-TSID may describe transport session description information for other ROUTE sessions to which service components are delivered, as well as a ROUTE session to which an SLS is being delivered.
  • all service components delivered through a plurality of ROUTE sessions may be collected. This may be similarly applied when service components of a service are delivered through a plurality of MMTP sessions.
  • one service component may be used simultaneously by a plurality of services.
  • bootstrapping for ESG services may be performed by a broadcast network or broadband.
  • URL information of the SLT may be utilized. ESG information and the like can be requested to this URL.
  • one service component of one service may be delivered to the broadcasting network and one to the broadband (hybrid).
  • the S-TSID may describe components delivered to a broadcasting network, so that a ROUTE client may acquire desired service components.
  • USBD also has base pattern information, which allows you to describe which segments (which components) are to be routed to which path. Therefore, the receiver can use this to know what segment to request to the broadband server and what segment to find in the broadcast stream.
  • scalable coding for a service may be performed.
  • the USBD may have all the capability information needed to render the service. For example, when a service is provided in HD or UHD, the capability information of the USBD may have a value of “HD or UHD”.
  • the receiver may know which component should be played in order to render the UHD or HD service using the MPD.
  • app components to be used for app-based enhancement / app-based service may be delivered through a broadcast network or through broadband as an NRT component.
  • app signaling for app-based enhancement may be performed by an application signaling table (AST) delivered with SLS.
  • an event which is a signaling of an operation to be performed by the app, may be delivered in the form of an event message table (EMT) with SLS, signaled in an MPD, or in-band signaled in a box in a DASH representation. . AST, EMT, etc. may be delivered via broadband.
  • App-based enhancement may be provided using the collected app components and such signaling information.
  • a CAP message may be included in the aforementioned LLS table for emergency alerting. Rich media content for emergency alerts may also be provided. Rich media may be signaled by the CAP message, and if rich media is present it may be provided as an EAS service signaled by the SLT.
  • the linear service components may be delivered through a broadcasting network according to the MMT protocol.
  • NRT data for example, an app component
  • data on the service may be delivered through a broadcasting network according to the ROUTE protocol.
  • data on the service may be delivered through broadband.
  • the receiver can access the MMTP session carrying the SLS using the bootstrap information of the SLT.
  • the USBD of the SLS according to the MMT may refer to the MP table so that the receiver may acquire linear service components formatted with the MPU delivered according to the MMT protocol.
  • the USBD may further refer to the S-TSID to allow the receiver to obtain NRT data delivered according to the ROUTE protocol.
  • the USBD may further reference the MPD to provide a playback description for the data delivered over the broadband.
  • the receiver may transmit location URL information for obtaining a streaming component and / or a file content item (such as a file) to the companion device through a method such as a web socket.
  • An application of a companion device may request the component, data, and the like by requesting the URL through an HTTP GET.
  • the receiver may transmit information such as system time information and emergency alert information to the companion device.
  • FIG. 8 is a diagram illustrating a hybrid broadcast reception device according to an embodiment of the present invention.
  • the hybrid broadcasting system may transmit a broadcast signal by interworking a terrestrial broadcasting network and an internet network.
  • the hybrid broadcast reception device may receive a broadcast signal through a terrestrial broadcast network (broadcast) and an internet network (broadband).
  • the hybrid broadcast receiver includes a physical layer module, a physical layer I / F module, a service / content acquisition controller, an internet access control module, a signaling decoder, a service signaling manager, a service guide manager, an application signaling manager, an alarm signal manager, an alarm signal parser, Targeting signal parser, streaming media engine, non-real time file processor, component synchronizer, targeting processor, application processor, A / V processor, device manager, data sharing and communication unit, redistribution module, companion device and / or external modules can do.
  • the physical layer module (s) may receive and process a broadcast-related signal through a terrestrial broadcast channel, convert it into an appropriate form, and deliver the signal to a physical layer I / F module.
  • the physical layer I / F module may obtain an IP datagram from information obtained from the physical layer module.
  • the physical layer I / F module may convert the obtained IP datagram into a specific frame (eg, RS Frame, GSE, etc.).
  • the service / content acquisition controller may perform a control operation for acquiring service, content, and signaling data related thereto through broadcast and / or broadband channels.
  • the Internet Access Control Module (s) may control a receiver operation for acquiring a service, content, or the like through a broadband channel.
  • the signaling decoder may decode signaling information obtained through a broadcast channel.
  • the service signaling manager may extract, parse, and manage signaling information related to service scan and service / content from an IP datagram.
  • the service guide manager may extract announcement information from an IP datagram, manage an SG database, and provide a service guide.
  • the App Signaling Manager may extract, parse and manage signaling information related to application acquisition from an IP datagram.
  • Alert Signaling Parser can extract, parse and manage signaling information related to alerting from IP datagram.
  • Targeting Signaling Parser can extract, parse and manage signaling information related to service / content personalization or targeting from IP datagram.
  • the targeting signal parser may deliver the parsed signaling information to the targeting processor.
  • the streaming media engine can extract and decode audio / video data for A / V streaming from IP datagrams.
  • the non-real time file processor can extract, decode and manage file type data such as NRT data and applications from IP datagrams.
  • the Component Synchronizer can synchronize content and services such as streaming audio / video data and NRT data.
  • the targeting processor may process an operation related to personalization of a service / content based on the targeting signaling data received from the targeting signal parser.
  • the App Processor may process application related information, downloaded application status, and display parameters.
  • the A / V Processor may perform audio / video rendering related operations based on decoded audio, video data, and application data.
  • the device manager may perform a connection and data exchange operation with an external device.
  • the device manager may perform management operations on external devices, such as adding, deleting, and updating external devices that can be interworked.
  • the data sharing & communication unit can process information related to data transmission and exchange between the hybrid broadcast receiver and an external device.
  • the data that can be transmitted and exchanged may be signaling, A / V data, or the like.
  • the redistribution module (s) may obtain relevant information about next-generation broadcast services and contents when the broadcast receiver does not directly receive the terrestrial broadcast signal.
  • the redistribution module may support the acquisition of broadcast services and content by the next generation broadcast system when the broadcast receiver does not directly receive the terrestrial broadcast signal.
  • Companion device (s) may be connected to the broadcast receiver of the present invention to share audio, video, or signaling inclusion data.
  • the companion device may refer to an external device connected to the broadcast receiver.
  • the external module may refer to a module for providing a broadcast service / content and may be, for example, a next generation broadcast service / content server.
  • the external module may refer to an external device connected to the broadcast receiver.
  • FIG. 9 is a diagram illustrating the overall operation of the DASH-based adaptive streaming model according to an embodiment of the present invention.
  • the present invention proposes a next-generation media service providing method for providing content capable of supporting High Dynamic Range (HDR).
  • HDR content capable of expressing rich brightness is provided
  • the present invention proposes metadata and a delivery method thereof. Through this, the content may be adaptively adjusted according to various scene-specific characteristics of the content, and the content may be provided with improved image quality.
  • the present invention proposes a method of signaling HDR parameters related to video tracks, video samples, etc. of content providing HDR based on a media file such as ISOBMFF.
  • the present invention proposes a method of storing and signaling HDR flags and / or parameters associated with a video track (stream).
  • the present invention proposes a method of storing and signaling HDR flags and / or parameters related to a video sample, a video sample group or a video sample entry.
  • the present invention proposes a method of storing and signaling an SEI NAL unit including HDR related information.
  • the storage / delivery method of HDR information according to the present invention may be utilized in the generation of content supporting HDR. That is, the method of the present invention may be utilized when generating a media file for content that supports HDR, generating a DASH segment operating on MPEG DASH, or generating an MPU operating on MPEG MMT.
  • the receiver including a DASH client, an MMT client, etc.
  • HDR information may be obtained from a decoder and the like, and effectively provide the corresponding content based on the information.
  • HDR configuration box or HDR related flag information may exist simultaneously in multiple boxes in a media file, DASH segment, or MMT MPU.
  • the HDR information defined in the upper box may be overridden by the HDR information defined in the lower box.
  • the HDR information of the tkhd box may be overridden by the HDR information of the vmhd box.
  • the DASH-based adaptive streaming model describes the operation between the HTTP server and the DASH client.
  • DASH Dynamic Adaptive Streaming over HTTP
  • DASH is a protocol for supporting HTTP-based adaptive streaming, and can dynamically support streaming according to network conditions. Accordingly, the AV content can be provided without interruption.
  • the DASH client can obtain the MPD.
  • MPD may be delivered from a service provider such as an HTTP server.
  • the MPD may be delivered according to the delivery embodiment described above.
  • the DASH client can request the segments from the server using the access information to the segment described in the MPD. In this case, the request may be performed by reflecting the network state.
  • the DASH client may process it in the media engine and display the segment on the screen.
  • the DASH client may request and acquire a required segment by adaptively reflecting a playing time and / or a network condition (Adaptive Streaming). This allows the content to be played back seamlessly.
  • Adaptive Streaming a network condition
  • MPD Media Presentation Description
  • XML form a file containing detailed information for allowing a DASH client to dynamically acquire a segment. This MPD may be the same as the MPD described above according to an embodiment.
  • the DASH Client Controller may generate a command for requesting the MPD and / or the segment reflecting the network situation.
  • the controller can control the obtained information to be used in an internal block of the media engine or the like.
  • the MPD Parser may parse the acquired MPD in real time. This allows the DASH client controller to generate a command to obtain the required segment.
  • the segment parser may parse the acquired segment in real time. Internal blocks such as the media engine may perform a specific operation according to the information included in the segment.
  • the HTTP client may request the HTTP server for necessary MPDs and / or segments.
  • the HTTP client may also pass MPD and / or segments obtained from the server to the MPD parser or segment parser.
  • the media engine may display content on the screen using media data included in the segment. At this time, the information of the MPD may be utilized.
  • FIG. 10 is a diagram illustrating a dynamic adaptive streaming over HTTP (DASH) data model according to an embodiment of the present invention.
  • DASH dynamic adaptive streaming over HTTP
  • the transmitting apparatus may enable a DASH-based client to provide an HDR service by signaling high dynamic range (HDR) configuration information in MPEG DASH. That is, the transmission device according to an embodiment of the present invention may signal configuration information on the HDR content itself.
  • HDR high dynamic range
  • signaling for high dynamic range (HDR) configuration information in MPEG DASH may be applied to a DASH-based system.
  • HDR high dynamic range
  • a DASH-based system For example, it can be applied to ATSC 3.0, DVB IPTV, DASG-based streaming system.
  • the transmitting apparatus may collect HDR-related parameters (EOTF, bit depth, peak luminance, codec information, metadata, etc.) into one set and signal the configured set.
  • the transmitting apparatus may signal the HDR type in the MPD since the above-described HDR-related parameter set may not be provided in all receivers.
  • the media presentation may include one or more periods.
  • One period may include one or more adaptation sets.
  • One adaptation set may include one or more representations.
  • One representation may include one or more segment information.
  • One segment information may include an initialization segment and one or more media segments.
  • Adaptation Set 1 for the audio component
  • Adaptation Set 2 for the video component
  • Adaptation Set 2 for the video component
  • Adaptation Set 3 includes Representation 1, Representation 2, and the like.
  • Representation 1 includes segment information including information on a segment carrying a video component represented by Representation 1. Segment Information includes duration and / or template information of the segment.
  • the segment for the video component represented by Representation 1 has a duration of 10 seconds and has a template of ./video-1-$Number$.
  • Representation 1 includes Initialization Segment, Media Segment 1 to Media Segment 10.
  • the segment information includes information on a segment for Representation 1.
  • FIG. 11 illustrates a DASH data model in detail according to an embodiment of the present invention.
  • the DASH data model according to an embodiment of the present invention may be expressed as a relationship between an MPD element, a Period element, an AdaptationSet element, a Representation element, a SubRepresentation element, a ContentComponent element, and / or a SegmentBase element.
  • MPD elements include @id, @profile, @type @availabilityStartTime, @minBufferTime @suggestedPresentationDelay, ProgramInformation (0..N), Location (0..N), Period (0..N), and / or Metrics (0 .. N).
  • @profile and / or @minBufferTime may be a mandatory field.
  • Period elements include @id, @start, @duration, AssetIdentifier (0..1), EventStream (0..N), AdaptationSet (0..N), and / or Subset (0..N).
  • the AdaptationSet element is @id, @group, @min (max) Bandwidth, @min (max) Width, @min (max) Height
  • Representation elements include @id, @bandwidth, @dependencyId, Common, BaseURL (0..N), SegmentBase (0..1), SegmentList (0..1), SegmentTemplate (0..1), and / or SubRepresentation ( 0..N).
  • @id and / or @bandwidth may be mandatory fields.
  • SubRepresentation elements include @level, @dependencyLevel, @bandwidth, @contentComponent and / or Common.
  • ContentComponent elements include @id, @lang, @contentType, @par, Accessibility (0..N), Role (0..N), Rating (0..N), and / or Viewpoint (0..N) do.
  • @lang, @contentType and / or @par do not exist in AdaptationSet, these fields may or may not be defined in ContentComponent.
  • the SegmentBase element includes @timescale, @presentationTimeOffset, @timeShiftBufferDepth, @availabilityTimeOffset, Initialization (0..1) and / or RepresentationIndex (0..1).
  • the DASH data model according to an embodiment of the present invention includes a common attribute and an element.
  • Commmon attributes and elements include @ mimeType, @ width, @height, @sar, @framerate, @audiosamplingRate, @codec, @startWithSAP, FramePacking (0..N), AudioChannelConfiguration (0..N), ContentProtection (0 .. N), EssentialProperty (0..N), SupplementalProperty (0..N) and / or InbandEventStream (0..N).
  • AdaptationSet Representation and / or SubRepresentation.
  • fields with @ in front of field names represent attributes, and fields without @ represent elements. Also, (0..N) after the element name indicates that there are at least 0 and at most N elements. Where N indicates that no limit is set.
  • the description of the element or attribute in the MPD follows the content defined in the DASH standard.
  • MPD is a description of a media presentation to provide a streaming service.
  • Period represents the interval of media presentation. Consecutive sequences of all periods make up a media presentation.
  • Segment represents a unit of data associated with the URL and byte range described by the MPD.
  • An Adaptation Set represents a set of interchangeable encoded versions of one or more media content components.
  • Representation represents an aggregation and encapsulation of one or more media streams in a transport format.
  • Sub-Representation represents a part of Representation described by MPD.
  • FIG. 12 is a block diagram of a receiver according to an embodiment of the present invention.
  • the receiver is a Tuner, Physical Layer Controller, Physical Frame Parser, Link Layer Frame Processor, IP / UDP Datagram Filter, DTV Control Engine, Route Client, Segment Buffer Control, MMT Client, MPU reconstruction, Media Processor, Signaling Parser, DASH Client, ISO BMFF Parser, Media Decoder and / or HTTP Access Client.
  • Each detailed block of the receiver may be a processor that is hardware.
  • the tuner can receive and process broadcast signals through terrestrial broadcast channels and convert them into appropriate forms (Physical Frame, etc.).
  • the physical layer controller may control operations of a tuner, a physical frame parser, etc. using RF information of a broadcast channel to be received.
  • the physical frame parser may acquire the link layer frame through parsing the received physical frame and processing related thereto.
  • the link layer frame processor may acquire link layer signaling from a link layer frame, acquire an IP / UDP datagram, and perform related operations.
  • the IP / UDP Datagram Filter may filter a specific IP / UDP datagram from the received IP / UDP datagrams.
  • the DTV Control Engine is in charge of the interface between each component and can control the operation of each component by passing parameters.
  • the Route Client can generate one or more ISO Base Media File Format (ISOBMFF) objects by processing Real-Time Object Delivery over Unidirectional Transport (ROUTE) packets that support real-time object transport, and collecting and processing multiple packets.
  • ISOBMFF ISO Base Media File Format
  • ROUTE Real-Time Object Delivery over Unidirectional Transport
  • Segment Buffer Control can control the buffer related to segment transmission between Route Client and Dash Client.
  • the MMT Client can process MPEG Media Transport (MPT) transport protocol packets that support real-time object transport and collect and process multiple packets.
  • MPU reconstruction may reconstruct a Media Processing Unit (MPU) from an MMTP packet.
  • the Media Processor can collect and process the reconstructed MPU.
  • MPEG Media Transport MPEG Media Transport
  • the Signaling Parser may acquire and parse DTV broadcast service related signaling (Link Layer / Service Layer Signaling), and generate and / or manage a channel map based on this. This configuration can handle low level signaling and service level signaling.
  • the DASH Client can process real-time streaming or adaptive streaming-related operations and acquired DASH Segments.
  • the ISO BMFF Parser may extract audio / video data and related parameters from an ISO BMFF object.
  • the media decoder may decode and / or present the received audio and video data.
  • the HTTP Access Client can request specific information from an HTTP server and process the response to the request.
  • the receiver according to the embodiment of the present invention may further include a viewing authority related control unit t8010.
  • the viewing authority related control unit may further include an output interface and / or a CA (Conditional Access) module according to an embodiment.
  • the CA module may process key information and / or viewing authority information for decoding the scrambled broadcast stream.
  • the scrambled broadcast stream may mean an encrypted broadcast stream.
  • the CA module may process information and deliver key information required for the DASH client, the ISOBMFF Parser, and / or the Media Processor.
  • the CA module may process the license, key information, and viewing authority information and transmit the same to another module, or even decrypt the encrypted stream in the CA module itself.
  • the output interface can control an external interface that can be connected to an external device.
  • the external device may include a companion device and / or a device containing other authentication information.
  • FIG. 13 is a diagram illustrating an apparatus for producing and playing a metadata-based HDR broadcast service according to an embodiment of the present invention.
  • the HDR video production apparatus may include at least one of the capture / film scanner 101, the post-production block (mastering unit 102), and / or the encoder / multiplexer 103.
  • the HDR video playback device may include at least one of a demultiplexer 104, a decoder 105, a metadata processor 106, a post processor 107, a synchronizer 108, and / or a display 109.
  • the metadata included in the video stream is received, the metadata of the present invention is not only a broadcast signal but also other paths (for example, IP-based broadcasting / communication, wire / wireless communication, wire / wireless interface, and near field communication). Etc.) can also be sent and received.
  • the capture / film scanner 101 of the HDR video production apparatus may convert a natural scene composed of natural colors into a digital image.
  • the capture / film scanner may be a device for converting an optical image into a digital image such as a video camera, a camera, a scanner, and the like.
  • the capture / film scanner 101 may sense an optical image and output raw HDR (High Dynamic Range) video.
  • the post-production block (mastering unit) 102 may receive the raw HDR video and output the mastered HDR video and the HDR metadata.
  • the post-production block may receive mastering display information, viewing condition information, color encoding information, gamut mapping information, and / or dynamic range (DR) information, and perform mastering.
  • the color encoding information is for example EOTF (electro-optical transfer function), BT. For example, 2020.
  • Encoder / multiplexer 103 may encode and multiplex at least one or more mastered HDR video and HDR metadata.
  • the demultiplexer 104 of the HDR video playback device may receive and demultiplex the HDR stream.
  • One HDR stream may include a plurality of contents, and the demultiplexer may output the HDR stream to be decoded to the decoder.
  • the decoder 105 may receive the HDR stream and perform decoding. In this process, the decoder may output decoded HDR video and HDR metadata. The decoded HDR video may be output to the post processor and the HDR metadata may be output to the metadata processor.
  • the metadata processor 106 may receive and store the HDR metadata.
  • the metadata processor may check the set number or the version number included in the HDR metadata to check whether there is a change to the stored HDR metadata, and if there is a change, update the existing HDR metadata.
  • the metadata processor may output the HDR metadata to the post processor according to timing information received from the synchronizer.
  • the post processor 107 may perform post-processing on the HDR video received from the decoder by using the HDR metadata received from the metadata processor. Through this process, HDR video can be converted to improved HDR video with HDR metadata.
  • the synchronizer 108 may provide timing information to the metadata processor and the post processor so that the metadata is applied at the correct time point for the entire HDR video or each scene, each video clip, or each frame.
  • the meta data may indicate information on the mastering display, or may mean information that is commonly applied in units of channels, programs, or content, or information that is applied to each of a series of scenes, video clips, and frames.
  • the HDR display 109 may display and provide the enhanced HDR video to the user.
  • FIG. 14 illustrates a method of operating a receiver for HDR video according to an embodiment of the present invention.
  • the operation of the receiver is mainly described, but the same considerations may be considered when generating a related signal, and may also be applied to a transfer signal and a mastering signal between productions.
  • the receiver may separate the HDR metadata from the HDR video signal using the video decoder 201 and store it in a separate metadata processor 202.
  • the metadata processor may include a metadata parser, a metadata buffer, and a metadata update performer.
  • the HDR metadata may include common application information (common HDR metadata) and partial application information (scene / frame HDR metadata).
  • the common application information is metadata that can be applied to the entire content and may mean information that is commonly applied in units of channels, programs, and content.
  • the partial application information may indicate metadata that can be limitedly applied to a part of content and may mean information applied to each of a continuous scene, a video clip, or a frame.
  • the receiver may process the received common information or partial information by applying the received common information or partial information to the content after determining the performance of the playable content type.
  • a receiver capable of playing back HDR video may convert the content using the received metadata.
  • the receiver may display the converted content as the final image after the processing operation.
  • a detailed receiver operation method is as follows.
  • the receiver can decode the video stream and obtain HDR metadata.
  • the HDR metadata may mean HDR video information (hereinafter, referred to as HDR_info ()).
  • the receiver may analyze the metadata obtained from the video stream by passing it to the metadata parser 202 and store the metadata in the memory.
  • Metadata may be divided into common application information (common HDR metadata) and partial application information (scene / frame HDR metadata).
  • the metadata is applied according to the mastering display, or the metadata is commonly applied in units of channel, program, and content, or continuous Metadata can be applied to each scene, video clip, and frame.
  • the metadata may further include information that can match the corresponding metadata, for example, the metadata and the image frame to which the metadata is applied, in the form of synchronization start information (sync_start) and synchronization period information (sync_duration). It may include.
  • the common application information may be a value that may indicate the dynamic range of the content / mastering display / frame, for example maximum minimum brightness or high contrast, a transfer function such as EOTF, content or mastering display. It may include at least one information of the color space, the color temperature of the content or the mastering display, the brightness range conversion function, the color space conversion function and / or viewing environment information.
  • a value that can indicate the dynamic range of the content / mastering display / frame may be transmitted through a DR information type (dynamic_range_info_type) and DR value information (dynamic_range_info_value [i]).
  • a transfer function such as EOTF may be transmitted through a transfer function type (transfer_function_type).
  • the color space of the content or mastering display may be transmitted through the CG information type (color_gamut_type).
  • the color temperature of the content or mastering display may be transmitted through the color temperature information type (color_temperature_type).
  • the brightness range conversion function may be transmitted through the DR mapping information type (dynamic_range_mapping_info_type).
  • the color space conversion function may be transmitted through the CG mapping information type (color_gamut_mapping_info_type).
  • the viewing environment information may be transmitted through the viewing environment information type (viewing_condition_info_type). The syntax of each information and a description of the included field will be described later.
  • the partial application information may include the same or similar information as the common application information, and may also include information on the coverage. Partial application information can deliver more specific information in that the application range is limited to a certain portion of the content.
  • the common application information may transmit a brightness range applied to the entire content as a value such as f-stop or high contrast.
  • the partial application information may deliver more specific information by transmitting a maximum minimum value for a frame unit.
  • the information delivery range may be differentially applied to each step.
  • a complex transformation function that can make use of characteristics of each scene can be delivered through partial application information.
  • the receiver may determine whether the display it includes is an HDR display.
  • the receiver may determine whether the playback environment of the receiver is appropriate based on the information about the acquired content (or the information about the mastering display) using the common information. For example, the receiver may use the common application information described above, and if the content playback environment is not suitable, the SDR display or the display corresponding to the performance between the SDR and the HDR may be considered.
  • the display included in the receiver is an SDR display or a display having a similar capability. If it is determined that the receiver display cannot fully play the decoded HDR content, the receiver may not play the HDR content or may perform a transformation to play the content.
  • a receiver capable of converting an HDR video into an SDR video may convert and receive the received HDR video into an SDR video.
  • the HDR metadata may include information on a transform function for converting the HDR video into the SDR video.
  • dynamic_range_mapping_info_type or color_gamut_mapping_info_type may be used as the information on the above-described transform function, and the HDR metadata may additionally signal that the corresponding information is used for converting the HDR video to the SDR video when necessary.
  • image quality may be improved by using common application information included in HDR metadata, and image quality may be improved by using dynamic range mapping, color gamut mapping, viewing condition mapping, and the like.
  • the image quality line for the entire content using the common application information may be omitted when the partial application information may be applied in the third step to be described later.
  • the image quality improvement for the video using the common application information may be implemented through a separate module or applied in connection with the post processing module described in FIG. 3.
  • the receiver may perform image quality improvement for each scene of the HDR video. If it is determined that the receiver can play the HDR content based on the metadata information, the receiver may determine whether additional HDR metadata processing is possible.
  • the broadcast transmission device may allow the receiver to identify in a supplemental enhancement information (SEI) message that information on a scene, video clip or frame basis is transmitted using HDR_info_type.
  • SEI Supplemental Enhancement information
  • the broadcast transmission device may provide information on a time point at which scene or frame information should be applied to the receiver by using a synchronization information type (sync_info_type), synchronization start information (sync_start), and synchronization interval information (sync_duration).
  • the receiver identifies that scene, video clip, or frame information is transmitted through the HDR video information type (HDR_info_type), and provides timing information on when to apply scene, video clip, or frame information through sync_info_type, sync_start, and sync_duration. Can be obtained.
  • the receiver may convert timing information provided through metadata into information for synchronizing with an image.
  • the broadcast transmission device may inform the receiver of what kind of scene, video clip, or frame unit metadata is provided in the future.
  • the broadcast transmission device may inform the receiver in advance of the information through HDR_video_enhancement_info_present_type. That is, the receiver may prepare the operation of the associated module by obtaining in advance information on whether the partial application information is received from the common application information and the type thereof.
  • the broadcast transmission device may indicate the fact that metadata is provided in a frame, video clip, or scene unit using common application information, or may have specific information in frame, video clip, or scene unit. Can be indicated.
  • the broadcast transmission device may indicate that dynamic range mapping or / and color gamut mapping information is provided in units of frames or scenes using common application information.
  • the receiver may apply common application information and scene application information step by step to the HDR video or in one operation.
  • the receiver may apply common application information and scene application information to each of the dynamic range mapping and the color gamut mapping to the HDR video or as a transformation.
  • FIG. 15 illustrates a post-processing unit according to an embodiment of the present invention.
  • the post processor may include a DR mapping block 301, a CG mapping block 302, and a viewing condition adjustment block 303.
  • the post processing unit may receive the HDR video data and perform image quality improvement using dynamic range mapping, color gamut mapping, viewing condition mapping, and the like.
  • the dynamic range mapping block 301 may perform image quality improvement by applying dynamic range information, transfer function information, and DR mapping information to the input HDR video data.
  • the CG mapping block 302 may apply color gamut information, color temperature information, and CG mapping information to the input HDR video data to perform image quality improvement.
  • the viewing condition adjustment block 303 may apply the viewing environment information to the HDR video data to perform image quality improvement.
  • 16 through 19 illustrate syntax of an SEI message and an HDR information descriptor according to an embodiment of the present invention.
  • the SEI message may include an HDR information descriptor and the HDR information descriptor may include at least one of the following fields.
  • HDR information may be used as the same meaning as HDR video information.
  • the HDR information type (HDR_info_type) information may indicate a unit to which information in the HDR information descriptor is applied.
  • information about a mastering display may be displayed or commonly applied in units of channels, programs, and content.
  • it can be classified into a series of scenes, video clips, and frames, and classified into different methods (e.g., before and after conversion, transmission format, target format after conversion, and static / dynamic metadata). You can also add
  • the type of HDR information defined in the current payloadType can be distinguished.
  • only the detailed information corresponding to one HDR_info_type may be described in the payloadType, or two or more information may be described.
  • the syntax may be configured such that information classified according to each HDR_info_type is continuously located.
  • the unit to which the information is applied may be classified in the SEI message as well as assigned by different payloadTypes.
  • the transition flag (transition_flag) information is a signal for ending time of content associated with the currently described SEI message. For example, when the HDR content ends and is converted to the SDR content, the transition_flag is set to 1 for the last frame. In this case, it may be considered as meaning that the transmission of the HDR information descriptor is terminated according to the application field, and the receiver may lead to an operation such as turning off a module related to the HDR information descriptor based on this signal. If the receiver is separated into a STB (settop box) and a display device and connected to a wired / wireless interface (for example, HDMI, DisplayPort, MHL, etc.), it is similar to STB for information such as interruption of HDR related information or termination of HDR content. To the display device. The transition_flag may be informed in the frame in which the HDR information descriptor terminates in the meaning of informing the end time. If it is promised in advance, a method notified by the RAP including the end frame may also be applied.
  • the set_number information may indicate an identification number unique to the HDR information descriptor. That is, in a situation in which a plurality of HDR information descriptors are transmitted from the broadcast transmission device to the receiver on a time unit or frame basis, the HDR information descriptors may serve to distinguish each HDR information descriptor. If necessary, it may play a role of distinguishing a plurality of descriptors for each channel, program, content, frame, scene, clip, etc. in connection with the above-described HDR_info_type. For example, in case of delivering different DR mapping functions for the purpose of supporting a display having various kinds of luminance, a plurality of descriptors for each channel, program, content, frame, scene, clip, etc. in connection with the above-described HDR_info_type It can play a role of distinguishing.
  • the version (version_number) information may indicate the version of the HDR information descriptor. In association with at least one of the HDR_info_type and the set_number, this may indicate that there is an information change in the current descriptor. For example, when descriptors having the same HDR_info_type and / or set_number have the same version number, information in the metadata processor may be applied to the image as it is. However, when the version_number is changed, the broadcast reception device may update information in the metadata buffer and apply new information to an image.
  • the DR flag (dynamic_range_mapping_info_present_flag) information may indicate that dynamic range mapping related information is included in the descriptor.
  • the CG flag (color_gamut_mapping_info_present_flag) information may indicate that gamut mapping related information is included in the descriptor.
  • the viewing environment flag (viewing_condition_info_present_flag) information may indicate that viewing condition related information is included in the descriptor.
  • the additional enhancement information type (HDR_video_enhancement_info_present_type) information indicates the type of additional information related to the current SEI message and may be defined using the same value as the HDR_info_type of FIG. 5. In this case, it is possible to inform whether DR mapping, gamut mapping, and viewing condition related information are transmitted through enh_dynamic_range_mapping_info_ present_flag, enh_color_gamut_mapping_info_present_flag, and enh_viewing_condition_info_present_flag, and prepare the receiver operation for processing information on the information in advance or use the improved information compared to the current information. Can be used to determine whether or not.
  • An improved DR flag (enh_dynamic_range_mapping_info_present_flag) may indicate that DR mapping information exists for associated metadata information when the value is 1.
  • the enhanced CG flag (enh_color_gamut_mapping_info_present_flag) may indicate that gamut mapping information exists for associated metadata information when the value is 1.
  • the enhanced viewing environment flag enh_viewing_condition_info_present_flag may indicate that viewing condition information exists for associated metadata information when the value is 1.
  • the sync information type (sync_info_type) information may indicate a method of representing information for synchronizing with content, scene, clip, or frame to which information in the HDR information descriptor is to be applied. For example, a picture order count (POC) value used in a decoder can be delivered, or a pic_order_count_lsb value can be delivered directly.
  • POC picture order count
  • media time information can be used and the cumulative frame number can be determined based on the reference time for the start of video.
  • the synchronization start (sync_start) information is information related to the start point of synchronization. Rather than sending related information every frame, if the relevant information is delivered in a specific period such as RAP, it is necessary to connect the start and end of the section in which the information is used with the video frame.
  • sync_info_type may define the type of synchronization information as time, time difference, start order, picture order count (POC), PTS, and the number of aggregated frames.
  • sync_duration may be additionally signaled as 500, 1000, or 1000.
  • a time reference is required for time determination, and may be separately signaled, such as defining a time in an adaptation field of a TS header.
  • the type of synchronization information may be set as a time difference.
  • the predetermined time interval may be a fixed value or may have a value determined in order. For example, it can be assumed that 0 is applied immediately, 1 is applied to RAP + 0.5 seconds, and 2 is applied to RAP + 1.5 seconds.
  • the type of synchronization information may be set as a POC.
  • the POC value of the video at the time of metadata application may be transmitted as 100, 125, 175, and the duration to be described below may be delivered as 25, 50, 50 according to the POC unit. You can also pass the value associated with POC in video codec syntax directly.
  • the synchronization section (sync_duration) information is information about a section that continues from the synchronization start (sync_start).
  • the synchronization end point may be calculated as sync_start + sync_duration, and if necessary, the synchronization end point information may be directly transmitted together with or instead of sync_duration.
  • the end time cannot be set in advance, so it can be set to a predetermined value such as FFFF. If it is possible to determine the metadata application time using only sync_start information, the sync_duration value may not be used. In this case, sync_duration can also be used as a flag giving additional information such as whether other metadata is transmitted after the corresponding metadata.
  • the number of DR information (number_of_dynamic_range_info) information may indicate the number of dynamic range information expression methods corresponding to a mastering display, channel, program, content, scene, clip, or frame.
  • the DR information type (dynamic_range_info_type) information indicates a method of expressing dynamic range information corresponding to a mastering display, channel, program, content, scene, clip, or frame.
  • the method for expressing the dynamic range may be as shown.
  • the dynamic range may be expressed using at least one of maximum brightness, minimum brightness, average brightness, average or median values composed of certain components.
  • white bright parts such as normal white, diffuse white, and specular white can be classified in detail according to their characteristics, and in the case of black, they can be classified according to their characteristics such as normal black, deep black, and pitch dark. Can be.
  • the broadcast transmission device may express information such as specular white and pitch dark through HDR info to subdivide the brightness of the list and the shadow in the content.
  • information such as specular white and pitch dark through HDR info to subdivide the brightness of the list and the shadow in the content.
  • Such information is used as a criterion for determining the receiver display environment. It can be used or used as information for mapping according to the display environment.
  • the DR information value (dynamic_range_info_value) information may carry a corresponding value according to dynamic_range_info_type. That is, content, mastering display, and scene DR can be expressed in detail according to dynamic_range_info_type as follows. Alternatively, it can be used to describe the characteristics of the container video format and the actual content separately.
  • peak_luminance_level 4000 (nit)
  • minimum_luminance_level 0.01 (nit)
  • the transfer function type (transfer_function_type) information may indicate the type of transfer function used for the mastering display, channel, program, content, scene, clip, or frame of the HDR video.
  • a predetermined EOTF may be signaled, such as SMPTE ST 2084, ITU BT.1886, BT.2020, and the like.
  • the method may be classified and signaled as a method of representing absolute brightness or representing relative brightness. If necessary, the coefficient of any transfer function may be transferred.
  • the CG type (color_gamut_type) information may indicate the type of color gamut corresponding to the mastering display, channel, program, content, scene, clip, or frame of the HDR video.
  • a standard color gamut such as BT.709, BT.2020, or DCI-P3 may be represented, or, if necessary, an arbitrary color gamut may be represented through an RGB color primary (XYZ, RGBW, etc.).
  • the color_temperature_type information may indicate information about a reference white corresponding to a mastering display, channel, program, content, scene, clip, or frame.
  • a reference white corresponding to a mastering display, channel, program, content, scene, clip, or frame.
  • it may be a standard light source color temperature such as D65 and D50, and if necessary, an arbitrary value representative of the color temperature may be represented, such as an RGB color primary for white (XYZ, RGBW, etc.).
  • the DR mapping type (dynamic_range_mapping_info_type) information indicates the type of dynamic range mapping information corresponding to the mastering display, channel, program, content, scene, clip, or frame.
  • another SEI message may refer to information by referring to a Knee function information SEI message or a Tone mapping information SEI message included in the HEVC.
  • the content may be described directly in a predetermined HDR information descriptor.
  • the CG mapping type (color_gamut_mapping_info_type) information indicates the type of color gamut mapping information corresponding to the mastering display, channel, program, content, scene, clip, or frame.
  • color_gamut_mapping_info_type indicates the type of color gamut mapping information corresponding to the mastering display, channel, program, content, scene, clip, or frame.
  • information defined in the color remapping information SEI message included in the HEVC may be cited.
  • the content may be described directly in a predetermined HDR information descriptor.
  • the viewing_condition_info_type information indicates the type of viewing condition information corresponding to the mastering display, channel, program, content, scene, clip, or frame.
  • the viewing_condition_info_type information may refer to the information defined in the viewing_condition defined as a separate SEI message, or may describe the content directly in a predetermined HDR information descriptor.
  • 20 illustrates a method of signaling metadata information based on a time flow according to an embodiment of the present invention.
  • Metadata transmission according to time is 1) method to send all the information in every frame, 2) method to transmit in the frame of the point of time when metadata is changed in RAP and 3) within period with RAP Method of transmitting metadata applied at once at the time of cycle 4)
  • Various methods can be considered, such as transmitting before RAP related to application time.
  • the method of 1) -4) can also be mixed and used.
  • Common application information (common type) applied to the entire video may be transmitted for each RAP. This is the case when HDR_info_type is set to 0000.
  • the common application information is repeated information, but the broadcast transmission device may compensate for information loss due to a transmission error by transmitting common application information for each RAP.
  • the information corresponding to the RAP time point and the information applied after the scene change in the RAP can be sent together.
  • the information corresponding to the RAP time point and the information applied after the scene change in the RAP may be defined as sets having different roles, and may be distinguished by being given different set_numbers. Also, according to an embodiment, different sets_numbers may be used for the purpose of distinguishing the information applied to the same scene by separately separating and transmitting the information that plays different roles. If the same information is applied over two or more RAPs, the same set_number may be used.
  • the same version_number may be set.
  • the metadata processor may determine whether the information is changed in which set and update the metadata processor by having a different version_number.
  • sync_start can be applied to the new RAP because the scene start time is replaced by the new RAP.
  • end point (sync_start + sync_duration) of the sync interval is the same, there is no information change and the same version_number may be applied.
  • the application time may be informed through relative concepts such as time difference, order, and frame number.
  • the duration can be signaled by changing the duration of the same information (set 1, ver 0). Do not perform metadata update.
  • the broadcast transmission device may increase version_number while maintaining set_number of common application information.
  • the metadata processor of the receiver may recognize the information change based on the changed version_number and update the existing information with the new information.
  • information such as a start time may be additionally delivered.
  • a new version number may be assigned.
  • 21 illustrates a method of signaling metadata information based on a time flow according to another embodiment of the present invention.
  • 21 illustrates a case in which there is a switch between HDR and SDR in signaling metadata information.
  • the HDR video stream is converted into an SDR video stream.
  • the HDR information descriptor is no longer transmitted or received after the third RAP.
  • the broadcast transmission device may inform the receiver through the transition_flag.
  • the delivery of the SEI message that has delivered the video characteristics for the HDR / WCG content is stopped, and no further information may be delivered after the content switching contest.
  • HDR information descriptors such as mastering display information, color gamut mapping, and viewing conditions may also occur for SDR content.
  • legacy SDR content not using the HDR information descriptor may be considered.
  • transition_flag that is, to set it to 1, and set transition_flag to on in the frame immediately before the transition occurs and the RAP containing the frame (second RAP in the drawing) as shown in the above example. can do.
  • dynamic_range_mapping_info may be directly defined in the HDR_info descriptor.
  • HDR_info_type is channel, program, or content as common application information related to mastering display or video
  • the information described in FIG. 9 may be used throughout the image (channel, program or content), and scene type or frame as partial application information.
  • the above-described information may be used for a corresponding section.
  • Dynamic_range_mapping_info includes maximum reference brightness information (luminance_max), minimum reference brightness information (luminance_min), arbitrary EOTF information (private_EOTF), EOTF coefficient number information (number_of_coeff), EOTF coefficient information (transfer_curve_coeff [i ]), Clipping flag information (clipping_flag), linear mapping flag information (linear_mapping_flag), clipping maximum brightness range information (luma_clipping_upper_bound), clipping minimum brightness range information (luma_clipping_lower_bound), maximum brightness information (luminance_upper_bound), minimum brightness information (luminance_lower_bound), Maximum brightness digital value (luma_upper_value), minimum brightness digital value (luma_lower_value), key area transformation curve type information (mid_DR_transformation_curve_type), key area transformation curve detail (mid_DR_transformation_curve ()), key brightness range area ratio information (mid_DR_percentage), upper area Trans
  • the maximum reference brightness information indicates the maximum reference brightness expressed in the UHD broadcast content. That is, the maximum value of the brightness range DR is shown. For example, in the case of a reference monitor, 100 cd / m ⁇ 2 is set as the maximum reference brightness, and in this case, 1, which is the quotient of the value divided by 100 (decimal) in consideration of a general range, may be transmitted. .
  • the minimum reference brightness information indicates the minimum reference brightness expressed in the UHD broadcast content. That is, the minimum value of the brightness range DR is shown. For example, in the case of a reference monitor, 0.05 cd / m ⁇ 2 is set as the minimum reference brightness. In this case, 5, which is a value obtained by multiplying 100 (decimal number) by the value in consideration of a general range, may be transmitted.
  • the arbitrary EOTF information indicates whether any EOTF function is used.
  • a widely used EOTF such as ITU-R BT.1886, REC.709, BT.2020, etc.
  • VUI information when a widely used EOTF such as ITU-R BT.1886, REC.709, BT.2020, etc. is used, it can be delivered by VUI information.
  • the EOTF which is not yet defined as a standard, is used, it may be indicated by setting the field value to 1.
  • perceptual quantization can be used as an EOTF, i.
  • EOTF coefficient number information (number_of_coeff) represents the number of coefficients used for any EOTF.
  • EOTF coefficient information (transfer_curve_coeff [i]) represents a coefficient used for any EOTF.
  • the clipping flag information clipping_flag is information indicating whether the clipping option is used and may have a value of 1 when the use of the clipping option is allowed.
  • linear_mapping_flag indicates whether or not to use a linear dynamic range transformation method. It has a value of 1 when the linear dynamic range transformation method is used.
  • the clipping maximum brightness range information (luma_clipping_upper_bound) indicates a digital value for the upper threshold in the brightness range DR displayed when the clipping option is used.
  • the clipping minimum brightness range information (luma_clipping_lower_bound) indicates a digital value for the lower threshold in the brightness range DR displayed when the clipping option is used.
  • the maximum brightness information represents a maximum value (in units of nit) of the brightness range that must be expressed among the brightness ranges expressed in the UHD broadcast content.
  • the maximum brightness information may be a criterion for determining the display type of the receiving device.
  • an additional criterion for determining the display type of the receiving device may be signaled.
  • the minimum brightness information indicates a minimum value (in nit) of the brightness range that must be expressed among the brightness ranges expressed in the UHD broadcast content.
  • the minimum brightness information may be a criterion for determining the display type of the receiving device.
  • an additional criterion for determining the display type of the receiving device may be signaled.
  • the maximum brightness digital value indicates a digital value corresponding to the maximum brightness information (luminance_upper_bound).
  • the minimum brightness digital value indicates a digital value corresponding to the minimum brightness information (luminance_lower_bound).
  • the core region transformation curve type information (mid_DR_transformation_curve_type) identifies a luminance range transformation curve used in the core luminance range region.
  • the conversion curve can be any one of a linear curve, an exponential curve, an S curve, a logarithmic curve, a combination curve, and a look up table (LUT). One can be used.
  • the core region transformation curve detail information mid_DR_transformation_curve () indicates additional information according to the transformation curve identified by the core region transformation curve type information mid_DR_transformation_curve_type. For example, slope information may be transmitted when a linear curve is used, and information about the bottom may be transmitted when an exponential curve or a logarithmic curve is used, and an S curve may be used. If (s curve) is used, the coordinates of the inflection point and the information about the base and y-intercept for each section can be transmitted.When the combination curve is used, the x coordinate of each section, each The curve type of the section and information on the graph may be transmitted.
  • the core brightness range region ratio information mid_DR_percentage represents a ratio of the core brightness range region of the brightness range of the ultra-high definition broadcasting content to the entire brightness range DR of the reception device display.
  • the upper region transformation curve type information (upper_DR_transformation_curve_type) identifies a brightness range transformation curve used in the upper luminance range region.
  • the conversion curve can be any one of a linear curve, an exponential curve, an S curve, a logarithmic curve, a combination curve, and a look up table (LUT). One can be used.
  • the upper region transformation curve detailed information indicates additional information according to the transformation curve identified by the upper region transformation curve type information (upper_DR_transformation_curve_type). For example, slope information may be transmitted when a linear curve is used, and information about the bottom may be transmitted when an exponential curve or a logarithmic curve is used, and an S curve may be used. If (s curve) is used, the coordinates of the inflection point and the information about the base and y-intercept for each section can be transmitted.When the combination curve is used, the x coordinate of each section, each The curve type of the section and information on the graph may be transmitted.
  • the upper brightness range region ratio information indicates a ratio of the upper brightness range region of the brightness range of the UHD broadcast content to the entire brightness range DR of the display of the receiving device.
  • the lower region transformation curve type information (lower_DR_transformation_curve_type) identifies a brightness range transformation curve used in the lower luminance range region.
  • the conversion curve can be any one of a linear curve, an exponential curve, an S curve, a logarithmic curve, a combination curve, and a look up table (LUT). One can be used.
  • the lower region transformation curve detail information indicates additional information according to the transformation curve identified by the lower region transformation curve type information (lower_DR_transformation_curve_type). For example, slope information may be transmitted when a linear curve is used, and information about the bottom may be transmitted when an exponential curve or a logarithmic curve is used, and an S curve may be used. If (s curve) is used, the coordinates of the inflection point and the information about the base and y-intercept for each section can be transmitted.When the combination curve is used, the x coordinate of each section, each The curve type of the section and information on the graph may be transmitted.
  • the additional region number information represents the number of variables used to extend the core brightness range region.
  • the additional area difference information (luminance_upper_bound_diff [i]) represents a difference value for configuring an i + 1th brightness value in ultra high definition broadcast content. If you extend the core brightness range area on a display (case 2) that has a wider brightness range than the existing brightness range but does not accommodate all of the brightness ranges expressed in ultra-high definition broadcast content, the maximum brightness information (luminance_upper_bound) is luminance_upper_bound + luminance_upper_bound_diff [0] +... Can be changed to the value indicated by luminance_upper_bound_diff [i].
  • the additional region difference digital value luma_upper_value_diff [i] represents a digital value for the i + 1th brightness value in the ultra high definition broadcast content. If you extend the core brightness range area on a display that has a wider brightness range than the existing brightness range but does not accommodate all the brightness ranges represented in ultra-high definition broadcast content (case 2), the maximum brightness digital value (luma_upper_value) is luma_upper_value + luma_upper_value_diff [0 ] +... Can be changed to the value indicated by luma_upper_value_diff [i].
  • the changed upper region transformation curve type information (upper_DR_transformation_curve_type [i]) may identify the transformation curve used in the changed upper luminance range region when supporting the i + 1 th brightness range. That is, the changed upper region conversion curve type information may identify the conversion curve used in the changed upper brightness range region when the core brightness range region is extended.
  • the change upper region transformation curve detailed information indicates additional information according to the transformation curve identified by the change upper region transformation curve type information (upper_DR_transformation_curve_type [i]). That is, when the i + 1th brightness range is supported, the details of the conversion curve used in the changed upper brightness range area are shown.
  • the changed upper brightness range region ratio information (upper_DR_percentage [i]) indicates the ratio of the changed upper brightness range region to the total brightness range (DR) of the receiving device when the core brightness range region of the UHD broadcast content is changed. .
  • the changed core brightness range region ratio information mid_DR_percentage [i] indicates a ratio of the changed core brightness range region to the entire brightness range DR of the receiving device display when the core brightness range region of the UHD broadcast content is changed.
  • gamut_mapping_info may refer to the SEI message defined in HEVC without being directly defined in the HDR_info descriptor.
  • the SEI message may follow the color remapping information SEI message syntax defined in HEVC.
  • HDR_info_type is common application information related to mastering display or video
  • information that is referred to throughout the image can be used when channel, program or content is used.
  • scene type or frame type as partial application information
  • the referenced information can be applied only to the section.
  • PMT stands for program mapping table and includes table identifier information, section syntax indicator information, section length information, program number information, version number information, current_next indicator information, section number information, PCR_PID information, program info length information, and first descriptor information.
  • Stream type information basic PID (elementary PID) information, elementary stream information length (Es_info_length) information, second descriptor information, CRC information, and the like.
  • the first descriptor information may indicate descriptor information included in the first loop following the program info length information
  • the second descriptor information may indicate descriptor information included in the second loop following the length of the elementary stream information.
  • the UHD_program_info_descriptor may be included in the first descriptor information included in the PMT and signaled, and the above-described HDR_info descriptor may be included in the second descriptor information included in the PMT and signaled.
  • UHD_program_info_descriptor may include at least one of descriptor tag (descriptor_tag) information, descriptor length (descriptor_length) information, or service type information (UHD_service_type).
  • the service type information (UHD_service_type) may indicate the type of UHD service.
  • the service type information may indicate a UHD service type designated by a user, such as UHD1 (4K), UHD2 (8K), or classification according to quality.
  • UHD_service_type 1100 (UHD1 service with HDR information metadata, 4K example) may indicate that HDR info is provided for different steps or units such as video, scene, clip, or frame.
  • FIGS. 26 and 27 illustrate an embodiment of signaling HDR_info descriptor through EIT according to an embodiment of the present invention.
  • ATSC and DVB systems may include an EIT as a signaling table, with the syntax contained therein as shown.
  • the Event Information Table (EIT) of the ATSC and DVB systems is commonly used as a table_id field, section_syntax_indicator field, section_length field, source_id (service_id) field, version_number field, current_next_indicator field, section_number field, last_section_number field, num_events_in_section It may include a (segment_last_section_number) field, an event_id field, a start_time field, a length_in_seconds (duration) field, a descriptors_length field, a descriptor () field, and / or a CRC_32 field.
  • the table_id field identifies that this table is an Event Information Table (EIT).
  • the section_syntax_indicator field is a 1-bit field set to 1 to indicate the long form of the MPEG-2 private_section table.
  • the section_length field indicates the length of the table section following this field in number of bytes.
  • the source_id field represents a source ID of a virtual channel transmitting an event described in this section.
  • the version_number field is a 5-bit field indicating the version number of the table.
  • the current_next_indicator field is a 1-bit field and indicates whether this table is currently applicable or next applicable.
  • the section_number field represents the number of a section.
  • the last_section_number field identifies the number of the last section.
  • the num_events_in_section field represents the number of events included in the corresponding table section.
  • the event_id field identifies a specific number indicating the event described.
  • the start_time field represents the start time of the event based on GPS second.
  • the value representing the start time of the event in the virtual channel may be greater than the value representing the end time of the event being broadcast.
  • the end time of the event may be defined as the sum of the start time of the event and the value representing the length of the event in time.
  • the length_in_seconds (duration) field represents the duration of an event in seconds.
  • the descriptors_length field represents the total length of an event descriptor (descriptor ()) described later. descriptor () is a descriptor loop located in the table.
  • the descriptor loop may include additional descriptors. Zero or more descriptors may be included in the EIT, and the descriptor may correspond to an event level descriptor describing information applied to each event. According to an embodiment of the present invention, the UHD_program_info_descriptor and the HDR_info descriptor may be included in the event level descriptor and transmitted. UHD_program_info_descriptor may be used to distinguish the type of UHD service, and the HDR_info descriptor may determine whether to include HDR image information metadata at an event level, and may be used to determine whether the receiver is acceptable. In the case of cable broadcasting, the same information may be provided to the AEIT instead of the descriptor.
  • the CRC_32 field includes a CRC value for checking the integrity of data.
  • the CRC value can ensure that zero values are output from the registers in the decoder as defined in Annex A of ISO-13818-1 “MPEG-2 Systems” after the entire EIT section has been processed.
  • the receiver may confirm that information on an appropriate viewing environment is transmitted through metadata. For example, when UHD_service_type is 1100, the receiver may identify that a corresponding service is UHD1 service with HDR information metadata, 4K.
  • the receiver checks the existence of the HDR_info_descriptor () and may know that HDR info is provided for different steps or units such as video, scene or frame.
  • the UHD_service_type may indicate that 0000 is a UHD1 service.
  • HDR_info_descriptor it is possible to determine whether the content provider can utilize information in units of a mastering display, content, scene, or frame desired by the content provider using HDR_info_descriptor (). By using this, it is possible to determine in advance whether to use content, scene or frame unit metadata with respect to content played back at the current or future time point, and the receiver can prepare a setting for a situation such as a scheduled recording in advance.
  • HDR_info_descriptor () according to another embodiment of the present invention.
  • one mode may support various modes intended by the producer. In this case, it is necessary to determine whether these modes are acceptable in the display of the receiver, and information on this may be provided through the viewing_condition_metadata by the broadcast transmission device.
  • the syntax in viewing_condition_metadata may follow the definition of the viewing condition descriptor of the SEI message.
  • the HDR_info_descriptor may include at least one of descriptor tag (descriptor_tag) information, descriptor length (descriptor_length) information, and number of information (number_of_info) information.
  • the HDR_info_descriptor may include a loop and may include as many HDR_info_metadata () as indicated by number_of_info.
  • the syntax of the HDR_info_metadata () may be delivered with a script of the embodiment of the above-described HDR information descriptor configuration or a part thereof.
  • 29 is a diagram showing the structure of a media file according to an embodiment of the present invention.
  • the media file of the present invention may have a file format based on ISO BMFF (ISO base media file format).
  • the media file according to the present invention may include at least one box.
  • the box may be a data block or an object including media data or metadata related to the media data.
  • the boxes may form a hierarchical structure with each other, such that the data may be classified so that the media file may be in a form suitable for storage and / or transmission of a large amount of media data.
  • the media file may have an easy structure for accessing the media information, such as a user moving to a specific point of the media content.
  • the media file according to the present invention may include an ftyp box, a moov box and / or an mdat box.
  • An ftyp box can provide file type or compatibility related information for a corresponding media file.
  • the ftyp box may include configuration version information about media data of a corresponding media file.
  • the decoder can identify the media file by referring to the ftyp box.
  • the moov box may be a box including metadata about media data of a corresponding media file.
  • the moov box can act as a container for all metadata.
  • the moov box may be a box of the highest layer among metadata related boxes. According to an embodiment, only one moov box may exist in a media file.
  • the mdat box may be a box containing actual media data of the media file.
  • Media data may include audio samples and / or video samples, where the mdat box may serve as a container for storing these media samples.
  • the above-described moov box may further include a mvhd box, a trak box and / or an mvex box as a lower box.
  • the mvhd box may include media presentation related information of media data included in the media file. That is, the mvhd box may include information such as media generation time, change time, time specification, duration, etc. of the media presentation.
  • the trak box can provide information related to the track of the media data.
  • the trak box may include information such as stream related information, presentation related information, and access related information for an audio track or a video track. There may be a plurality of trak boxes according to the number of tracks.
  • the trak box may further include a tkhd box (track header box) as a lower box.
  • the tkhd box may include information about the track indicated by the trak box.
  • the tkhd box may include information such as a creation time, a change time, and a track identifier of the corresponding track.
  • the mvex box (movie extend box) may indicate that the media file may have a moof box to be described later. To know all the media samples of a particular track, moof boxes may have to be scanned.
  • the media file according to the present invention may be divided into a plurality of fragments according to an embodiment (t14010). Through this, the media file may be divided and stored or transmitted.
  • the media data (mdat box) of the media file may be divided into a plurality of fragments, and each fragment may include a mdat box and a moof box. According to an embodiment, information of the ftyp box and / or the moov box may be needed to utilize the fragments.
  • the moof box may provide metadata about media data of the fragment.
  • the moof box may be a box of the highest layer among metadata-related boxes of the fragment.
  • the mdat box may contain the actual media data as described above.
  • This mdat box may include media samples of media data corresponding to each corresponding fragment.
  • the above-described moof box may further include a mfhd box and / or a traf box as a lower box.
  • the mfhd box may include information related to an association between a plurality of fragmented fragments.
  • the mfhd box may include a sequence number to indicate how many times the media data of the corresponding fragment is divided. In addition, it may be confirmed whether there is no missing data divided using the mfhd box.
  • the traf box may include information about a corresponding track fragment.
  • the traf box may provide metadata about the divided track fragments included in the fragment.
  • the traf box may provide metadata so that media samples in the track fragment can be decoded / played back. There may be a plurality of traf boxes according to the number of track fragments.
  • the above-described traf box may further include a tfhd box and / or a trun box as a lower box.
  • the tfhd box may include header information of the corresponding track fragment.
  • the tfhd box may provide information such as a basic sample size, a duration, an offset, an identifier, and the like for media samples of the track fragment indicated by the traf box described above.
  • the trun box may include corresponding track fragment related information.
  • the trun box may include information such as duration, size, and playback time of each media sample.
  • the aforementioned media file or fragments of the media file may be processed into segments and transmitted.
  • the segment may have an initialization segment and / or a media segment.
  • the file of the illustrated embodiment t14020 may be a file including information related to initialization of the media decoder except for media data. This file may correspond to the initialization segment described above, for example.
  • the initialization segment may include the ftyp box and / or moov box described above.
  • the file of the illustrated embodiment t14030 may be a file including the aforementioned fragment. This file may correspond to the media segment described above, for example.
  • the media segment may include the moof box and / or mdat box described above.
  • the media segment may further include a styp box and / or a sidx box.
  • the styp box may provide information for identifying the media data of the fragmented fragment.
  • the styp box may play the same role as the above-described ftyp box for the divided fragment.
  • the styp box may have the same format as the ftyp box.
  • the sidx box may provide information indicating an index for the divided fragment. Through this, it is possible to indicate how many fragments are the corresponding fragments.
  • the ssix box may be further included.
  • the ssix box (sub-segment index box) may provide information indicating an index of the sub-segment when the segment is further divided into sub-segments.
  • the boxes in the media file may include more extended information based on a box-to-full box form as in the illustrated embodiment t14050.
  • the size field and the largesize field may indicate the length of the corresponding box in bytes.
  • the version field may indicate the version of the box format.
  • the type field may indicate the type or identifier of the corresponding box.
  • the flags field may indicate a flag related to the box.
  • FIG. 30 is a diagram illustrating an HDR configuration box for providing HDR information according to an embodiment of the present invention.
  • an HDR configuration box can be defined.
  • the HDR configuration box can be located in the media file.
  • the HDR configuration box may be included in a moov box, a moof box or a third box.
  • the HDR configuration box may be called an hdrc box.
  • the HDR configuration box may have a hdr_config field.
  • the hdr_config field may include an OETF_type field, max_mastering_display_luminance field, min_mastering_display_luminance field, hdr_type_transition_flag field, hdr_sdr_transition_flag field, sdr_hdr_transition_flag field, sdr_compatibility_flag field, average_frame_luminance_level field and
  • the OETF_type field may indicate the type of the source OETF (opto-electronic transfer function) of the video data. When the value of this field is 1, 2, or 3, it may correspond to the ITU-R BT.1886, ITU-R BT.709, and ITU-R BT.2020 types, respectively. Other values can be left for future use.
  • the max_mastering_display_luminance field may indicate a peak luminance value of a mastering display of corresponding video data. This value can be an integer value between 100 and 1000.
  • the min_mastering_display_luminance field may indicate a minimum luminance value of a mastering display of corresponding video data. This value may be a fractional number value between 0 and 0.1.
  • the hdr_type_transition_flag field may be a flag indicating whether the HDR information of the corresponding video data is changed to apply another type of HDR information.
  • the hdr_sdr_transition_flag field may be a flag indicating whether corresponding video data is switched from HDR to SDR.
  • the sdr_hdr_transition_flag field may be a flag indicating whether corresponding video data is switched from SDR to HDR.
  • the sdr_compatibility_flag field may be a flag indicating whether corresponding video data is compatible with an SDR decoder or an SDR display.
  • the average_frame_luminance_level field may indicate an average value of luminance level for one video sample.
  • this field may indicate a maximum value among average values of luminance levels of each sample belonging to the sample group or the video track (stream).
  • the max_frame_pixel_luminance field may indicate the maximum value of pixel luminance values for one video sample. In addition, this field may indicate the largest value among pixel luminance maximum values of each sample belonging to the sample group or the video track (stream).
  • That video data that the fields describe is a video track, a video sample group, or respective video samples in a media file.
  • the range described by each field may vary according to the description object.
  • the hdr_type_transition_flag field may indicate whether the corresponding video track is switched from HDR to SDR or may indicate whether one video sample is switched from HDR to SDR.
  • FIG. 31 illustrates a scheme for defining HDR information in a tkhd box according to an embodiment of the present invention.
  • HDR information may be included in the structure of the above-described media file itself to store / transmit.
  • HDR information (parameters) may be added to the tkhd box in the above-described moov box. Added HDR information is shaded.
  • the hdr_flag field may be a flag indicating whether HDR video data is included in a corresponding video track described by the tkhd box. When the value of this field is 1, HDR video data may be included in the corresponding video track. When the value of this field is 1, four flag fields to be described later may exist.
  • the hdr_type_transition_flag field may be a flag indicating whether HDR information (parameters) related to HDR video data in a corresponding video track have been changed. When the value of this field is 1, the HDR information for the HDR video data in the corresponding video track may be changed to other HDR information.
  • the hdr_sdr_transition_flag field may be a flag indicating whether video data in a corresponding video track is switched from HDR to SDR. When the value of this field is 1, it may be confirmed that corresponding video data is converted from HDR to SDR.
  • the sdr_hdr_transition_flag field may be a flag indicating whether video data in a corresponding video track is switched from SDR to HDR. When the value of this field is 1, it may be confirmed that video data is converted from SDR to HDR.
  • the sdr_compatibility_flag field may be a flag indicating whether video data in a corresponding video track is compatible with a decoder or display that supports SDR. If the value of this field is 1, it may be confirmed that the HDR video data in the corresponding video track is compatible with devices supporting SDR. When the value of this field is 1, decoder / display devices supporting SDR may determine whether to decode / display HDR video data included in a corresponding video track.
  • the decoder or the like may make the data (SEI, etc.) in the video related thereto before processing video data.
  • the above-described HDR configuration box may be added to the tkhd box.
  • the hdr_flag field in the present embodiment may be the same as the hdr_flag field in the above-described embodiment t16010. However, in this case, when the value of the hdr_flag field is 1, it may be indicated that the hdr_config box having the HDR configuration box type exists in place of the above four flags in the tkhd box.
  • the hdr_config box may include HDR information about video data included in a corresponding video track.
  • This box is therefore of the above-mentioned HDR configuration box type, and may include a OETF_type field, max_mastering_display_luminance field, min_mastering_display_luminance field, hdr_type_transition_flag field, hdr_sdr_transition_flag field, sdr_hdr_transition_flag field, sdr_compatibility_flag field, average_frame_luminance_level field and / or max_frame_pixel_luminance field as described above, .
  • these fields may describe information about the corresponding video track.
  • the OETF_type field may indicate an OETF type for video data in the "corresponding video track”.
  • the hdr_type_transition_flag field, hdr_sdr_transition_flag field, sdr_hdr_transition_flag field, and / or sdr_compatibility_flag field may have the same meaning as the four flag fields in the above-described embodiment (t16010).
  • the average_frame_luminance_level field in this HDR configuration box may indicate a maximum value among average values of luminance levels of each of the video samples in the corresponding video track.
  • the max_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each of the video samples in the corresponding video track.
  • FIG. 32 is a diagram illustrating a method of defining HDR information in a vmhd box according to an embodiment of the present invention.
  • HDR information may be included in the structure of the above-described media file itself to store / transmit.
  • HDR information (parameters) may be added to the vmhd box in the above-described trak box. Added HDR information is shaded.
  • the vmhd box (video media header box) is a lower box of the above-described trak box and may provide general presentation related information about the corresponding video track.
  • an hdr_flag field may be included.
  • the hdr_type_transition_flag field, the hdr_sdr_transition_flag field, the sdr_hdr_transition_flag field, and / or the sdr_compatibility_flag field may be further included according to the value of the hdr_flag field.
  • an hdr_flag field may be included.
  • the hdr_config box which is an HDR configuration box, may be further included according to the value of the hdr_flag field.
  • the hdr_flag field and the hdr_config box may play the same role as the field or box of the same name in the above-described tkhd box.
  • the HDR information in the vmhd box may provide HDR information about video data included in the corresponding video track.
  • HDR information may be simultaneously included in the tkhd box and the vmhd box.
  • embodiments of the HDR information structure included in each box may be combined with each other.
  • the values of the HDR information defined in the tkhd box may be overridden to the values of the HDR information defined in the vmhd box. That is, when the values of the HDR information defined in both are different, the value in the vmhd box may be used. If the HDR information is not included in the vmhd box, the HDR information in the tkhd box may be used.
  • FIG. 33 is a diagram illustrating a method of defining HDR information in a trex box according to an embodiment of the present invention.
  • HDR information may be included in the structure of the above-described media file itself to store / transmit.
  • HDR information (parameters) may be added to the trex box in the aforementioned mvex box. Added HDR information is shaded.
  • the trex box (track extend box) is a lower box of the above-described mvex box, and may set default values used by each movie fragment. By providing a default value for this box, space and complexity in the traf box can be reduced.
  • the trex box may include a default_hdr_flag field and / or a default_sample_hdr_flag field.
  • the default_hdr_config box which is an HDR configuration box, may be further included.
  • the default_sample_hdr_config box which is an HDR configuration box, may be further included.
  • the default_hdr_flag field may be a flag indicating whether HDR video data is included in a video track fragment included in the corresponding fragment. When the value of this field is 1, it may be indicated that the fragment includes HDR video data by default. If the value of this field is 1, a default_hdr_config box, which is an HDR configuration box, may be further included.
  • the default_hdr_config box may include HDR information that can be commonly applied to video samples included in the corresponding video track fragment.
  • This box is the aforementioned HDR configuration box and may include the fields of the aforementioned HDR configuration box.
  • the average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each video sample belonging to a track fragment in the corresponding fragment.
  • max_frame_pixel_luminance field The maximum_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
  • the default_sample_hdr_flag field may be a flag indicating whether HDR video samples are included in a video track fragment included in the corresponding fragment. When the value of this field is 1, it may be indicated that the fragment includes HDR video samples by default. If the value of this field is 1, the default_sample_hdr_config box, which is an HDR configuration box, may be further included.
  • the default_sample_hdr_config box may include HDR information that can be applied to each of the video samples included in the corresponding video track fragment.
  • This box is the aforementioned HDR configuration box and may include the fields of the aforementioned HDR configuration box.
  • the average_frame_luminance_level field may indicate an average value of luminance levels of each video sample belonging to a track fragment in a corresponding fragment.
  • max_frame_pixel_luminance field This may indicate the maximum value of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
  • FIG. 34 is a diagram illustrating a method of defining HDR information in a tfhd box according to an embodiment of the present invention.
  • HDR information may be included in the structure of the above-described media file itself to store / transmit.
  • HDR information (parameters) may be added to the tfhd box in the above-described moof box. Added HDR information is shaded.
  • the hdr_flag field may be a flag indicating whether HDR video data is included in a corresponding video track fragment described by the tfhd box. When the value of this field is 1, HDR video data may be included in the corresponding video track fragment.
  • the hdr_type_transition_flag field When the value of the hdr_flag field is 1, the hdr_type_transition_flag field, the hdr_sdr_transition_flag field, the sdr_hdr_transition_flag field, and / or the sdr_compatibility_flag field may be further included. These fields may play the same role as the fields of the same name in the tkhd box described above. In this case, however, these fields may describe the video track fragment, not the entire video track.
  • the hdr_type_transition_flag field may indicate whether there is a change in the HDR information with respect to media data related to the track fragment in the corresponding track fragment.
  • the hdr_sdr_transition_flag field may represent that the track fragment is switched from HDR to SDR.
  • the sdr_hdr_transition_flag field may represent that the track fragment is switched from SDR to HDR.
  • the sdr_compatibility_flag field may indicate whether the HDR video data of the corresponding track fragment is compatible with the SDR decoder / display.
  • the tfhd box may include the HDR configuration box described above. According to the value of the hdr_flag field, it may be indicated whether the hdr_config box, which is an HDR configuration box, is included.
  • the hdr_config box may provide HDR information that may be commonly applied to video samples of the corresponding track fragment.
  • the average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each video sample belonging to a track fragment in the corresponding fragment.
  • max_frame_pixel_luminance field The maximum_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
  • the tfhd box may further include HDR information according to the tf_flags value.
  • tr_flags may indicate flags associated with the box. For example, when tr_flags includes a value of 0x000001, it may be indicated that the base data offset information is included in the tfhd box, and when it includes the value of 0x000002, it may be indicated that the sample description index information is included in the tfhd box.
  • the tf_flags value when the tf_flags value includes a value of 0x100000, it may be indicated that a default value of HDR information for video samples included in a track fragment in the corresponding fragment exists.
  • the tf_flags value indicating the presence of the HDR information may have a value other than the 0x100000 value in some embodiments. (0x100000: default-sample-hdr-configuration-present)
  • the tfhd box may include a deafult_sample_hdr_config box, which is an HDR configuration box.
  • the deafult_sample_hdr_config box may play the same role as the deafult_sample_hdr_config box in the above-described trex box.
  • 35 is a diagram illustrating a method of defining HDR information in a trun box according to an embodiment of the present invention.
  • HDR information may be included in the structure of the above-described media file itself to store / transmit.
  • HDR information (parameters) may be added to the trun box in the traf box described above. Added HDR information is shaded.
  • the trun box may include an hdr_flag field.
  • the hdr_type_transition_flag field, the hdr_sdr_transition_flag field, the sdr_hdr_transition_flag field, and / or the sdr_compatibility_flag field may be further included according to the value of the hdr_flag field.
  • These fields may signal HDR related matters that may be commonly applied to video samples in the corresponding track fragment. These fields may have the same meaning as the fields of the same name in the tfhd box described above.
  • HDR information may be simultaneously included in the tfhd box and the trun box.
  • embodiments of the HDR information structure included in each box may be combined with each other.
  • the values of the HDR information defined in the tfhd box may be overridden to the values of the HDR information defined in the trun box. That is, when the values of the HDR information defined in both are different, the value in the trun box may be used. If the HDR information is not included in the trun box, the HDR information in the tfhd box may be used.
  • the trun box may include an hdr_flag field, and may further include an hdr_config box, which is an HDR configuration box, according to the value of the hdr_flag field.
  • This box may contain HDR information that can be commonly applied to video samples within the track fragment.
  • the fields in this box may have the same meaning as the fields of the same name of the HDR configuration box in the tfhd box described above.
  • the trun box may further include HDR information according to the tf_flags value.
  • tr_flags may indicate flags associated with the box. For example, when tr_flags includes a value of 0x000001, it may be indicated that data offset information is included in a trun box. When tr_flags includes a value of 0x000004, it may be indicated that the first sample flag information is included in a trun box.
  • the tf_flags value when the tf_flags value includes a value of 0x002000, it may be indicated whether there is HDR information that can be commonly applied to video samples included in the track fragment in the corresponding fragment.
  • the tf_flags value indicating that the HDR information is present may have a value other than the 0x002000 value in some embodiments. (0x002000: hdr-configuration-present)
  • the trun box may include an hdr_config box, which is an HDR configuration box.
  • the hdr_config box may play the same role as the hdr_config box in the above-described tfhd box.
  • the trun box may further include HDR information according to the tf_flags value.
  • the tf_flags value when the tf_flags value includes a value of 0x001000, it may be indicated whether there is HDR information that can be applied to each of the video samples included in the track fragment in the corresponding fragment.
  • the tf_flags value indicating that the HDR information exists may have a value other than the 0x001000 value according to an embodiment. (0x001000: sample-hdr-configuration-present)
  • the trun box may include a sample_hdr_config box, which is an HDR configuration box.
  • the sample_hdr_config box may provide HDR information about the sample.
  • the meaning of the information in the sample_hdr_config box may be the same as the meaning of the information in the deafult_sample_hdr_config box of the tfhd box described above. That is, the deafult_sample_hdr_config box of the tfhd box may provide default HDR information that may be applied to each sample, and the sample_hdr_config box of the trun box may provide individual HDR information that may be applied to the sample for each sample.
  • the average_frame_luminance_level field and / or max_frame_pixel_luminance field of the sample_hdr_config box may have a different meaning from those of the default_sample_hdr_config box.
  • the average_frame_luminance_level field may indicate an average value of the luminance level of the video sample.
  • max_frame_pixel_luminance field This may represent the maximum value of pixel luminance of a corresponding video sample.
  • FIG. 36 illustrates a scheme for defining HDR information in various flags, sample group entries, or sample entries according to an embodiment of the present invention.
  • default-sample_flags in the trex box may be added.
  • default_sample_flags in the tfhd box may be added.
  • sample_flags in the trun box may be added.
  • the hdr_flag field may be included on each flag.
  • the hdr_flag field may be a field indicating whether a corresponding media sample is an HDR video sample. When the value of this field is 1, it may be indicated that the corresponding sample is an HDR video sample. According to an embodiment, existence of flag fields to be described later may be determined by the value of the hdr_flag field.
  • the sdr_compatibility_flag field, the hdr_type_transition_flag field, and / or the hdr_sdr_transition_flag field have the same meaning as the above-described fields of the same name, but may be different in that they are described for the corresponding media sample (HDR video sample).
  • the sdr_compatibility_flag field may indicate whether the corresponding HDR video sample is compatible with a decoder / display supporting SDR.
  • the hdr_type_transition_flag field may indicate that HDR information (parameter) for the corresponding HDR video sample and HDR information for the HDR video sample subsequent thereto may be different. If the value of this field is 1, the current sample is the last HDR video sample to which the existing HDR information is applied, and the following samples may indicate that other HDR information may be applied.
  • the hdr_sdr_transition_flag field may be a flag indicating whether the current HDR video sample is the last HDR sample, and the following samples are SDR samples. If the value of this field is 1, this may indicate that the corresponding sample is the last HDR sample, followed by the SDR samples.
  • the HDR information may be included in the visual sampel group entry. If the same HDR related flag can be applied to one or more video samples present in one media file or fragment, HDR flags, such as the illustrated embodiment, may be further included in the visual sample group entry.
  • the depicted HDR related flags have the same meaning as the flags of the same name described above, but in this case, the corresponding sample group may be described. That is, the hdr_flag field may indicate whether the corresponding sample group is an HDR video sample group.
  • the hdr_type_transition_flag field may indicate whether HDR information (parameter) related to HDR video samples is changed to other HDR information and applied in the corresponding HDR video sample group.
  • the hdr_sdr_transition_flag field may indicate whether to switch from HDR to SDR in the corresponding video sample group.
  • the sdr_hdr_transition_flag field may indicate whether HDR transition is performed in SDR within a corresponding video sample group.
  • the sdr_compatibility_flag field may indicate whether HDR video samples in the corresponding video sample group are compatible with a decoder / display supporting SDR.
  • HDR information may be included in the visual sampel group entry. If the same HDR information (parameter) can be applied to one or more video samples present in one media file or fragment, the hdr_flag field and the HDR configuration box may be further included in the visual sample group entry as shown in the illustrated embodiment. .
  • the hdr_flag field may have the same meaning as the hdr_flag field in the aforementioned visual sample group entry.
  • the information in the HDR configuration box may have the same meaning as the information in the HDR configuration box described above. In this case, however, each piece of information may be described for the corresponding sample group. That is, the information in the HDR configuration box can provide default HDR information (parameters) that can be commonly applied to HDR video samples of the corresponding sample group.
  • the average_frame_luminance_level field and / or the max_frame_pixel_luminance field may have different meanings.
  • the average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each video sample belonging to the corresponding sample group.
  • the max_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each video sample belonging to the corresponding sample group.
  • the HDR information may be included in the visual sampel entry.
  • HDR flag information related to the sample may be further included in the visual sample entry.
  • the hdr_flag field may indicate whether the associated video track or sample includes the HDR video sample.
  • the hdr_type_transition_flag field may indicate whether HDR information (parameter) for an associated video track or sample is changed and thus other HDR information is applied.
  • the hdr_sdr_transition_flag field may be a flag indicating whether an associated video track or sample is switched from HDR to SDR.
  • the sdr_hdr_transition_flag field may be a flag indicating whether an associated video track or sample is switched from SDR to HDR.
  • the sdr_compatibility_flag field may be a flag indicating whether an associated video track or sample is compatible with the SDR decoder / display.
  • HDR information may be included in a visual sampel entry.
  • initialization information required to decode respective video samples present in one media file or fragment HDR information (parameter) related to the sample may be further included in the visual sample entry.
  • the hdr_flag field may indicate whether the associated video track or sample includes the HDR video sample.
  • the hdr_config box is an HDR configuration box and may include HDR information (parameters) about an associated video track or sample. Each of the information included in the above-described HDR configuration box may be as described above. In this case, however, each of the pieces of information may describe the associated video track or samples.
  • FIG. 37 illustrates a scheme for defining HDR information in a HEVC sample entry, an HEVC configuration box, or an HEVC decoder configuration record according to an embodiment of the present invention.
  • the HDR information may be included in the HEVC sample entry HEVCSampleEntry.
  • HDR information related to each HEVC sample or the like may be added as shown.
  • the added HDR information may be added in the form of the above-described HDR configuration box according to an embodiment.
  • the HDR information may be added in the same manner as AVC sample entry (AVCSampleEntry), AVC2 sample entry (AVC2SampleEntry), SVC sample entry (SVCSampleEntry), MVC sample entry (MVCSampleEntry).
  • the HDR information may be included in the HEVC Configuration Box.
  • HDR information related to each HEVC sample or the like may be added as shown.
  • the added HDR information may be added in the form of the above-described HDR configuration box according to an embodiment.
  • the HDR information may be added in the same manner as in the AVC configuration box (AVCConfigurationBox), the SVC configuration box (SVCConfigurationBox), the MVC configuration box (MVCConfigurationBox), and the like.
  • HDR information may be included in an HEVC decoder configuration record (HEVCDecoderConfigurationRecord).
  • HEVCDecoderConfigurationRecord As initialization information required to decode respective HEVC samples present in the media file or fragment, HDR information related to each HEVC sample or the like may be added as shown.
  • the added HDR information may be added in the form of the above-described HDR configuration box according to an embodiment. In this case, whether to add the HDR configuration box may be performed by the hdr_flag field.
  • the HDR information may be added in the same manner as the AVC decoder configuration record (AVCDecoderConfigurationRecord), the SVC decoder configuration record (SVCDecoderConfigurationRecord), the MVC decoder configuration record (MVCDecoderConfigurationRecord), and the like.
  • FIG. 38 is a diagram illustrating a method of storing / delivering HDR information by defining an HDR information SEI box according to an embodiment of the present invention.
  • the present invention defines an HDR information SEI box (HDRInformationSEIBox) (t23010).
  • This box contains an SEI NAL unit, which may have an SEI message containing HDR related information.
  • the HDR information SEI box may be called hisb box.
  • the HDR information SEI box may be included in the visual sample entry, the HEVC configuration box and / or the HEVC sample entry, as shown in the illustrated embodiments (t23020, t23030, t23040). Also, according to an embodiment, it may be included in an AVC sample entry, an MVC sample entry, and an SVC sample entry.
  • 39 is a diagram illustrating an HDR information box for providing image quality improvement information according to an embodiment of the present invention.
  • the present invention proposes a method for storing and / or signaling image quality improvement information that is commonly applicable to ISOBMFF or adaptive to various scene characteristics.
  • the image quality improvement information may include HDR information and WCG information.
  • the present invention proposes a method of storing and / or signaling an HDR parameter related to a video track or a video sample of content providing HDR based on a media file such as ISOBMFF.
  • the present invention proposes a method for storing and / or signaling HDR parameters and / or WCG parameters associated with video samples.
  • the present invention also proposes a method of storing and / or signaling HDR parameters and / or WCG parameters associated with video sample entries.
  • the present invention can provide an image having an improved image quality by transmitting metadata about elements that can adjust the content in common or adaptively to various scene characteristics.
  • An HDR information box can be defined to provide picture quality improvement information related to video samples in a media file.
  • the HDR information box may store and signal HDR static metadata and HDR dynamic metadata applicable to video samples included in the ISOBMFF.
  • the HDR information box may include both HDR static metadata and HDR dynamic metadata in the above-described embodiment.
  • the HDR information box may be referred to as an hdri box.
  • the HDR information box can store and / or signal HDR metadata in the video sample.
  • the HDR information box may optionally include HDR information (or HDR video information) included in the above-described HDR information descriptor and / or HDR information included in the HDR configuration box. That is, the HDR information box may include some or all of the HDR information (or HDR video information) included in the HDR information descriptor and / or some or all of the HDR information included in the HDR configuration box or the like. As described above, the HDR information box may include not only parameters related to HDR but also parameters related to WCG.
  • the HDR information box may be applied to various positions depending on the object to which the image quality improvement parameter is applied. That is, the HDR information box may be included in the box defined in the existing ISOBMFF or may be included in the newly defined box.
  • the illustrated embodiment H39010 represents an HDR information box defined as a full box.
  • the illustrated embodiment H39020 represents an HDR information box that includes image quality enhancement parameters commonly applied to video data. Description of each field included in the illustrated embodiment will be described later.
  • FIG. 40 is a diagram illustrating an HDR information box for providing image quality improvement information according to an embodiment of the present invention.
  • FIG. 41 is a diagram illustrating an embodiment related to a specific type of field included in an HDR information box.
  • the illustrated embodiment H40010 represents an HDR information box including a quality improvement parameter applied to each video sample.
  • the HDR information box can be applied to each video sample, as shown. Although an embodiment in which the HDR information box is applied to each video sample is illustrated in the drawing, the HDR box may be extended to a video clip, a video scene, or the like.
  • the HDR information box includes a sample_count field, an HDR_app_type field, a TF_type field, a CG_type field, a CT_type field, a set_num field, a version_num field, a max_mastering_display_luminance field, a min_mastering_display_luminance field, an average_frame_luminance_level field, a max_frame_pixel_lumin_trans_field field, hdr_flagg_trans_transition , sdr_compatibility_flag field, HDR_app_type_transition_flag field, WCG_info_transition_flag field, number_of_DR_info field, DR_mapping_info_present_flag field, CG_mapping_info_present_flag field, and / or VC_info_present_flag field.
  • the sample_count field may indicate the number of samples to which the quality improvement parameter to be described later is applied.
  • the value of sample_count may be defined in the sample size box (stsz) of the international standard ISO / IEC 14496-12.
  • the HDR_app_type field may not only include all of the information indicated by the aforementioned HDR_info_type, but may also extend the aforementioned HDR_info_type. For example, information about a mastering display may be displayed or commonly applied in units of channels, programs, and content. In addition, it can be divided into tracks, continuous scenes, video clips, and frames.
  • the HDR_app_type field may further include a case in which the target type is a video sample (frame). A specific embodiment H41010 regarding the HDR_app_type field is as shown.
  • the TF_type field may indicate the same information as the above-described transfer_function_type. That is, the TF_type field may indicate the type of transfer function used for the mastering display, channel, program, content, track, scene, clip, or frame of the HDR video.
  • predetermined EOTFs such as SMPTE ST 2084, ITU BT.1886, BT.2020 can be signaled, and the specific method is divided after signaling like absolute brightness expression, relative brightness expression method, etc. according to the transfer function. You may. If necessary, the coefficient of any transfer function may be transferred.
  • the CG_type field may indicate the same information as the color_gamut_type described above. That is, the CG_type field may indicate the type of color gamut corresponding to the mastering display, channel, program, content, scene, clip, or frame of the HDR video. For example, a standard color gamut such as BT.709, BT.2020, or DCI-P3 may be represented, or, if necessary, an arbitrary color gamut may be represented through an RGB color primary (XYZ, RGBW, etc.).
  • the CT_type field may indicate the same information as the color_temperature_type described above. That is, the CT_type field may indicate information about the reference white corresponding to the mastering display, channel, program, content, scene, clip, or frame. For example, it may be a standard light source color temperature such as D65 and D50, and if necessary, an arbitrary value representative of the color temperature may be represented, such as an RGB color primary for white (XYZ, RGBW, etc.).
  • the set_number field may indicate the same information as the above-described set_number. That is, the set_number field represents an identification number of characteristic values that the current HDR parameters have. For example, it may play a role of distinguishing each sample, clip, scene, etc. in a situation where a plurality of HDR characteristic values are transmitted in units of a sample, a clip, a scene, and the like. According to an embodiment, the set_number field may define a plurality of HDR characteristic values for each of common, frame, scene, etc. in association with the HDR_app_type field.
  • the version_number field may indicate the same information as the aforementioned version_number. That is, the version_number field may indicate a version of the HDR information box.
  • the version_number field represents a version of the HDR information box. In connection with the HDR_app_type field and / or the set_number field, it may represent that there is a change among the HDR parameters included in the current HDR information box. For example, if the HDR information box with the same HDR_app_type field and / or set_number field has the same version number, the information in the metadata buffer can be applied to the image as it is.However, if the version_number field is changed, the information in the metadata buffer is updated. New information can be applied to the image.
  • the max_mastering_display_luminance field may indicate the same information as max_mastering_display_luminance included in the aforementioned HDR configuration box (HDRConfigurationBox).
  • the max_mastering_display_luminance field may indicate a peak luminance value of the mastering display. This value can be an integer value between 100-10000.
  • the average_frame_luminance_level field may indicate the same information as average_frame_luminance_level included in the above-described HDR configuration box. That is, the average_frame_luminance_level field may indicate an average value of luminance level for one video sample. In addition, the average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each sample belonging to the sample group or video track (stream).
  • the max_frame_pixel_luminance field may indicate the same information as max_frame_pixel_luminance included in the above-described HDR configuration box. That is, max_frame_pixel_luminance may represent the maximum value of pixel luminance values for one video sample. In addition, max_frame_pixel_luminance may represent the largest value among the maximum values of pixel luminance of each sample belonging to the sample group or video track (stream).
  • the min_mastering_display_luminance field may indicate the same information as min_mastering_display_luminance included in the above-described HDR configuration box. That is, min_mastering_display_luminance may indicate the minimum luminance value of the mastering display. This value may be a fractional number between 0 and 0.1.
  • the hdr_info_transition_flag field may indicate the same information as hdr_type_transition_flag included in the above-described HDR configuration box. That is, the hdr_info_transition_flag field may be a flag indicating whether another HDR parameter is applied by changing an HDR parameter or the like.
  • the hdr_sdr_transition_flag field may indicate the same information as hdr_sdr_transition_flag included in the above-described HDR configuration box. That is, the hdr_sdr_transition_flag field may be a flag indicating whether to switch from HDR to SDR.
  • the sdr_hdr_transition_flag field may indicate the same information as sdr_hdr_transition_flag included in the above-described HDR configuration box. That is, the sdr_hdr_transition_flag field may be a flag indicating whether to switch from SDR to HDR.
  • the sdr_compatibility_flag field may indicate the same information as sdr_compatibility included in the above-described HDR configuration box. That is, the sdr_compatibility_flag field may be a flag indicating whether the SDR decoder or the SDR display is compatible.
  • the HDR_app_type_transition_flag field may be a flag indicating that the HDR_app_type has been changed. That is, the HDR_app_type_transition_flag field may indicate that the predetermined HDR_app_type is changed to another HDR_app_type. According to an embodiment, when the HDR_app_type_transition_flag field is 1, it may indicate that the HDR_app_type is changed.
  • the WCG_info_transition_flag field may be a flag indicating that WCG information has been changed. That is, the WCG_info_transition_flag field may indicate that predetermined WCG information is changed to other WCG information. According to an embodiment, when the WCG_info_transition_flag field is 1, it may indicate that the WCG information is changed.
  • the receiver when the receiver is divided into an STB and a display device and connected through a wired / wireless interface, information indicating an interruption of SDR, HDR, and / or WCG related information or content termination may also be transmitted to the display device.
  • the above-described transition_flags may serve to inform the time of transition of the information or HDR application type.
  • the wired / wireless interface may be HDMI, DisplayPort, MHL, or the like.
  • the number_of_DR_info field may indicate the same information as the aforementioned number of DR information (number_of_dynamic_range_info). That is, the number_of_DR_info field may indicate the number of dynamic range information expression methods corresponding to a mastering display, channel, program, content, track, scene, clip, or frame.
  • the DR_info_type field may indicate the same information as the above-described DR information type (dynamic_range_info_type). That is, the DR_info_type field indicates a method of expressing dynamic range information corresponding to a mastering display, channel, program, content, track, scene, clip, or frame. The method for expressing the dynamic range is the same as the illustrated embodiment H41020.
  • the dynamic range may be expressed using at least one of maximum brightness, minimum brightness, average brightness, average or median values composed of certain components.
  • white bright parts such as normal white, diffuse white, and specular white can be classified in detail according to their characteristics, and in the case of black, they can be classified according to their characteristics such as normal black, deep black, and pitch dark. Can be.
  • the broadcast transmission device may express information such as specular white and pitch dark to subdivide the brightness of the directory and the dark part in the content. Such information may be used as a criterion for determining a receiver display environment or may be used as information for mapping according to the display environment.
  • the DR_info_type field may have a meaning distinguished according to an application range HDR_app_type. For example, if the HDR_app_type is a frame, the average level may mean the brightness average in a single frame, but when the HDR_app_type is content, the average level may mean the maximum, minimum or median of the frame average in the content. have. According to an embodiment, elements for distinguishing the maximum value, the minimum value, or the median value may be further defined.
  • the DR_info_value field may indicate the same information as the above-described dynamic_range_info_value. That is, a corresponding value may be delivered according to the DR_info_value field. As shown below, each of content, mastering display, and scene DR can be expressed in detail according to the DR_info_value field. According to an embodiment, the DR_info_value field may be used to separately describe the characteristics of the container video format and the actual content.
  • peak_luminance_level 4000 (nit)
  • minimum_luminance_level 0.01 (nit)
  • the DR_mapping_info_present_type field may indicate the same information as the DR flag (dynamic_range_mapping_info_present_flag). That is, the DR_mapping_info_present_type field may represent that dynamic range mapping related information is included in a box. According to an embodiment, when the DR_mapping_info_present_type field is 1, it may represent that dynamic range mapping information is included in a mastering display, channel, program, content, track, scene, clip, or frame. When the DR_mapping_info_present_type field indicates that dynamic range mapping information is included in a box, the box may include a DR_mapping_info_type field.
  • the DR_mapping_info_type field may indicate the same information as the above-described DR mapping type (dynamic_range_mapping_info_type). That is, the DR_mapping_info_type field represents the type of dynamic range mapping information corresponding to the mastering display, channel, program, content, track, scene, clip, or frame.
  • the DR_mapping_info_type field refers to a Knee function information SEI message or a Tone mapping information SEI message included in HEVC, so that other SEI messages may refer to the information.
  • the DR_mapping_info_type field may describe the content directly in a predetermined HDR information box.
  • a specific embodiment H41030 regarding the dynamic_range_mapping_info_type field is as shown.
  • the CG_mapping_info_present_flag field may indicate the same information as the above-described CG flag color_gamut_mapping_info_present_flag. That is, the CG_mapping_info_present_flag field may represent that color gamut mapping related information is included in the box. According to an embodiment, when the CG_mapping_info_present_flag field is 1, it may represent that color gamut mapping related information is included in a mastering display, channel, program, content, track, scene, clip, or frame. When the CG_mapping_info_present_flag field indicates that color gamut mapping related information is included in a box, the box may include a CG_mapping_info_type field.
  • the CG_mapping_info_type field may indicate the same information as the above-described CG mapping type (color_gamut_mapping_info_type). That is, the CG_mapping_info_type field indicates the type of color gamut mapping information corresponding to the mastering display, channel, program, content, track, scene, clip, or frame. For example, the CG_mapping_info_type field may cite information defined in the color remapping information SEI message included in HEVC. In addition, the CG_mapping_info_type field may describe the content directly in the pre-defined HDR information box. A specific embodiment H41040 regarding the color_gamut_mapping_info_type field is as shown.
  • the VC_info_present_flag field may indicate the same information as the above-described viewing environment flag (viewing_condition_info_present_flag). That is, the VC_info_present_flag field may represent that the viewing condition related information is included in the box. According to an embodiment, when the VC_info_present_flag field is 1, it may represent that viewing condition related information is included in a mastering display, channel, program, content, track, scene, clip, or frame. When the VC_info_present_flag field indicates that the viewing condition related information is included in the box, the box may include a VC_info_type field.
  • the VC_info_type field may indicate the same information as the aforementioned viewing environment type (viewing_condition_info_type). That is, the VC_info_type field indicates the type of viewing condition information corresponding to the mastering display, channel, program, content, track, scene, clip, or frame. For example, the VC_info_type field may refer to information defined in viewing_condition defined as a separate SEI message, or may describe the content directly in a predetermined HDR information box.
  • a method of directly signaling the payloadType of the SEI message may be used.
  • FIG. 42 is a diagram illustrating a method of defining image quality improvement information in a stsd box according to an embodiment of the present invention.
  • the image quality improvement information may be included in the structure of the above-described media file itself to store / transmit.
  • information (parameters) related to image quality improvement may be added to a sample description box (stsd box), which is a lower box of the sample table box in the trak box. Added picture quality improvement information is shaded in the drawing.
  • the hdr_flag field may be a flag indicating whether HDR video data is included in the video sample in the video track described by the stsd box. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in a video sample. In addition, when the value of the hdr_flag field is 1, the HDR information box may be included in the stsd box.
  • the hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box.
  • the hdr_info field includes the sample_count field, the HDR_app_type field, the TF_type field, the CG_type field, the CT_type field, the set_num field, the version_num field, the max_mastering_display_luminance field, the min_mastering_display_luminance field, the average_frame_luminance_level field, the hd__g_dr_dr_dr_dr_dr_dr_flag_transition_flaition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_fla It may include an HDR_app_type_transition_flag field, a WCG_info_transition_flag field, a number_of_DR_info field, a DR_mapping_info_present_flag field, a CG_mapping_
  • FIG. 43 is a diagram illustrating a method of defining image quality improvement information in a tkhd box according to an embodiment of the present invention.
  • the image quality improvement information may be included in the structure of the above-described media file itself to store / transmit.
  • image quality improvement information (parameters) may be added to the tkhd box in the above-described moov box. Added picture quality improvement information is shaded in the drawing.
  • the hdr_flag field may be a flag indicating whether HDR video data is included in the video track described by the tkhd box. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in the video track. In addition, when the value of the hdr_flag field is 1, the HDR information box may be included in the tkhd box.
  • the hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box.
  • the hdr_info field includes the sample_count field, the HDR_app_type field, the TF_type field, the CG_type field, the CT_type field, the set_num field, the version_num field, the max_mastering_display_luminance field, the min_mastering_display_luminance field, the average_frame_luminance_level field, the hd__g_dr_dr_dr_dr_dr_dr_flag_transition_flaition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_fla It may include an HDR_app_type_transition_flag field, a WCG_info_transition_flag field, a number_of_DR_info field, a DR_mapping_info_present_flag field, a CG_mapping_
  • 44 is a diagram illustrating a method of defining image quality improvement information in a vmhd box according to an embodiment of the present invention.
  • the image quality improvement information may be included in the structure of the above-described media file itself to store / transmit.
  • image quality improvement information (parameters) may be added to the aforementioned vmhd box. Added picture quality improvement information is shaded in the drawing.
  • the vmhd box is a lower box of the above-described trak box and may provide general presentation related information about the corresponding video track.
  • the hdr_flag field may be a flag indicating whether HDR video data is included in the video track described by the tkhd box. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in the video track. In addition, when the value of the hdr_flag field is 1, the HDR information box may be included in the tkhd box.
  • the hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box.
  • the hdr_info field includes the sample_count field, the HDR_app_type field, the TF_type field, the CG_type field, the CT_type field, the set_num field, the version_num field, the max_mastering_display_luminance field, the min_mastering_display_luminance field, the average_frame_luminance_level field, the hd__g_dr_dr_dr_dr_dr_dr_flag_transition_flaition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_fla It may include an HDR_app_type_transition_flag field, a WCG_info_transition_flag field, a number_of_DR_info field, a DR_mapping_info_present_flag field, a CG_mapping_
  • detailed parameters related to image quality improvement may be simultaneously included in the tkhd box and the vmhd box.
  • embodiments of the HDR information box structure included in each box may be combined with each other.
  • the values of the parameters of the HDR information box defined in the tkhd box may be overridden to the values of the parameters of the HDR information box defined in the vmhd box. That is, when the values of the quality improvement information defined in both are different, the value in the vmhd box may be used.
  • image quality improvement information in the tkhd box may be used for image quality improvement information not included in the vmhd box.
  • 45 is a diagram illustrating a method of defining image quality improvement information in a trex box according to an embodiment of the present invention.
  • the image quality improvement information may be included in the structure of the above-described media file itself to store / transmit.
  • image quality improvement information (parameters) may be added to the trex box in the aforementioned mvex box. Added picture quality improvement information is shaded in the drawing.
  • the trex box (track extend box) is a lower box of the above-described mvex box, and may set default values used by each movie fragment. By providing a default value for this box, space and complexity in the traf box can be reduced.
  • the trex box may include a default_hdr_flag field and / or a default_sample_hdr_flag field. According to the value of the default_hdr_flag field, a default_hdr_info box which is an HDR information box may be further included. In addition, depending on the value of the default_sample_hdr_flag field, a default_sample_hdr_info box which is an HDR information box may be further included.
  • the default_hdr_flag field may be a flag indicating whether HDR video data is included in a video track fragment included in the corresponding fragment. According to an embodiment, when the value of the default_hdr_flag field is 1, it may represent that the fragment includes HDR video data by default. When the value of the default_hdr_flag field is 1, a default_hdr_info box which is an HDR information box may be further included.
  • the default_hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box, ie, the hdr_info box may include the fields of the aforementioned HDR information box.
  • the average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each video sample belonging to a track fragment in the corresponding fragment.
  • max_frame_pixel_luminance field The maximum_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
  • the default_sample_hdr_flag field may be a flag indicating whether HDR video samples are included in a video track fragment included in the corresponding fragment. According to an embodiment, when the value of the default_sample_hdr_flag field is 1, it may be indicated that HDR video samples are included by default in the corresponding video track fragment. When the value of the default_sample_hdr_flag field is 1, a default_sample_hdr_info box which is an HDR information box may be further included.
  • the default_sample_hdr_config box may represent an instance of the HDR information box. That is, the default_sample_hdr_config box may include HDR-related detailed parameters that may be applied to each of the video samples included in the corresponding video track fragment. Each attribute included in the default_sample_hdr_config box may be the same as that included in the above-described HDR information box. That is, the default_sample_hdr_config box may include the fields of the aforementioned HDR information box.
  • the average_frame_luminance_level field may indicate an average value of luminance levels of each video sample belonging to a track fragment in a corresponding fragment.
  • max_frame_pixel_luminance field This may indicate the maximum value of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
  • 46 is a diagram illustrating a method of defining image quality improvement information in a tfhd box according to an embodiment of the present invention.
  • the image quality improvement information may be included in the structure of the above-described media file itself to store / transmit.
  • image quality improvement information (parameters) may be added to the tfhd box in the above-described moof box. Added picture quality improvement information is shaded in the drawing.
  • the hdr_flag field may be a flag indicating whether HDR video data is included in a corresponding video track fragment described by the tfhd box. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in the corresponding video track fragment. When the value of the Hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
  • the hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box.
  • the tfhd box may further include image quality improvement information according to the tr_flags value.
  • tf_flags includes 0x100000, this may indicate that a default value of the quality improvement parameter associated with the video sample included in the video track fragment exists.
  • a default quality improvement parameter to be applied to the video sample may be stored and signaled.
  • tf_flags is specified as 0x100000, but the value of tf_flag may be set to another value according to the embodiment.
  • the default_sample_hdr_info box may represent an instance of the HDR information box. That is, the default_sample_hdr_info box may include default picture quality improvement parameters that can be applied to each of the video samples included in the corresponding video track fragment. Each attribute included in the default_sample_hdr_info box may be the same as that included in the above-described HDR information box. That is, the default_sample_hdr_info box may include the fields of the above-described HDR information box.
  • the average_frame_luminance_level field may indicate an average value of luminance levels of each video sample belonging to a track fragment in a corresponding fragment.
  • max_frame_pixel_luminance field This may indicate the maximum value of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment. In this case, however, these fields may describe the video track fragment, not the entire video track.
  • FIG. 47 is a diagram illustrating a method of defining image quality improvement information in a trun box according to an embodiment of the present invention.
  • the image quality improvement information may be included in the structure of the above-described media file itself to store / transmit.
  • image quality improvement information (parameters) may be added to the trun box in the traf box described above. Added picture quality improvement information is shaded in the drawing.
  • the hdr_flag field may be a flag indicating whether HDR video data is included in a corresponding video track fragment. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in the corresponding video track fragment. When the value of the Hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
  • the hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video track. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box.
  • the image quality improvement information may be simultaneously included in the tfhd box and the trun box.
  • embodiments of the image quality improvement information structure included in each box may be combined with each other.
  • the value of the image quality improvement information defined in the tfhd box may be overridden to the value of the image quality improvement information defined in the trun box. If the image quality improvement information in the trun box is not included, the image quality improvement information in the tfhd box may be used.
  • the trun box may further include image quality improvement information according to the tr_flags value.
  • tf_flags includes 0x002000, it may indicate whether there is information on an image quality improvement parameter that can be commonly applied to video samples included in the video track fragment.
  • tf_flags includes 0x001000, the trun box may indicate whether information about a quality improvement parameter applicable to each video sample in the video track fragment exists.
  • tf_flags is 0x002000 and tf_flags is 0x001000
  • the value of tf_flags may be set to a different value.
  • the trun box may include an hdr_info box which is an HDR information box.
  • the hdr_info box may include information on an image quality enhancement parameter that can be commonly applied to video samples included in the video track fragment.
  • the attributes of the parameters included in the hdr_info box may have the same meaning as the attributes of the parameters of the above-described HDR information box.
  • the trun box may include a sample_hdr_info box which is an HDR information box.
  • the sample_hdr_info box may include information on an image quality enhancement parameter corresponding to each video sample in the video track fragment.
  • the attributes of the parameters included in the sample_hdr_info box may have the same meaning as the attributes of the parameters of the above-described HDR information box.
  • FIG. 48 is a diagram illustrating a method of defining image quality improvement information in a sample group entry or a sample entry according to an embodiment of the present invention.
  • the HDR information may be included in the visual sample group entry.
  • the illustrated embodiment may provide a way to enable storing and signaling the same picture quality improvement related parameters in one or more video samples present in one media file or fragment.
  • the hdr_flags field may be a flag indicating whether the sample group is an HDR video sample group or not. According to an embodiment, when the hdr_flags field is 1, it may indicate that the corresponding sample group is an HDR video sample group. When the value of the hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
  • the hdr_info box may represent an instance of the HDR information box.
  • the hdr_info box may include a default HDR parameter that can be commonly applied to HDR video samples of a sample group. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
  • the image quality improvement information may be included in the visual sample entry.
  • the illustrated embodiment may provide a way to be able to store and signal initialization information necessary to decode each video sample present in one media file or fragment.
  • the initialization information required to decode each video sample may mean an image quality improvement parameter associated with each video sample.
  • the hdr_flags field may indicate whether an associated video track or sample includes an HDR video sample. According to an embodiment, when the value of the hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
  • the hdr_info box may represent an instance of the HDR information box.
  • the hdr_info box may include detailed parameters related to image quality improvement. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
  • FIG. 49 is a diagram illustrating a method of defining picture quality improvement information in an HEVC sample entry, an HEVC configuration box, or an HEVC decoder configuration record according to an embodiment of the present invention.
  • the quality improvement information may be included in the HEVC sample entry HEVCSampleEntry.
  • the illustrated embodiment may provide a method of storing and signaling initialization information necessary to decode each HEVC samples present in a media file or fragment.
  • the initialization information necessary to decode each HEVC samples may mean an image quality improvement parameter associated with each HEVC sample.
  • the quality improvement information may be included in the HEVCSampleEntry in the form of an HDR information box.
  • the picture quality improvement information may be included in the same manner as the AVC sample entry, the AVC2 sample entry, the SVC sample entry, the MVC sample entry, and the like.
  • the hdr_info box may represent an instance of the HDR information box.
  • the hdr_info box may include detailed parameters related to picture quality improvement related to HEVC samples. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
  • the quality improvement information may be included in the HEVC configuration box.
  • the illustrated embodiment may provide a method of storing and signaling initialization information necessary to decode each HEVC samples present in a media file or fragment.
  • the initialization information necessary to decode each HEVC samples may mean an HDR parameter associated with each HEVC sample.
  • the quality improvement information may be included in the HEVCConfigurationBox in the form of an HDR information box.
  • the picture quality improvement information may be included in the same manner as in the AVC configuration box (AVCConfigurationBox), the SVC configuration box (SVCConfigurationBox), the MVC configuration box (MVCConfigurationBox) and the like.
  • the hdr_info box may represent an instance of the HDR information box.
  • the hdr_info box may include a quality improvement detail parameter related to the HEVC sample and the like. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
  • the quality improvement information may be included in the HEVC decoder configuration record HEVCDecoderConfigurationRecord.
  • the illustrated embodiment may provide a method of storing and signaling initialization information necessary to decode each HEVC samples present in a media file or fragment.
  • the initialization information necessary to decode each HEVC samples may mean an image quality improvement parameter associated with each HEVC sample.
  • the quality improvement information may be included in the HEVCDecoderConfigurationRecord in the form of an HDR information box.
  • the picture quality improvement information may be included in the same manner as the AVC decoder configuration record (AVCDecoderConfigurationRecord), the SVC decoder configuration record (SVCDecoderConfigurationRecord), the MVC decoder configuration record (MVCDecoderConfigurationRecord), and the like.
  • the hdr_flags field may indicate whether an associated video track or sample includes an HDR video sample. According to an embodiment, when the value of the hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
  • the hdr_info box may represent an instance of the HDR information box.
  • the hdr_info box may include detailed parameters related to picture quality improvement related to video samples. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
  • 50 is a diagram illustrating a method of defining image quality improvement information in an sbgp box or an sgpd box according to an embodiment of the present invention.
  • a method of storing and / or signaling an image quality improvement parameter associated with a video scene, sequence, or clip may be provided.
  • a method for storing and / or signaling HDR parameters and / or WCG parameters associated with a video scene, sequence and / or clip may be provided.
  • an sbgp box or an sgpd box may be used together with the HDR information box to provide scene-based HDR / WCG information.
  • the sbgp box and the sgpd box may mean a sample-to-group box and a sample group description box of the international standard ISO / IEC 14496-12, respectively.
  • the sbgp box includes a grouping_type field.
  • the grouping_type field is a parameter representing a grouping type and may have an integer value.
  • the grouping_type field may be assigned a predetermined integer value. For example, when scene # 1-100 exists, in order to assign a sample to each scene, the grouping type for each scene may have a value of 1-100.
  • sample_count and group_description_index values may be determined for each grouping type value.
  • the illustrated embodiment H50010 has been described based on a scene, but the above description may be equally applied to a sequence or a clip as well as a scene.
  • the sgpd box includes a grouping_type field and a VisualSampleGroupEntry.
  • the grouping_type field is a parameter representing a grouping type and may have an integer value.
  • the grouping_type field may be assigned a predetermined integer value. For example, when scene # 1-100 exists, in order to assign a sample to each scene, the grouping type for each scene may have a value of 1-100.
  • sample_count and group_description_index values may be determined for each grouping type value.
  • VisualSampleGroupEntry may indicate a visual sample group entry according to the grouping type. VisualSampleGroupEntry may provide HDR information and / or WCG information to a video based on a scene, sequence, or clip according to the parameters of the above-described visual sample group entry.
  • the sbgp box or the sgpd box may be used as well as the HDR information included in the HDR information box. That is, when the HDR_app_type field indicates a scene or a clip, the HDR / WCG information may be applied using the sbgp box or the sgpd box in addition to the HDR information box.
  • 51 is a diagram illustrating a copy control box for providing copy control information according to an embodiment of the present invention.
  • a signalable box when generating an ISOBMFF-based file, storing the above parameter for copy control relating to a video track, an audio track, a data track (stream), a video sample, an audio sample, and / or a data sample;
  • a signalable box when generating an ISOBMFF-based file, storing the above parameter for copy control relating to a video track, an audio track, a data track (stream), a video sample, an audio sample, and / or a data sample;
  • a signalable box can be newly defined.
  • a copy control box includes copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_output_control_info information, stereo_video_control_flag information, num_scalabilitychannel or audio_control can do.
  • the copy_control_flag information may indicate whether the video / audio / data (video, audio and / or data) track or sample is copy protected. For example, when the value of the copy_control_flag information is set to 0, it may indicate that copy protection is not applied to the corresponding track or sample, and when it is set to 1, it may indicate that copy protection is applied to the corresponding track or sample. have. As a default, the value of the copy_control_flag information may be set to one.
  • the num_copy_control_info information is information indicating the number of copies that can be copied to a video / audio / data track or a sample. For example, if the value of num_copy_control_info information is set to 0x00, it may indicate that copying is impossible, and if it is set to 0x01-0xFE, it may indicate the number of times that copying is possible, and if it is set to 0xFF, It may indicate that there is no limit.
  • the num_play_control_info information may correspond to information specifying the number of times a file can be played back in a device (eg, a broadcast receiver). For example, when the value of the num_play_control_info information is set to 0x00, it may indicate that playback is impossible, and when it is set to 0x01-0xFE, it may directly indicate the number of times that playback is possible, and when it is set to 0xFF, It may indicate no limitation.
  • the num_play_control_info information may have a default value of 0xFF.
  • the ep_copy_control_info information may indicate an expiration period of recording and / or time-shift for content.
  • the value of the ep_copy_control_info information is set to 0x0000, it may indicate that there is no expiration period, and when it is set to 0x0001, it may indicate that an expiration period of 60 minutes is applied, and when it is set to 0x0002-0xFFFF, these bits indicate 2 to It may indicate that an expiration period of 65535 hours applies.
  • the trick_mode_control_flag information may indicate whether a trick mode is possible. For example, when the value of the trick_mode_control_flag information is set to 0, it may indicate that the trick mode control is impossible. When set to 1, it may indicate that the trick mode control is possible.
  • the num_output_control_info information may indicate designation of the number of output devices capable of simultaneously playing a corresponding file when the value of output_control_flag information (or copy_control_flag information) is 1. For example, when the value of num_output_control_info information is set to 0x00, it may indicate that playback is not possible on the multi-screen, and only the main playback device can play the file, and when set to 0x01, the main playback device In addition, one device may indicate that the content of the file can be played at the same time, and when set to '0x02-0Xff', it indicates that two or more devices other than the main playback device can play the content of the file at the same time. It can represent the number.
  • Next generation broadcast systems may provide n-screen services.
  • a service in a broadcast system it is possible to express the corresponding service on n screens.
  • the service must be copied or retransmitted.
  • a situation of watching a service on a device may occur. Since this situation is not desired by the broadcaster, the broadcaster may include the number of devices capable of providing the n-screen service in the broadcast viewing plan. In this case, the broadcast system may signal the number of output devices that a broadcaster allows and simultaneously reproduces using the num_output_control_info information.
  • the stereo_video_control_flag information may indicate whether copy of stereo video is possible. For example, when the value of the stereo_video_control_flag information is set to 0, it may indicate that stereo video cannot be copied, and that mono video can be copied, and when the value of the stereo_video_control_flag information is set to 1, stereo This may indicate that copying of the video is possible.
  • the default value of the stereo_video_control_flag information may be zero.
  • the num_scalability_control_info information may indicate the number of scalability that can be copied with respect to media to which scalable coding has been applied. For example, when the value of the num_scalability_control_info information is set to 0x00, it may indicate that copying to media with scalable coding is not possible, and when the value of the num_scalability_control_info information is set to 0x01, one scalability copy is performed. It may indicate that it is possible, and when the value of the num_scalability_control_info information is set to 0x02-0xFF, it may indicate that two or more scalability copies are possible.
  • the value of the num_scalability_control_info information when the value of the num_scalability_control_info information is 0x01, it may indicate that only the base layer can be copied.
  • the value of the num_scalability_control_info information is 0x01-0xFF, the base layer and one or more enhancements may be used. It may indicate that copying to an enhancement layer is possible.
  • a default value of num_scalability_control_info information may be 0x00.
  • the num_audio_channel_control_info information may indicate the number of channels that can be copied for multichannel audio. For example, when the value of num_audio_channel_control_info information is set to 0x00, it may indicate that copying to multichannel audio is impossible, and when the value of num_audio_channel_control_info information is set to 0x01-0xFF, one or more of multichannel audio may be used. It may indicate that copying for the channel is possible. As a default, a default value of num_audio_channel_control_info information may be 0x00.
  • the copy control box may further include the information described above or below in the present invention, and the name of the box and / or each parameter (information) may be changed.
  • FIG. 52 is a diagram illustrating a method of defining copy control information in a tkhd box according to an embodiment of the present invention.
  • the tkhd box may contain information describing attributes for the track (video / audio / data).
  • the tkhd box may include creation_time information, modification_time information, track_ID information, and / or duration information.
  • the tkhd box can be included in the moov box.
  • creation_time information is information indicating the time at which the track described by this box was created.
  • the modification_time information is information indicating the time when the track described by this box was modified.
  • the track_ID information is information for identifying a specific track in the entire presentation.
  • the duration information is information representing the duration of the track.
  • the tkhd box may include some or all of the information (copy control information) included in the above-described copy control box. That is, the tkhd box may further include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_output_control_info information, stereo_video_control_flag information, num_scalability_control_info information, and / or num_audio_channel.
  • the copy control information can describe the contents of the copy control for the corresponding track in track units.
  • FIG. 53 illustrates a scheme for defining copy control information in a vmhd box, smhd box, hmhd box, or nmhd box according to an embodiment of the present invention.
  • the vmhd box, smhd box, hmhd box and / or nmhd box may include some or all of the above-described copy control information (or copy control parameters).
  • the vmhd box corresponds to a video media header box and may include general presentation information for video media.
  • the smhd box corresponds to a sound media header box and may include general presentation information for audio media.
  • the hmhd box corresponds to a hint media header box, and may include general information about a hint track.
  • the nmhd box corresponds to a null media header box, and may include general information about streams other than video or audio streams.
  • the value of the copy control information defined in the track header box is the vmhd box, smhd box, hmhd box, and / or nmhd box. Can be overridden by the value of the copy control information defined in.
  • the copy control may be applied in the unit described by the box.
  • FIG. 54 is a diagram illustrating a method of defining copy control information in a trek box according to an embodiment of the present invention.
  • the trex box can be included in the mvex box (movie extends box).
  • the trex box may include information for setting default values used by a movie fragment.
  • trex box track_ID information default_sample_description_index information, default_sample_duration information, default_sample_size information, default_sample_flags information, default_sample_copy_control_flag information, default_sample_num_copy_control_info information, default_sample_num_play_control_info information, default_sample_ep_copy_control_info information, default_sample_ trick_mode_control_flag information, default_sample_ num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information and / or comprises a num_audio_channel_control_info information can do.
  • the track_ID information is information for identifying a track in a movie box.
  • the default_sample_description_index information, default_sample_duration information, default_sample_size information, and default_sample_flags information each include sample_description_index information indicating the index of the sample entry describing the sample, sample_duration information indicating the duration of the sample, sample_size information indicating the size of the sample, and the flags set for the samples.
  • sample_flags information indicating a value may be indicated.
  • default_sample_copy_control_flag information default_sample_num_copy_control_info information, default_sample_num_play_control_info information, default_sample_ep_copy_control_info information, default_sample_trick_mode_control_flag information, default_sample_num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information and num_audio_channel_control_info information are each above one copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information
  • the basic values of the num_scalability_control_info information and the num_audio_channel_control_info information may be indicated.
  • the default_sample_flags information may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information. Since the default_sample_flags information may include one or more flags for the samples, it may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information related to the samples.
  • 55 is a diagram illustrating a method of defining copy control information in a tfhd box according to an embodiment of the present invention.
  • the tfhd box can be included in the moof box.
  • Each movie fragment can add zero or more fragments to each track.
  • a track fragment may contain zero or more consecutive samples.
  • the tfhd box contains information for setting default values and / or information used for these samples.
  • tfhd box includes track_ID information, copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, num_audioset_channel_data_data_data It may include.
  • the base_data_offset information is information indicating a base offset for calculating an offset of data.
  • the default_sample_flags information may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information. Since the default_sample_flags information may include one or more flags for the samples, it may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information related to the samples.
  • 56 is a diagram illustrating a method of defining copy control information in a trun box according to an embodiment of the present invention.
  • the trun box can be included in the track fragment box in the moof box.
  • the trun box contains information describing a set of samples for one track.
  • trun box includes sample_count information, copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, num_audiogs sample_fla Sample_composition_time_offset information may be included.
  • the sample_count information is information indicating the number of samples included in this fragment.
  • copy control may be applied in units of sets of samples.
  • sample_flags information and / or first_sample_flags information may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information. Since sample_flags information and / or first_sample_flags information may include one or more flags for samples, it may include copy_control_flag information, trick_mode_control_flag information and / or stereo_video_control_flag information related to the samples.
  • 57 illustrates a method of defining copy control information in a visual sample group entry according to an embodiment of the present invention.
  • the visual sample group entry may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, and / or audio.
  • copy control information When copy control information is included in a visual sample group entry, the same copy control information may be applied to one or more video samples existing in one file or movie fragment. That is, when defining copy control information in a visual sample group entry, it is not necessary to define or signal a plurality of copy control information for each sample, thereby saving bandwidth for data transmission. It works.
  • FIG. 58 is a diagram illustrating a method of defining copy control information in a visual sample entry according to an embodiment of the present invention.
  • the visual sample entry may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, and / or num_audio.
  • the copy control information may be applied to each sample as initialization information necessary to decode each sample existing in one file or movie fragment. have.
  • the copy control information is included in a corresponding unit.
  • Can be included in The receiver allows the decoder (including the DASH client, and / or MMT client) to effectively perform decoding and / or display of the corresponding content using copy control information.
  • Some or all of the above-described copy control information may exist simultaneously in several boxes in one ISOBMFF file or DASH segment, MMT MPU. In this case, some or all of the copy control information defined in the upper box may be overridden by values of some or all of the copy control information having the same name defined in the lower box.
  • FIG. 59 is a diagram illustrating a method of defining copy control information in a pssh box according to an embodiment of the present invention.
  • the pssh box may include information required by the content protection system to play the content.
  • the pssh box may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information and / or num_audio_channel.
  • the copy control information is common to the video samples included in the track fragment. Can be applied as
  • 60 is a diagram illustrating a method of defining copy control information in a tenc box according to an embodiment of the present invention.
  • the tenc box may be included in the Scheme Information Box.
  • the tenc box contains information related to encryption common to video samples included in the track fragment.
  • the tenc box may include default_copy_control_flag information, default_num_copy_control_info information, default_num_play_control_info information, default_ep_copy_control_info information, default_trick_mode_control_flag information, default_num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, and / or channel.
  • the copy control information may be used as a default value for copy control on video samples included in the track fragment.
  • FIG. 61 is a diagram illustrating a method of defining copy control information in a senc box according to an embodiment of the present invention.
  • the senc box may be included in a track fragment box or a track box.
  • the senc box contains information related to the encryption that is applied to each sample.
  • the senc box may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information and / or num_audio_channel_control_info.
  • the copy control information may be applied to each of the video samples included in the track fragment. In this case, copy control is possible for each of the video samples.
  • FIG. 62 is a diagram illustrating a method of defining copy control information in CencSampleEncryptionInformationVideoGroupEntry or CencSampleEncryptionInformationGroupEntry according to an embodiment of the present invention.
  • CencSampleEncryptionInformationVideoGroupEntry may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, numnum_scalability_control_info info / channel, and / or audio information.
  • CencSampleEncryptionInformationGroupEntry may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info info and / or channel.
  • FIG. 63 is a view showing a copy control box according to an embodiment of the present invention.
  • a copy control box may be defined to store and signal the parameters included in the above-described copy control box.
  • a uuid box type of ISOBMFF may be used as it is.
  • a box may be configured by further defining an extended type of 16 bytes.
  • the illustrated syntax uses an extension type called CopyControlInfo, but an extension type other than CopyControlInfo type may be used.
  • a copy control parameter may be provided while using an existing ISOBMFF box type without defining a separate box type.
  • 64 is a diagram illustrating a description of an HDR configuration description including image quality improvement information according to an embodiment of the present invention.
  • the picture quality improvement information according to an embodiment of the present invention may be described by the illustrated HDRConfiguration element.
  • the HDR configuration description (HDR configuration information) may be included in the HDRConfiguration element and described by this element.
  • the HDRConfiguration element includes @schemeIdUri, @value and / or @id.
  • @schemeIdUri may be a mandatory field
  • @value and @id may be an optional field.
  • @schemeIdUri represents a URI that identifies the schema.
  • the semantic of this element can be specified in the schema described by this attribute.
  • This attribute can be a URN or a URL. If a URL is used as this attribute, this attribute may contain date information in the form mmyyyy.
  • @value represents the value for this element.
  • the spatial and semantics for this value may be defined by the schema identified by @schemeIdUri described above.
  • @id represents an identifier for this element. Elements with the same attribute value may be identical to each other. In other words, if there are elements with the same attribute value, only one of these elements is processed and sufficient, and the other elements do not have to be processed.
  • HDRConfiguration element according to an embodiment of the present invention may be represented in the form of the bottom (L10020) of this figure.
  • 65 and 66 illustrate a description of @schemeIdUri and @value of an HDRConfiguration element including picture quality improvement information according to an embodiment of the present invention.
  • 67 is a view showing an embodiment related to a specific type of field included in an HDRConfiguration element.
  • the picture quality improvement information according to an embodiment of the present invention may be described by the illustrated HDRConfiguration element.
  • the @schemeIdUri of the HDRConfiguration element including the HDR configuration description may have urn: mpeg: dash: hdr: 201x.
  • the @value of the HDRConfiguration element including the HDR configuration description is HDRAppType, TransferFunctionType, ColorGamutType, ColorTemperatureType, SetNumber, VersionNumber, ContrastRatio, FStop, PeakLuminanceLevel, MinLuminanceLevel, AverageLuminanceLevel, MedianLuminanceLevel, NormalWhiteLevel, DiffWhite NormalBlackLevel, DeepBlackLevel, PitchDarkLevel, HDRSDRTransitionFlag, SDRHDRTransitionFlag, SDRCompatibilityFlag, HDRInfoTransitionFlag, HDRAppTypeTransitionFlag, TransferFunctionTransitionFlag, WCGInfoTransitionFlag, ColorTemperatureTransitionFlag, HDRMappingInfoPresentFlag, HDRMappingFontInfo
  • the HDRAppType may indicate a range to which information for HDR configuration is applied.
  • the HDRAppType may indicate information on a mastering display, or may apply application information about a channel, a program, and a content unit, and may indicate application information about each of a series of scenes, video clips, and frames.
  • the HDRAppType may indicate application information according to other criteria.
  • the HDRAppType may indicate application information by distinguishing between before and after conversion, a transmission format, a target target format after conversion, static metadata, and dynamic metadata.
  • the HDRAppType may be expressed like the embodiment H67010 shown in the HDR Application Type and may be extended in the future.
  • the TransferFunctionType may indicate the type of transfer function used for the mastering display, channel, program, content, track, scene, clip, and / or frame of the HDR video.
  • a predetermined EOTF such as SMPTE ST 2084, ITU BT.1886, BT.2020, etc. may be signaled through TransferFunctionType.
  • a specific method may be signaled through a TransferFunctionType after dividing an absolute brightness expression method or a relative brightness expression method according to the type of the transfer function.
  • coefficients of any transfer function may be passed through TransferFunctionType.
  • TransferFunctionType may be expressed as Transfer Functino Type (H67020) shown and may be extended in the future.
  • the ColorGamutType may indicate a type of color gamut corresponding to a mastering display, channel, program, content, track, scene, clip, and / or frame of the HDR video.
  • ColorGamutType may indicate standard color gamut such as BT.709, BT.2020, and DCI-P3.
  • the ColorGamutType may represent any color gamut through RGB color primary, XYZ, or RGBW.
  • the ColorGamutType may be represented as the illustrated Color Gamut type (H67030), and may be extended in the future.
  • the ColorTemperatureType may indicate information about a reference white corresponding to a mastering display, channel, program, content, track, scene, clip, and / or frame of a color gamut.
  • ColorTemperatureType may be a standard light source color temperature such as D65, D50.
  • ColorTemperatureType may represent any value representative of color temperature, such as RGB color primary, XYZ, or RGBW for white.
  • SetNumber may indicate an identification number of characteristic values currently held by the HDR parameters. For example, SetNumber may play a role of distinguishing each sample, clip, scene, etc. in a situation where a plurality of HDR characteristic values are transmitted in units of a sample, a clip, a scene, and the like. According to an embodiment, SetNumber may be distinguished when defining a plurality of HDR characteristic values for each of common, frame, scene, etc. in association with HDR_info_type. For example, if different DR mapping functions are delivered to support displays with various kinds of luminance, SetNumber can play a role in distinguishing them.
  • VersionNumber represents the version of the HDR Configuration. VersionNumber may indicate that there is information change among HDR parameters included in the current HDR configuration element in association with HDR_app_type and / or set_number. For example, when the HDR configuration elements having the same HDR_app_type and / or set_number have the same version number, the information in the metadata buffer may be applied to the image as it is. However, when the version_number is changed, the updated new information may be applied to the image after updating using information in the metadata buffer.
  • ContrastRatio may indicate N at a contrast ratio of N: 1.
  • FStop can indicate N at 2 ⁇ N f-stop.
  • PeakLuminanceLevel may indicate a maximum brightness value.
  • MinLuminanceLevel may indicate a minimum brightness value.
  • AverageLuminanceLevel may indicate an average brightness value.
  • MedianLuminanceLevel may indicate a medium brightness value.
  • NormalWhiteLevel may indicate a normal white level value.
  • DiffuseWhiteLevel may indicate a diffuse white level value.
  • SpecularWhiteLevel may indicate a specular white level value.
  • NormalBlackLevel may indicate a normal black level value.
  • DeepBlackLevel may indicate a deep black level value.
  • PitchDarkLevel may indicate a pitch dark level value.
  • PeakLuminanceLevel, MinLuminanceLevel, AverageLuminanceLevel, MedianLuminanceLevel, NormalWhiteLevel, DiffuseWhiteLevel, SpecularWhiteLevel, NormalBlackLevel, DeepBlackLevel and / or PitchDarkLevel may have units such as nit or cd / m 2 .
  • the HDRSDRTransitionFlag may be a flag indicating whether to switch from HDR to SDR.
  • SDRHDRTransitionFlag may be a flag indicating whether to switch from SDR to HDR.
  • SDRCompatibilityFlag may be a flag indicating compatibility with the SDR decoder / display.
  • the HDRInfoTransitionFlag may be a flag indicating whether another HDR parameter is applied by changing an HDR parameter or the like.
  • the HDRAppTypeTransitionFlag may be a flag indicating a case where an HDR applicable type (HDRAppType) is changed and another HDRAppType is applied. According to an embodiment, when the HDRAppTypeTransitionFlag is 1, this may indicate a transition of the HDRAppType.
  • the TransferFunctionTransitionFlag may be a flag indicating a case where a Transfer Function type is changed and another Transfer Function is applied. According to an embodiment, when TransferFunctionTransitionFlag is 1, this may indicate transition of a transfer function.
  • the WCGInfoTransitionFlag may be a flag indicating a case in which WCG information is changed to apply other WCG information. According to an embodiment, when the WCGInfoTransitionFlag is 1, this may indicate conversion of WCG information.
  • the ColorTemperatureTransitionFlag may be a flag indicating a case where color temperature information is changed to apply different color temperature information. According to an embodiment, when ColorTemperatureTransitionFlag is 1, this may indicate conversion of color temperature information.
  • the HDRMappingInfoPresentFlag may be a flag indicating whether HDR mapping related information is included in the HDR configuration element. According to an embodiment, when the HDRMappingInfoPresentFlag is 1, it may represent that HDR mapping related information is included in the HDR configuration element.
  • the HDRMappingInfoType may indicate an information type for HDR mapping.
  • HDRMappingInfoType may refer to a Knee function information SEI message or a Tone mapping information SEI message included in HEVC, and may quote information of another SEI message or directly describe content in an HDR configuration element.
  • the HDRMappingInfoType may be expressed as the HDR mapping info type H67040 shown and may be extended in the future.
  • the WCGMappingInfoPresentFlag may be a flag indicating whether WCG mapping related information is included in the HDR configuration element. According to an embodiment, when the WCGMappingInfoPresentFlag is 1, it may represent that the WCG mapping related information is included in the HDR configuration element.
  • WCGMappingInfoType may indicate an information type for WCG mapping.
  • WCGMappingInfoType can refer to the information defined in the Color remapping information SEI message included in HEVC, or can describe the content directly in the HDR configuration element.
  • the WCGMappingInfoType may be expressed as the illustrated WCG mapping info type (H67050) and may be extended in the future.
  • the ViewingConditionInfoPresentFlag may be a flag indicating whether the HDR configuration element includes the Viewing Condition mapping related information. According to an embodiment, when ViewingConditionInfoPresentFlag is 1, it may represent that the Viewing Condition mapping related information is included in the HDR configuration element.
  • ViewingConditionInfoType may indicate an information type for viewing condition mapping.
  • ViewingConditionInfoType may cite information defined in viewing_condition defined as a separate SEI message, or may directly describe content in an HDR configuration element.
  • 68 is a diagram illustrating an embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
  • the picture quality improvement information according to an embodiment of the present invention may be described by the common attributes and elements shown.
  • the HDR description may be included in common attributes and elements.
  • Common attributes and elements may be applied to an adaptation set, a representation, and / or a sub-representation.
  • Common attributes and elements according to an embodiment of the present invention are @profile, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransat or FrameTransaction It may include an HDRConfiguration.
  • @profile may represent a profile related to a related representation in a list of media presentation profiles.
  • the value of this attribute may be a subset of each value in a higher level hierarchical document (Representatino, Adapatation Set, MPD). This attribute may be optional.
  • @HDRFlag may be a flag indicating whether a corresponding video media component supports HDR. This attribute may be optional.
  • @HDRTypeTransitionFlag may indicate the end of the current HDR video media component or may indicate the transition from the current HDR type to another HDR type within the video media component. That is, if the HDR types are different, one or more values of the attributes and / or elements constituting the HDR may be different.
  • HDR type # 1 represents the type of HDR video media component with oeft: 3, max_lum: 100, min_lum: 0.5, max_frame_lum: 0, max_pixel_lum: 0, and HDR type # 2 represents oeft: 1, max_lum: Representing the type of the HDR video media component with 1000, min_lum: 0.05, max_frame_lum: 0, max_pixel_lum: 0, the two HDR video media components have different types.
  • this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @HDRSDRTransitionFlag may indicate the end of the current HDR video media component or may indicate the transition from HDR to SDR within the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @SDRHDRTransitionFlag may indicate the end of the current SDR video media component or may indicate the transition from SDR to HDR within the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @HDRInfoTransition may represent a transition of current HDR characterisitics within a video media component.
  • this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @HDRAppTypeTransition may indicate a transition of the current HDR applicable type within the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @TransferFunctionTransition can represent a transition of the current HDR Transfer Function within the video media component.
  • this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @WCGInfoTransition may indicate the transition of the current WCG type in the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @ColorTemperatureTransition can indicate the transition of the current color temperature within the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @SDRCompatibility may be a flag indicating whether the video media component is compatible with SDR. This attribute may be optional.
  • FramePacking may indicate frame-packing arrangement information of a corresponding video media component type. This element may be zero or more.
  • the HDRConfiguration may represent HDR configuration information of the video media component. This element may be zero or more.
  • 69 is a view showing another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
  • the picture quality improvement information according to an embodiment of the present invention may be described by the common attributes and elements shown.
  • the HDR description may be included in common attributes and elements.
  • Common attributes and elements may be applied to an adaptation set, a representation, and / or a sub-representation.
  • the common attributes and elements according to another embodiment of the present invention are @profile, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureAppatibility, @ColorTemperatureTransition, It may include TransferFunctionType, @ColorGamutType and / or @ColorTemperatureType.
  • @HDRAppType may provide an identifier for the HDR applicable type of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • @TransferFunctionType may provide an identifier for an opto-electronic transfer function curve of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • @ColorGamutType may provide an identifier for the WCG of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • @ColorTemperatureType may provide an identifier for the color temperature of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • 70 is a view illustrating another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
  • the picture quality improvement information according to an embodiment of the present invention may be described by the common attributes and elements shown.
  • the HDR description may be included in common attributes and elements.
  • Common attributes and elements may be applied to an adaptation set, a representation, and / or a sub-representation.
  • the common attributes and elements according to another embodiment of the present invention are @profile, @SetNumber, @VersionNumber, @ContrastRatio, @Fstop, @PeakLuminanceLevel, @MinLuminanceLevel, @AverageLuminanceLevel, @MedianLuminanceLevel, @NormalWhiteLevel, @DiffuseWhiteLevel, @SpecularWhite It may include @NormalBlackLevel, @DeepBlackLevel and / or @PitchDarkLevel.
  • @profile may represent a profile related to a related representation in a list of media presentation profiles.
  • the value of this attribute may be a subset of each value in a higher level hierarchical document (Representatino, Adapatation Set, MPD). This attribute may be optional. This is as described above.
  • @SetNumber may provide an identifier for the HDR parameter of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • @VersionNumber may provide an identifier for an HDR configuration version of a source picture of a video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • @ContrastRatio can express the contrast ratio. This attribute may be a non-negative fractional value. This attribute may be optional.
  • @Fstop can represent an F-stop. That is, @Fstop may mean N at 2 ⁇ N. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • @PeakLuminanceLevel can express peak luminance level. This attribute can be a positive integer expressed in decimal. This attribute may be optional. This attribute can have a value of 100-10000.
  • @MinLuminanceLevel can express the minimum luminance level.
  • This attribute may be a non-negative fractional value.
  • This attribute may be optional. According to one embodiment, this attribute may have a value of 0-0.1.
  • @AverageLuminanceLevel can represent an average luminance level. This attribute can be a positive integer or a fraction. This attribute may be optional.
  • @MedianLuminanceLevel can express the median luminance level. This attribute can be a positive integer or a fraction. This attribute may be optional.
  • @NormalWhiteLevel may represent a normal white level. This attribute can be a positive integer or a fraction. This attribute may be optional.
  • @DiffuseWhiteLevel can represent a diffuse white level. This attribute can be a positive integer or a fraction. This attribute may be optional.
  • @SpecularWhiteLevel can represent a specular white level. This attribute can be a positive integer or a fraction. This attribute may be optional.
  • @NormalBlackLevel can represent a normal black level. This attribute can be a positive integer or a fraction. This attribute may be optional.
  • @DeepBlackLevel can express deep black level. This attribute can be a positive integer or a fraction. This attribute may be optional.
  • @PitchDarkLevel can represent pitch dark level. This attribute can be a positive integer or a fraction. This attribute may be optional.
  • 71 is a view showing another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
  • the picture quality improvement information according to an embodiment of the present invention may be described by the common attributes and elements shown.
  • the HDR description may be included in common attributes and elements.
  • Common attributes and elements may be applied to an adaptation set, a representation, and / or a sub-representation.
  • Common attributes and elements according to another embodiment of the present invention may include @profile, @HDRMappingInfoPresentFlag, @HDRMappingInfoType, @WCGMappingInfoPresentFlag, @WCGMappingInfoType, @ViewingConditionInfoPresentFlag and / or @ViewingConditionInfoType.
  • @profile may represent a profile related to a related representation in a list of media presentation profiles.
  • the value of this attribute may be a subset of each value in a higher level hierarchical document (Representatino, Adapatation Set, MPD). This attribute may be optional. This is as described above.
  • @HDRMappingInfoPresentFlag may indicate HDR mapping information in a video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @HDRMappingInfoType may provide an identifier for HDR mapping information of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • @WCGMappingInfoPresentFlag may indicate WCG mapping information in the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @WCGMappingInfoType may provide an identifier for WCG mapping information of a source picture of a video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • @ViewingConditionInfoPresentFlag may indicate viewing condition information in the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
  • @ViewingConditionInfoType may provide an identifier for viewing condition information of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
  • FIG. 72 is a diagram illustrating a configuration of a content component including image quality improvement information according to an embodiment of the present invention.
  • the picture quality improvement information according to an embodiment of the present invention may be described by the illustrated content component.
  • the HDR configuration may be included in a content component element.
  • another content component element includes @id, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, HDR It may include.
  • the ContnetComponent element is an element representing a description of one content component.
  • @id represents the identifier of the media component. This attribute can have a unique value within the corresponding adaptation set.
  • @HDRFlag The description of @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, and HDRConfiguration are as described above.
  • Accessibility may indicate information about an accessibility scheme.
  • 73 is a diagram illustrating a configuration of a segment base including image quality improvement information according to an embodiment of the present invention.
  • the image quality improvement information according to an embodiment of the present invention may be described by the illustrated segment base.
  • the HDR configuration may be included in the SegmentBase element.
  • a SegmentBase element describes a SegmentBase element, which describes a type for segment base information indicating a base type for other elements.
  • SegmentBase element is @timescale, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ ColorTemperature / Transition, HDR It may include.
  • @timescale describes the timescale in seconds used to match different real-time duration values in the segment information.
  • @HDRFlag The description of @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, and HDRConfiguration are as described above.
  • Initialization represents a URL that contains the possible byte range for the initialization segment.
  • the values of the element and / or attribute signaled at the higher level may be overridden with values signaled at the lower level.
  • the values of the element and / or attribute of the MPD corresponding to the parent level are the values of the element and / or attribute of the segmentBase corresponding to the child level. Can be overridden.
  • a method for delivering picture quality improvement information using a media file format is provided.
  • the quality improvement information on the media itself rather than a separate signaling path, it is possible to improve efficiency in various next generation content systems supporting UHD broadcasting.
  • the signaling information for the HDR information and the WCG information may not need to be separately configured for the HDR media data or the WCG media data. Since the HDR information and the like can be identified by the media file itself, the receiver can grasp the HDR information and the like and perform an image quality improvement process before decoding the video data.
  • the image quality improvement information may be defined in the basic media file itself, it may be compatible with various storage / delivery systems. That is, if the system uses the media file format, the image quality improvement process may be performed without changing or improving the structure of the additional storage / transmission system.
  • the receiver since the image quality improvement information is reflected at the time of generating the media file, the receiver may provide the media data as intended at the time of generating the media data. That is, according to an aspect of the present invention, the image quality improvement information may not be changed by signaling information.
  • image quality improvement information such as HDR parameters and / or WCG parameters may indicate information on a mastering display, or may be commonly applied in units of channels, programs, and content, and may include tracks, scenes, clips, and frames. It may be applied individually to the (sample) unit. That is, according to another aspect of the present invention, the image quality improvement information may be classified into static metadata and dynamic metadata. Accordingly, according to another aspect of the present invention, commonly applicable information and image quality improvement information adaptive to various scene characteristics may be signaled.
  • a method of storing and / or signaling copy control information using a media file format is provided.
  • the copy control information may be included in a separately defined box and stored in a media file, or may be included in a predefined box.
  • scalability is enhanced
  • compatibility is enhanced.
  • the present disclosure discloses a scheme for storing and / or signaling HDR information and / or WCG information.
  • the HDR information and / or WCG information disclosed herein may be included in a media file and transmitted, or may be transmitted through a system level, such as a DASH MPD. That is, in the above-described embodiment, only when each HDR parameter and / or WCG parameter is included or transmitted in the media file (see FIGS. 39 to 63) or transmitted at the system level (see FIGS. 64 to 73) Although described, each parameter may be stored and / or transmitted at the media level, system level or media level and system level.
  • the HDR information and / or WCG information is provided in the form of an HDR information descriptor, an HDR configuration descriptor, an HDR information box, an HDR configuration box, and the like.
  • Various parameters included in such descriptors, boxes, and the like may be applied to other descriptors, boxes, and the like within the scope of contradiction.
  • HDR information and WCG information may be clearly distinguished, or may be used as a concept in which WCG information is included in the HDR information.
  • the HDR information may be used as a concept including WCG information as well as HDR information.
  • 74 is a flowchart illustrating a method of transmitting a broadcast signal according to an embodiment of the present invention.
  • the method for transmitting a broadcast signal may include generating a media file including video data and image quality improvement information (S74100), and generating one or more segments including the generated media file ( S74200), generating a broadcast signal including the generated one or more segments (S74300), and transmitting the broadcast signal (S74400).
  • a media file including video data and image quality improvement information may be generated.
  • the media file may be an ISOBMFF based media file. Details of such a media file structure have been described above with reference to FIG. 29 and the like.
  • the media file may include video data and picture quality improvement information.
  • the image quality improvement information may mean the above-described HDR information and / or WCG information.
  • the HDR information and / or the WCG information may be image quality improvement information described with reference to FIGS. 39 to 73.
  • the picture quality improvement information may be applied to the video data and used to improve the picture quality of the video data.
  • the generating of the media file may be performed by the apparatus for manufacturing the HDR broadcast service of FIG. 13.
  • one or more segments including the media file generated in the generating of the media file (S74100) may be generated.
  • the generated media file may be processed into one or more segments.
  • the segment may be a DASH segment.
  • the generating of the media file (S74100) and the generating of the segment (S74200) may be combined into one step.
  • the segment may be divided into an initialization segment including an ftyp box and a moov box, and a media segment including the aforementioned fragment.
  • the generating of the broadcast signal in operation S74300 may generate a broadcast signal including one or more generated segments.
  • the broadcast signal may be transmitted.
  • the broadcast signal may be transmitted through a broadcast network or broadband according to an adaptive streaming scheme. Details of the DASH-based adaptive streaming scheme and the DASH-based data model are described above with reference to FIGS. 9 and 10.
  • the image quality improvement information may include at least one first image quality improvement parameter.
  • the first quality improvement parameter may refer to quality improvement information commonly applied to the first video presentation unit constituting video data included in the media file. That is, the first quality improvement parameter may refer to quality improvement information that is commonly applied to a specific video presentation unit.
  • the first quality improvement parameter may be included in the aforementioned HDR information box.
  • the first image quality improvement parameters may be image quality improvement parameters included in the HDR information box of FIG. 39 described above.
  • the video presentation unit may mean a track, scene, clip or frame unit.
  • the first quality improvement parameter may be commonly applied to the video track.
  • the first quality improvement parameter may be commonly applied to the video scene.
  • the first quality improvement parameter may be commonly applied to a video clip.
  • the first quality improvement parameter may be commonly applied to a video frame (sample).
  • the image quality improvement information may include at least one second image quality improvement parameter.
  • the second quality improvement parameter may refer to quality improvement information applied to each of the second video presentation units constituting video data included in the media file. That is, the second quality improvement parameter may refer to quality improvement information applied to various scenes of video data included in the media file, respectively.
  • various scenes of the video data may mean a track, a scene, a clip, or a frame (sample). Therefore, the second quality improvement parameter may be applied for each track, for each scene, for each clip, or for each frame.
  • the second quality improvement parameter may be applied for each video presentation unit constituting the video data.
  • the video presentation unit may mean a track, scene, clip, or frame unit.
  • the second quality improvement parameter may be applied to each of the video tracks.
  • the second quality improvement parameter may be applied to each of the video scenes.
  • the second quality improvement parameter may be applied to each of the video clips.
  • the second quality improvement parameter may be applied to each of the video frames (samples).
  • the second quality improvement parameter may be included in the above-described HDR information box similarly to the first quality improvement parameter.
  • the second quality improvement parameter may be image quality improvement parameters included in the HDR information box of FIG. 40 described above.
  • the above-described first quality improvement parameter and the second quality improvement parameter may be used together.
  • the first image quality improvement parameter may provide image quality improvement information that is commonly applied
  • the second image quality improvement parameter may provide image quality improvement information adaptive to a scene.
  • the first video presentation unit to which the first quality improvement parameter is applied and the second video presentation unit to which the second quality improvement parameter is adaptively applied may be the same.
  • the first quality improvement parameter may be commonly applied to the video sample
  • the second quality improvement parameter may be applied to each of the video samples separately.
  • the video presentation unit may be a video sample.
  • the second quality improvement parameter may be applied to each of the video samples constituting the video data.
  • some of the video samples may be grouped into a video scene or a video clip.
  • the grouping type may be indicated in a grouping type field included in a sample-to-group box or a sample group description box of the ISO / IEC 14496-12 standard. An embodiment of grouping on a video sample basis is illustrated in FIG. 51 described above.
  • the media file may include at least one copy control information.
  • the copy control information can include copy control parameters associated with the media elements that make up the video data.
  • the media element may represent an element of video, audio and / or data.
  • the media element may be used as a term referring to a data set constituting video, audio and / or data. That is, media elements may represent content, components, segments (subsegments), tracks, samples, adaptation sets, and / or presentations of video, audio, and / or data.
  • Copy control parameters may provide copy control information associated with such media elements.
  • the copy control parameters may provide copy control information related to the above-described video presentation. That is, the copy control parameter may provide copy control information for each track, scene, clip or frame.
  • Copy control parameters included in the media file may include a copy control flag, copy control count information, stereo video flag, audio channel number information, scalability number information, and the like, and may further include other parameters. Examples of more specific copy control parameters are described in FIGS. 51-63 and the corresponding description.
  • the media file may be included in a copy control box defined separately or in a predefined box.
  • An example of the predefined box may be a uuid (Universal Unique IDentifier) box defined in ISOBMFF.
  • Embodiments in which a media file is included in a copy control box defined separately are described in the description in FIG. 51 and the corresponding description.
  • the embodiment in which the media file is included in a uuid (Universal Unique IDentifier) box defined in ISOBMFF is described in FIG. 63 and the corresponding description.
  • 75 is a diagram showing the configuration of an apparatus for transmitting a broadcast signal according to an embodiment of the present invention.
  • the file generator 75100 for generating a media file including video data and image quality improvement information, and generating one or more segments including the generated media file
  • the segment generator 75200 may include a broadcast signal generator 75300 for generating a broadcast signal including the generated one or more segments, and a broadcast signal transmitter 75400 for transmitting the broadcast signal.
  • the file generator 75100 may generate a media file including video data and image quality improvement information.
  • the media file may be an ISOBMFF based media file. Details of this media file structure are described in FIG. 29 and the corresponding description.
  • the media file may include video data and picture quality improvement information.
  • the image quality improvement information may mean the above-described HDR information and / or WCG information.
  • the HDR information and / or the WCG information may be image quality improvement information described with reference to FIGS. 39 to 73.
  • the picture quality improvement information may be applied to the video data and used to improve the picture quality of the video data.
  • the segment generator 75200 may generate one or more segments including the media file in which the file generator 75100 is generated.
  • the segment generator 75200 may process the generated media file into one or more segments.
  • the segment may be a DASH segment.
  • the segment may be divided into an initialization segment including an ftyp box and a moov box, and a media segment including the aforementioned fragment.
  • the broadcast signal generator 75300 may generate a broadcast signal including one or more generated segments.
  • the broadcast signal transmitter 75400 may transmit the generated broadcast signal.
  • the broadcast signal may be transmitted through a broadcast network or broadband according to an adaptive streaming scheme. Details of the DASH-based adaptive streaming scheme and the DASH-based data model are described above with reference to FIGS. 9 and 10.
  • the image quality improvement information may include at least one first image quality improvement parameter.
  • the first quality improvement parameter may refer to quality improvement information commonly applied to the first video presentation unit constituting video data included in the media file. That is, the first quality improvement parameter may refer to quality improvement information that is commonly applied to a specific video presentation unit.
  • the first quality improvement parameter may be included in the aforementioned HDR information box.
  • the first image quality improvement parameters may be image quality improvement parameters included in the HDR information box of FIG. 39 described above.
  • the video presentation unit may mean a track, scene, clip or frame unit.
  • the first quality improvement parameter may be commonly applied to the video track.
  • the first quality improvement parameter may be commonly applied to the video scene.
  • the first quality improvement parameter may be commonly applied to a video clip.
  • the first quality improvement parameter may be commonly applied to a video frame (sample).
  • the image quality improvement information may include at least one second image quality improvement parameter.
  • the second quality improvement parameter may refer to quality improvement information applied to each of the second video presentation units constituting video data included in the media file. That is, the second quality improvement parameter may refer to quality improvement information applied to various scenes of video data included in the media file, respectively.
  • various scenes of the video data may mean a track, a scene, a clip, or a frame (sample). Therefore, the second quality improvement parameter may be applied for each track, for each scene, for each clip, or for each frame.
  • the second quality improvement parameter may be applied for each video presentation unit constituting the video data.
  • the video presentation unit may mean a track, scene, clip, or frame unit.
  • the second quality improvement parameter may be applied to each of the video tracks.
  • the second quality improvement parameter may be applied to each of the video scenes.
  • the second quality improvement parameter may be applied to each of the video clips.
  • the second quality improvement parameter may be applied to each of the video frames (samples).
  • the second quality improvement parameter may be included in the above-described HDR information box similarly to the first quality improvement parameter.
  • the second quality improvement parameter may be image quality improvement parameters included in the HDR information box of FIG. 40 described above.
  • the above-described first quality improvement parameter and the second quality improvement parameter may be used together.
  • the first image quality improvement parameter may provide image quality improvement information that is commonly applied
  • the second image quality improvement parameter may provide image quality improvement information adaptive to a scene.
  • the first video presentation unit to which the first quality improvement parameter is applied and the second video presentation unit to which the second quality improvement parameter is adaptively applied may be the same.
  • the first quality improvement parameter may be commonly applied to the video sample
  • the second quality improvement parameter may be applied to each of the video samples separately.
  • the video presentation unit may be a video sample.
  • the second quality improvement parameter may be applied to each of the video samples constituting the video data.
  • some of the video samples may be grouped into a video scene or a video clip.
  • the grouping type may be indicated in a grouping type field included in a sample-to-group box or a sample group description box of the ISO / IEC 14496-12 standard. An embodiment of grouping on a video sample basis is illustrated in FIG. 51 described above.
  • the media file may include at least one copy control information.
  • the file generator 75100 may generate a media file including one or more copy control information. Specific examples of the copy control information are described in Figs. 51 to 63 and the corresponding descriptions.
  • the copy control information can include copy control parameters associated with the media elements that make up the video data.
  • the media element may represent an element of video, audio and / or data.
  • the media element may be used as a term referring to a data set constituting video, audio and / or data. That is, media elements may represent content, components, segments (subsegments), tracks, samples, adaptation sets, and / or presentations of video, audio, and / or data.
  • Copy control parameters may provide copy control information associated with such media elements.
  • the copy control parameters may provide copy control information related to the above-described video presentation. That is, the copy control parameter may provide copy control information for each track, scene, clip or frame.
  • Copy control parameters included in the media file may include a copy control flag, copy control count information, stereo video flag, audio channel number information, scalability number information, and the like, and may further include other parameters. Examples of more specific copy control parameters are described in FIGS. 51-63 and the corresponding description.
  • the media file may be included in a copy control box defined separately or in a predefined box.
  • An example of the predefined box may be a uuid (Universal Unique IDentifier) box defined in ISOBMFF.
  • Embodiments in which a media file is included in a copy control box defined separately are described in the description in FIG. 51 and the corresponding description.
  • the embodiment in which the media file is included in a uuid (Universal Unique IDentifier) box defined in ISOBMFF is described in FIG. 63 and its description.
  • 76 is a flowchart illustrating a method of receiving a broadcast signal according to an embodiment of the present invention.
  • a method for receiving a broadcast signal includes receiving a broadcast signal including one or more segments (S76100), wherein the one or more segments include media data including video data and quality improvement information. Includes,-obtaining a media file including video data and image quality improvement information by processing a segment included in the received broadcast signal (S76200) and presenting the video data using the obtained image quality improvement information (S76300). ) May be included.
  • a broadcast signal including one or more segments may be received.
  • the one or more segments may include a media file containing video data and picture quality improvement information.
  • the broadcast signal may be a broadcast signal generated and transmitted by the method and / or apparatus for transmitting the above-described broadcast signal.
  • the step (S76100) of receiving a broadcast signal may be performed by the receiver of FIG. 12.
  • the segment may be a DASH segment.
  • the segment may be divided into an initialization segment including an ftyp box and a moov box, and a media segment including the aforementioned fragment.
  • the broadcast signal may be received through a broadcast network or broadband according to an adaptive streaming scheme. Details of the DASH-based adaptive streaming scheme and the DASH-based data model are described above with reference to FIGS. 9 and 10.
  • a media file including video data and image quality improvement information may be obtained by processing a segment included in the broadcast signal received in operation S76100.
  • the media file may be an ISOBMFF based media file. Details of such a media file structure have been described above with reference to FIG. 29 and the like.
  • the media file may include video data and picture quality improvement information.
  • the image quality improvement information may mean the above-described HDR information and / or WCG information.
  • the HDR information and / or the WCG information may be image quality improvement information described with reference to FIGS. 39 to 73.
  • the picture quality improvement information may be applied to the video data and used to improve the picture quality of the video data.
  • the obtaining of the media file (S76200) may be performed by the apparatus for playing the broadcast service of FIG. 13 described above.
  • the video data may be presented using the obtained image quality improvement information.
  • the presenting of the video data (S76300) may be performed by the apparatus for reproducing the above-described broadcast service of FIG. 13.
  • the image quality improvement information may include at least one first image quality improvement parameter.
  • the first quality improvement parameter may refer to quality improvement information commonly applied to the first video presentation unit constituting video data included in the media file. That is, the first quality improvement parameter may refer to quality improvement information that is commonly applied to a specific video presentation unit.
  • the first quality improvement parameter may be included in the aforementioned HDR information box.
  • the first image quality improvement parameters may be image quality improvement parameters included in the HDR information box of FIG. 39 described above.
  • the video presentation unit may mean a track, scene, clip or frame unit.
  • the first quality improvement parameter may be commonly applied to the video track.
  • the first quality improvement parameter may be commonly applied to the video scene.
  • the first quality improvement parameter may be commonly applied to a video clip.
  • the first quality improvement parameter may be commonly applied to a video frame (sample).
  • the image quality improvement information may include at least one second image quality improvement parameter.
  • the second quality improvement parameter may refer to quality improvement information applied to each of the second video presentation units constituting video data included in the media file. That is, the second quality improvement parameter may refer to quality improvement information applied to various scenes of video data included in the media file, respectively.
  • various scenes of the video data may mean a track, a scene, a clip, or a frame (sample). Therefore, the second quality improvement parameter may be applied for each track, for each scene, for each clip, or for each frame.
  • the second quality improvement parameter may be applied for each video presentation unit constituting the video data.
  • the video presentation unit may mean a track, scene, clip, or frame unit.
  • the second quality improvement parameter may be applied to each of the video tracks.
  • the second quality improvement parameter may be applied to each of the video scenes.
  • the second quality improvement parameter may be applied to each of the video clips.
  • the second quality improvement parameter may be applied to each of the video frames (samples).
  • the second quality improvement parameter may be included in the above-described HDR information box similarly to the first quality improvement parameter.
  • the second quality improvement parameter may be image quality improvement parameters included in the HDR information box of FIG. 40 described above.
  • the above-described first quality improvement parameter and the second quality improvement parameter may be used together.
  • the first image quality improvement parameter may provide image quality improvement information that is commonly applied
  • the second image quality improvement parameter may provide image quality improvement information adaptive to a scene.
  • the first video presentation unit to which the first quality improvement parameter is applied and the second video presentation unit to which the second quality improvement parameter is adaptively applied may be the same.
  • the first quality improvement parameter may be commonly applied to the video sample
  • the second quality improvement parameter may be applied to each of the video samples separately.
  • the video presentation unit may be a video sample.
  • the second quality improvement parameter may be applied to each of the video samples constituting the video data.
  • some of the video samples may be grouped into a video scene or a video clip.
  • the grouping type may be indicated in a grouping type field included in a sample-to-group box or a sample group description box of the ISO / IEC 14496-12 standard. An embodiment of grouping on a video sample basis is illustrated in FIG. 51 described above.
  • the media file may include at least one copy control information.
  • the receiving side can perform copy control processing on the media file using the copy control information of one director. Specific examples of the copy control information are described in Figs. 51 to 63 and the corresponding descriptions.
  • the copy control information can include copy control parameters associated with the media elements that make up the video data.
  • the media element may represent an element of video, audio and / or data.
  • the media element may be used as a term referring to a data set constituting video, audio and / or data. That is, media elements may represent content, components, segments (subsegments), tracks, samples, adaptation sets, and / or presentations of video, audio, and / or data.
  • Copy control parameters may provide copy control information associated with such media elements.
  • the copy control parameters may provide copy control information related to the above-described video presentation. That is, the copy control parameter may provide copy control information for each track, scene, clip or frame.
  • Copy control parameters included in the media file may include a copy control flag, copy control count information, stereo video flag, audio channel number information, scalability number information, and the like, and may further include other parameters. Examples of more specific copy control parameters are described in FIGS. 51-63 and the corresponding description.
  • the media file may be included in a copy control box defined separately or in a predefined box.
  • An example of the predefined box may be a uuid (Universal Unique IDentifier) box defined in ISOBMFF.
  • Embodiments in which a media file is included in a copy control box defined separately are described in the description in FIG. 51 and the corresponding description.
  • the embodiment in which the media file is included in a uuid (Universal Unique IDentifier) box defined in ISOBMFF is described in FIG. 63 and the corresponding description.
  • 77 is a diagram showing the configuration of an apparatus for receiving a broadcast signal according to an embodiment of the present invention.
  • An apparatus for receiving a broadcast signal includes a broadcast signal receiver 77100 for receiving a broadcast signal including one or more segments, wherein the one or more segments include video data and image quality improvement information. Including media data, a segment processor 77200 for processing a segment included in the received broadcast signal to obtain a media file including the video data and the image quality improvement information and the video data using the obtained image quality improvement information. It may include a presentation unit (77300) for presenting.
  • the broadcast signal receiver 77100 may receive a broadcast signal including one or more segments.
  • the one or more segments may include a media file containing video data and picture quality improvement information.
  • the broadcast signal in the broadcast signal receiving unit 77100 may be a broadcast signal generated and transmitted by the method and / or apparatus for transmitting the above-described broadcast signal.
  • the broadcast signal receiver 77100 may correspond to some components of the receiver of FIG. 12 described above.
  • the segment may be a DASH segment.
  • the segment may be divided into an initialization segment including an ftyp box and a moov box, and a media segment including the aforementioned fragment.
  • the broadcast signal may be received through a broadcast network or broadband according to an adaptive streaming scheme. Details of the DASH-based adaptive streaming scheme and the DASH-based data model are described above with reference to FIGS. 9 and 10.
  • the segment processor 77200 may obtain a media file including video data and image quality improvement information by processing a segment included in the broadcast signal received by the broadcast signal receiver 77100.
  • the media file may be an ISOBMFF based media file. Details of such a media file structure have been described above with reference to FIG. 29 and the like.
  • the media file may include video data and picture quality improvement information.
  • the image quality improvement information may mean the above-described HDR information and / or WCG information.
  • the HDR information and / or the WCG information may be image quality improvement information described with reference to FIGS. 39 to 73.
  • the picture quality improvement information may be applied to the video data and used to improve the picture quality of the video data.
  • the segment processor 77200 may correspond to some components of the apparatus for playing the broadcast service of FIG. 13 described above.
  • the presentation unit 77300 may present video data by using the obtained image quality improvement information. According to an embodiment, the presentation unit 77300 may correspond to some components of the apparatus for playing the broadcast service of FIG. 13 described above.
  • the image quality improvement information may include at least one first image quality improvement parameter.
  • the first quality improvement parameter may refer to quality improvement information commonly applied to the first video presentation unit constituting video data included in the media file. That is, the first quality improvement parameter may refer to quality improvement information that is commonly applied to a specific video presentation unit.
  • the first quality improvement parameter may be included in the aforementioned HDR information box.
  • the first image quality improvement parameters may be image quality improvement parameters included in the HDR information box of FIG. 39 described above.
  • the video presentation unit may mean a track, scene, clip or frame unit.
  • the first quality improvement parameter may be commonly applied to the video track.
  • the first quality improvement parameter may be commonly applied to the video scene.
  • the first quality improvement parameter may be commonly applied to a video clip.
  • the first quality improvement parameter may be commonly applied to a video frame (sample).
  • the image quality improvement information may include at least one second image quality improvement parameter.
  • the second quality improvement parameter may refer to quality improvement information applied to each of the second video presentation units constituting video data included in the media file. That is, the second quality improvement parameter may refer to quality improvement information applied to various scenes of video data included in the media file, respectively.
  • various scenes of the video data may mean a track, a scene, a clip, or a frame (sample). Therefore, the second quality improvement parameter may be applied for each track, for each scene, for each clip, or for each frame.
  • the second quality improvement parameter may be applied for each video presentation unit constituting the video data.
  • the video presentation unit may mean a track, scene, clip, or frame unit.
  • the second quality improvement parameter may be applied to each of the video tracks.
  • the second quality improvement parameter may be applied to each of the video scenes.
  • the second quality improvement parameter may be applied to each of the video clips.
  • the second quality improvement parameter may be applied to each of the video frames (samples).
  • the second quality improvement parameter may be included in the above-described HDR information box similarly to the first quality improvement parameter.
  • the second quality improvement parameter may be image quality improvement parameters included in the HDR information box of FIG. 40 described above.
  • the above-described first quality improvement parameter and the second quality improvement parameter may be used together.
  • the first image quality improvement parameter may provide image quality improvement information that is commonly applied
  • the second image quality improvement parameter may provide image quality improvement information adaptive to a scene.
  • the first video presentation unit to which the first quality improvement parameter is applied and the second video presentation unit to which the second quality improvement parameter is adaptively applied may be the same.
  • the first quality improvement parameter may be commonly applied to the video sample
  • the second quality improvement parameter may be applied to each of the video samples separately.
  • the video presentation unit may be a video sample.
  • the second quality improvement parameter may be applied to each of the video samples constituting the video data.
  • some of the video samples may be grouped into a video scene or a video clip.
  • the grouping type may be indicated in a grouping type field included in a sample-to-group box or a sample group description box of the ISO / IEC 14496-12 standard. An embodiment of grouping on a video sample basis is illustrated in FIG. 51 described above.
  • the media file may include at least one copy control information.
  • the broadcast signal receiving apparatus may further include a copy control unit which controls copying to a media file using copy control information. Specific examples of the copy control information are described in Figs. 51 to 63 and the corresponding descriptions.
  • the copy control information can include copy control parameters associated with the media elements that make up the video data.
  • the media element may represent an element of video, audio and / or data.
  • the media element may be used as a term referring to a data set constituting video, audio and / or data. That is, media elements may represent content, components, segments (subsegments), tracks, samples, adaptation sets, and / or presentations of video, audio, and / or data.
  • Copy control parameters may provide copy control information associated with such media elements.
  • the copy control parameters may provide copy control information related to the above-described video presentation. That is, the copy control parameter may provide copy control information for each track, scene, clip or frame.
  • Copy control parameters included in the media file may include a copy control flag, copy control count information, stereo video flag, audio channel number information, scalability number information, and the like, and may further include other parameters. Examples of more specific copy control parameters are described in FIGS. 51-63 and the corresponding description.
  • the media file may be included in a copy control box defined separately or in a predefined box.
  • An example of the predefined box may be a uuid (Universal Unique IDentifier) box defined in ISOBMFF.
  • Embodiments in which a media file is included in a copy control box defined separately are described in the description in FIG. 51 and the corresponding description.
  • the embodiment in which the media file is included in a uuid (Universal Unique IDentifier) box defined in ISOBMFF is described in FIG. 63 and its description.
  • the module or unit may be processors that execute successive procedures stored in a memory (or storage unit). Each of the steps described in the above embodiments may be performed by hardware / processors. Each module / block / unit described in the above embodiments can operate as a hardware / processor.
  • the methods proposed by the present invention can be executed as code. This code can be written to a processor readable storage medium and thus read by a processor provided by an apparatus.
  • Apparatus and method according to the present invention is not limited to the configuration and method of the embodiments described as described above, the above-described embodiments may be selectively all or part of each embodiment so that various modifications can be made It may be configured in combination.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor.
  • Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet.
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
  • the present invention is used in the field of providing a series of broadcast signals.

Abstract

The present invention proposes a method for transmitting broadcast signals. The method for transmitting broadcast signals, according to the present invention, proposes a system which can support a next-generation broadcast service in an environment which supports next-generation hybrid broadcast using terrestrial broadcast networks and the Internet. In addition, the present invention proposes an efficient signaling method, which can cover both terrestrial broadcast networks and the Internet, in an environment which supports next-generation hybrid broadcast.

Description

방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method
본 발명은 방송 신호 송신 장치, 방송 신호 수신 장치, 및 방송 신호 송수신 방법에 관한 것이다.The present invention relates to a broadcast signal transmission apparatus, a broadcast signal reception apparatus, and a broadcast signal transmission and reception method.
아날로그 방송 신호 송신이 종료됨에 따라, 디지털 방송 신호를 송수신하기 위한 다양한 기술이 개발되고 있다. 디지털 방송 신호는 아날로그 방송 신호에 비해 더 많은 양의 비디오/오디오 데이터를 포함할 수 있고, 비디오/오디오 데이터뿐만 아니라 다양한 종류의 부가 데이터를 더 포함할 수 있다.As analog broadcast signal transmission is terminated, various techniques for transmitting and receiving digital broadcast signals have been developed. The digital broadcast signal may include a larger amount of video / audio data than the analog broadcast signal, and may further include various types of additional data as well as the video / audio data.
UHD 방송은 기존의 HD 방송 대비 향상된 화질 및 몰입감을 시청자에게 다양한 측면을 통해 제공하는 것을 목표로 한다. 이를 위한 방법의 하나로써 UHD에서는 콘텐츠에서 표현하는 밝기 및 색상 표현의 범위를 실제 인간의 시각 체계에서 인지 가능한 밝기 및 색상 인지 범위로 확장하는 방법, 즉, HDR (high dynamic range) 및 WCG (wide color gamut)이 도입될 것으로 보인다. 즉, 콘텐츠에서 향상 된 고대비 및 색감을 제공함으로써 UHD 컨텐츠를 감상하는 사용자는 더 큰 몰입감 및 현장감을 경험하게 된다. 본 발명에서는 컨텐츠를 디스플레이에서 재생할 때 효과적으로 제작자의 의도 등에 따라 영상 밝기 및 색감을 재생 할 수 있는 방법을 제시함으로써 보다 향상된 화질의 영상을 시청할 수 있도록 한다.UHD broadcasting aims to provide viewers with improved image quality and immersion through various aspects compared to existing HD broadcasting. As one of the methods for this, UHD extends the range of brightness and color expression expressed in content to the range of perceived brightness and color in the real human visual system, that is, high dynamic range (HDR) and wide color (WCG). gamut) is likely to be introduced. In other words, by providing improved high contrast and color in the content, users who watch UHD content will experience greater immersion and presence. In the present invention, when the content is reproduced on the display, by presenting a method for effectively reproducing the image brightness and color in accordance with the intention of the producer, it is possible to watch the image of the improved image quality.
즉, 디지털 방송 시스템은 HD(High Definition) 이미지, 멀티채널(multi channel, 다채널) 오디오, 및 다양한 부가 서비스를 제공할 수 있다. 그러나, 디지털 방송을 위해서는, 많은 양의 데이터 전송에 대한 데이터 전송 효율, 송수신 네트워크의 견고성(robustness), 및 모바일 수신 장치를 고려한 네트워크 유연성(flexibility)이 향상되어야 한다.That is, the digital broadcasting system may provide high definition (HD) images, multichannel audio, and various additional services. However, for digital broadcasting, data transmission efficiency for a large amount of data transmission, robustness of a transmission / reception network, and network flexibility in consideration of a mobile receiving device should be improved.
본 발명의 목적에 따라, 여기에 포함되고 대략적으로 기재된 바와 같이, 본 발명은 지상파 방송망과 인터넷 망을 사용하는 차세대 하이브리드 방송을 지원하는 환경에서 차세대 방송 서비스를 효과적으로 지원할 수 있는 시스템 및 관련된 시그널링 방안을 제안한다.In accordance with the object of the present invention and as included and outlined herein, the present invention provides a system and an associated signaling scheme that can effectively support next-generation broadcast services in an environment that supports next-generation hybrid broadcasting using terrestrial broadcasting networks and Internet networks. Suggest.
본 발명은 장면 특성에 적응적인 HDR 콘텐츠를 제작 및 시청하기 위한 방법을 제공할 수 있다.The present invention can provide a method for producing and viewing HDR content that is adaptive to scene characteristics.
본 발명은 HDR 콘텐츠에 대한 미디어 요소 단위로 복사 제어할 수 있다.The present invention can control copying on a media element basis for HDR content.
본 발명에 대해 더욱 이해하기 위해 포함되며 본 출원에 포함되고 그 일부를 구성하는 첨부된 도면은 본 발명의 원리를 설명하는 상세한 설명과 함께 본 발명의 실시예를 나타낸다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of this application for further understanding of the invention, illustrate embodiments of the invention, together with a detailed description that illustrates the principles of the invention.
도 1 은 본 발명의 일 실시예에 따른 프로토콜 스택을 도시한 도면이다. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.
도 2 는 본 발명의 일 실시예에 따른 서비스 디스커버리 과정을 도시한 도면이다. 2 is a diagram illustrating a service discovery process according to an embodiment of the present invention.
도 3 은 본 발명의 일 실시예에 따른 LLS (Low Level Signaling) 테이블 및 SLT (Service List Table)를 도시한 도면이다. 3 illustrates a low level signaling (LLS) table and a service list table (SLT) according to an embodiment of the present invention.
도 4 는 본 발명의 일 실시예에 따른, ROUTE 로 전달되는 USBD 및 S-TSID 를 도시한 도면이다. 4 illustrates a USBD and an S-TSID delivered to ROUTE according to an embodiment of the present invention.
도 5 는 본 발명의 일 실시예에 따른, MMT 로 전달되는 USBD 를 도시한 도면이다. 5 is a diagram illustrating a USBD delivered to MMT according to an embodiment of the present invention.
도 6 은 본 발명의 일 실시예에 따른 링크 레이어(Link Layer) 동작을 도시한 도면이다. 6 illustrates a link layer operation according to an embodiment of the present invention.
도 7 은 본 발명의 일 실시예에 따른 LMT (Link Mapping Table) 를 도시한 도면이다. FIG. 7 illustrates a link mapping table (LMT) according to an embodiment of the present invention. FIG.
도 8 은 본 발명의 일 실시예에 따른 하이브리드 방송 수신 장치를 나타낸 도면이다. 8 is a diagram illustrating a hybrid broadcast reception device according to an embodiment of the present invention.
도 9 는 본 발명의 일 실시예에 따른 DASH 기반 적응형(Adaptive) 스트리밍 모델의 전반적인 동작을 도시한 도면이다. 9 is a diagram illustrating the overall operation of the DASH-based adaptive streaming model according to an embodiment of the present invention.
도 10 은 본 발명의 일 실시예에 따른 DASH (Dynamic Adaptive Streaming over HTTP) 데이터 모델 (data model)을 나타낸 도면이다.FIG. 10 is a diagram illustrating a dynamic adaptive streaming over HTTP (DASH) data model according to an embodiment of the present invention. FIG.
도 11 은 본 발명의 일 실시예에 따른 DASH 데이터 모델를 보다 구체적으로 설명한 도면이다.FIG. 11 illustrates a DASH data model in detail according to an embodiment of the present invention. FIG.
도 12 는 본 발명의 일 실시예에 따른 수신기의 블락 다이어그램을 도시한 도면이다.12 is a block diagram of a receiver according to an embodiment of the present invention.
도 13 은 본 발명의 일 실시예에 따른 메타 데이터 기반 HDR 방송 서비스를 제작, 재생하는 장치를 나타낸 도면이다. FIG. 13 is a diagram illustrating an apparatus for producing and playing a metadata-based HDR broadcast service according to an embodiment of the present invention.
도 14 는 본 발명의 일 실시예에 따른 HDR 비디오에 대한 수신기 동작 방법을 나타낸다. 14 illustrates a method of operating a receiver for HDR video according to an embodiment of the present invention.
도 15 는 본 발명의 일 실시예에 따른 후처리부를 나타낸다.15 illustrates a post-processing unit according to an embodiment of the present invention.
도 16 내지 19 는 본 발명의 일 실시예에 따른 SEI message 및 HDR information descriptor의 신택스를 나타낸다.16 through 19 illustrate syntax of an SEI message and an HDR information descriptor according to an embodiment of the present invention.
도 20 내지 21 은 RAP에 따라 metadata 정보를 시그널링 하는 실시예를 나타낸다. 20 to 21 illustrate an embodiment of signaling metadata information according to a RAP.
도 22 는 본 발명의 일 실시예에 따른 dynamic_range_mapping_info를 나타낸 도면이다. 22 illustrates dynamic_range_mapping_info according to an embodiment of the present invention.
도 23 은 본 발명의 일 실시예에 따른 HEVC 내에 정의된 SEI 메시지를 참조하는 경우를 나타낸다. 23 shows a case of referring to an SEI message defined in HEVC according to an embodiment of the present invention.
도 24 및 25 는 본 발명의 일 실시예에 따른 HDR_info descriptor를 PMT를 통해 시그널링하는 실시예를 나타낸다. 24 and 25 illustrate an embodiment of signaling HDR_info descriptor through PMT according to an embodiment of the present invention.
도 26 및 27 은 본 발명의 일 실시예에 따른 HDR_info descriptor를 EIT를 통해 시그널링하는 실시예를 나타낸다. 26 and 27 illustrate an embodiment of signaling HDR_info descriptor through EIT according to an embodiment of the present invention.
도 28 은 본 발명의 다른 실시예에 따른 HDR_info_descriptor()를 나타낸다.28 illustrates HDR_info_descriptor () according to another embodiment of the present invention.
도 29 는 본 발명의 일 실시예에 따른 미디어 파일의 구조를 도시한 도면이다. 29 is a diagram showing the structure of a media file according to an embodiment of the present invention.
도 30 은 본 발명의 일 실시예에 따른 HDR 정보를 제공하기 위한 HDR 컨피규레이션 박스를 나타낸 도면이다. 30 is a diagram illustrating an HDR configuration box for providing HDR information according to an embodiment of the present invention.
도 31 은 본 발명의 일 실시예에 따른, HDR 정보를 tkhd 박스 내에 정의하는 방안을 도시한 도면이다. FIG. 31 illustrates a scheme for defining HDR information in a tkhd box according to an embodiment of the present invention.
도 32 는 본 발명의 일 실시예에 따른, HDR 정보를 vmhd 박스 내에 정의하는 방안을 도시한 도면이다. 32 is a diagram illustrating a method of defining HDR information in a vmhd box according to an embodiment of the present invention.
도 33 은 본 발명의 일 실시예에 따른, HDR 정보를 trex 박스 내에 정의하는 방안을 도시한 도면이다. 33 is a diagram illustrating a method of defining HDR information in a trex box according to an embodiment of the present invention.
도 34 는 본 발명의 일 실시예에 따른, HDR 정보를 tfhd 박스 내에 정의하는 방안을 도시한 도면이다. 34 is a diagram illustrating a method of defining HDR information in a tfhd box according to an embodiment of the present invention.
도 35 는 본 발명의 일 실시예에 따른, HDR 정보를 trun 박스 내에 정의하는 방안을 도시한 도면이다. 35 is a diagram illustrating a method of defining HDR information in a trun box according to an embodiment of the present invention.
도 36 은 본 발명의 일 실시예에 따른, HDR 정보를 각종 플래그, 샘플 그룹 엔트리 또는 샘플 엔트리 내에 정의하는 방안을 도시한 도면이다. FIG. 36 illustrates a scheme for defining HDR information in various flags, sample group entries, or sample entries according to an embodiment of the present invention.
도 37 은 본 발명의 일 실시예에 따른, HDR 정보를 HEVC 샘플 엔트리, HEVC 컨피규레이션 박스 또는 HEVC 디코더 컨피규레이션 레코드 내에 정의하는 방안을 도시한 도면이다. FIG. 37 illustrates a scheme for defining HDR information in a HEVC sample entry, an HEVC configuration box, or an HEVC decoder configuration record according to an embodiment of the present invention. FIG.
도 38 은 본 발명의 일 실시예에 따른, HDR 정보 SEI 박스를 정의하여 HDR 정보를 저장/전달하는 방안을 도시한 도면이다.38 is a diagram illustrating a method of storing / delivering HDR information by defining an HDR information SEI box according to an embodiment of the present invention.
도 39 는 본 발명의 일 실시예에 따른 화질 개선 정보를 제공하기 위한 HDR 인포메이션 박스를 나타낸 도면이다.39 is a diagram illustrating an HDR information box for providing image quality improvement information according to an embodiment of the present invention.
도 40 은 본 발명의 일 실시예에 따른 화질 개선 정보를 제공하기 위한 HDR 인포메이션 박스를 나타낸 도면이다. 40 is a diagram illustrating an HDR information box for providing image quality improvement information according to an embodiment of the present invention.
도 41은 HDR 인포메이션 박스에 포함된 필드의 구체적인 타입과 관련된 실시예를 나타낸 도면이다.FIG. 41 is a diagram illustrating an embodiment related to a specific type of field included in an HDR information box.
도 42 는 본 발명의 일 실시예에 따른 화질 개선 정보를 stsd 박스 내에 정의하는 방안을 도시한 도면이다.42 is a diagram illustrating a method of defining image quality improvement information in a stsd box according to an embodiment of the present invention.
도 43 은 본 발명의 일 실시예에 따른 화질 개선 정보를 tkhd 박스 내에 정의하는 방안을 도시한 도면이다. 43 is a diagram illustrating a method of defining image quality improvement information in a tkhd box according to an embodiment of the present invention.
도 44 는 본 발명의 일 실시예에 따른 화질 개선 정보를 vmhd 박스 내에 정의하는 방안을 도시한 도면이다.44 is a diagram illustrating a method of defining image quality improvement information in a vmhd box according to an embodiment of the present invention.
도 45 는 본 발명의 일 실시예에 따른 화질 개선 정보를 trex 박스 내에 정의하는 방안을 도시한 도면이다.45 is a diagram illustrating a method of defining image quality improvement information in a trex box according to an embodiment of the present invention.
도 46 은 본 발명의 일 실시예에 따른 화질 개선 정보를 tfhd 박스 내에 정의하는 방안을 도시한 도면이다.46 is a diagram illustrating a method of defining image quality improvement information in a tfhd box according to an embodiment of the present invention.
도 47은 본 발명의 일 실시예에 따른 화질 개선 정보를 trun 박스 내에 정의하는 방안을 도시한 도면이다.FIG. 47 is a diagram illustrating a method of defining image quality improvement information in a trun box according to an embodiment of the present invention. FIG.
도 48 은 본 발명의 일 실시예에 따른 화질 개선 정보를 샘플 그룹 엔트리 또는 샘플 엔트리 내에 정의하는 방안을 도시한 도면이다.48 is a diagram illustrating a method of defining image quality improvement information in a sample group entry or a sample entry according to an embodiment of the present invention.
도 49 는 본 발명의 일 실시예에 따른 화질 개선 정보를 HEVC 샘플 엔트리, HEVC 컨피규레이션 박스 또는 HEVC 디코더 컨피규레이션 레코드 내에 정의하는 방안을 도시한 도면이다. FIG. 49 is a diagram illustrating a method of defining picture quality improvement information in an HEVC sample entry, an HEVC configuration box, or an HEVC decoder configuration record according to an embodiment of the present invention.
도 50 은 본 발명의 일 실시예에 따른 화질 개선 정보를 sbgp 박스 또는 sgpd 박스 내에 정의하는 방안을 도시한 도면이다.50 is a diagram illustrating a method of defining image quality improvement information in an sbgp box or an sgpd box according to an embodiment of the present invention.
도 51 은 본 발명의 일 실시예에 따른 복사 제어 정보를 제공하기 위한 복사 제어 박스를 나타낸 도면이다. 51 is a diagram illustrating a copy control box for providing copy control information according to an embodiment of the present invention.
도 52 는 본 발명의 일 실시예에 따른 복사 제어 정보를 tkhd 박스 내에 정의하는 방안을 도시한 도면이다.52 is a diagram illustrating a method of defining copy control information in a tkhd box according to an embodiment of the present invention.
도 53 은 본 발명의 일 실시예에 따른 복사 제어 정보를 vmhd 박스, smhd 박스, hmhd 박스 또는 nmhd 박스 내에 정의하는 방안을 도시한 도면이다.FIG. 53 illustrates a scheme for defining copy control information in a vmhd box, smhd box, hmhd box, or nmhd box according to an embodiment of the present invention.
도 54 는 본 발명의 일 실시예에 따른 복사 제어 정보를 trek 박스 내에 정의하는 방안을 도시한 도면이다.54 is a diagram illustrating a method of defining copy control information in a trek box according to an embodiment of the present invention.
도 55 는 본 발명의 일 실시예에 따른 복사 제어 정보를 tfhd 박스 내에 정의하는 방안을 도시한 도면이다.55 is a diagram illustrating a method of defining copy control information in a tfhd box according to an embodiment of the present invention.
도 56 은 본 발명의 일 실시예에 따른 복사 제어 정보를 trun 박스 내에 정의하는 방안을 도시한 도면이다.56 is a diagram illustrating a method of defining copy control information in a trun box according to an embodiment of the present invention.
도 57 은 본 발명의 일 실시예에 따른 복사 제어 정보를 비쥬얼 샘플 그룹 엔트리 내에 정의하는 방안을 도시한 도면이다.57 illustrates a method of defining copy control information in a visual sample group entry according to an embodiment of the present invention.
도 58 은 본 발명의 일 실시예에 따른 복사 제어 정보를 비쥬얼 샘플 엔트리 내에 정의하는 방안을 도시한 도면이다.58 is a diagram illustrating a method of defining copy control information in a visual sample entry according to an embodiment of the present invention.
도 59 는 본 발명의 일 실시예에 따른 복사 제어 정보를 pssh 박스 내에 정의하는 방안을 도시한 도면이다.FIG. 59 is a diagram illustrating a method of defining copy control information in a pssh box according to an embodiment of the present invention. FIG.
도 60 은 본 발명의 일 실시예에 따른 복사 제어 정보를 tenc 박스 내에 정의하는 방안을 도시한 도면이다.60 is a diagram illustrating a method of defining copy control information in a tenc box according to an embodiment of the present invention.
도 61 은 본 발명의 일 실시예에 따른 복사 제어 정보를 senc 박스 내에 정의하는 방안을 도시한 도면이다.FIG. 61 is a diagram illustrating a method of defining copy control information in a senc box according to an embodiment of the present invention. FIG.
도 62 는 본 발명의 일 실시예에 따른 복사 제어 정보를 CencSampleEncryptionInformationVideoGroupEntry 또는 CencSampleEncryptionInformationGroupEntry에 정의하는 방안을 도시한 도면이다.62 is a diagram illustrating a method of defining copy control information in CencSampleEncryptionInformationVideoGroupEntry or CencSampleEncryptionInformationGroupEntry according to an embodiment of the present invention.
도 63 은 본 발명의 일 실시예에 따른 복사 제어 박스를 나타낸 도면이다. 63 is a view showing a copy control box according to an embodiment of the present invention.
도 64 는 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 HDR configuration description에 대한 설명을 나타낸 도면이다. 64 is a diagram illustrating a description of an HDR configuration description including image quality improvement information according to an embodiment of the present invention.
도 65 및 66 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 HDRConfiguration 엘레먼트의 @schemeIdUri 및 @value에 대한 설명을 나타낸다. 65 and 66 illustrate a description of @schemeIdUri and @value of an HDRConfiguration element including picture quality improvement information according to an embodiment of the present invention.
도 67 은 HDRConfiguration 엘레먼트에 포함된 필드의 구체적인 타입과 관련된 실시예를 나타낸 도면이다.67 is a view showing an embodiment related to a specific type of field included in an HDRConfiguration element.
도 68 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 커먼 어트리뷰트 및 엘레먼트의 구성의 일 실시예를 나타낸 도면이다.68 is a diagram illustrating an embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
도 69 는 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 커먼 어트리뷰트 및 엘레먼트의 구성의 다른 실시예를 나타낸 도면이다.69 is a view showing another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
도 70 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 커먼 어트리뷰트 및 엘레먼트의 구성의 또 다른 실시예를 나타낸 도면이다.70 is a view illustrating another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
도 71 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 커먼 어트리뷰트 및 엘레먼트의 구성의 또 다른 실시예를 나타낸 도면이다.71 is a view showing another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
도 72 는 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 컨텐트 컴포넌트의 구성을 나타낸 도면이다.72 is a diagram illustrating a configuration of a content component including image quality improvement information according to an embodiment of the present invention.
도 73 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 세그먼트 베이스의 구성을 나타낸 도면이다.73 is a diagram illustrating a configuration of a segment base including image quality improvement information according to an embodiment of the present invention.
도 74 는 본 발명의 일 실시예에 따른 방송 신호를 송신하는 방법을 나타낸 순서도이다.74 is a flowchart illustrating a method of transmitting a broadcast signal according to an embodiment of the present invention.
도 75 는 본 발명의 일 실시예에 따른 방송 신호를 송신하는 장치의 구성을 나타낸 도면이다.75 is a diagram illustrating a configuration of an apparatus for transmitting a broadcast signal according to an embodiment of the present invention.
도 76 은 본 발명의 일 실시예에 따른 방송 신호를 수신하는 방법을 나타낸 순서도이다.76 is a flowchart illustrating a method of receiving a broadcast signal according to an embodiment of the present invention.
도 77 은 본 발명의 일 실시예에 따른 방송 신호를 수신하는 장치의 구성을 나타낸 도면이다.77 is a diagram showing the configuration of an apparatus for receiving a broadcast signal according to an embodiment of the present invention.
본 발명의 바람직한 실시예에 대해 구체적으로 설명하며, 그 예는 첨부된 도면에 나타낸다. 첨부된 도면을 참조한 아래의 상세한 설명은 본 발명의 실시예에 따라 구현될 수 있는 실시예만을 나타내기보다는 본 발명의 바람직한 실시예를 설명하기 위한 것이다. 다음의 상세한 설명은 본 발명에 대한 철저한 이해를 제공하기 위해 세부 사항을 포함한다. 그러나 본 발명이 이러한 세부 사항 없이 실행될 수 있다는 것은 당업자에게 자명하다.Preferred embodiments of the present invention will be described in detail, examples of which are illustrated in the accompanying drawings. DETAILED DESCRIPTION The following detailed description with reference to the accompanying drawings is intended to explain preferred embodiments of the invention rather than to show only embodiments that may be implemented in accordance with embodiments of the invention. The following detailed description includes details to provide a thorough understanding of the present invention. However, it will be apparent to one skilled in the art that the present invention may be practiced without these details.
본 발명에서 사용되는 대부분의 용어는 해당 분야에서 널리 사용되는 일반적인 것들에서 선택되지만, 일부 용어는 출원인에 의해 임의로 선택되며 그 의미는 필요에 따라 다음 설명에서 자세히 서술한다. 따라서 본 발명은 용어의 단순한 명칭이나 의미가 아닌 용어의 의도된 의미에 근거하여 이해되어야 한다.Most of the terms used in the present invention are selected from general ones widely used in the art, but some terms are arbitrarily selected by the applicant, and their meanings are described in detail in the following description as necessary. Therefore, the present invention should be understood based on the intended meaning of the term and not the simple name or meaning of the term.
본 발명은 차세대 방송 서비스에 대한 방송 신호 송신 및 수신 장치 및 방법을 제공한다. 본 발명의 일 실시예에 따른 차세대 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 포함한다. 본 발명은 일 실시예에 따라 비-MIMO (non-Multiple Input Multiple Output) 또는 MIMO 방식을 통해 차세대 방송 서비스에 대한 방송 신호를 처리할 수 있다. 본 발명의 일 실시예에 따른 비-MIMO 방식은 MISO (Multiple Input Single Output) 방식, SISO (Single Input Single Output) 방식 등을 포함할 수 있다. 본 발명은 특정 용도에 요구되는 성능을 달성하면서 수신기 복잡도를 최소화하기 위해 최적화된 피지컬 프로파일 (또는 시스템)을 제안한다.The present invention provides an apparatus and method for transmitting and receiving broadcast signals for next generation broadcast services. The next generation broadcast service according to an embodiment of the present invention includes a terrestrial broadcast service, a mobile broadcast service, a UHDTV service, and the like. According to an embodiment of the present invention, a broadcast signal for a next generation broadcast service may be processed through a non-multiple input multiple output (MIMO) or MIMO scheme. The non-MIMO scheme according to an embodiment of the present invention may include a multiple input single output (MISO) scheme, a single input single output (SISO) scheme, and the like. The present invention proposes a physical profile (or system) that is optimized to minimize receiver complexity while achieving the performance required for a particular application.
도 1 은 본 발명의 일 실시예에 따른 프로토콜 스택을 도시한 도면이다. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.
서비스는 복수개의 레이어를 거쳐 수신기로 전달될 수 있다. 먼저 송신측에서는 서비스 데이터를 생성할 수 있다. 송신측의 딜리버리 레이어에서는 서비스 데이터에 전송을 위한 처리를 수행하고, 피지컬 레이어에서는 이를 방송 신호로 인코딩하여 방송망 또는 브로드밴드를 통해 전송할 수 있다. The service may be delivered to the receiver through a plurality of layers. First, the transmitting side can generate service data. The delivery layer on the transmitting side performs processing for transmission to the service data, and the physical layer encodes it as a broadcast signal and transmits it through a broadcasting network or broadband.
여기서 서비스 데이터들은 ISO BMFF (base media file format) 에 따른 포맷으로 생성될 수 있다. ISO BMFF 미디어 파일은 방송망/브로드밴드 딜리버리, 미디어 인캡슐레이션(media encapsulation) 및/또는 동기화 포맷(synchronization format) 으로 사용될 수 있다. 여기서 서비스 데이터는 서비스와 관련된 모든 데이터로서, 리니어 서비스를 이루는 서비스 컴포넌트들, 그에 대한 시그널링 정보, NRT (Non Real Time) 데이터, 기타 파일들 등을 포함하는 개념일 수 있다. The service data may be generated in a format according to ISO BMFF (base media file format). The ISO BMFF media file may be used in broadcast network / broadband delivery, media encapsulation and / or synchronization format. In this case, the service data is all data related to the service, and may include a concept including service components constituting the linear service, signaling information thereof, non real time (NRT) data, and other files.
딜리버리 레이어에 대해 설명한다. 딜리버리 레이어는 서비스 데이터에 대한 전송 기능을 제공할 수 있다. 서비스 데이터는 방송망및/또는 브로드밴드를 통해 전달될 수 있다. The delivery layer will be described. The delivery layer may provide a transmission function for service data. The service data may be delivered through a broadcast network and / or broadband.
방송망을 통한 서비스 딜리버리(broadcast service delivery)에 있어 두가지 방법이 있을 수 있다.There may be two methods for broadcast service delivery through a broadcasting network.
첫번째 방법은 MMT (MPEG Media Transport) 에 근거하여, 서비스 데이터들을 MPU (Media Processing Units) 들로 처리하고, 이를 MMTP (MMT protocol) 를 이용하여 전송하는 것일 수 있다. 이 경우, MMTP 를 통해 전달되는 서비스 데이터에는, 리니어 서비스를 위한 서비스 컴포넌트들 및/또는 그에 대한 서비스 시그널링 정보 등이 있을 수 있다. The first method may be to process service data into Media Processing Units (MPUs) based on MPEG Media Transport (MMT) and transmit the data using MMM protocol (MMTP). In this case, the service data delivered through the MMTP may include service components for linear service and / or service signaling information thereof.
두번째 방법은 MPEG DASH 에 근거하여, 서비스 데이터들을 DASH 세그먼트들로 처리하고, 이를 ROUTE (Real time Object delivery over Unidirectional Transport) 를 이용하여 전송하는 것일 수 있다. 이 경우, ROUTE 프로토콜을 통해 전달되는 서비스 데이터에는, 리니어 서비스를 위한 서비스 컴포넌트들, 그에 대한 서비스 시그널링 정보 및/또는 NRT 데이터 등이 있을 수 있다. 즉, NRT 데이터 및 파일 등의 논 타임드(non timed) 데이터는 ROUTE 를 통해서 전달될 수 있다. The second method may be to process service data into DASH segments based on MPEG DASH and transmit it using Real Time Object Delivery over Unidirectional Transport (ROUTE). In this case, the service data delivered through the ROUTE protocol may include service components for the linear service, service signaling information and / or NRT data thereof. That is, non-timed data such as NRT data and files may be delivered through ROUTE.
MMTP 또는 ROUTE 프로토콜에 따라 처리된 데이터는 UDP / IP 레이어를 거쳐 IP 패킷들로 처리될 수 있다. 방송망을 통한 서비스 데이터 전달에 있어서, SLT (Service List Table) 역시 UDP / IP 레이어를 거쳐 방송망을 통해 전달될 수 있다. SLT 는 LLS (Low Level Signaling) 테이블에 포함되어 전달될 수 있는데, SLT, LLS 테이블에 대해서는 후술한다. Data processed according to the MMTP or ROUTE protocol may be processed into IP packets via the UDP / IP layer. In service data transmission through a broadcasting network, a service list table (SLT) may also be transmitted through a broadcasting network through a UDP / IP layer. The SLT may be included in the LLS (Low Level Signaling) table and transmitted. The SLT and the LLS table will be described later.
IP 패킷들은 링크 레이어에서 링크 레이어 패킷들로 처리될 수 있다. 링크 레이어는 상위 레이어에서 전달되는 다양한 포맷의 데이터를, 링크 레이어 패킷으로 인캡슐레이션한 후, 피지컬 레이어에 전달할 수 있다. 링크 레이어에 대해서는 후술한다. IP packets may be treated as link layer packets at the link layer. The link layer may encapsulate data of various formats delivered from an upper layer into a link layer packet and then deliver the data to the physical layer. The link layer will be described later.
하이브리드 서비스 딜리버리(hybrid service delivery) 에 있어서는, 적어도 하나 이상의 서비스 엘레멘트가 브로드밴드 패쓰(path) 를 통해 전달될 수 있다. 하이브리드 서비스 딜리버리의 경우, 브로드밴드로 전달되는 데이터에는, DASH 포맷의 서비스 컴포넌트들, 그에 대한 서비스 시그널링 정보 및/또는 NRT 데이터 등이 있을 수 있다. 이 데이터들은 HTTP/TCP/IP 를 거쳐 처리되고, 브로드밴드 전송을 위한 링크 레이어를 거쳐, 브로드밴드 전송을 위한 피지컬 레이어로 전달될 수 있다. In hybrid service delivery, at least one or more service elements may be delivered via a broadband path. In the case of hybrid service delivery, the data transmitted through the broadband may include service components in a DASH format, service signaling information and / or NRT data thereof. This data can be processed via HTTP / TCP / IP, passed through the link layer for broadband transmission, and delivered to the physical layer for broadband transmission.
피지컬 레이어는 딜리버리 레이어(상위 레이어 및/또는 링크 레이어)로부터 전달받은 데이터를 처리하여, 방송망 또는 브로드밴드를 통하여 전송할 수 있다. 피지컬 레이어에 대한 자세한 사항은 후술한다. The physical layer may process data received from a delivery layer (upper layer and / or link layer) and transmit the data through a broadcast network or a broadband. Details of the physical layer will be described later.
서비스에 대해 설명한다. 서비스는 전체적으로 사용자에게 보여주는 서비스 컴포넌트의 컬렉션일 수 있고, 컴포넌트는 여러 미디어 타입의 것일 수 있고, 서비스는 연속적이거나 간헐적일 수 있으며, 서비스는 실시간이거나 비실시간일 수 있고, 실시간 서비스는 TV 프로그램의 시퀀스로 구성될 수 있다.Describe the service. The service may be a collection of service components that are shown to the user as a whole, the components may be of different media types, the service may be continuous or intermittent, the service may be real time or non-real time, and the real time service may be a sequence of TV programs. It can be configured as.
서비스는 여러 타입을 가질 수 있다. 첫 번째로 서비스는 앱 기반 인헨스먼트를 가질 수 있는 리니어 오디오/비디오 또는 오디오만의 서비스일 수 있다. 두 번째로 서비스는 다운로드된 어플리케이션에 의해 그 재생/구성 등이 제어되는 앱 기반 서비스일 수 있다. 세 번째로 서비스는 ESG (Electronic Service Guide) 를 제공하는 ESG 서비스일 수 있다. 네 번째로 긴급 경보 정보를 제공하는 EA (Emergency Alert) 서비스일 수 있다.Services can have many types. Firstly, the service may be a linear audio / video or audio only service that may have app-based enhancements. Secondly, the service may be an app-based service whose reproduction / configuration is controlled by the downloaded application. Third, the service may be an ESG service that provides an electronic service guide (ESG). Fourth, it may be an Emergency Alert (EA) service that provides emergency alert information.
앱 기반 인헨스먼트가 없는 리니어 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 (1) 하나 이상의 ROUTE 세션 또는 (2) 하나 이상의 MMTP 세션에 의해 전달될 수 있다. When a linear service without app-based enhancement is delivered through the broadcasting network, the service component may be delivered by (1) one or more ROUTE sessions or (2) one or more MMTP sessions.
앱 기반 인헨스먼트가 있는 리니어 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 (1) 하나 이상의 ROUTE 세션 및 (2) 0개 이상의 MMTP 세션에 의해 전달될 수 있다. 이 경우 앱 기반 인핸스먼트에 사용되는 데이터는 NRT 데이터 또는 기타 파일 등의 형태로 ROUTE 세션을 통해 전달될 수 있다. 본 발명의 일 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트(스트리밍 미디어 컴포넌트)들이 두 프로토콜을 동시에 사용해 전달되는 것이 허용되지 않을 수 있다. When a linear service with app-based enhancement is delivered through a broadcast network, the service component may be delivered by (1) one or more ROUTE sessions and (2) zero or more MMTP sessions. In this case, data used for app-based enhancement may be delivered through a ROUTE session in the form of NRT data or other files. In one embodiment of the invention, linear service components (streaming media components) of one service may not be allowed to be delivered using both protocols simultaneously.
앱 기반 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 하나 이상의 ROUTE 세션에 의해 전달될 수 있다. 이 경우, 앱 기반 서비스에 사용되는 서비스 데이터는 NRT 데이터 또는 기타 파일 등의 형태로 ROUTE 세션을 통해 전달될 수 있다. When the app-based service is delivered through the broadcast network, the service component may be delivered by one or more ROUTE sessions. In this case, the service data used for the app-based service may be delivered through a ROUTE session in the form of NRT data or other files.
또한, 이러한 서비스의 일부 서비스 컴포넌트 또는 일부 NRT 데이터, 파일 등은 브로드밴드를 통해 전달될 수 있다(하이브리드 서비스 딜리버리). In addition, some service components or some NRT data, files, etc. of these services may be delivered via broadband (hybrid service delivery).
즉, 본 발명의 일 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 MMT 프로토콜을 통해 전달될 수 있다. 본 발명의 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 ROUTE 프로토콜을 통해 전달될 수 있다. 본 발명의 또 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트 및 NRT 데이터(NRT 서비스 컴포넌트)들은 ROUTE 프로토콜을 통해 전달될 수 있다. 본 발명의 또 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 MMT 프로토콜을 통해 전달되고, NRT 데이터(NRT 서비스 컴포넌트)들은 ROUTE 프로토콜을 통해 전달될 수 있다. 전술한 실시예들에서, 서비스의 일부 서비스 컴포넌트 또는 일부 NRT 데이터들은 브로드밴드를 통해 전달될 수 있다. 여기서 앱 기반 서비스 내지 앱 기반 인핸스먼트에 관한 데이터들은 NRT 데이터 형태로, ROUTE 에 따른 방송망을 통해 전달되거나 브로드밴드를 통해 전달될 수 있다. NRT 데이터는 로컬리 캐쉬드 데이터(Locally cashed data) 등으로 불릴 수도 있다.That is, in one embodiment of the present invention, the linear service components of one service may be delivered through the MMT protocol. In another embodiment of the present invention, the linear service components of one service may be delivered via a ROUTE protocol. In another embodiment of the present invention, the linear service component and NRT data (NRT service component) of one service may be delivered through the ROUTE protocol. In another embodiment of the present invention, linear service components of one service may be delivered through the MMT protocol, and NRT data (NRT service components) may be delivered through the ROUTE protocol. In the above embodiments, some service component or some NRT data of a service may be delivered over broadband. Here, the data related to the app-based service or the app-based enhancement may be transmitted through a broadcast network according to ROUTE or through broadband in the form of NRT data. NRT data may also be referred to as locally cashed data.
각각의 ROUTE 세션은 서비스를 구성하는 컨텐츠 컴포넌트를 전체적으로 또는 부분적으로 전달하는 하나 이상의 LCT 세션을 포함한다. 스트리밍 서비스 딜리버리에서, LCT 세션은 오디오, 비디오, 또는 클로즈드 캡션 스트림과 같은 사용자 서비스의 개별 컴포넌트를 전달할 수 있다. 스트리밍 미디어는 DASH 세그먼트로 포맷된다.Each ROUTE session includes one or more LCT sessions that deliver, in whole or in part, the content components that make up the service. In streaming service delivery, an LCT session may deliver an individual component of a user service, such as an audio, video, or closed caption stream. Streaming media is formatted into a DASH segment.
각각의 MMTP 세션은 MMT 시그널링 메시지 또는 전체 또는 일부 컨텐츠 컴포넌트를 전달하는 하나 이상의 MMTP 패킷 플로우를 포함한다. MMTP 패킷 플로우는 MMT 시그널링 메시지 또는 MPU 로 포맷된 컴포넌트를 전달할 수 있다.Each MMTP session includes one or more MMTP packet flows carrying an MMT signaling message or all or some content components. The MMTP packet flow may carry a component formatted with an MMT signaling message or an MPU.
NRT 사용자 서비스 또는 시스템 메타데이터의 딜리버리를 위해, LCT 세션은 파일 기반의 컨텐츠 아이템을 전달한다. 이들 컨텐츠 파일은 NRT 서비스의 연속적 (타임드) 또는 이산적 (논 타임드) 미디어 컴포넌트, 또는 서비스 시그널링이나 ESG 프레그먼트와 같은 메타데이터로 구성될 수 있다. 서비스 시그널링이나 ESG 프레그먼트와 같은 시스템 메타데이터의 딜리버리 또한 MMTP의 시그널링 메시지 모드를 통해 이루어질 수 있다.For delivery of NRT user service or system metadata, an LCT session carries a file based content item. These content files may consist of continuous (timed) or discrete (non-timed) media components of an NRT service, or metadata such as service signaling or ESG fragments. Delivery of system metadata, such as service signaling or ESG fragments, can also be accomplished through the signaling message mode of the MMTP.
수신기에서는 튜너가 주파수들을 스캐닝하다가, 특정 주파수에서 방송 시그널을 감지할 수 있다. 수신기는 SLT 를 추출해 이를 처리하는 모듈로 보낼 수 있다. SLT 파서는 SLT 를 파싱하고 데이터를 획득해 채널 맵에 저장할 수 있다. 수신기는 SLT 의 부트스트랩 정보를 획득하고 ROUTE 또는 MMT 클라이언트에 전달해줄 수 있다. 수신기는 이를 통해 SLS 를 획득할 수 있고, 저장할 수 있다. USBD 등이 획득될 수 있고, 이는 시그널링 파서에 의해 파싱될 수 있다. At the receiver, the tuner can scan frequencies and detect broadcast signals at specific frequencies. The receiver can extract the SLT and send it to the module that processes it. The SLT parser can parse the SLT, obtain data, and store it in the channel map. The receiver may acquire bootstrap information of the SLT and deliver it to the ROUTE or MMT client. This allows the receiver to obtain and store the SLS. USBD or the like can be obtained, which can be parsed by the signaling parser.
도 2 는 본 발명의 일 실시예에 따른 서비스 디스커버리 과정을 도시한 도면이다. 2 is a diagram illustrating a service discovery process according to an embodiment of the present invention.
피지컬 레이어의 방송 신호 프레임이 전달하는 브로드캐스트 스트림은 LLS (Low Level Signaling) 을 운반할 수 있다. LLS 데이터는 웰 노운(well known) IP 어드레스/포트 로 전달되는 IP 패킷의 페이로드를 통해서 운반될 수 있다. 이 LLS 는 그 타입에 따라 SLT 를 포함할 수 있다. LLS 데이터는 LLS 테이블의 형태로 포맷될 수 있다. LLS 데이터를 운반하는 매 UDP/IP 패킷의 첫번째 바이트는 LLS 테이블의 시작일 수 있다. 도시된 실시예와 달리 LLS 데이터를 전달하는 IP 스트림은, 다른 서비스 데이터들과 함께 같은 PLP 로 전달될 수도 있다. The broadcast stream delivered by the broadcast signal frame of the physical layer may carry LLS (Low Level Signaling). LLS data may be carried through the payload of an IP packet delivered to a well known IP address / port. This LLS may contain an SLT depending on its type. LLS data may be formatted in the form of an LLS table. The first byte of every UDP / IP packet carrying LLS data may be the beginning of the LLS table. Unlike the illustrated embodiment, the IP stream carrying LLS data may be delivered to the same PLP along with other service data.
SLT 는 빠른 채널 스캔을 통하여 수신기가 서비스 리스트를 생성할 수 있게 하고, SLS 를 로케이팅(locating) 하기 위한 액세스 정보를 제공한다. SLT 는 부트스트랩 정보를 포함하는데, 이 부트스트랩 정보는 수신기가 각각의 서비스에 대한 SLS (Service Layer Signaling) 을 획득할 수 있도록 한다. SLS, 즉 서비스 시그널링 정보가 ROUTE 를 통해 전달되는 경우, 부트스트랩 정보는 SLS 를 운반하는 LCT 채널 내지 그 LCT 채널을 포함하는 ROUTE 세션의 데스티네이션 IP 어드레스 및 데스티네이션 포트 정보를 포함할 수 있다. SLS 가 MMT 를 통해 전달되는 경우, 부트스트랩 정보는 SLS 를 운반하는 MMTP 세션의 데스티네이션 IP 어드레스 및 데스티네이션 포트 정보를 포함할 수 있다.The SLT enables the receiver to generate a service list through a fast channel scan and provides access information for locating the SLS. The SLT includes bootstrap information, which enables the receiver to obtain Service Layer Signaling (SLS) for each service. When SLS, that is, service signaling information is transmitted through ROUTE, the bootstrap information may include destination IP address and destination port information of the ROUTE session including the LCT channel carrying the SLS and the LCT channel. When the SLS is delivered through the MMT, the bootstrap information may include a destination IP address and destination port information of the MMTP session carrying the SLS.
도시된 실시예에서, SLT 가 기술하는 서비스 #1 의 SLS 는 ROUTE 를 통해 전달되고, SLT 는 해당 SLS 가 전달되는 LCT 채널을 포함하는 ROUTE 세션에 대한 부트스트랩 정보(sIP1, dIP1, dPort1) 를 포함할 수 있다. SLT 가 기술하는 서비스 #2 의 SLS 는 MMT 를 통해 전달되고, SLT 는 해당 SLS 가 전달되는 MMTP 패킷 플로우를 포함하는 MMTP 세션에 대한 부트스트랩 정보(sIP2, dIP2, dPort2) 를 포함할 수 있다.In the illustrated embodiment, the SLS of service # 1 described by the SLT is delivered via ROUTE, and the SLT includes bootstrap information (sIP1, dIP1, dPort1) for the ROUTE session including the LCT channel to which the SLS is delivered. can do. SLS of service # 2 described by the SLT is delivered through MMT, and the SLT may include bootstrap information (sIP2, dIP2, and dPort2) for an MMTP session including an MMTP packet flow through which the SLS is delivered.
SLS 는 해당 서비스에 대한 특성을 기술하는 시그널링 정보로서, 해당 서비스 및 해당 서비스의 서비스 컴포넌트를 획득하기 위한 정보를 제공하거나, 해당 서비스를 유의미하게 재생하기 위한 수신기 캐패빌리티 정보 등을 포함할 수 있다. 각 서비스에 대해 별개의 서비스 시그널링을 가지면 수신기는 브로드캐스트 스트림 내에서 전달되는 전체 SLS을 파싱할 필요 없이 원하는 서비스에 대한 적절한 SLS를 획득하면 된다.The SLS is signaling information describing characteristics of a corresponding service and may include information for acquiring a corresponding service and a service component of the corresponding service, or may include receiver capability information for reproducing the corresponding service significantly. Having separate service signaling for each service allows the receiver to obtain the appropriate SLS for the desired service without having to parse the entire SLS delivered in the broadcast stream.
SLS 가 ROUTE 프로토콜을 통해 전달되는 경우, SLS 는 SLT 가 지시하는 ROUTE 세션의 특정(dedicated) LCT 채널을 통해 전달될 수 있다. 실시예에 따라 이 LCT 채널은 tsi = 0 로 식별되는 LCT 채널일 수 있다. 이 경우 SLS 는 USBD/USD (User Service Bundle Description / User Service Description), S-TSID (Service-based Transport Session Instance Description) 및/또는 MPD (Media Presentation Description) 를 포함할 수 있다. When the SLS is delivered through the ROUTE protocol, the SLS may be delivered through a dedicated LCT channel of a ROUTE session indicated by the SLT. In some embodiments, this LCT channel may be an LCT channel identified by tsi = 0. In this case, the SLS may include a user service bundle description (USBD / USD), a service-based transport session instance description (S-TSID), and / or a media presentation description (MPD).
여기서 USBD 내지 USD 는 SLS 프래그먼트 중 하나로서, 서비스의 구체적 기술적 정보들을 기술하는 시그널링 허브로서 역할할 수 있다. USBD 는 서비스 식별 정보, 디바이스 캐패빌리티 정보 등을 포함할 수 있다. USBD 는 다른 SLS 프래그먼트(S-TSID, MPD 등) 에의 레퍼런스 정보(URI 레퍼런스)를 포함할 수 있다. 즉, USBD/USD 는 S-TSID 와 MPD 를 각각 레퍼런싱할 수 있다. 또한 USBD 는 수신기가 전송 모드(방송망/브로드밴드)를 결정할 수 있게 해주는 메타데이터 정보를 더 포함할 수 있다. USBD/USD 의 구체적 내용들에 대해서는 후술한다. Here, USBD to USD is one of the SLS fragments and may serve as a signaling hub for describing specific technical information of a service. The USBD may include service identification information, device capability information, and the like. The USBD may include reference information (URI reference) to other SLS fragments (S-TSID, MPD, etc.). That is, USBD / USD can refer to S-TSID and MPD respectively. The USBD may further include metadata information that enables the receiver to determine the transmission mode (broadcast network / broadband). Details of the USBD / USD will be described later.
S-TSID 는 SLS 프래그먼트 중 하나로서, 해당 서비스의 서비스 컴포넌트를 운반하는 전송 세션에 대한 전체적인 세션 디스크립션 정보를 제공할 수 있다. S-TSID 는 해당 서비스의 서비스 컴포넌트가 전달되는 ROUTE 세션 및/또는 그 ROUTE 세션들의 LCT 채널에 대한 전송 세션 디스크립션 정보를 제공할 수 있다. S-TSID 는 하나의 서비스와 관련된 서비스 컴포넌트들의 컴포넌트 획득(acquisition) 정보를 제공할 수 있다. S-TSID 는, MPD 의 DASH 레프리젠테이션(Representation) 과 해당 서비스 컴포넌트의 tsi 간의 매핑을 제공할 수 있다. S-TSID 의 컴포넌트 획득 정보는 tsi, 관련 DASH 레프리젠테이션의 식별자의 형태로 제공될 수 있으며, 실시예에 따라 PLP ID 를 포함하거나 포함하지 않을 수 있다. 컴포넌트 획득 정보를 통해 수신기는 한 서비스의 오디오/비디오 컴포넌트들을 수집하고 DASH 미디어 세그먼트들의 버퍼링, 디코딩 등을 수행할 수 있다. S-TSID 는 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다. S-TSID 의 구체적 내용들에 대해서는 후술한다. The S-TSID is one of the SLS fragments, and may provide overall session description information for a transport session carrying a service component of a corresponding service. The S-TSID may provide transport session description information for the ROUTE session to which the service component of the corresponding service is delivered and / or the LCT channel of the ROUTE sessions. The S-TSID may provide component acquisition information of service components related to one service. The S-TSID may provide a mapping between the DASH Representation of the MPD and the tsi of the corresponding service component. The component acquisition information of the S-TSID may be provided in the form of tsi, an identifier of an associated DASH representation, and may or may not include a PLP ID according to an embodiment. The component acquisition information enables the receiver to collect audio / video components of a service and to buffer, decode, and the like of DASH media segments. The S-TSID may be referenced by the USBD as described above. Details of the S-TSID will be described later.
MPD 는 SLS 프래그먼트 중 하나로서, 해당 서비스의 DASH 미디어 프리젠테이션에 관한 디스크립션을 제공할 수 있다. MPD 는 미디어 세그먼트들에 대한 리소스 식별자(resource identifier) 를 제공하고, 식별된 리소스들에 대한 미디어 프리젠테이션 내에서의 컨텍스트 정보를 제공할 수 있다. MPD 는 방송망을 통해 전달되는 DASH 레프리젠테이션(서비스 컴포넌트)를 기술하고, 또한 브로드밴드를 통해 전달되는 추가적인 DASH 레프리젠테이션을 기술할 수 있다(하이브리드 딜리버리). MPD 는 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다.The MPD is one of the SLS fragments and may provide a description of the DASH media presentation of the service. The MPD may provide a resource identifier for the media segments and may provide contextual information within the media presentation for the identified resources. The MPD may describe the DASH representation (service component) delivered through the broadcast network, and may also describe additional DASH representations delivered through the broadband (hybrid delivery). The MPD may be referenced by the USBD as described above.
SLS 가 MMT 프로토콜을 통해 전달되는 경우, SLS 는 SLT 가 지시하는 MMTP 세션의 특정(dedicated) MMTP 패킷 플로우을 통해 전달될 수 있다. 실시예에 따라 SLS 를 전달하는 MMTP 패킷들의 packet_id 는 00 의 값을 가질 수 있다. 이 경우 SLS 는 USBD/USD 및/또는 MMT Package (MP) 테이블을 포함할 수 있다. When the SLS is delivered through the MMT protocol, the SLS may be delivered through a dedicated MMTP packet flow of an MMTP session indicated by the SLT. According to an embodiment, packet_id of MMTP packets carrying SLS may have a value of 00. In this case, the SLS may include a USBD / USD and / or MMT Package (MP) table.
여기서 USBD 는 SLS 프래그먼트의 하나로서, ROUTE 에서의 그것과 같이 서비스의 구체적 기술적 정보들을 기술할 수 있다. 여기서의 USBD 역시 다른 SLS 프래그먼트에의 레퍼런스 정보(URI 레퍼런스)를 포함할 수 있다. MMT 의 USBD 는 MMT 시그널링의 MP 테이블을 레퍼런싱할 수 있다. 실시예에 따라 MMT 의 USBD 는 S-TSID 및/또는 MPD 에의 레퍼런스 정보 또한 포함할 수 있다. 여기서의 S-TSID 는 ROUTE 프로토콜을 통해 전달되는 NRT 데이터를 위함일 수 있다. MMT 프로토콜을 통해 리니어 서비스 컴포넌트가 전달되는 경우에도 NRT 데이터는 ROUTE 프로토콜을 통해 전달될 수 있기 때문이다. MPD 는 하이브리드 서비스 딜리버리에 있어서, 브로드밴드로 전달되는 서비스 컴포넌트를 위함일 수 있다. MMT 의 USBD 의 구체적 내용들에 대해서는 후술한다. Here, USBD is one of the SLS fragments, and may describe specific technical information of a service like that in ROUTE. The USBD here may also include reference information (URI reference) to other SLS fragments. The USBD of the MMT may refer to the MP table of the MMT signaling. According to an embodiment, the USBD of the MMT may also include reference information on the S-TSID and / or the MPD. Here, the S-TSID may be for NRT data transmitted through the ROUTE protocol. This is because NRT data can be delivered through the ROUTE protocol even when the linear service component is delivered through the MMT protocol. MPD may be for a service component delivered over broadband in hybrid service delivery. Details of the USBD of the MMT will be described later.
MP 테이블은 MPU 컴포넌트들을 위한 MMT 의 시그널링 메시지로서, 해당 서비스의 서비스 컴포넌트를 운반하는 MMTP 세션에 대한 전체적인 세션 디스크립션 정보를 제공할 수 있다. 또한 MP 테이블은 이 MMTP 세션을 통해 전달되는 에셋(Asset) 에 대한 디스크립션을 포함할 수 있다. MP 테이블은 MPU 컴포넌트들을 위한 스트리밍 시그널링 정보로서, 하나의 서비스에 해당하는 에셋들의 리스트와 이 컴포넌트들의 로케이션 정보(컴포넌트 획득 정보)를 제공할 수 있다. MP 테이블의 구체적인 내용은 MMT 에서 정의된 형태이거나, 변형이 이루어진 형태일 수 있다. 여기서 Asset 이란, 멀티미디어 데이터 엔티티로서, 하나의 유니크 ID 로 연합되고 하나의 멀티미디어 프리젠테이션을 생성하는데 사용되는 데이터 엔티티를 의미할 수 있다. Asset 은 하나의 서비스를 구성하는 서비스 컴포넌트에 해당할 수 있다. MP 테이블을 이용하여 원하는 서비스에 해당하는 스트리밍 서비스 컴포넌트(MPU) 에 접근할 수 있다. MP 테이블은 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다.The MP table is a signaling message of the MMT for MPU components and may provide overall session description information for an MMTP session carrying a service component of a corresponding service. The MP table may also contain descriptions for assets delivered via this MMTP session. The MP table is streaming signaling information for MPU components, and may provide a list of assets corresponding to one service and location information (component acquisition information) of these components. Specific contents of the MP table may be in a form defined in MMT or a form in which modifications are made. Here, Asset is a multimedia data entity, which may mean a data entity associated with one unique ID and used to generate one multimedia presentation. Asset may correspond to a service component constituting a service. The MP table may be used to access a streaming service component (MPU) corresponding to a desired service. The MP table may be referenced by the USBD as described above.
기타 다른 MMT 시그널링 메시지가 정의될 수 있다. 이러한 MMT 시그널링 메시지들에 의해 MMTP 세션 내지 서비스에 관련된 추가적인 정보들이 기술될 수 있다. Other MMT signaling messages may be defined. Such MMT signaling messages may describe additional information related to the MMTP session or service.
ROUTE 세션은 소스 IP 어드레스, 데스티네이션 IP 어드레스, 데스티네이션 포트 넘버에 의해 식별된다. LCT 세션은 페어런트 ROUTE 세션의 범위 내에서 유일한 TSI (transport session identifier)에 의해 식별된다. MMTP 세션은 데스티네이션 IP 어드레스 및 데스티네이션 포트 넘버에 의해 식별된다. MMTP 패킷 플로우는 페어런트 MMTP 세션의 범위 내에서 유일한 packet_id에 의해 식별된다. ROUTE sessions are identified by source IP address, destination IP address, and destination port number. The LCT session is identified by a transport session identifier (TSI) that is unique within the scope of the parent ROUTE session. MMTP sessions are identified by destination IP address and destination port number. The MMTP packet flow is identified by a unique packet_id within the scope of the parent MMTP session.
ROUTE 의 경우 S-TSID, USBD/USD, MPD 또는 이 들을 전달하는 LCT 세션을 서비스 시그널링 채널이라 부를 수도 있다. MMTP 의 경우, USBD/UD, MMT 시그널링 메시지들 또는 이들을 전달하는 패킷 플로우를 서비스 시그널링 채널이라 부를 수도 있다. In case of ROUTE, the S-TSID, the USBD / USD, the MPD, or the LCT session carrying them may be called a service signaling channel. In the case of MMTP, USBD / UD, MMT signaling messages or packet flow carrying them may be called a service signaling channel.
도시된 실시예와는 달리, 하나의 ROUTE 또는 MMTP 세션은 복수개의 PLP 를 통해 전달될 수 있다. 즉, 하나의 서비스는 하나 이상의 PLP 를 통해 전달될 수도 있다. 도시된 것과 달리 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 서로 다른 ROUTE 세션들을 통해 전달될 수도 있다. 또한, 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 서로 다른 MMTP 세션들을 통해 전달될 수도 있다. 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 ROUTE 세션과 MMTP 세션에 나뉘어 전달될 수도 있다. 도시되지 않았으나, 하나의 서비스를 구성하는 컴포넌트가 브로드밴드를 통해 전달(하이브리드 딜리버리)되는 경우도 있을 수 있다. Unlike the illustrated embodiment, one ROUTE or MMTP session may be delivered through a plurality of PLPs. That is, one service may be delivered through one or more PLPs. Unlike shown, components constituting one service may be delivered through different ROUTE sessions. In addition, according to an embodiment, components constituting one service may be delivered through different MMTP sessions. According to an embodiment, components constituting one service may be delivered divided into a ROUTE session and an MMTP session. Although not shown, a component constituting one service may be delivered through a broadband (hybrid delivery).
도 3 은 본 발명의 일 실시예에 따른 LLS (Low Level Signaling) 테이블 및 SLT (Service List Table)를 도시한 도면이다. 3 illustrates a low level signaling (LLS) table and a service list table (SLT) according to an embodiment of the present invention.
도시된 LLS 테이블의 일 실시예(t3010) 은, LLS_table_id 필드, provider_id 필드, LLS_table_version 필드 및/또는 LLS_table_id 필드에 따른 정보들을 포함할 수 있다. An embodiment t3010 of the illustrated LLS table may include information according to an LLS_table_id field, a provider_id field, an LLS_table_version field, and / or an LLS_table_id field.
LLS_table_id 필드는 해당 LLS 테이블의 타입을 식별하고, provider_id 필드는 해당 LLS 테이블에 의해 시그널링되는 서비스들과 관련된 서비스 프로바이더를 식별할 수 있다. 여기서 서비스 프로바이더는 해당 브로드캐스트 스트림의 전부 또는 일부를 사용하는 브로드캐스터로서, provider_id 필드는 해당 브로드캐스트 스트림을 사용중인 복수의 브로드캐스터들 중 하나를 식별할 수 있다. LLS_table_version 필드는 해당 LLS 테이블의 버전 정보를 제공할 수 있다. The LLS_table_id field may identify a type of the corresponding LLS table, and the provider_id field may identify service providers related to services signaled by the corresponding LLS table. Here, the service provider is a broadcaster using all or part of the broadcast stream, and the provider_id field may identify one of a plurality of broadcasters using the broadcast stream. The LLS_table_version field may provide version information of a corresponding LLS table.
LLS_table_id 필드의 값에 따라, 해당 LLS 테이블은 전술한 SLT, 컨텐트 어드바이저리 레이팅(Content advisory rating) 에 관련된 정보를 포함하는 RRT(Rating Region Table), 시스템 타임과 관련된 정보를 제공하는 SystemTime 정보, 긴급 경보와 관련된 정보를 제공하는 CAP (Common Alert Protocol) 메시지 중 하나를 포함할 수 있다. 실시예에 따라 이들 외에 다른 정보가 LLS 테이블에 포함될 수도 있다. According to the value of the LLS_table_id field, the corresponding LLS table includes the above-described SLT, a rating region table (RRT) including information related to a content advisory rating, a SystemTime information providing information related to system time, and an emergency alert. It may include one of the CAP (Common Alert Protocol) message that provides information related to. According to an embodiment, other information other than these may be included in the LLS table.
도시된 SLT 의 일 실시예(t3020) 는, @bsid 속성, @sltCapabilities 속성, sltInetUrl 엘레멘트 및/또는 Service 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다. One embodiment t3020 of the illustrated SLT may include an @bsid attribute, an @sltCapabilities attribute, a sltInetUrl element, and / or a Service element. Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
@bsid 속성은 브로드캐스트 스트림의 식별자일 수 있다. @sltCapabilities 속성은 해당 SLT 가 기술하는 모든 서비스들을 디코딩하고 유의미하게 재생하는데 요구되는 캐패빌리티 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 해당 SLT 의 서비스들을 위한 ESG 내지 서비스 시그널링 정보를 브로드밴드를 통해 얻기 위해 사용되는 베이스 URL 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 @urlType 속성을 더 포함할 수 있는데, 이는 해당 URL 을 통해 얻을 수 있는 데이터의 타입을 지시할 수 있다.The @bsid attribute may be an identifier of a broadcast stream. The @sltCapabilities attribute can provide the capability information required to decode and significantly reproduce all services described by the SLT. The sltInetUrl element may provide base URL information used to obtain ESG or service signaling information for services of the corresponding SLT through broadband. The sltInetUrl element may further include an @urlType attribute, which may indicate the type of data that can be obtained through the URL.
Service 엘레멘트는 해당 SLT 가 기술하는 서비스들에 대한 정보를 포함하는 엘레멘트일 수 있으며, 각각의 서비스들에 대해 Service 엘레멘트가 존재할 수 있다. Service 엘레멘트는 @serviceId 속성, @sltSvcSeqNum 속성, @protected 속성, @majorChannelNo 속성, @minorChannelNo 속성, @serviceCategory 속성, @shortServiceName 속성, @hidden 속성, @broadbandAccessRequired 속성, @svcCapabilities 속성, BroadcastSvcSignaling 엘레멘트 및/또는 svcInetUrl 엘레멘트를 포함할 수 있다. The service element may be an element including information on services described by the corresponding SLT, and a service element may exist for each service. The Service element contains the @serviceId property, the @sltSvcSeqNum property, the @protected property, the @majorChannelNo property, the @minorChannelNo property, the @serviceCategory property, the @shortServiceName property, the @hidden property, the @broadbandAccessRequired property, the @svcCapabilities property, the BroadcastSvcSignaling element, and / or the svcInetUrl element. It may include.
@serviceId 속성은 해당 서비스의 식별자이고, @sltSvcSeqNum 속성은 해당 서비스에 대한 SLT 정보의 시퀀스 넘버를 나타낼 수 있다. @protected 속성은 해당 서비스의 유의미한 재생을 위해 필요한 적어도 하나의 서비스 컴포넌트가 보호(protected)되고 있는지 여부를 지시할 수 있다. @majorChannelNo 속성과 @minorChannelNo 속성은 각각 해당 서비스의 메이저 채널 넘버와 마이너 채널 넘버를 지시할 수 있다. The @serviceId attribute may be an identifier of a corresponding service, and the @sltSvcSeqNum attribute may indicate a sequence number of SLT information for the corresponding service. The @protected attribute may indicate whether at least one service component necessary for meaningful playback of the corresponding service is protected. The @majorChannelNo and @minorChannelNo attributes may indicate the major channel number and the minor channel number of the corresponding service, respectively.
@serviceCategory 속성은 해당 서비스의 카테고리를 지시할 수 있다. 서비스의 카테고리로는 리니어 A/V 서비스, 리니어 오디오 서비스, 앱 기반 서비스, ESG 서비스, EAS 서비스 등이 있을 수 있다. @shortServiceName 속성은 해당 서비스의 짧은 이름(Short name)을 제공할 수 있다. @hidden 속성은 해당 서비스가 테스팅 또는 독점적(proprietary) 사용을 위한 서비스인지 여부를 지시할 수 있다. @broadbandAccessRequired 속성은 해당 서비스의 유의미한 재생을 위하여 브로드밴드 억세스가 필요한지 여부를 지시할 수 있다. @svcCapabilities 속성은 해당 서비스의 디코딩과 유의미한 재생을 위하여 필요한 캐패빌리티 정보를 제공할 수 있다. The @serviceCategory attribute can indicate the category of the corresponding service. The service category may include a linear A / V service, a linear audio service, an app-based service, an ESG service, and an EAS service. The @shortServiceName attribute may provide a short name of the corresponding service. The @hidden attribute can indicate whether the service is for testing or proprietary use. The @broadbandAccessRequired attribute may indicate whether broadband access is required for meaningful playback of the corresponding service. The @svcCapabilities attribute can provide the capability information necessary for decoding and meaningful reproduction of the corresponding service.
BroadcastSvcSignaling 엘레멘트는 해당 서비스의 브로드캐스트 시그널링에 관련된 정보들을 제공할 수 있다. 이 엘레멘트는 해당 서비스의 방송망을 통한 시그널링에 대하여, 로케이션, 프로토콜, 어드레스 등의 정보를 제공할 수 있다. 자세한 사항은 후술한다. The BroadcastSvcSignaling element may provide information related to broadcast signaling of a corresponding service. This element may provide information such as a location, a protocol, and an address with respect to signaling through a broadcasting network of a corresponding service. Details will be described later.
svcInetUrl 엘레멘트는 해당 서비스를 위한 시그널링 정보를 브로드밴드를 통해 액세스하기 위한 URL 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 @urlType 속성을 더 포함할 수 있는데, 이는 해당 URL 을 통해 얻을 수 있는 데이터의 타입을 지시할 수 있다.The svcInetUrl element may provide URL information for accessing signaling information for a corresponding service through broadband. The sltInetUrl element may further include an @urlType attribute, which may indicate the type of data that can be obtained through the URL.
전술한 BroadcastSvcSignaling 엘레멘트는 @slsProtocol 속성, @slsMajorProtocolVersion 속성, @slsMinorProtocolVersion 속성, @slsPlpId 속성, @slsDestinationIpAddress 속성, @slsDestinationUdpPort 속성 및/또는 @slsSourceIpAddress 속성을 포함할 수 있다. The aforementioned BroadcastSvcSignaling element may include an @slsProtocol attribute, an @slsMajorProtocolVersion attribute, an @slsMinorProtocolVersion attribute, an @slsPlpId attribute, an @slsDestinationIpAddress attribute, an @slsDestinationUdpPort attribute, and / or an @slsSourceIpAddress attribute.
@slsProtocol 속성은 해당 서비스의 SLS 를 전달하는데 사용되는 프로토콜을 지시할 수 있다(ROUTE, MMT 등). @slsMajorProtocolVersion 속성 및 @slsMinorProtocolVersion 속성은 각각 해당 서비스의 SLS 를 전달하는데 사용되는 프로토콜의 메이저 버전 넘버 및 마이너 버전 넘버를 지시할 수 있다. The @slsProtocol attribute can indicate the protocol used to deliver the SLS of the service (ROUTE, MMT, etc.). The @slsMajorProtocolVersion attribute and @slsMinorProtocolVersion attribute may indicate the major version number and the minor version number of the protocol used to deliver the SLS of the corresponding service, respectively.
@slsPlpId 속성은 해당 서비스의 SLS 를 전달하는 PLP 를 식별하는 PLP 식별자를 제공할 수 있다. 실시예에 따라 이 필드는 생략될 수 있으며, SLS 가 전달되는 PLP 정보는 후술할 LMT 내의 정보와, SLT 의 부트스트랩 정보를 조합하여 확인될 수도 있다. The @slsPlpId attribute may provide a PLP identifier for identifying a PLP that delivers the SLS of the corresponding service. In some embodiments, this field may be omitted, and the PLP information to which the SLS is delivered may be identified by combining information in the LMT to be described later and bootstrap information of the SLT.
@slsDestinationIpAddress 속성, @slsDestinationUdpPort 속성 및 @slsSourceIpAddress 속성은 각각 해당 서비스의 SLS 를 전달하는 전송 패킷의 데스티네이션 IP 어드레스, 데스티네이션 UDP 포트 및 소스 IP 어드레스 를 지시할 수 있다. 이들은 SLS 가 전달되는 전송세션(ROUTE 세션 또는 MMTP 세션)을 식별할 수 있다. 이들은 부트스트랩 정보에 포함될 수 있다. The @slsDestinationIpAddress attribute, @slsDestinationUdpPort attribute, and @slsSourceIpAddress attribute may indicate the destination IP address, the destination UDP port, and the source IP address of the transport packet carrying the SLS of the corresponding service, respectively. They can identify the transport session (ROUTE session or MMTP session) to which the SLS is delivered. These may be included in the bootstrap information.
도 4 는 본 발명의 일 실시예에 따른, ROUTE 로 전달되는 USBD 및 S-TSID 를 도시한 도면이다. 4 illustrates a USBD and an S-TSID delivered to ROUTE according to an embodiment of the present invention.
도시된 USBD 의 일 실시예(t4010) 은, bundleDescription 루트 엘레멘트를 가질 수 있다. bundleDescription 루트 엘레멘트는 userServiceDescription 엘레멘트를 가질 수 있다. userServiceDescription 엘레멘트는 하나의 서비스에 대한 인스턴스일 수 있다. One embodiment t4010 of the illustrated USBD may have a bundleDescription root element. The bundleDescription root element may have a userServiceDescription element. The userServiceDescription element may be an instance of one service.
userServiceDescription 엘레멘트는 @globalServiceID 속성, @serviceId 속성, @serviceStatus 속성, @fullMPDUri 속성, @sTSIDUri 속성, name 엘레멘트, serviceLanguage 엘레멘트, capabilityCode 엘레멘트 및/또는 deliveryMethod 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다. The userServiceDescription element may include an @globalServiceID attribute, an @serviceId attribute, an @serviceStatus attribute, an @fullMPDUri attribute, an @sTSIDUri attribute, a name element, a serviceLanguage element, a capabilityCode element, and / or a deliveryMethod element. Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
@globalServiceID 속성은 해당 서비스의 글로벌하게 유니크한(globally unique) 식별자로서, ESG 데이터와 링크되는데 사용될 수 있다(Service@globalServiceID). @serviceId 속성은 SLT 의 해당 서비스 엔트리와 대응되는 레퍼런스로서, SLT 의 서비스 ID 정보와 동일할 수 있다. @serviceStatus 속성은 해당 서비스의 상태를 지시할 수 있다. 이 필드는 해당 서비스가 액티브인지 인액티브(inactive) 상태인지 여부를 지시할 수 있다. The @globalServiceID attribute is a globally unique identifier of the service and can be used to link with ESG data (Service @ globalServiceID). The @serviceId attribute is a reference corresponding to the corresponding service entry of the SLT and may be the same as service ID information of the SLT. The @serviceStatus attribute may indicate the status of the corresponding service. This field may indicate whether the corresponding service is active or inactive.
@fullMPDUri 속성은 해당 서비스의 MPD 프래그먼트를 레퍼런싱할 수 있다. MPD 는 전술한 바와 같이 방송망 또는 브로드밴드를 통해 전달되는 서비스 컴포넌트에 대한 재생 디스크립션을 제공할 수 있다. @sTSIDUri 속성은 해당 서비스의 S-TSID 프래그먼트를 레퍼런싱할 수 있다. S-TSID 는 전술한 바와 같이 해당 서비스를 운반하는 전송 세션에의 액세스와 관련된 파라미터들을 제공할 수 있다. The @fullMPDUri attribute can refer to the MPD fragment of the service. As described above, the MPD may provide a reproduction description for a service component delivered through a broadcast network or a broadband. The @sTSIDUri attribute may refer to the S-TSID fragment of the service. The S-TSID may provide parameters related to access to the transport session carrying the service as described above.
name 엘레멘트는 해당 서비스의 이름을 제공할 수 있다. 이 엘레멘트는 @lang 속성을 더 포함할 수 있는데, 이 필드는 name 엘레멘트가 제공하는 이름의 언어를 지시할 수 있다. serviceLanguage 엘레멘트는 해당 서비스의 이용 가능한(available) 언어들을 지시할 수 있다. 즉, 이 엘레멘트는 해당 서비스가 제공될 수 있는 언어들을 나열할 수 있다. The name element may provide the name of the service. This element may further include an @lang attribute, which may indicate the language of the name provided by the name element. The serviceLanguage element may indicate the available languages of the service. That is, this element may list the languages in which the service can be provided.
capabilityCode 엘레멘트는 해당 서비스를 유의미하게 재생하기 위해 필요한 수신기 측의 캐패빌리티 또는 캐패빌리티 그룹 정보를 지시할 수 있다. 이 정보들은 서비스 아나운스먼트(announccement) 에서 제공되는 캐패빌리티 정보 포맷과 호환될 수 있다. The capabilityCode element may indicate capability or capability group information of the receiver side necessary for significantly playing a corresponding service. This information may be compatible with the capability information format provided by the service announcement.
deliveryMethod 엘레멘트는 해당 서비스의 방송망 또는 브로드밴드를 통해 액세스되는 컨텐츠들에 대하여, 전송 관련 정보들을 제공할 수 있다. deliveryMethod 엘레멘트는 broadcastAppService 엘레멘트 및/또는 unicastAppService 엘레멘트를 포함할 수 있다. 이 엘레멘트들은 각각 basePattern 엘레멘트를 하위 엘레멘트로 가질 수 있다. The deliveryMethod element may provide delivery related information with respect to contents accessed through a broadcasting network or a broadband of a corresponding service. The deliveryMethod element may include a broadcastAppService element and / or a unicastAppService element. Each of these elements may have a basePattern element as its child element.
broadcastAppService 엘레멘트는 방송망을 통해 전달되는 DASH 레프리젠테이션에 대한 전송 관련 정보를 포함할 수 있다. 이 DASH 레프리젠테이션들은 해당 서비스 미디어 프리젠테이션의 모든 피리오드(Period)에 걸친 미디어 컴포넌트들을 포함할 수 있다.The broadcastAppService element may include transmission related information on the DASH presentation delivered through the broadcast network. These DASH representations may include media components across all periods of the service media presentation.
이 엘레멘트의 basePattern 엘레멘트는 수신기가 세그먼트 URL 과 매칭하는데 사용되는 캐릭터 패턴을 나타낼 수 있다. 이는 DASH 클라이언트가 해당 레프리젠테이션의 세그먼트들을 요청하는데 사용될 수 있다. 매칭된다는 것은 해당 미디어 세그먼트가 방송망을 통해 전달된다는 것을 암시할 수 있다. The basePattern element of this element may represent a character pattern used by the receiver to match the segment URL. This can be used by the DASH client to request segments of the representation. Matching may imply that the media segment is delivered over the broadcast network.
unicastAppService 엘레멘트는 브로드밴드를 통해 전달되는 DASH 레프리젠테이션에 대한 전송 관련 정보를 포함할 수 있다. 이 DASH 레프리젠테이션들은 해당 서비스 미디어 프리젠테이션의 모든 피리오드(Period)에 걸친 미디어 컴포넌트들을 포함할 수 있다.The unicastAppService element may include transmission related information on the DASH representation delivered through broadband. These DASH representations may include media components across all periods of the service media presentation.
이 엘레멘트의 basePattern 엘레멘트는 수신기가 세그먼트 URL 과 매칭하는데 사용되는 캐릭터 패턴을 나타낼 수 있다. 이는 DASH 클라이언트가 해당 레프리젠테이션의 세그먼트들을 요청하는데 사용될 수 있다. 매칭된다는 것은 해당 미디어 세그먼트가 브로드밴드를 통해 전달된다는 것을 암시할 수 있다. The basePattern element of this element may represent a character pattern used by the receiver to match the segment URL. This can be used by the DASH client to request segments of the representation. Matching may imply that the media segment is delivered over broadband.
도시된 S-TSID 의 일 실시예(t4020) 은, S-TSID 루트 엘레멘트를 가질 수 있다. S-TSID 루트 엘레멘트는 @serviceId 속성 및/또는 RS 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다. An embodiment t4020 of the illustrated S-TSID may have an S-TSID root element. The S-TSID root element may include an @serviceId attribute and / or an RS element. Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
@serviceId 속성은 해당 서비스의 식별자로서, USBD/USD 의 해당 서비스를 레퍼런싱할 수 있다. RS 엘레멘트는 해당 서비스의 서비스 컴포넌트들이 전달되는 ROUTE 세션들에 대한 정보를 기술할 수 있다. 이러한 ROUTE 세션의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. RS 엘레멘트는 @bsid 속성, @sIpAddr 속성, @dIpAddr 속성, @dport 속성, @PLPID 속성 및/또는 LS 엘레멘트를 더 포함할 수 있다. The @serviceId attribute is an identifier of a corresponding service and may refer to a corresponding service of USBD / USD. The RS element may describe information on ROUTE sessions through which service components of a corresponding service are delivered. Depending on the number of such ROUTE sessions, there may be a plurality of these elements. The RS element may further include an @bsid attribute, an @sIpAddr attribute, an @dIpAddr attribute, an @dport attribute, an @PLPID attribute, and / or an LS element.
@bsid 속성은 해당 서비스의 서비스 컴포넌트들이 전달되는 브로드캐스트 스트림의 식별자일 수 있다. 이 필드가 생략된 경우, 디폴트 브로드캐스트 스트림은 해당 서비스의 SLS 를 전달하는 PLP 를 포함하는 브로드캐스트 스트림일 수 있다. 이 필드의 값은 SLT 의 @bsid 속성과 같은 값일 수 있다.The @bsid attribute may be an identifier of a broadcast stream through which service components of a corresponding service are delivered. If this field is omitted, the default broadcast stream may be a broadcast stream that includes a PLP that carries the SLS of the service. The value of this field may be the same value as the @bsid attribute of SLT.
@sIpAddr 속성, @dIpAddr 속성 및 @dport 속성은 각각 해당 ROUTE 세션의 소스 IP 어드레스, 데스티네이션 IP 어드레스 및 데스티네이션 UDP 포트를 나타낼 수 있다. 이 필드들이 생략되는 경우, 디폴트 값들은 해당 SLS 를 전달하는, 즉 해당 S-TSID 를 전달하고 있는 현재의, ROUTE 세션의 소스 IP 어드레스, 데스티네이션 IP 어드레스 및 데스티네이션 UDP 포트값들일 수 있다. 현재 ROUTE 세션이 아닌, 해당 서비스의 서비스 컴포넌트들을 전달하는 다른 ROUTE 세션에 대해서는, 본 필드들이 생략되지 않을 수 있다. The @sIpAddr attribute, the @dIpAddr attribute, and the @dport attribute may indicate a source IP address, a destination IP address, and a destination UDP port of the corresponding ROUTE session, respectively. If these fields are omitted, the default values may be the source IP address, destination IP address, and destination UDP port values of the current, ROUTE session carrying that SLS, that is, carrying that S-TSID. For other ROUTE sessions that carry service components of the service but not the current ROUTE session, these fields may not be omitted.
@PLPID 속성은 해당 ROUTE 세션의 PLP ID 정보를 나타낼 수 있다. 이 필드가 생략되는 경우, 디폴트 값은 해당 S-TSID 가 전달되고 있는 현재 PLP 의 PLP ID 값일 수 있다. 실시예에 따라 이 필드는 생략되고, 해당 ROUTE 세션의 PLP ID 정보는 후술할 LMT 내의 정보와, RS 엘레멘트의 IP 어드레스 / UDP 포트 정보들을 조합하여 확인될 수도 있다. The @PLPID attribute may indicate PLP ID information of a corresponding ROUTE session. If this field is omitted, the default value may be the PLP ID value of the current PLP to which the corresponding S-TSID is being delivered. According to an embodiment, this field is omitted, and the PLP ID information of the corresponding ROUTE session may be confirmed by combining information in the LMT to be described later and IP address / UDP port information of the RS element.
LS 엘레멘트는 해당 서비스의 서비스 컴포넌트들이 전달되는 LCT 채널들에 대한 정보를 기술할 수 있다. 이러한 LCT 채널의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. LS 엘레멘트는 @tsi 속성, @PLPID 속성, @bw 속성, @startTime 속성, @endTime 속성, SrcFlow 엘레멘트 및/또는 RepairFlow 엘레멘트를 포함할 수 있다. The LS element may describe information on LCT channels through which service components of a corresponding service are delivered. Depending on the number of such LCT channels, there may be a plurality of these elements. The LS element may include an @tsi attribute, an @PLPID attribute, an @bw attribute, an @startTime attribute, an @endTime attribute, an SrcFlow element, and / or a RepairFlow element.
@tsi 속성은 해당 LCT 채널의 tsi 정보를 나타낼 수 있다. 이를 통해 해당 서비스의 서비스 컴포넌트가 전달되는 LCT 채널들이 식별될 수 있다. @PLPID 속성은 해당 LCT 채널의 PLP ID 정보를 나타낼 수 있다. 실시예에 따라 이 필드는 생략될 수 있다. @bw 속성은 해당 LCT 채널의 최대 대역폭를 나타낼 수 있다. @startTime 속성은 해당 LCT 세션의 스타트 타임을 지시하고, @endTime 속성은 해당 LCT 채널의 엔드 타임을 지시할 수 있다. The @tsi attribute may represent tsi information of a corresponding LCT channel. Through this, LCT channels through which a service component of a corresponding service is delivered may be identified. The @PLPID attribute may represent PLP ID information of a corresponding LCT channel. In some embodiments, this field may be omitted. The @bw attribute may indicate the maximum bandwidth of the corresponding LCT channel. The @startTime attribute may indicate the start time of the LCT session, and the @endTime attribute may indicate the end time of the LCT channel.
SrcFlow 엘레멘트는 ROUTE 의 소스 플로우에 대해 기술할 수 있다. ROUTE 의 소스 프로토콜은 딜리버리 오브젝트를 전송하기 위해 사용되며, 한 ROUTE 세션 내에서 적어도 하나 이상의 소스 플로우를 설정(establish)할 수 있다. 이 소스 플로우들은 관련된 오브젝트들을 오브젝트 플로우로서 전달할 수 있다. The SrcFlow element may describe the source flow of ROUTE. The source protocol of ROUTE is used to transmit the delivery object, and can establish at least one source flow in one ROUTE session. These source flows can deliver related objects as an object flow.
RepairFlow 엘레멘트는 ROUTE 의 리페어 플로우에 대해 기술할 수 있다. 소스 프로토콜에 따라 전달되는 딜리버리 오브젝트들은 FEC (Forward Error Correction) 에 따라 보호될 수 있는데, 리페어 프로토콜은 이러한 FEC 프로텍션을 가능케 하는 FEC 프레임워크(framework)를 정의할 수 있다. The RepairFlow element may describe the repair flow of ROUTE. Delivery objects delivered according to the source protocol may be protected according to Forward Error Correction (FEC). The repair protocol may define a FEC framework that enables such FEC protection.
도 5 는 본 발명의 일 실시예에 따른, MMT 로 전달되는 USBD 를 도시한 도면이다. 5 is a diagram illustrating a USBD delivered to MMT according to an embodiment of the present invention.
도시된 USBD 의 일 실시예는, bundleDescription 루트 엘레멘트를 가질 수 있다. bundleDescription 루트 엘레멘트는 userServiceDescription 엘레멘트를 가질 수 있다. userServiceDescription 엘레멘트는 하나의 서비스에 대한 인스턴스일 수 있다. One embodiment of the illustrated USBD may have a bundleDescription root element. The bundleDescription root element may have a userServiceDescription element. The userServiceDescription element may be an instance of one service.
userServiceDescription 엘레멘트는 @globalServiceID 속성, @serviceId 속성, Name 엘레멘트, serviceLanguage 엘레멘트, contentAdvisoryRating 엘레멘트, Channel 엘레멘트, mpuComponent 엘레멘트, routeComponent 엘레멘트, broadbandComponent 엘레멘트 및/또는 ComponentInfo 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다. The userServiceDescription element may include an @globalServiceID attribute, an @serviceId attribute, a Name element, a serviceLanguage element, a contentAdvisoryRating element, a Channel element, an mpuComponent element, a routeComponent element, a broadbandComponent element, and / or a ComponentInfo element. Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
@globalServiceID 속성, @serviceId 속성, Name 엘레멘트 및/또는 serviceLanguage 엘레멘트는 전술한 ROUTE 로 전달되는 USBD 의 해당 필드들과 같을 수 있다. contentAdvisoryRating 엘레멘트는 해당 서비스의 컨텐트 어드바이저리(advisory) 레이팅을 나타낼 수 있다. 이 정보들은 서비스 아나운스먼트(announccement) 에서 제공되는 컨텐트 어드바이저리 레이팅 정보 포맷과 호환될 수 있다. Channel 엘레멘트는 해당 서비스와 관련된 정보들을 포함할 수 있다. 이 엘레멘트의 자세한 내용에 대해서는 후술한다.The @globalServiceID attribute, the @serviceId attribute, the Name element and / or the serviceLanguage element may be the same as the corresponding fields of the USBD delivered to the above-described ROUTE. The contentAdvisoryRating element may indicate the content advisory rating of the corresponding service. This information may be compatible with the content advisory rating information format provided by the service announcement. The channel element may include information related to the corresponding service. The detail of this element is mentioned later.
mpuComponent 엘레멘트는 해당 서비스의 MPU 로서 전달되는 서비스 컴포넌트들에 대한 디스크립션을 제공할 수 있다. 이 엘레멘트는 @mmtPackageId 속성 및/또는 @nextMmtPackageId 속성을 더 포함할 수 있다. @mmtPackageId 속성은 해당 서비스의 MPU 로서 전달되는 서비스 컴포넌트들의 MMT 패키지(Package) 를 레퍼런싱할 수 있다. @nextMmtPackageId 속성은 시간상 @mmtPackageId 속성이 레퍼런싱하는 MMT 패키지 다음으로 사용될 MMT 패키지를 레퍼런싱할 수 있다. 이 엘레멘트의 정보들을 통해 MP 테이블이 레퍼런싱될 수 있다. The mpuComponent element may provide a description for service components delivered as an MPU of a corresponding service. This element may further include an @mmtPackageId attribute and / or an @nextMmtPackageId attribute. The @mmtPackageId attribute may refer to an MMT package of service components delivered as an MPU of a corresponding service. The @nextMmtPackageId attribute may refer to an MMT package to be used next to the MMT package referenced by the @mmtPackageId attribute in time. The MP table can be referenced through the information of this element.
routeComponent 엘레멘트는 ROUTE 로 전달되는 해당 서비스의 서비스 컴포넌트들에 대한 디스크립션을 포함할 수 있다. 리니어 서비스 컴포넌트들이 MMT 프로토콜로 전달되는 경우라 하더라도, NRT 데이터들은 전술한 바와 같이 ROUTE 프로토콜에 따라 전달될 수 있다. 이 엘레멘트는 이러한 NRT 데이터들에 대한 정보들을 기술할 수 있다. 이 엘레멘트의 자세한 내용에 대해서는 후술한다. The routeComponent element may include a description of service components of the corresponding service delivered to ROUTE. Even if the linear service components are delivered in the MMT protocol, the NRT data may be delivered according to the ROUTE protocol as described above. This element may describe information about such NRT data. The detail of this element is mentioned later.
broadbandComponent 엘레멘트는 브로드밴드로 전달되는 해당 서비스의 서비스 컴포넌트들에 대한 디스크립션을 포함할 수 있다. 하이브리드 서비스 딜리버리에 있어서, 한 서비스의 일부 서비스 컴포넌트 또는 기타 파일들은 브로드밴드를 통해 전달될 수 있다. 이 엘레멘트는 이러한 데이터들에 대한 정보들을 기술할 수 있다. 이 엘레멘트는 @fullMPDUri 속성을 더 포함할 수 있다. 이 속성은 브로드밴드로 전달되는 서비스 컴포넌트들에 대해 기술하는 MPD 를 레퍼런싱할 수 있다. 하이브리드 서비스 딜리버리 이외에도, 터널 내의 주행 등으로 인해 방송 신호가 약화되는 경우에 있어, 방송망-브로드밴드 간의 핸드오프(handoff) 를 지원하기 위해 본 엘레멘트가 필요할 수 있다. 방송 신호가 약해지는 경우, 브로드밴드를 통해 서비스 컴포넌트를 획득하다가, 다시 방송 신호가 강해지면 방송망을 통해 서비스 컴포넌트를 획득하여 서비스의 연속성이 보장될 수 있다. The broadbandComponent element may include a description of service components of the corresponding service delivered over broadband. In hybrid service delivery, some service components or other files of a service may be delivered over broadband. This element may describe information about these data. This element may further include the @fullMPDUri attribute. This attribute may refer to an MPD that describes service components delivered over broadband. In addition to the hybrid service delivery, when the broadcast signal is weakened due to driving in a tunnel or the like, the element may be needed to support handoff between the broadcast network and the broadband band. When the broadcast signal is weakened, while acquiring the service component through broadband, and when the broadcast signal is stronger, the service continuity may be guaranteed by acquiring the service component through the broadcast network.
ComponentInfo 엘레멘트는 해당 서비스의 서비스 컴포넌트들에 대한 정보를 포함할 수 있다. 서비스의 서비스 컴포넌트들의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. 이 엘레멘트는 각 서비스 컴포넌트의 타입, 롤(role), 이름, 식별자, 프로텍션 여부 등의 정보들을 기술할 수 있다. 이 엘레멘트의 자세한 정보에 대해서는 후술한다. The ComponentInfo element may include information on service components of a corresponding service. Depending on the number of service components of the service, there may be a plurality of these elements. This element may describe information such as the type, role, name, identifier, and protection of each service component. Detailed information on this element will be described later.
전술한 Channel 엘레멘트는 @serviceGenre 속성, @serviceIcon 속성 및/또는 ServiceDescription 엘레멘트를 더 포함할 수 있다. @serviceGenre 속성은 해당 서비스의 장르를 지시하고, @serviceIcon 속성은 해당 서비스를 대표하는 아이콘(icon) 의 URL 정보를 포함할 수 있다. ServiceDescription 엘레멘트는 해당 서비스의 서비스 디스크립션을 제공하는데, 이 엘레멘트는 @serviceDescrText 속성 및/또는 @serviceDescrLang 속성을 더 포함할 수 있다. 이 속성들은 각각 해당 서비스 디스크립션의 텍스트 및 그 텍스트에 사용되는 언어를 지시할 수 있다. The aforementioned channel element may further include an @serviceGenre attribute, an @serviceIcon attribute, and / or a ServiceDescription element. The @serviceGenre attribute may indicate the genre of the corresponding service, and the @serviceIcon attribute may include URL information of an icon representing the corresponding service. The ServiceDescription element provides a service description of the service, which may further include an @serviceDescrText attribute and / or an @serviceDescrLang attribute. Each of these attributes may indicate the text of the service description and the language used for that text.
전술한 routeComponent 엘레멘트는 @sTSIDUri 속성, @sTSIDDestinationIpAddress 속성, @sTSIDDestinationUdpPort 속성, @sTSIDSourceIpAddress 속성, @sTSIDMajorProtocolVersion 속성 및/또는 @sTSIDMinorProtocolVersion 속성을 더 포함할 수 있다. The aforementioned routeComponent element may further include an @sTSIDUri attribute, an @sTSIDDestinationIpAddress attribute, an @sTSIDDestinationUdpPort attribute, an @sTSIDSourceIpAddress attribute, an @sTSIDMajorProtocolVersion attribute, and / or an @sTSIDMinorProtocolVersion attribute.
@sTSIDUri 속성은 S-TSID 프래그먼트를 레퍼런싱할 수 있다. 이 필드는 전술한 ROUTE 로 전달되는USBD 의 해당 필드와 같을 수 있다. 이 S-TSID 는 ROUTE 로 전달되는 서비스 컴포넌트들에 대한 액세스 관련 정보를 제공할 수 있다. 이 S-TSID 는 MMT 프로토콜에 따라 리니어 서비스 컴포넌트들이 전달되는 상황에서, ROUTE 프로토콜에 따라 전달되는 NRT 데이터들을 위해 존재할 수 있다. The @sTSIDUri attribute may refer to an S-TSID fragment. This field may be the same as the corresponding field of USBD delivered to ROUTE described above. This S-TSID may provide access related information for service components delivered in ROUTE. This S-TSID may exist for NRT data delivered according to the ROUTE protocol in the situation where linear service components are delivered according to the MMT protocol.
@sTSIDDestinationIpAddress 속성, @sTSIDDestinationUdpPort 속성 및 @sTSIDSourceIpAddress 속성은 각각 전술한 S-TSID 를 운반하는 전송 패킷의 데스티네이션 IP 어드레스, 데스티네이션 UDP 포트, 소스 IP 어드레스를 나타낼 수 있다. 즉, 이 필드들은 전술한 S-TSID 를 운반하는 전송 세션(MMTP 세션 또는 ROUTE 세션)을 식별할 수 있다. The @sTSIDDestinationIpAddress attribute, the @sTSIDDestinationUdpPort attribute, and the @sTSIDSourceIpAddress attribute may indicate a destination IP address, a destination UDP port, and a source IP address of a transport packet carrying the aforementioned S-TSID, respectively. That is, these fields may identify a transport session (MMTP session or ROUTE session) carrying the aforementioned S-TSID.
@sTSIDMajorProtocolVersion 속성 및 @sTSIDMinorProtocolVersion 속성은 전술한 S-TSID 를 전달하는데 사용되는 전송 프로토콜의 메이저 버전 넘버 및 마이너 버전 넘버를 지시할 수 있다. The @sTSIDMajorProtocolVersion attribute and the @sTSIDMinorProtocolVersion attribute may indicate a major version number and a minor version number of the transport protocol used to deliver the aforementioned S-TSID.
전술한 ComponentInfo 엘레멘트는 @componentType 속성, @componentRole 속성, @componentProtectedFlag 속성, @componentId 속성 및/또는 @componentName 속성을 더 포함할 수 있다. The above-mentioned ComponentInfo element may further include an @componentType attribute, an @componentRole attribute, an @componentProtectedFlag attribute, an @componentId attribute, and / or an @componentName attribute.
@componentType 속성은 해당 컴포넌트의 타입을 지시할 수 있다. 예를 들어 이 속성은 해당 컴포넌트가 오디오, 비디오, 클로즈드캡션 컴포넌트인지를 지시할 수 있다. @componentRole 속성은 해당 컴포넌트의 롤(역할)을 지시할 수 있다. 예를 들어 이 속성은 해당 컴포넌트가 오디오 컴포넌트인 경우 메인 오디오, 뮤직, 코멘터리 등인지를 지시할 수 있다. 해당 컴포넌트가 비디오 컴포넌트인 경우 프라이머리 비디오인지 등을 지시할 수 있다. 해당 컴포넌트가 클로즈드 캡션 컴포넌트인 경우 노말 캡션인지 이지리더(easy reader) 타입인지 등을 지시할 수 있다. The @componentType attribute may indicate the type of the corresponding component. For example, this property may indicate whether the corresponding component is an audio, video, or closed caption component. The @componentRole attribute can indicate the role (role) of the corresponding component. For example, this property can indicate whether the main audio, music, commentary, etc., if the corresponding component is an audio component. If the corresponding component is a video component, it may indicate whether it is primary video. If the corresponding component is a closed caption component, it may indicate whether it is a normal caption or an easy reader type.
@componentProtectedFlag 속성은 해당 서비스 컴포넌트가 프로텍티드되었는지, 예를 들어 암호화되었는지를 지시할 수 있다. @componentId 속성은 해당 서비스 컴포넌트의 식별자를 나타낼 수 있다. 이 속성의 값은 이 서비스 컴포넌트에 해당하는 MP 테이블의 asset_id (에셋 ID) 와 같은 값일 수 있다. @componentName 속성은 해당 서비스 컴포넌트의 이름을 나타낼 수 있다. The @componentProtectedFlag attribute may indicate whether a corresponding service component is protected, for example, encrypted. The @componentId attribute may represent an identifier of a corresponding service component. The value of this attribute may be a value such as asset_id (asset ID) of the MP table corresponding to this service component. The @componentName attribute may represent the name of the corresponding service component.
도 6 은 본 발명의 일 실시예에 따른 링크 레이어(Link Layer) 동작을 도시한 도면이다. 6 illustrates a link layer operation according to an embodiment of the present invention.
링크 레이어는 피지컬 레이어와 네트워크 레이어 사이의 레이어일 수 있다. 송신 측에서는 네트워크 레이어에서 피지컬 레이어로 데이터를 전송하고, 수신 측에서는 피지컬 레이어에서 네트워크 레이어로 데이터를 전송할 수 있다(t6010). 링크 레이어의 목적은 피지컬 레이어에 의한 처리를 위해 모든 입력 패킷 타입을 하나의 포맷으로 압축(abstracting)하는 것, 아직 정의되지 않은 입력 패킷 타입에 대한 유연성(flexibility) 및 추후 확장 가능성을 보장하는 것일 수 있다. 또한 링크 레이어는 입력 패킷의 헤더의 불필요한 정보를 압축하는 옵션을 제공함으로써, 입력 데이터가 효율적으로 전송될 수 있도록 할 수 있다. 링크 레이어의 오버헤드 리덕션, 인캡슐레이션 등의 동작은 링크 레이어 프로토콜이라 불리고, 해당 프로토콜을 이용하여 생성된 패킷은 링크 레이어 패킷이라 불릴 수 있다. 링크 레이어는 패킷 인캡슐레이션(packet encapsulation), 오버헤드 리덕션(Overhead Reduction) 및/또는 시그널링 전송(Signaling Transmission) 등의 기능을 수행할 수 있다. The link layer may be a layer between the physical layer and the network layer. The transmitter may transmit data from the network layer to the physical layer, and the receiver may transmit data from the physical layer to the network layer (t6010). The purpose of the link layer may be to compress all input packet types into one format for processing by the physical layer, to ensure flexibility and future scalability for input packet types not yet defined. have. In addition, the link layer may provide an option of compressing unnecessary information in the header of the input packet, so that the input data may be efficiently transmitted. Operations such as overhead reduction and encapsulation of the link layer may be referred to as a link layer protocol, and a packet generated using the corresponding protocol may be referred to as a link layer packet. The link layer may perform functions such as packet encapsulation, overhead reduction, and / or signaling transmission.
송신측 기준으로, 링크 레이어(ALP)는 입력 패킷에 대하여 오버헤드 리덕션 과정을 수행한 후 이들을 링크 레이어 패킷으로 인캡슐레이션할 수 있다. 또한 실시예에 따라 링크 레이어는 오버헤드 리덕션 과정을 수행하지 아니하고, 링크 레이어 패킷으로 인캡슐레이션할 수도 있다. 링크 레이어 프로토콜의 사용으로 인해 피지컬 레이어 상에서 데이터의 전송에 대한 오버헤드가 크게 감소할 수 있으며, 본 발명에 따른 링크 레이어 프로토콜은 IP 오버헤드 리덕션 및/또는 MPEG-2 TS 오버헤드 리덕션을 제공할 수 있다.As a reference on the transmission side, the link layer ALP may perform an overhead reduction process on input packets and then encapsulate them into link layer packets. In addition, according to an embodiment, the link layer may encapsulate the link layer packet without performing an overhead reduction process. The use of the link layer protocol can greatly reduce the overhead for data transmission on the physical layer, and the link layer protocol according to the present invention can provide IP overhead reduction and / or MPEG-2 TS overhead reduction. have.
도시된, IP 패킷이 입력패킷으로 입력되는 경우에 있어서(t6010), 링크 레이어는 IP 헤더 압축, 어댑테이션 및/또는 인캡슐레이션 과정을 차례로 수행할 수 있다. 실시예에 따라 일부 과정은 생략될 수 있다. 먼저, RoHC 모듈이 IP 패킷 헤더 압축을 수행하여 불필요한 오버헤드를 줄이고, 어댑테이션 과정을 통해 컨텍스트 정보가 추출되고 대역 외로 전송될 수 있다. IP 헤더 압축과 어댑테이션 과정을 통칭하여 IP 헤더 압축이라 부를 수도 있다. 이 후 인캡슐레이션 과정을 통해 IP 패킷들이 링크 레이어 패킷들로 인캡슐레이션될 수 있다. In the case where the illustrated IP packet is input as an input packet (t6010), the link layer may sequentially perform IP header compression, adaptation, and / or encapsulation. In some embodiments, some processes may be omitted. First, the RoHC module performs IP packet header compression to reduce unnecessary overhead, and context information may be extracted and transmitted out of band through an adaptation process. The IP header compression and adaptation process may be collectively called IP header compression. Thereafter, IP packets may be encapsulated into link layer packets through an encapsulation process.
MPEG 2 TS 패킷이 입력패킷으로 입력되는 경우에 있어서, 링크 레이어는 TS 패킷에 대한 오버헤드 리덕션 및/또는 인캡슐레이션 과정을 차례로 수행할 수 있다. 실시예에 따라 일부 과정은 생략될 수 있다. 오버헤드 리덕션에 있어, 링크 레이어는 싱크 바이트 제거, 널 패킷 삭제 및/또는 공통(common) 헤더 제거 (압축)을 제공할 수 있다. 싱크 바이트 제거를 통해 TS 패킷당 1 바이트의 오버헤드 리덕션이 제공될 수 있다. 수신측에서 재삽입될 수 있는 방식으로 널 패킷 삭제가 수행될 수 있다. 또한 연속된 헤더들 간의 공통되는 정보들이 수신측에서 복구될 수 있는 방식으로 삭제(압축)될 수 있다. 각 오버헤드 리덕션 과정 중 일부는 생략될 수 있다. 이 후 인캡슐레이션 과정을 통해 TS 패킷들이 링크 레이어 패킷들로 인캡슐레이션될 수 있다. TS 패킷의 인캡슐레이션에 대한 링크 레이어 패킷 구조는 다른 타입의 패킷들과는 다를 수 있다. In the case where the MPEG 2 TS packet is input as an input packet, the link layer may sequentially perform an overhead reduction and / or encapsulation process for the TS packet. In some embodiments, some processes may be omitted. In overhead reduction, the link layer may provide sync byte removal, null packet deletion and / or common header removal (compression). Sync byte elimination can provide overhead reduction of 1 byte per TS packet. Null packet deletion can be performed in a manner that can be reinserted at the receiving end. In addition, common information between successive headers can be deleted (compressed) in a manner that can be recovered at the receiving side. Some of each overhead reduction process may be omitted. Thereafter, TS packets may be encapsulated into link layer packets through an encapsulation process. The link layer packet structure for encapsulation of TS packets may be different from other types of packets.
먼저 IP 헤더 압축(IP Header Compression) 에 대해서 설명한다. First, IP header compression will be described.
IP 패킷은 고정된 헤더 포맷을 가지고 있으나, 통신 환경에서 필요한 일부 정보는 브로드캐스트 환경에서 불필요할 수 있다. 링크 레이어 프로토콜은 IP 패킷의 헤더를 압축함으로써 브로드캐스트 오버헤드를 줄이는 메커니즘을 제공할 수 있다.The IP packet has a fixed header format, but some information required in a communication environment may be unnecessary in a broadcast environment. The link layer protocol may provide a mechanism to reduce broadcast overhead by compressing the header of the IP packet.
IP 헤더 압축은 헤더 컴프레서/디컴프레서 및/또는 어댑테이션 모듈을 포함할 수 있다. IP 헤더 컴프레서(RoHC 컴프레서)는 RoHC 방식에 기초하여 각 IP 패킷 헤더의 크기를 감소시킬 수 있다. 이 후 어댑테이션 모듈은 컨텍스트 정보를 추출하고 각 패킷 스트림으로부터 시그널링 정보를 생성할 수 있다. 수신기는 해당 패킷 스트림에 관련된 시그널링 정보를 파싱하고 컨텍스트 정보를 그 패킷 스트림에 붙일(attach) 수 있다. RoHC 디컴프레서는 패킷 헤더를 복구하여 원래의 IP 패킷을 재구성할 수 있다. 이하, IP 헤더 압축이란, 헤더 컴프레서에 의한 IP 헤더 압축만을 의미할 수도 있고, IP 헤더 압축과 어댑테이션 모듈에 의한 어댑테이션 과정을 합한 개념을 의미할 수도 있다. 디컴프레싱(decompressing) 에 대해서도 마찬가지이다.IP header compression may include a header compressor / decompressor and / or adaptation module. The IP header compressor (RoHC compressor) may reduce the size of each IP packet header based on the RoHC scheme. The adaptation module may then extract the context information and generate signaling information from each packet stream. The receiver may parse signaling information related to the packet stream and attach context information to the packet stream. The RoHC decompressor can reconstruct the original IP packet by recovering the packet header. Hereinafter, IP header compression may mean only IP header compression by a header compressor, or may mean a concept in which the IP header compression and the adaptation process by the adaptation module are combined. The same is true for decompressing.
이하, 어댑테이션(Adaptation) 에 대해서 설명한다. Hereinafter, the adaptation will be described.
단방향 링크를 통한 전송의 경우, 수신기가 컨텍스트의 정보를 갖고 있지 않으면, 디컴프레서는 완전한 컨텍스트를 수신할 때까지 수신된 패킷 헤더를 복구할 수 없다. 이는 채널 변경 지연 및 턴 온 딜레이 (turn-on delay)를 초래할 수 있다. 따라서 어댑테이션 기능을 통해, 컴프레서/디컴프레서 간의 컨피규레이션 파라미터와 컨텍스트 정보가 대역 외로 전송될 수 있다. 어댑테이션 펑션(function)은 컨텍스트 정보 및/또는 컨피규레이션 파라미터들을 이용하여 링크 레이어 시그널링을 생성(construction) 할 수 있다. 어댑테이션 펑션은 예전(previous) 컨피규레이션 파라미터 및/또는 컨텍스트 정보를 이용하여 각각의 피지컬 프레임을 통해 주기적으로 링크 레이어 시그널링을 전송할 수 있다.In the case of transmissions on the unidirectional link, if the receiver does not have the context information, the decompressor cannot recover the received packet headers until it receives the complete context. This can result in channel change delays and turn-on delays. Therefore, the configuration parameter and context information between the compressor / decompressor can be transmitted out of band through the adaptation function. The adaptation function may generate link layer signaling using context information and / or configuration parameters. The adaptation function may periodically send link layer signaling over each physical frame using previous configuration parameters and / or context information.
압축된 IP 패킷들로부터 컨텍스트 정보가 추출되는데, 어댑테이션 모드에 따라 다양한 방법이 사용될 수 있다. The context information is extracted from the compressed IP packets, and various methods may be used according to the adaptation mode.
모드 #1 은 압축된 패킷 스트림에 대해 어떠한 동작도 수행하지 않는 모드로서, 어댑테이션 모듈이 버퍼로서 동작하는 모드일 수 있다. Mode # 1 is a mode in which no operation is performed on the compressed packet stream, and may be a mode in which the adaptation module operates as a buffer.
모드 #2 는 압축된 패킷 스트림 중, IR 패킷을 검출하여 컨텍스트 정보(스태틱 체인)을 추출하는 모드일 수 있다. 추출후 IR 패킷은 IR-DYN 패킷으로 전환되고, IR-DYN 패킷은 원래의 IR 패킷을 대체하여 패킷 스트림 내에서 같은 순서로 전송될 수 있다. Mode # 2 may be a mode for extracting context information (static chain) by detecting IR packets in the compressed packet stream. After extraction, the IR packet is converted into an IR-DYN packet, and the IR-DYN packet can be transmitted in the same order in the packet stream by replacing the original IR packet.
모드 #3 (t6020) 는 압축된 패킷 스트림 중, IR 및 IR-DYN 패킷을 검출하고 컨텍스트 정보를 추출하는 모드일 수 있다. IR 패킷으로부터 스태틱 체인 및 다이나믹 체인이, IR-DYN 패킷으로부터 다이나믹 체인이 추출될 수 있다. 추출후 IR 및 IR-DYN 패킷은 일반 압축 패킷으로 전환될 수 있다. 전환된 패킷은 원래의 IR 및 IR-DYN 패킷을 대체하여 패킷 스트림 내에서 같은 순서로 전송될 수 있다. Mode # 3 t6020 may be a mode for detecting IR and IR-DYN packets and extracting context information from the compressed packet stream. Static chains and dynamic chains can be extracted from IR packets and dynamic chains can be extracted from IR-DYN packets. After extraction, the IR and IR-DYN packets can be converted into regular compressed packets. The switched packets can be sent in the same order within the packet stream, replacing the original IR and IR-DYN packets.
각 모드에서, 컨텍스트 정보가 추출되고 남은 패킷들은, 압축된 IP 패킷을 위한 링크 레이어 패킷 구조에 따라 인캡슐레이션 되어 전송될 수 있다. 컨텍스트 정보들은, 링크 레이어 시그널링으로서, 시그널링 정보를 위한 링크 레이어 패킷 구조에 따라 인캡슐레이션 되어 전송될 수 있다. In each mode, the remaining packets after the context information is extracted may be encapsulated and transmitted according to the link layer packet structure for the compressed IP packet. The context information may be transmitted by being encapsulated according to a link layer packet structure for signaling information as link layer signaling.
추출된 컨텍스트 정보는 RDT (RoHC-U Description Table) 에 포함되어 RoHC 패킷 플로우와 별도로 전송될 수 있다. 컨텍스트 정보는 다른 시그널링 정보와 함께 특정(specific) 피지컬 데이터 경로를 통해 전송될 수 있다. 특정 피지컬 데이터 경로란, 실시예에 따라, 일반적인 PLP 중 하나를 의미할 수도 있고, LLS (Low Level Signaling) 이 전달되는 PLP 를 의미할 수도 있고, 지정된(dedicated) PLP 일 수도 있고, L1 시그널링 패쓰(path)를 의미할 수도 있다. 여기서 RDT 는 컨텍스트 정보(스태틱 체인 및/또는 다이나믹 체인) 및/또는 헤더 컴프레션과 관련된 정보를 포함하는 시그널링 정보일 수 있다. 실시예에 따라 RDT 는 컨텍스트 정보가 바뀔 때마다 전송될 수 있다. 또한 실시예에 따라 RDT 는 매 피지컬 프레임에서 전송될 수 있다. 매 피지컬 프레임에서 RDT 를 전송하기 위해서, 예전(previous) RDT 가 재사용(re-use)될 수 있다.The extracted context information may be included in the RoHC-U Description Table (RTT) and transmitted separately from the RoHC packet flow. The context information may be transmitted through a specific physical data path along with other signaling information. According to an embodiment, a specific physical data path may mean one of general PLPs, a PLP to which LLS (Low Level Signaling) is delivered, a dedicated PLP, or an L1 signaling path. path). Here, the RDT may be signaling information including context information (static chain and / or dynamic chain) and / or information related to header compression. According to an embodiment, the RDT may be transmitted whenever the context information changes. In some embodiments, the RDT may be transmitted in every physical frame. In order to transmit the RDT in every physical frame, a previous RDT may be re-use.
수신기는 패킷 스트림을 획득하기 앞서, 최초 PLP 를 선택해 SLT, RDT, LMT 등의 시그널링 정보를 먼저 획득할 수 있다. 수신기는 이 시그널링 정보들이 획득되면, 이 들을 조합하여 서비스 - IP 정보 - 컨텍스트 정보 - PLP 간의 매핑을 획득할 수 있다. 즉, 수신기는 어떤 서비스가 어느 IP 스트림들로 전송되는지, 어떤 PLP 로 어떤 IP 스트림들이 전달되는지 등을 알 수 있고, 또한 PLP 들의 해당 컨텍스트 정보들을 획득할 수 있다. 수신기는 특정 패킷 스트림을 운반하는 PLP 를 선택하여 디코딩 할 수 있다. 어댑테이션 모듈은 컨텍스트 정보를 파싱하고 이를 압축된 패킷들과 합칠 수 있다. 이를 통해 패킷 스트림이 복구될 수 있고, 이는 RoHC 디컴프레서로 전달될 수 있다. 이후 디컴프레션이 시작될 수 있다. 이 때 수신기는 어댑테이션 모드에 따라, IR 패킷을 디텍팅하여 최초 수신된 IR 패킷으로부터 디컴프레션을 시작하거나(모드 1), IR-DYN 패킷을 디텍팅하여 최초 수신된 IR-DYN 패킷으로부터 디컴프레션을 시작하거나(모드 2), 아무 일반 압축 패킷(compressed packet)으로부터 디컴프레션을 시작할 수 있다(모드 3).Prior to acquiring the packet stream, the receiver may first select PLP to acquire signaling information such as SLT, RDT, LMT, and the like. When the signaling information is obtained, the receiver may combine these to obtain a mapping between the service-IP information-context information-PLP. That is, the receiver can know which service is transmitted to which IP streams, which IP streams are delivered to which PLP, and can also obtain corresponding context information of the PLPs. The receiver can select and decode a PLP carrying a particular packet stream. The adaptation module can parse the context information and merge it with the compressed packets. This allows the packet stream to be recovered, which can be delivered to the RoHC decompressor. Decompression can then begin. At this time, the receiver detects the IR packet and starts decompression from the first received IR packet according to the adaptation mode (mode 1), or detects the IR-DYN packet to perform decompression from the first received IR-DYN packet. Can start (mode 2), or start decompression from any normal compressed packet (mode 3).
이하, 패킷 인캡슐레이션에 대해서 설명한다. Hereinafter, packet encapsulation will be described.
링크 레이어 프로토콜은 IP 패킷, TS 패킷 등의 모든 타입의 인풋 패킷들을 링크 레이어 패킷으로인캡슐레이션할 수 있다. 이를 통해 피지컬 레이어는 네트워크 레이어의 프로토콜 타입과는 독립적으로 하나의 패킷 포맷만 처리하면 된다(여기서 네트워크 레이어 패킷의 일종으로 MPEG-2 TS 패킷을 고려). 각 네트워크 레이어 패킷 또는 입력 패킷은 제네릭 링크 레이어 패킷의 페이로드로 변형된다. The link layer protocol may encapsulate all types of input packets, such as IP packets and TS packets, into link layer packets. This allows the physical layer to process only one packet format independently of the protocol type of the network layer (here, consider MPEG-2 TS packet as a kind of network layer packet). Each network layer packet or input packet is transformed into a payload of a generic link layer packet.
패킷 인캡슐레이션 과정에서 분할(segmentation) 이 활용될 수 있다. 네트워크 레이어 패킷이 지나치게 커서 피지컬 레이어에서 처리하지 못하는 경우, 네트워크 레이어 패킷은 두 개 이상의 세그먼트들로 나누어질 수 있다. 링크 레이어 패킷 헤더는 송신 측에서 분할을 실행하고 수신 측에서 재결합을 실행하기 위한 필드들을 포함할 수 있다. 각 세그먼트들은 원래 위치와 같은 순서로 링크 레이어 패킷으로 인캡슐레이션될 수 있다. Segmentation may be utilized in the packet encapsulation process. If the network layer packet is too large to be processed by the physical layer, the network layer packet may be divided into two or more segments. The link layer packet header may include fields for performing division at the transmitting side and recombination at the receiving side. Each segment may be encapsulated into a link layer packet in the same order as the original position.
패킷 인캡슐레이션 과정에서 연쇄(concatenation) 또한 활용될 수 있다. 링크 레이어 패킷의 페이로드가 여러 네트워크 레이어 패킷을 포함할 정도로 네트워크 레이어 패킷이 충분히 작은 경우, 연쇄가 수행될 수 있다. 링크 레이어 패킷 헤더는 연쇄를 실행하기 위한 필드들을 포함할 수 있다. 연쇄의 경우 각 입력 패킷들은 원래의 입력 순서와 같은 순서로 링크 레이어 패킷의 페이로드로 인캡슐레이션될 수 있다. Concatenation may also be utilized in the packet encapsulation process. If the network layer packet is small enough that the payload of the link layer packet includes several network layer packets, concatenation may be performed. The link layer packet header may include fields for executing concatenation. In the case of concatenation, each input packet may be encapsulated into the payload of the link layer packet in the same order as the original input order.
링크 레이어 패킷은 헤더와 페이로드를 포함할 수 있고, 헤더는 베이스 헤더, 추가(additional) 헤더 및/또는 옵셔널 헤더가 포함될 수 있다. 추가 헤더는 연쇄나 분할 등의 상황에 따라 더 추가될 수 있는데, 추가헤더에는 상황에 맞춘 필요한 필드들이 포함될 수 있다. 또한 추가적인 정보의 전달을 위해 옵셔널 헤더가 더 추가될 수도 있다. 각각의 헤더 구조는 기 정의되어 있을 수 있다. 전술한 바와 같이 입력 패킷이 TS 패킷인 경우에는, 다른 패킷들과는 다른 링크 레이어 헤더 구조가 사용될 수 있다. The link layer packet may include a header and a payload, and the header may include a base header, an additional header, and / or an optional header. The additional header may be added depending on the chaining or splitting, and the additional header may include necessary fields according to the situation. In addition, an optional header may be further added to transmit additional information. Each header structure may be predefined. As described above, when the input packet is a TS packet, a link layer header structure different from other packets may be used.
이하, 링크 레이어 시그널링에 대해서 설명한다. Hereinafter, link layer signaling will be described.
링크 레이어 시그널링은 IP 레이어보다 하위 레벨에서 동작할 수 있다. 수신측에서는 LLS, SLT, SLS 등의 IP 레벨 시그널링보다, 링크 레이어 시그널링을 더 빠르게 획득할 수 있다. 따라서 링크 레이어 시그널링은 세션 설정(establishment) 이전에 획득될 수 있다. Link layer signaling may operate at a lower level than the IP layer. The receiving side can acquire the link layer signaling faster than the IP level signaling such as LLS, SLT, SLS, and the like. Therefore, link layer signaling may be obtained before session establishment.
링크 레이어 시그널링에는 인터널 링크 레이어 시그널링과 익스터널 링크 레이어 시그널링이 있을 수 있다. 인터널 링크 레이어 시그널링은 링크 레이어에서 생성된 시그널링 정보일 수 있다. 전술한 RDT 나 후술할 LMT 등이 여기에 해당할 수 있다. 익스터널 링크 레이어 시그널링은 외부 모듈 또는 외부 프로토콜, 상위 레이어로부터 전달받은 시그널링 정보일 수 있다. 링크 레이어는 링크 레이어 시그널링을 링크 레이어 패킷으로 인캡슐레이션하여 전달할 수 있다. 링크 레이어 시그널링을 위한 링크 레이어 패킷 구조(헤더 구조)가 정의될 수 있는데, 이 구조에 따라 링크 레이어 시그널링 정보가 인캡슐레이션될 수 있다.Link layer signaling may include internal link layer signaling and external link layer signaling. Internal link layer signaling may be signaling information generated in the link layer. The above-described RDT or LMT to be described later may correspond to this. The external link layer signaling may be signaling information received from an external module, an external protocol, or an upper layer. The link layer may encapsulate link layer signaling into a link layer packet and deliver it. A link layer packet structure (header structure) for link layer signaling may be defined, and link layer signaling information may be encapsulated according to this structure.
도 7 은 본 발명의 일 실시예에 따른 LMT (Link Mapping Table) 를 도시한 도면이다. FIG. 7 illustrates a link mapping table (LMT) according to an embodiment of the present invention. FIG.
LMT 는 PLP 로 운반되는 상위 레이어 세션들의 리스트를 제공할 수 있다. 또한 LMT 는 상위 레이어 세션들을 전달하는 링크 레이어 패킷들을 프로세싱하기 위한 추가적인 정보들을 제공할 수 있다. 여기서 상위 레이어 세션은 멀티캐스트(multicast) 라고 불릴 수도 있다. LMT 를 통해 특정 PLP 를 통해 어떠한 IP 스트림들, 어떠한 전송 세션들이 전송되고 있는지에 대한정보가 획득될 수 있다. 반대로 특정 전송 세션이 어느 PLP 로 전달되는지에 대한 정보를 획득할 수 있다. The LMT may provide a list of higher layer sessions carried by the PLP. The LMT may also provide additional information for processing link layer packets carrying higher layer sessions. In this case, the higher layer session may be called multicast. Information on which IP streams and which transport sessions are being transmitted through a specific PLP may be obtained through the LMT. Conversely, information on which PLP a specific transport session is delivered to may be obtained.
LMT 는 LLS 를 운반하는 것으로 식별된 어떤 PLP 로도 전달될 수 있다. 여기서 LLS 가 전달되는 PLP 는 피지컬 레이어의 L1 디테일 시그널링 정보의 LLS 플래그에 의해 식별될 수 있다. LLS 플래그는 각각의 PLP 에 대하여, 해당 PLP 로 LLS 가 전달되는지 여부를 지시하는 플래그 필드일 수 있다. 여기서 L1 디테일 시그널링 정보는 후술할 PLS2 데이터에 해당할 수 있다. The LMT may be delivered to any PLP identified as carrying an LLS. Here, the PLP through which the LLS is delivered may be identified by the LLS flag of the L1 detail signaling information of the physical layer. The LLS flag may be a flag field indicating whether LLS is delivered to the corresponding PLP for each PLP. The L1 detail signaling information may correspond to PLS2 data to be described later.
즉, LMT 는 LLS 와 함께, 같은 PLP 로 전달될 수 있다. 각각의 LMT 들은 전술한 바와 같이 PLP 들과 IP 어드레스/포트간의 매핑을 기술할 수 있다. 전술한 바와 같이 LLS 는 SLT 를 포함할 수 있는데, LMT 가 기술하는 이 IP 어드레스/포트들은, 해당 LMT 와 같은 PLP 로 전달되는 SLT 가 기술하는, 모든(any) 서비스와 관련된 모든(any) IP 어드레스/포트들일 수 있다. That is, the LMT may be delivered to the same PLP together with the LLS. Each LMT may describe the mapping between PLPs and IP address / port as described above. As mentioned above, the LLS may include an SLT, where these IP addresses / ports described by the LMT are all IP addresses associated with any service described by the SLT forwarded to the same PLP as that LMT. It can be / ports.
실시예에 따라 전술한 SLT, SLS 등에서의 PLP 식별자 정보가 활용되어, SLT, SLS 가 지시하는 특정전송 세션이 어느 PLP 로 전송되고 있는지에 대한 정보가 확인될 수 있다. According to an embodiment, the PLP identifier information in the above-described SLT, SLS, etc. may be utilized, so that information on which PLP the specific transmission session indicated by the SLT, SLS is transmitted may be confirmed.
다른 실시예에 따라 전술한 SLT, SLS 등에서의 PLP 식별자 정보는 생략되고, SLT, SLS 가 지시하는 특정 전송 세션에 대한 PLP 정보는 LMT 내의 정보를 참조함으로써 확인될 수 있다. 이 경우 수신기는 LMT 와 다른 IP 레벨 시그널링 정보들을 조합하여, 알고자 하는 PLP 를 식별할 수 있다. 이 실시예에 있어서도 SLT, SLS 등에서의 PLP 정보는 생략되지 않고, SLT, SLS 등에 남아있을 수 있다. According to another embodiment, the PLP identifier information in the above-described SLT, SLS, etc. may be omitted, and the PLP information for the specific transport session indicated by the SLT, SLS may be confirmed by referring to the information in the LMT. In this case, the receiver may identify the PLP to know by combining LMT and other IP level signaling information. Also in this embodiment, PLP information in SLT, SLS, and the like is not omitted, and may remain in the SLT, SLS, and the like.
도시된 실시예에 따른 LMT 는, signaling_type 필드, PLP_ID 필드, num_session 필드 및/또는 각각의 세션들에 대한 정보들을 포함할 수 있다. 도시된 실시예의 LMT 는 하나의 PLP 에 대해서, 그 PLP 로 전송되는 IP 스트림들을 기술하고 있지만, 실시예에 따라 LMT 에 PLP 루프가 추가되어, 복수개의 PLP 에 대한 정보가 기술될 수도 있다. 이 경우 LMT 는, 전술한 바와 같이, 함께 전달되는 SLT 가 기술하는 모든 서비스와 관련된 모든 IP 어드레스/포트들에 대한 PLP 들을, PLP 루프로 기술할 수 있다. The LMT according to the illustrated embodiment may include a signaling_type field, a PLP_ID field, a num_session field, and / or information about respective sessions. Although the LMT of the illustrated embodiment describes IP streams transmitted to one PLP for one PLP, a PLP loop may be added to the LMT according to an embodiment, so that information on a plurality of PLPs may be described. In this case, as described above, the LMT may describe PLPs for all IP addresses / ports related to all services described by the SLTs delivered together, in a PLP loop.
signaling_type 필드는 해당 테이블에 의해 전달되는 시그널링 정보의 타입을 지시할 수 있다. LMT 에 대한 signaling_type 필드의 값은 0x01로 설정될 수 있다. signaling_type 필드는 생략될 수 있다. PLP_ID 필드는 기술하고자 하는 대상 PLP 를 식별할 수 있다. PLP 루프가 사용되는 경우, 각각의 PLP_ID 필드는 각각의 대상 PLP 를 식별할 수 있다. PLP_ID 필드부터는 PLP 루프 내에 포함될 수 있다. 이하 언급되는 PLP_ID 필드는 PLP 루프 중의 PLP 하나에 대한 식별자이며, 이하 설명되는 필드들은 그 해당 PLP 에 대한 필드들일 수 있다. The signaling_type field may indicate the type of signaling information carried by the corresponding table. The value of the signaling_type field for the LMT may be set to 0x01. The signaling_type field may be omitted. The PLP_ID field may identify a target PLP to be described. When a PLP loop is used, each PLP_ID field may identify each target PLP. From the PLP_ID field may be included in the PLP loop. The PLP_ID field mentioned below is an identifier for one PLP in a PLP loop, and the fields described below may be fields for the corresponding PLP.
num_session 필드는 해당 PLP_ID 필드에 의해 식별되는 PLP 로 전달되는 상위 레이어 세션들의 개수를 나타낼 수 있다. num_session 필드가 나타내는 개수에 따라, 각각의 세션들에 대한 정보들이 포함될 수 있다. 이정보에는 src_IP_add 필드, dst_IP_add 필드, src_UDP_port 필드, dst_UDP_port 필드, SID_flag 필드, compressed_flag 필드, SID 필드 및/또는 context_id 필드가 있을 수 있다. The num_session field may indicate the number of upper layer sessions delivered to the PLP identified by the corresponding PLP_ID field. According to the number indicated by the num_session field, information about each session may be included. This information may include an src_IP_add field, a dst_IP_add field, a src_UDP_port field, a dst_UDP_port field, a SID_flag field, a compressed_flag field, a SID field, and / or a context_id field.
src_IP_add 필드, dst_IP_add 필드, src_UDP_port 필드 및 dst_UDP_port 필드는 해당 PLP_ID 필드에 의해 식별되는 PLP 로 전달되는 상위 레이어 세션들 중, 해당 전송 세션에 대한 소스 IP 어드레스, 데스티네이션 IP 어드레스, 소스 UDP 포트, 데스티네이션 UDP 포트를 나타낼 수 있다. The src_IP_add field, dst_IP_add field, src_UDP_port field, and dst_UDP_port field are the source IP address, destination IP address, source UDP port, destination UDP port for the transport session among the upper layer sessions forwarded to the PLP identified by the corresponding PLP_ID field. It can indicate a port.
SID_flag 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷이 그 옵셔널 헤더에 SID 필드를 갖는지 여부를 지시할 수 있다. 상위 레이어 세션을 전달하는 링크 레이어 패킷은 그 옵셔널 헤더에 SID 필드를 가질 수 있고, 그 SID 필드 값은 후술할 LMT 내의 SID 필드와 동일할 수 있다.The SID_flag field may indicate whether a link layer packet carrying a corresponding transport session has an SID field in its optional header. A link layer packet carrying an upper layer session may have an SID field in its optional header, and the SID field value may be the same as an SID field in an LMT to be described later.
compressed_flag 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷의 데이터들에 헤더 컴프레션이 적용되었는지 여부를 지시할 수 있다. 또한 본 필드의 값에 따라 후술할 context_id 필드의 존부가 결정될 수 있다. 헤더 컴프레션이 적용된 경우(compressed_flag = 1), RDT 가 존재할 수 있고, 그 RDT 의 PLP ID 필드는 본 compressed_flag 필드와 관련된 해당 PLP_ID 필드와 같은 값을 가질 수 있다. The compressed_flag field may indicate whether header compression has been applied to data of a link layer packet carrying a corresponding transport session. In addition, the existence of the context_id field to be described later may be determined according to the value of this field. When header compression is applied (compressed_flag = 1), an RDT may exist, and the PLP ID field of the RDT may have the same value as the corresponding PLP_ID field associated with this compressed_flag field.
SID 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷들에 대한 SID (sub stream ID) 를 지시할 수 있다. 이 링크 레이어 패킷들은, 그 옵셔널 헤더에 본 SID 필드와 같은 값을 가지는 SID 를 포함하고 있을 수 있다. 이를 통해 수신기는 링크 레이어 패킷을 전부 파싱할 필요 없이, LMT 의 정보와 링크 레이어 패킷 헤더의 SID 정보를 이용하여, 링크 레이어 패킷들을 필터링할 수 있다.The SID field may indicate a sub stream ID (SID) for link layer packets carrying a corresponding transport session. These link layer packets may include an SID having the same value as this SID field in the optional header. Through this, the receiver can filter the link layer packets by using the information of the LMT and the SID information of the link layer packet header without parsing all the link layer packets.
context_id 필드는 RDT 내의 CID(context id) 에 대한 레퍼런스를 제공할 수 있다. RDT 의 CID 정보는 해당되는 압축 IP 패킷 스트림에 대한 컨텍스트 ID 를 나타낼 수 있다. RDT 는 해당 압축 IP 패킷 스트림에 대한 컨텍스트 정보들을 제공할 수 있다. 본 필드를 통해 RDT 와 LMT 가 연관될 수 있다. The context_id field may provide a reference to a context id (CID) in the RDT. The CID information of the RDT may indicate the context ID for the corresponding compressed IP packet stream. The RDT may provide context information for the compressed IP packet stream. RDT and LMT may be associated with this field.
전술한, 본 발명의 시그널링 정보/테이블의 실시예들에 있어서, 각각의 필드, 엘레멘트, 속성들은 생략되거나 다른 필드로 대체될 수 있으며, 실시예에 따라 추가적인 필드, 엘레멘트, 속성들이 추가될 수도 있다. In the above-described embodiments of the signaling information / table of the present invention, each field, element, or attribute may be omitted or replaced by another field, and additional fields, elements, or attributes may be added according to an embodiment. .
본 발명의 일 실시예에서, 한 서비스의 서비스 컴포넌트들이 복수개의 ROUTE 세션을 통해 전달될 수 있다. 이 경우, SLT 의 부트스트랩 정보를 통하여 SLS 가 획득될 수 있다. 이 SLS 의 USBD 를 통해 S-TSID 와 MPD 가 레퍼런싱될 수 있다. S-TSID 는 SLS 가 전달되고 있는 ROUTE 세션 뿐 아니라, 서비스 컴포넌트들이 전달되고 있는 다른 ROUTE 세션에 대한 전송 세션 디스크립션 정보 또한 기술할 수 있다. 이를 통해 복수개의 ROUTE 세션을 통해 전달되는 서비스 컴포넌트들이 모두 수집될 수 있다. 이러한 사항은 한 서비스의 서비스 컴포넌트들이 복수개의 MMTP 세션을 통해 전달되는 경우에도 유사하게 적용될 수 있다. 참고로, 하나의 서비스 컴포넌트는 복수개의 서비스에 의해 동시에 사용될 수도 있다. In one embodiment of the present invention, service components of one service may be delivered through a plurality of ROUTE sessions. In this case, the SLS may be obtained through the bootstrap information of the SLT. The SLS's USBD allows the S-TSID and MPD to be referenced. The S-TSID may describe transport session description information for other ROUTE sessions to which service components are delivered, as well as a ROUTE session to which an SLS is being delivered. Through this, all service components delivered through a plurality of ROUTE sessions may be collected. This may be similarly applied when service components of a service are delivered through a plurality of MMTP sessions. For reference, one service component may be used simultaneously by a plurality of services.
본 발명의 또 다른 실시예에서, ESG 서비스에 대한 부트스트래핑은 방송망 또는 브로드밴드에 의해 수행될 수 있다. 브로드밴드를 통한 ESG 획득을 통해, SLT 의 URL 정보가 활용될 수 있다. 이 URL 로 ESG 정보 등이 요청될 수 있다. In another embodiment of the present invention, bootstrapping for ESG services may be performed by a broadcast network or broadband. Through ESG acquisition through broadband, URL information of the SLT may be utilized. ESG information and the like can be requested to this URL.
본 발명의 또 다른 실시예에서, 한 서비스의 서비스 컴포넌트가 하나는 방송망으로 하나는 브로드밴드로 전달될 수 있다(하이브리드). S-TSID 는 방송망으로 전달되는 컴포넌트들에 대해 기술해, ROUTE 클라이언트가 원하는 서비스 컴포넌트들을 획득케 할 수 있다. 또한 USBD 는 베이스 패턴 정보를 가지고 있어, 어느 세그먼트들이(어느 컴포넌트들이) 어느 경로로 전달되는지 기술할 수 있다. 따라서 수신기는 이를 이용해, 브로드밴드 서버로 요청해야될 세그먼트는 무엇인지, 방송 스트림에서 찾아야될 세그먼트는 무엇인지 알 수 있다. In another embodiment of the present invention, one service component of one service may be delivered to the broadcasting network and one to the broadband (hybrid). The S-TSID may describe components delivered to a broadcasting network, so that a ROUTE client may acquire desired service components. USBD also has base pattern information, which allows you to describe which segments (which components) are to be routed to which path. Therefore, the receiver can use this to know what segment to request to the broadband server and what segment to find in the broadcast stream.
본 발명의 또 다른 실시예에서, 서비스에 대한 스케일러블(scalable) 코딩이 수행될 수 있다. USBD 는 해당 서비스를 렌더링하기 위해 필요한 모든 캐패빌리티 정보를 가질 수 있다. 예를 들어 한 서비스가 HD 또는 UHD 로 제공되는 경우, USBD 의 캐패빌리티 정보는 "HD 또는 UHD" 값을 가질 수 있다. 수신기는 MPD 를 이용하여 UHD 또는 HD 서비스를 렌더링하기 위하여 어느 컴포넌트가 재생되어야 하는지 알 수 있다. In another embodiment of the present invention, scalable coding for a service may be performed. The USBD may have all the capability information needed to render the service. For example, when a service is provided in HD or UHD, the capability information of the USBD may have a value of “HD or UHD”. The receiver may know which component should be played in order to render the UHD or HD service using the MPD.
본 발명의 또 다른 실시예에서, SLS 를 전달하는 LCT 채널로 전달되는 LCT 패킷들의 TOI 필드를 통해, 해당 LCT 패킷들이 어느 SLS 프래그먼트를 전달하고 있는지(USBD, S-TSID, MPD 등..) 가 식별될 수 있다. In another embodiment of the present invention, through the TOI field of the LCT packets delivered to the LCT channel carrying SLS, which SLS fragments the corresponding LCT packets carry (USBD, S-TSID, MPD, etc.) Can be identified.
본 발명의 또 다른 실시예에서, 앱 기반 인핸스먼트/ 앱 기반 서비스에 사용될 앱 컴포넌트들은 NRT 컴포넌트로서 방송망을 통해 전달되거나 브로드밴드를 통해 전달될 수 있다. 또한 앱 기반 인핸스먼트에 대한 앱 시그널링은 SLS 와 함께 전달되는 AST (Application Signaling Table) 에 의해 수행될 수 있다. 또한 앱이 수행할 동작에 대한 시그널링인 이벤트는 SLS 와 함께 EMT (Event Message Table) 형태로 전달되거나, MPD 내에 시그널링되거나, DASH 레프리젠테이션 내에 box 형태로 인밴드(in-band) 시그널링될 수 있다. AST, EMT 등은 브로드밴드를 통해 전달될 수도 있다. 수집된 앱 컴포넌트들과 이러한 시그널링 정보들을 이용해 앱 기반 인핸스먼트 등이 제공될 수 있다. In another embodiment of the present invention, app components to be used for app-based enhancement / app-based service may be delivered through a broadcast network or through broadband as an NRT component. In addition, app signaling for app-based enhancement may be performed by an application signaling table (AST) delivered with SLS. In addition, an event, which is a signaling of an operation to be performed by the app, may be delivered in the form of an event message table (EMT) with SLS, signaled in an MPD, or in-band signaled in a box in a DASH representation. . AST, EMT, etc. may be delivered via broadband. App-based enhancement may be provided using the collected app components and such signaling information.
본 발명의 또 다른 실시예에서, 긴급 경보를 위해 CAP 메시지가 전술한 LLS 테이블에 포함되어 제공될 수 있다. 긴급 경보를 위한 리치 미디어(Rich Media) 컨텐츠 역시 제공될 수 있다. 리치 미디어는 CAP 메시지에 의해 시그널링될 수 있으며, 리치 미디어가 존재하는 경우 이는 SLT 에 의해 시그널링되는 EAS 서비스로서 제공될 수 있다. In another embodiment of the present invention, a CAP message may be included in the aforementioned LLS table for emergency alerting. Rich media content for emergency alerts may also be provided. Rich media may be signaled by the CAP message, and if rich media is present it may be provided as an EAS service signaled by the SLT.
본 발명의 또 다른 실시예에서, MMT 프로토콜에 따라 리니어 서비스 컴포넌트들이 방송망을 통해 전달될 수 있다. 이 경우 해당 서비스에 대한 NRT 데이터(예를 들어 앱 컴포넌트)들은 ROUTE 프로토콜에 따라 방송망을 통해 전달될 수 있다. 또한 해당 서비스에 대한 데이터가 브로드밴드를 통해 전달될 수도 있다. 수신기는 SLT 의 부트스트랩 정보를 이용해 SLS 를 전달하는 MMTP 세션에 접근할 수 있다. MMT 에 따른 SLS 의 USBD 는 MP 테이블을 레퍼런싱하여, 수신기가 MMT 프로토콜에 따라 전달되는 MPU 로 포맷된 리니어 서비스 컴포넌트들을 획득케 할 수 있다. 또한, USBD 는 S-TSID 를 더 레퍼런싱하여, 수신기가 ROUTE 프로토콜에 따라 전달되는 NRT 데이터를 획득케 할 수 있다. 또한, USBD 는 MPD 를 더 레퍼런싱하여, 브로드밴드를 통해 전달되는 데이터에 대한 재생 디스크립션을 제공할 수 있다. In another embodiment of the present invention, the linear service components may be delivered through a broadcasting network according to the MMT protocol. In this case, NRT data (for example, an app component) for a corresponding service may be delivered through a broadcasting network according to the ROUTE protocol. In addition, data on the service may be delivered through broadband. The receiver can access the MMTP session carrying the SLS using the bootstrap information of the SLT. The USBD of the SLS according to the MMT may refer to the MP table so that the receiver may acquire linear service components formatted with the MPU delivered according to the MMT protocol. In addition, the USBD may further refer to the S-TSID to allow the receiver to obtain NRT data delivered according to the ROUTE protocol. In addition, the USBD may further reference the MPD to provide a playback description for the data delivered over the broadband.
본 발명의 또 다른 실시예에서, 수신기는 그 컴패니언 디바이스에 스트리밍 컴포넌트 및/또는 파일 컨텐트 아이템(파일 등)을 획득할 수 있는 로케이션 URL 정보를, 웹소켓 등의 방법을 통해 전달할 수 있다. 컴패니언 디바이스의 어플리케이션은 이 URL 로 HTTP GET 등을 통해 요청하여 해당 컴포넌트, 데이터 등을 획득할 수 있다. 그 밖에 수신기는 시스템 타임 정보, 긴급 경보 정보 등의 정보를 컴패니언 디바이스 측에 전달할 수 있다. In another embodiment of the present invention, the receiver may transmit location URL information for obtaining a streaming component and / or a file content item (such as a file) to the companion device through a method such as a web socket. An application of a companion device may request the component, data, and the like by requesting the URL through an HTTP GET. In addition, the receiver may transmit information such as system time information and emergency alert information to the companion device.
도 8 은 본 발명의 일 실시예에 따른 하이브리드 방송 수신 장치를 나타낸 도면이다. 8 is a diagram illustrating a hybrid broadcast reception device according to an embodiment of the present invention.
하이브리드 방송 시스템은 지상파 방송망 및 인터넷 망을 연동하여 방송 신호를 송신할 수 있다. 하이브리드 방송 수신 장치는 지상파 방송망 (브로드캐스트) 및 인터넷 망 (브로드밴드)을 통해 방송 신호를 수신할 수 있다. 하이브리드 방송 수신 장치는 피지컬 레이어 모듈, 피지컬 레이어 I/F 모듈, 서비스/컨텐트 획득 컨트롤러, 인터넷 억세스 제어 모듈, 시그널링 디코더, 서비스 시그널링 매니저, 서비스 가이드 매니저, 어플리케이션 시그널링 매니저, 경보 신호 매니저, 경보 신호 파서, 타겟팅 신호 파서, 스트리밍 미디어 엔진, 비실시간 파일 프로세서, 컴포넌트 싱크로나이저, 타겟팅 프로세서, 어플리케이션 프로세서, A/V 프로세서, 디바이스 매니저, 데이터 셰어링 및 커뮤니케이션 유닛, 재분배 모듈, 컴패니언 디바이스 및/또는 외부 모듈들을 포함할 수 있다. The hybrid broadcasting system may transmit a broadcast signal by interworking a terrestrial broadcasting network and an internet network. The hybrid broadcast reception device may receive a broadcast signal through a terrestrial broadcast network (broadcast) and an internet network (broadband). The hybrid broadcast receiver includes a physical layer module, a physical layer I / F module, a service / content acquisition controller, an internet access control module, a signaling decoder, a service signaling manager, a service guide manager, an application signaling manager, an alarm signal manager, an alarm signal parser, Targeting signal parser, streaming media engine, non-real time file processor, component synchronizer, targeting processor, application processor, A / V processor, device manager, data sharing and communication unit, redistribution module, companion device and / or external modules can do.
피지컬 레이어 모듈 (Physical Layer Module(s))은 지상파 방송 채널을 통하여 방송 관련 신호를 수신 및 처리하고 이를 적절한 형태로 변환하여 피지컬 레이어 I/F 모듈로 전달할 수 있다. The physical layer module (s) may receive and process a broadcast-related signal through a terrestrial broadcast channel, convert it into an appropriate form, and deliver the signal to a physical layer I / F module.
피지컬 레이어 I/F 모듈 (Physical Layer I/F Module(s))은 Physical layer Module로 부터 획득된 정보로부터 IP 데이터 그램을 획득할 수 있다. 또한, 피지컬 레이어 I/F 모듈은 획득된 IP 데이터그램 등을 특정 프레임(예를 들어 RS Frame, GSE 등) 으로 변환할 수 있다.The physical layer I / F module (s) may obtain an IP datagram from information obtained from the physical layer module. In addition, the physical layer I / F module may convert the obtained IP datagram into a specific frame (eg, RS Frame, GSE, etc.).
서비스/컨텐트 획득 컨트롤러 (Service/Content Acquisition Controller)는 broadcast 및/또는 broadband 채널을 통한 서비스, 콘텐츠 및 이와 관련된 시그널링 데이터 획득을 위한 제어 동작을 수행할 수 있다.The service / content acquisition controller may perform a control operation for acquiring service, content, and signaling data related thereto through broadcast and / or broadband channels.
인터넷 억세스 제어 모듈(Internet Access Control Module(s))은 Broadband 채널을 통하여 서비스, 콘텐츠 등을 획득하기 위한 수신기 동작을 제어할 수 있다.The Internet Access Control Module (s) may control a receiver operation for acquiring a service, content, or the like through a broadband channel.
시그널링 디코더 (Signaling Decoder)는 broadcast 채널 등을 통하여 획득한 시그널링 정보를 디코딩할 수 있다. The signaling decoder may decode signaling information obtained through a broadcast channel.
서비스 시그널링 매니저 (Service Signaling Manager)는 IP 데이터 그램 등으로부터 서비스 스캔 및 서비스/콘텐츠 등과 관련된 시그널링 정보 추출, 파싱 및 관리할 수 있다. The service signaling manager may extract, parse, and manage signaling information related to service scan and service / content from an IP datagram.
서비스 가이드 매니저 (Service Guide Manager)는 IP 데이터 그램 등으로 부터 announcement 정보를 추출하고 SG(Service Guide) database 관리하며, service guide를 제공할 수 있다. The service guide manager may extract announcement information from an IP datagram, manage an SG database, and provide a service guide.
어플리케이션 시그널링 매니저 (App Signaling Manager)는 IP 데이터 그램 등으로 부터 애플리케이션 획득 등과 관련된 시그널링 정보 추출, 파싱 및 관리할 수 있다.The App Signaling Manager may extract, parse and manage signaling information related to application acquisition from an IP datagram.
경보 신호 파서 (Alert Signaling Parser)는 IP 데이터 그램 등으로 부터 alerting 관련된 시그널링 정보 추출 및 파싱, 관리할 수 있다.Alert Signaling Parser can extract, parse and manage signaling information related to alerting from IP datagram.
타겟팅 신호 파서 (Targeting Signaling Parser)는 IP 데이터 그램 등으로 부터 서비스/콘텐츠 개인화 혹은 타겟팅 관련된 시그널링 정보 추출 및 파싱, 관리할 수 있다. 또한 타겟팅 신호 파서는 파싱된 시그널링 정보를 타겟팅 프로세서로 전달할 수 있다.Targeting Signaling Parser can extract, parse and manage signaling information related to service / content personalization or targeting from IP datagram. In addition, the targeting signal parser may deliver the parsed signaling information to the targeting processor.
스트리밍 미디어 엔진 (Streaming Media Engine)은 IP 데이터그램 등으로 부터 A/V 스트리밍을 위한 오디오/비디오 데이터 추출 및 디코딩할 수 있다. The streaming media engine can extract and decode audio / video data for A / V streaming from IP datagrams.
비실시간 파일 프로세서 (Non-real time File Processor)는 IP 데이터그램 등으로 부터 NRT 데이터 및 application 등 파일 형태 데이터 추출 및 디코딩, 관리할 수 있다.The non-real time file processor can extract, decode and manage file type data such as NRT data and applications from IP datagrams.
컴포넌트 싱크로나이저 (Component Synchronizer)는 스트리밍 오디오/비디오 데이터 및 NRT 데이터 등의 콘텐츠 및 서비스를 동기화할 수 있다. The Component Synchronizer can synchronize content and services such as streaming audio / video data and NRT data.
타겟팅 프로세서 (Targeting Processor)는 타겟팅 신호 파서로부터 수신한 타겟팅 시그널링 데이터에 기초하여 서비스/콘텐츠의 개인화 관련 연산을 처리할 수 있다. The targeting processor may process an operation related to personalization of a service / content based on the targeting signaling data received from the targeting signal parser.
어플리케이션 프로세서 (App Processor)는 application 관련 정보 및 다운로드 된 application 상태 및 디스플레이 파라미터 처리할 수 있다. The App Processor may process application related information, downloaded application status, and display parameters.
A/V 프로세서 (A/V Processor)는 디코딩된 audio 및 video data, application 데이터 등을 기반으로 오디오/비디오 랜더링 관련 동작을 수행할 수 있다. The A / V Processor may perform audio / video rendering related operations based on decoded audio, video data, and application data.
디바이스 매니저 (Device Manager)는 외부 장치와의 연결 및 데이터 교환 동작을 수행할 수 있다. 또한 디바이스 매니저는 연동 가능한 외부 장치의 추가/삭제/갱신 등 외부 장치에 대한 관리 동작을 수행할 수 있다. The device manager may perform a connection and data exchange operation with an external device. In addition, the device manager may perform management operations on external devices, such as adding, deleting, and updating external devices that can be interworked.
데이터 셰어링 및 커뮤니케이션 유닛 (Data Sharing & Comm.)은 하이브리드 방송 수신기와 외부 장치 간의 데이터 전송 및 교환에 관련된 정보를 처리할 수 있다. 여기서, 전송 및 교환 가능한 데이터는 시그널링, A/V 데이터 등이 될 수 있다.The data sharing & communication unit can process information related to data transmission and exchange between the hybrid broadcast receiver and an external device. Here, the data that can be transmitted and exchanged may be signaling, A / V data, or the like.
재분배 모듈 (Redistribution Module(s))은 방송 수신기가 지상파 방송 신호를 직접 수신 하지 못하는 경우 차세대 방송 서비스 및 콘텐츠에 대한 관련 정보를 획득할 수 있다. 또한 재분배 모듈은 방송 수신기가 지상파 방송 신호를 직접 수신 하지 못하는 경우 차세대 방송 시스템에 의한 방송 서비스 및 콘텐츠 획득을 지원할 수 있다. The redistribution module (s) may obtain relevant information about next-generation broadcast services and contents when the broadcast receiver does not directly receive the terrestrial broadcast signal. In addition, the redistribution module may support the acquisition of broadcast services and content by the next generation broadcast system when the broadcast receiver does not directly receive the terrestrial broadcast signal.
컴패니언 디바이스 (Companion device(s))는 본 발명의 방송 수신기에 연결되어 오디오, 비디오, 또는 시그널링 포함데이터를 공유할 수 있다. 컴패니언 디바이스는 방송 수신기와 연결된 외부 장치를 지칭할 수 있다.Companion device (s) may be connected to the broadcast receiver of the present invention to share audio, video, or signaling inclusion data. The companion device may refer to an external device connected to the broadcast receiver.
외부 모듈 (External Management)는 방송 서비스/콘텐츠 제공을 위한 모듈을 지칭할 수 있으며 예를들어 차세대 방송 서비스/컨텐츠 서버가 될 수 있다. 외부 모듈은 방송 수신기와 연결된 외부 장치를 지칭할 수 있다.The external module may refer to a module for providing a broadcast service / content and may be, for example, a next generation broadcast service / content server. The external module may refer to an external device connected to the broadcast receiver.
도 9 는 본 발명의 일 실시예에 따른 DASH 기반 적응형(Adaptive) 스트리밍 모델의 전반적인 동작을 도시한 도면이다. 9 is a diagram illustrating the overall operation of the DASH-based adaptive streaming model according to an embodiment of the present invention.
본 발명은 HDR (High Dynamic Range) 지원 가능한 컨텐트를 제공하는 차세대 미디어 서비스 제공 방안을 제안한다. 풍부한 밝기 표현이 가능한 HDR 컨텐트가 제공되는 경우에 있어, 본 발명은 이와 관련한 메타데이터 및 그 전달방안을 제안한다. 이를 통해 컨텐트의 다양한 장면별 특성에 따라 적응적으로 컨텐트가 조정될 수 있고, 컨텐트가 개선된 화질로 제공될 수 있다. The present invention proposes a next-generation media service providing method for providing content capable of supporting High Dynamic Range (HDR). In the case where HDR content capable of expressing rich brightness is provided, the present invention proposes metadata and a delivery method thereof. Through this, the content may be adaptively adjusted according to various scene-specific characteristics of the content, and the content may be provided with improved image quality.
UHD 방송 등의 경우, 기존의 컨텐트들이 표현하지 못했던 밝기가 표현될 수 있어, 고도의 현장감이 제공될 수 있다. HDR 의 도입으로 컨텐트 영상의 밝기의 표현 범위가 증가되어, 컨텐트의 장면별 특성의 차이가 이전보다 커질 수 있다. 컨텐트의 장면별 특징들을 효과적으로 디스플레이에 나타내기 위하여, 메타데이터가 정의되고 이 것들이 수신기로 전달될 수 있다. 수신기에서는 전달받은 메타데이터들을 기반으로, 서비스 프로바이더가 의도한 바에 따라 적절하게 컨텐트의 영상이 제공될 수 있다. In the case of UHD broadcasting or the like, brightness that cannot be expressed by existing contents can be expressed, thereby providing a high level of realism. With the introduction of HDR, the range of expression of the brightness of the content image is increased, and the difference in the scene-specific characteristics of the content may be larger than before. In order to effectively represent scene-specific features of the content on the display, metadata may be defined and these may be passed to the receiver. At the receiver, based on the received metadata, an image of the content may be appropriately provided as intended by the service provider.
본 발명은 ISOBMFF 등의 미디어 파일을 기반으로, HDR 을 제공하는 컨텐트의 비디오 트랙, 비디오 샘플 등과 관련된 HDR 파라미터를 시그널링하는 방안을 제안한다. 본 발명은 비디오 트랙(스트림)과 관련된 HDR 플래그들 및/또는 파라미터를 저장하고 시그널링하는 방안을 제안한다. 본 발명은 비디오 샘플, 비디오 샘플 그룹 또는 비디오 샘플 엔트리에 관련된 HDR 플래그들 및/또는 파라미터를 저장하고 시그널링하는 방안을 제안한다. 본 발명은 HDR 관련 정보를 포함하는 SEI NAL 유닛을 저장하고 시그널링하는 방안을 제안한다. The present invention proposes a method of signaling HDR parameters related to video tracks, video samples, etc. of content providing HDR based on a media file such as ISOBMFF. The present invention proposes a method of storing and signaling HDR flags and / or parameters associated with a video track (stream). The present invention proposes a method of storing and signaling HDR flags and / or parameters related to a video sample, a video sample group or a video sample entry. The present invention proposes a method of storing and signaling an SEI NAL unit including HDR related information.
본 발명에 따른 HDR 정보의 저장/전달 방안은, HDR 을 지원하는 컨텐트의 생성에 있어 활용될 수 있다. 즉, HDR 을 지원하는 컨텐트에 대한 미디어 파일의 생성, MPEG DASH 상에서 동작하는 DASH 세그먼트의 생성 또는 MPEG MMT 상에서 동작하는 MPU 생성시에, 본 발명의 방안이 활용될 수 있다. 수신기(DASH 클라이언트, MMT 클라이언트 등을 포함)는, 디코더 등에서 HDR 정보(플래그, 파라미터, 박스 등등)을 획득하여, 이를 기반으로 해당 컨텐트를 효과적으로 제공할 수 있다. The storage / delivery method of HDR information according to the present invention may be utilized in the generation of content supporting HDR. That is, the method of the present invention may be utilized when generating a media file for content that supports HDR, generating a DASH segment operating on MPEG DASH, or generating an MPU operating on MPEG MMT. The receiver (including a DASH client, an MMT client, etc.) may obtain HDR information (flag, parameter, box, etc.) from a decoder and the like, and effectively provide the corresponding content based on the information.
후술할 HDR 컨피규레이션 박스 또는 HDR 관련 플래그 정보들은, 미디어 파일, DASH 세그먼트 또는 MMT MPU 내의 여러 박스들에 동시에 존재할 수도 있다. 이 경우, 상위 박스에서 정의된 HDR 정보들은 하위 박스에서 정의된 HDR 정보들에 의해 오버라이드(override) 될 수 있다. 예를 들어 tkhd 박스와 vmhd 박스에 HDR 정보가 동시에 포함되는 경우, tkhd 박스의 HDR 정보는 vmhd 박스의 HDR 정보로 오버라이드될 수 있다. HDR configuration box or HDR related flag information, which will be described later, may exist simultaneously in multiple boxes in a media file, DASH segment, or MMT MPU. In this case, the HDR information defined in the upper box may be overridden by the HDR information defined in the lower box. For example, when the HDR information is simultaneously included in the tkhd box and the vmhd box, the HDR information of the tkhd box may be overridden by the HDR information of the vmhd box.
도시된 실시예에 따른 DASH 기반 적응형 스트리밍 모델은, HTTP 서버와 DASH 클라이언트 간의 동작을 기술하고 있다. 여기서 DASH (Dynamic Adaptive Streaming over HTTP) 는, HTTP 기반 적응형 스트리밍을 지원하기 위한 프로토콜로서, 네트워크 상황에 따라 동적으로 스트리밍을 지원할 수 있다. 이에 따라 AV 컨텐트 재생이 끊김없이 제공될 수 있다. The DASH-based adaptive streaming model according to the illustrated embodiment describes the operation between the HTTP server and the DASH client. Here, DASH (Dynamic Adaptive Streaming over HTTP) is a protocol for supporting HTTP-based adaptive streaming, and can dynamically support streaming according to network conditions. Accordingly, the AV content can be provided without interruption.
먼저 DASH 클라이언트는 MPD 를 획득할 수 있다. MPD 는 HTTP 서버 등의 서비스 프로바이더로부터 전달될 수 있다. MPD 는 전술한 딜리버리 실시예에 따라 전달될 수도 있다. DASH 클라이언트는 MPD 에 기술된 세그먼트에의 접근 정보를 이용하여 서버로 해당 세그먼트들을 요청할 수 있다. 여기서 이 요청은 네트워크 상태를 반영하여 수행될 수 있다. First, the DASH client can obtain the MPD. MPD may be delivered from a service provider such as an HTTP server. The MPD may be delivered according to the delivery embodiment described above. The DASH client can request the segments from the server using the access information to the segment described in the MPD. In this case, the request may be performed by reflecting the network state.
DASH 클라이언트는 해당 세그먼트를 획득한 후, 이를 미디어 엔진에서 처리하여 화면에 디스플레이할 수 있다. DASH 클라이언트는 재생 시간 및/또는 네트워크 상황 등을 실시간으로 반영하여, 필요한 세그먼트를 요청, 획득할 수 있다(Adaptive Streaming). 이를 통해 컨텐트가 끊김없이 재생될 수 있다. After acquiring the segment, the DASH client may process it in the media engine and display the segment on the screen. The DASH client may request and acquire a required segment by adaptively reflecting a playing time and / or a network condition (Adaptive Streaming). This allows the content to be played back seamlessly.
MPD (Media Presentation Description) 는 DASH 클라이언트로 하여금 세그먼트를 동적으로 획득할 수 있도록 하기 위한 상세 정보를 포함하는 파일로서 XML 형태로 표현될 수 있다. 이 MPD 는 실시예에 따라 전술한 MPD 와 같을 수 있다. Media Presentation Description (MPD) may be represented in XML form as a file containing detailed information for allowing a DASH client to dynamically acquire a segment. This MPD may be the same as the MPD described above according to an embodiment.
DASH 클라이언트 컨트롤러(DASH Client Controller) 는 네트워크 상황을 반영하여 MPD 및/또는 세그먼트를 요청하는 커맨드를 생성할 수 있다. 또한, 이 컨트롤러는 획득된 정보를 미디어 엔진 등등의 내부 블락에서 사용할 수 있도록 제어할 수 있다. The DASH Client Controller may generate a command for requesting the MPD and / or the segment reflecting the network situation. In addition, the controller can control the obtained information to be used in an internal block of the media engine or the like.
MPD 파서(Parser) 는 획득한 MPD 를 실시간으로 파싱할 수 있다. 이를 통해, DASH 클라이언트 컨트롤러는 필요한 세그먼트를 획득할 수 있는 커맨드를 생성할 수 있게 될 수 있다. The MPD Parser may parse the acquired MPD in real time. This allows the DASH client controller to generate a command to obtain the required segment.
세그먼트 파서(Parser) 는 획득한 세그먼트를 실시간으로 파싱할 수 있다. 세그먼트에 포함된 정보들에 따라 미디어 엔진 등의 내부 블락들은 특정 동작을 수행할 수 있다.The segment parser may parse the acquired segment in real time. Internal blocks such as the media engine may perform a specific operation according to the information included in the segment.
HTTP 클라이언트는 필요한 MPD 및/또는 세그먼트 등을 HTTP 서버에 요청할 수 있다. 또한 HTTP 클라이언트는 서버로부터 획득한 MPD 및/또는 세그먼트들을 MPD 파서 또는 세그먼트 파서로 전달할 수 있다. The HTTP client may request the HTTP server for necessary MPDs and / or segments. The HTTP client may also pass MPD and / or segments obtained from the server to the MPD parser or segment parser.
미디어 엔진(Media Engine) 은 세그먼트에 포함된 미디어 데이터를 이용하여 컨텐트를 화면상에 표시할 수 있다. 이 때, MPD 의 정보들이 활용될 수 있다. The media engine may display content on the screen using media data included in the segment. At this time, the information of the MPD may be utilized.
도 10 은 본 발명의 일 실시예에 따른 DASH (Dynamic Adaptive Streaming over HTTP) 데이터 모델 (data model)을 나타낸 도면이다.FIG. 10 is a diagram illustrating a dynamic adaptive streaming over HTTP (DASH) data model according to an embodiment of the present invention. FIG.
본 발명의 일 실시예에 따른 송신 장치는 MPEG DASH 내에서, HDR (High Dynamic Range) configuration information을 시그널링함으로써 DASH 기반의 클라이언트가 HDR 서비스를 제공하도록 할 수 있다. 즉, 본 발명의 일 실시예에 따른 송신 장치는 HDR 콘텐츠 자체에 대한 configuration information을 시그널링할 수 있다.The transmitting apparatus according to an embodiment of the present invention may enable a DASH-based client to provide an HDR service by signaling high dynamic range (HDR) configuration information in MPEG DASH. That is, the transmission device according to an embodiment of the present invention may signal configuration information on the HDR content itself.
본 발명의 일 실시예에 따르면, MPEG DASH 내에서의 HDR (High Dynamic Range) configuration information에 대한 시그널링은 DASH 기반의 시스템에 적용될 수 있다. 예를 들어, ATSC 3.0, DVB IPTV, DASG 기반의 스트리밍 시스템 등에 적용될 수 있다.According to an embodiment of the present invention, signaling for high dynamic range (HDR) configuration information in MPEG DASH may be applied to a DASH-based system. For example, it can be applied to ATSC 3.0, DVB IPTV, DASG-based streaming system.
본 발명의 일 실시예에 따른 송신 장치는 HDR 관련 파라미터 (EOTF, bit depth, peak luminance, codec 정보, metadata 등)를 모아 하나의 세트 (set)로 구성하고, 구성된 세트를 시그널링할 수 있다. 이 경우, 본 발명의 일 실시예에 따른 송신 장치는 상술한 HDR 관련 파라미터 세트가 모든 수신기에서 제공되지 않을 수 있으므로 MPD에서 HDR 타입을 시그널링할 수 있다.The transmitting apparatus according to an embodiment of the present invention may collect HDR-related parameters (EOTF, bit depth, peak luminance, codec information, metadata, etc.) into one set and signal the configured set. In this case, the transmitting apparatus according to an embodiment of the present invention may signal the HDR type in the MPD since the above-described HDR-related parameter set may not be provided in all receivers.
본 발명의 일 실시예에 따른 DASH 데이터 모델에 따르면, Media Presentation은 하나 이상의 Period를 포함할 수 있다. 하나의 Period는 하나 이상의 Adaptation Set을 포함할 수 있다. 하나의 Adaptation Set은 하나 이상의 Representation을 포함할 수 있다. 하나의 Representation은 하나 이상의 Segment Information을 포함할 수 있다. 하나의 Segment Information은 Initialization Segment 및 하나 이상의 Media Segment를 포함할 수 있다.According to the DASH data model according to an embodiment of the present invention, the media presentation may include one or more periods. One period may include one or more adaptation sets. One adaptation set may include one or more representations. One representation may include one or more segment information. One segment information may include an initialization segment and one or more media segments.
이 도면을 참조하면, 미디어 타임 100 seconds 부터 시작하는 Period는 baseURL로서 http://dash.com을 갖고, 오디오 컴포넌트에 대한 Adaptation Set 1, 비디오 컴포넌트에 대한 Adaptation Set 2 및/또는 캡션 컴포넌트에 대한 Adaptation Set 3를 포함한다. 여기서, Adaptation Set 2는 Representation 1, Representation 2 등을 포함한다. Representation 1은 bandwidth=850 kbps, width=1280, height=720 등의 스펙을 갖는 비디오 컴포넌트를 나타내고, Representation 2는 bandwidth=1250 kbps, width=1280, height=720 등의 스펙을 갖는 비디오 컴포넌트를 나타낸다. Representation 1은 Representation 1이 나타내는 비디오 컴포넌트를 전달하는 세그먼트에 대한 정보를 포함하는 Segment Information를 포함한다. Segment Information은 해당 세그먼트의 duration 및/또는 template 정보를 포함한다. 이 도면에서, Representation 1이 나타내는 비디오 컴포넌트에 대한 세그먼트는 duration이 10 seconds 이고, Template으로 ./video-1-$Number$를 갖는다. 이 도면에서, Representation 1은 Initialization Segment, Media Segment 1 내지 Media Segment 10을 포함한다. 그리고, Segment Information은 Representation 1에 대한 세그먼트 (Segment)에 대한 정보를 포함한다. 이 도면에서, Segment Information는 Initialization Segment의 template 정보 (http://dash.com/video-1), Media Segment 1의 프레젠테이션 시작 시간 정보 (start=100s) 및 template 정보 (http://dash.com/video-1-1), Media Segment 2의 프레젠테이션 시작 시간 정보 (start=110s) 및 template 정보 (http://dash.com/video-1-2), Media segment 10의 프레젠테이션 시작 시간 정보 (start=190s) 및 template 정보 (http://dash.com/video-1-10)를 포함한다.Referring to this figure, the period starting from the media time of 100 seconds has http://dash.com as the baseURL, Adaptation Set 1 for the audio component, Adaptation Set 2 for the video component, and / or Adaptation for the caption component. Include Set 3. Here, Adaptation Set 2 includes Representation 1, Representation 2, and the like. Representation 1 represents a video component having specifications such as bandwidth = 850 kbps, width = 1280 and height = 720, and Representation 2 represents a video component having specifications such as bandwidth = 1250 kbps, width = 1280 and height = 720. Representation 1 includes segment information including information on a segment carrying a video component represented by Representation 1. Segment Information includes duration and / or template information of the segment. In this figure, the segment for the video component represented by Representation 1 has a duration of 10 seconds and has a template of ./video-1-$Number$. In this figure, Representation 1 includes Initialization Segment, Media Segment 1 to Media Segment 10. The segment information includes information on a segment for Representation 1. In this figure, the segment information includes template information of the initialization segment (http://dash.com/video-1), presentation start time information of the media segment 1 (start = 100s), and template information (http://dash.com). / video-1-1), presentation start time information for Media Segment 2 (start = 110s) and template information (http://dash.com/video-1-2), presentation start time information for Media segment 10 (start = 190s) and template information (http://dash.com/video-1-10).
도 11 은 본 발명의 일 실시예에 따른 DASH 데이터 모델를 보다 구체적으로 설명한 도면이다.FIG. 11 illustrates a DASH data model in detail according to an embodiment of the present invention. FIG.
본 발명의 일 실시예에 따른 DASH 데이터 모델은 MPD 엘레먼트, Period 엘레먼트, AdaptationSet 엘레먼트, Representation 엘레먼트, SubRepresentation 엘레먼트, ContentComponent 엘레먼트 및/또는 SegmentBase 엘레먼트 사이의 관계로 표현될 수 있다.The DASH data model according to an embodiment of the present invention may be expressed as a relationship between an MPD element, a Period element, an AdaptationSet element, a Representation element, a SubRepresentation element, a ContentComponent element, and / or a SegmentBase element.
MPD 엘레먼트는 @id, @profile, @type @availabilityStartTime, @minBufferTime @suggestedPresentationDelay, ProgramInformation(0..N), Location(0..N), Period(0..N) 및/또는 Metrics(0..N)를 포함한다. 여기서, @profile 및/또는 @minBufferTime는 필수적인 (mandatory) 필드일 수 있다.MPD elements include @id, @profile, @type @availabilityStartTime, @minBufferTime @suggestedPresentationDelay, ProgramInformation (0..N), Location (0..N), Period (0..N), and / or Metrics (0 .. N). Here, @profile and / or @minBufferTime may be a mandatory field.
Period 엘레먼트는 @id, @start, @duration, AssetIdentifier(0..1), EventStream(0..N), AdaptationSet(0..N) 및/또는 Subset(0..N)를 포함한다.Period elements include @id, @start, @duration, AssetIdentifier (0..1), EventStream (0..N), AdaptationSet (0..N), and / or Subset (0..N).
AdaptationSet 엘레먼트는 @id, @group, @min(max)Bandwidth, @min(max)Width, @min(max)HeightThe AdaptationSet element is @id, @group, @min (max) Bandwidth, @min (max) Width, @min (max) Height
@min(max)FrameRate, Common, Accessibility(0..N), Role(0..N), Rating(0..N), Viewpoint(0..N), ContentComponent(0..N) 및/또는 Representation(0..N)를 포함한다.@min (max) FrameRate, Common, Accessibility (0..N), Role (0..N), Rating (0..N), Viewpoint (0..N), ContentComponent (0..N) and / Or Representation (0..N).
Representation 엘레먼트는 @id, @bandwidth, @dependencyId, Common, BaseURL(0..N), SegmentBase(0..1), SegmentList(0..1), SegmentTemplate(0..1) 및/또는 SubRepresentation(0..N)를 포함한다. 여기서, @id 및/또는 @bandwidth는 필수적인 (mandatory) 필드일 수 있다.Representation elements include @id, @bandwidth, @dependencyId, Common, BaseURL (0..N), SegmentBase (0..1), SegmentList (0..1), SegmentTemplate (0..1), and / or SubRepresentation ( 0..N). Here, @id and / or @bandwidth may be mandatory fields.
SubRepresentation 엘레먼트는 @level, @dependencyLevel, @bandwidth, @contentComponent 및/또는 Common을 포함한다.SubRepresentation elements include @level, @dependencyLevel, @bandwidth, @contentComponent and / or Common.
ContentComponent 엘레먼트는 @id, @lang, @contentType, @par, Accessibility(0..N), Role(0..N), Rating(0..N) 및/또는 Viewpoint(0..N)를 포함한다. 여기서, AdaptationSet에 @lang, @contentType 및/또는 @par가 존재하지 않는 경우, 이 필드들은 ContentComponent에서 정의되거나 정의되지 않을 수 있다.ContentComponent elements include @id, @lang, @contentType, @par, Accessibility (0..N), Role (0..N), Rating (0..N), and / or Viewpoint (0..N) do. Here, when @lang, @contentType and / or @par do not exist in AdaptationSet, these fields may or may not be defined in ContentComponent.
SegmentBase 엘레먼트는 @timescale, @presentationTimeOffset, @timeShiftBufferDepth, @availabilityTimeOffset, Initialization(0..1) 및/또는 RepresentationIndex(0..1)를 포함한다.The SegmentBase element includes @timescale, @presentationTimeOffset, @timeShiftBufferDepth, @availabilityTimeOffset, Initialization (0..1) and / or RepresentationIndex (0..1).
본 발명의 일 실시예에 따른 DASH 데이터 모델은 Common 어트리뷰트 및 엘레먼트를 포함한다.The DASH data model according to an embodiment of the present invention includes a common attribute and an element.
Commmon 어트리뷰트 및 엘레먼트는 @mimeType,@width, @height, @sar, @framerate, @audiosamplingRate, @codec, @startWithSAP, FramePacking (0..N), AudioChannelConfiguration(0..N), ContentProtection(0..N), EssentialProperty(0..N), SupplementalProperty(0..N) 및/또는 InbandEventStream(0..N)를 포함한다.Commmon attributes and elements include @ mimeType, @ width, @height, @sar, @framerate, @audiosamplingRate, @codec, @startWithSAP, FramePacking (0..N), AudioChannelConfiguration (0..N), ContentProtection (0 .. N), EssentialProperty (0..N), SupplementalProperty (0..N) and / or InbandEventStream (0..N).
상술한 Common 어트리뷰트 및 엘레먼트는 AdaptationSet, Representation 및/또는 SubRepresentation 내에 포함되어 적용될 수 있다.The aforementioned common attributes and elements may be included and applied in AdaptationSet, Representation and / or SubRepresentation.
이 도면 및 상술한 설명에서, 필드 이름 앞에 @가 붙는 필드는 어트리뷰트를 나타내고, @가 없는 필드는 엘레먼트를 나타낸다. 또한, 엘레먼트 이름 뒤에 (0..N)은 해당 엘레먼트가 최소 0개 및 최대 N개 존재함을 나타낸다. 여기서, N은 한계가 정해지지 않았음을 나타낸다.In this figure and the description above, fields with @ in front of field names represent attributes, and fields without @ represent elements. Also, (0..N) after the element name indicates that there are at least 0 and at most N elements. Where N indicates that no limit is set.
본 발명의 일 실시예에 따르면, MPD 내의 엘레먼트 또는 어트리뷰트에 대한 설명은 DASH 표준에서 정의된 내용을 따른다.According to one embodiment of the invention, the description of the element or attribute in the MPD follows the content defined in the DASH standard.
MPD는 스트리밍 서비스를 제공하기 위해 미디어 프레젠테이션에 대한 디스크립션이다.MPD is a description of a media presentation to provide a streaming service.
Period는 미디어 프레젠테이션의 인터벌을 나타낸다. 모든 피리어드의 연속하는 시퀀스는 미디어 프레젠테이션을 구성한다.Period represents the interval of media presentation. Consecutive sequences of all periods make up a media presentation.
Segment는 MPD에 의해 설명되는 URL 및 바이트 레인지와 연관된 데이터의 유닛을 나타낸다.Segment represents a unit of data associated with the URL and byte range described by the MPD.
Adaptation Set은 하나 이상의 미디어 콘텐트 컴포넌트들의 교환가능한 인코딩된 버전들의 세트를 나타낸다.An Adaptation Set represents a set of interchangeable encoded versions of one or more media content components.
Representation은 전송 포맷 내의 하나 이상의 미디어 스트림의 집합 및 인켑슐레이션을 나타낸다.Representation represents an aggregation and encapsulation of one or more media streams in a transport format.
Sub-Representation은 MPD에 의해 기술되는 Representation의 일부를 나타낸다.Sub-Representation represents a part of Representation described by MPD.
도 12 는 본 발명의 일 실시예에 따른 수신기의 블락 다이어그램을 도시한 도면이다.12 is a block diagram of a receiver according to an embodiment of the present invention.
도시된 실시예에 따른 수신기는 Tuner, Physical Layer Controller, Physical Frame Parser, Link Layer Frame Processor, IP/UDP Datagram Filter, DTV Control Engine, Route Client, Segment Buffer Control, MMT Client, MPU reconstruction, Media Processor, Signaling Parser, DASH Client, ISO BMFF Parser, Media Decoder 및/또는 HTTP Access Client 를 포함할 수 있다. 수신기의 각 세부 블락들은 하드웨어인 프로세서일 수 있다.The receiver according to the illustrated embodiment is a Tuner, Physical Layer Controller, Physical Frame Parser, Link Layer Frame Processor, IP / UDP Datagram Filter, DTV Control Engine, Route Client, Segment Buffer Control, MMT Client, MPU reconstruction, Media Processor, Signaling Parser, DASH Client, ISO BMFF Parser, Media Decoder and / or HTTP Access Client. Each detailed block of the receiver may be a processor that is hardware.
Tuner는 지상파 방송 채널을 통하여 방송 신호를 수신 및 처리하고 이를 적절한 형태 (Physical Frame 등)로 변환할 수 있다. Physical Layer Controller는 수신하고자 하는 방송 채널의 RF 정보 등을 이용하여 Tuner, Physical Frame Parser 등의 동작을 제어할 수 있다. Physical Frame Parser는 수신된 Physical Frame을 파싱하고 이와 관련된 프로세싱을 통하여 Link Layer Frame 등을 획득할 수 있다.The tuner can receive and process broadcast signals through terrestrial broadcast channels and convert them into appropriate forms (Physical Frame, etc.). The physical layer controller may control operations of a tuner, a physical frame parser, etc. using RF information of a broadcast channel to be received. The physical frame parser may acquire the link layer frame through parsing the received physical frame and processing related thereto.
Link Layer Frame Processor는 Link Layer Frame으로 부터 Link Layer signaling 등을 획득하거나 IP/UDP 데이터그램 획득하고 관련된 연산을 수행할 수 있다. IP/UDP Datagram Filter는 수신된 IP/UDP 데이터 그램들로부터 특정 IP/UDP 데이터 그램을 필터링할 수 있다. DTV Control Engine은 각 구성 간의 인터페이스를 담당하며 파라미터 등의 전달을 통해 각 구성의 동작을 제어할 수 있다.The link layer frame processor may acquire link layer signaling from a link layer frame, acquire an IP / UDP datagram, and perform related operations. The IP / UDP Datagram Filter may filter a specific IP / UDP datagram from the received IP / UDP datagrams. The DTV Control Engine is in charge of the interface between each component and can control the operation of each component by passing parameters.
Route Client는 실시간 오브젝트 전송을 지원하는 ROUTE (Real-Time Object Delivery over Unidirectional Transport) 패킷을 처리하고 여러 패킷들을 수집 및 처리하여 하나 이상의 ISOBMFF (ISO Base Media File Format) 오브젝트를 생성할 수 있다. Segment Buffer Control는 Route Client와 Dash Client 간의 세그먼트 (segment) 전송 관련한 버퍼를 제어할 수 있다. The Route Client can generate one or more ISO Base Media File Format (ISOBMFF) objects by processing Real-Time Object Delivery over Unidirectional Transport (ROUTE) packets that support real-time object transport, and collecting and processing multiple packets. Segment Buffer Control can control the buffer related to segment transmission between Route Client and Dash Client.
MMT Client는 실시간 오브젝트 전송을 지원하는 MMT (MPEG Media Transport) 전송 프로토콜 패킷을 처리하고 여러 패킷을 수집 및 처리할 수 있다. MPU reconstruction는 MMTP 패킷으로부터 MPU (Media Processing Unit)을 재구성할 수 있다. Media Processor는 재구성된 MPU를 수집하고 처리할 수 있다.The MMT Client can process MPEG Media Transport (MPT) transport protocol packets that support real-time object transport and collect and process multiple packets. MPU reconstruction may reconstruct a Media Processing Unit (MPU) from an MMTP packet. The Media Processor can collect and process the reconstructed MPU.
Signaling Parser는 DTV 방송 서비스 관련 시그널링 (Link Layer/ Service Layer Signaling) 획득 및 파싱하고 이를 기반으로 채널 맵 등을 생성 및/또는 관리할 수 있다. 이 구성은 로우 레벨 시그널링, 서비스 레벨 시그널링을 처리할 수 있다.The Signaling Parser may acquire and parse DTV broadcast service related signaling (Link Layer / Service Layer Signaling), and generate and / or manage a channel map based on this. This configuration can handle low level signaling and service level signaling.
DASH Client는 실시간 스트리밍 혹은 적응적 스트리밍 관련 연산 및 획득된 DASH Segment 등을 처리할 수 있다. ISO BMFF Parser는 ISO BMFF 오브젝트로부터 오디오/비디오의 데이터 및 관련 파라미터 등을 추출할 수 있다. Media Decoder는 수신된 audio 및 video data를 decoding 및/또는 presentation 처리할 수 있다. HTTP Access Client는 HTTP 서버로부터 특정 정보를 요청하고 요청에 대한 응답을 처리할 수 있다.The DASH Client can process real-time streaming or adaptive streaming-related operations and acquired DASH Segments. The ISO BMFF Parser may extract audio / video data and related parameters from an ISO BMFF object. The media decoder may decode and / or present the received audio and video data. The HTTP Access Client can request specific information from an HTTP server and process the response to the request.
본 발명의 일 실시예에 따른 수신기는 시청 권한 관련 제어부(t8010)을 더 포함할 수 있다. 시청 권한 관련 제어부는 실시예에 따라 아웃풋 인터페이스 및/또는 CA (Conditional Access) 모듈을 더 포함할 수 있다. The receiver according to the embodiment of the present invention may further include a viewing authority related control unit t8010. The viewing authority related control unit may further include an output interface and / or a CA (Conditional Access) module according to an embodiment.
CA 모듈은, 스크램블된 방송 스트림을 복호화하기 위한 키 정보 및/또는 시청 권한 정보 등을 처리할 수 있다. 여기서 스크램블된 방송 스트림이란 암호화된 방송 스트림을 의미할 수 있다. CA 모듈은 정보들을 처리하여 DASH client, ISOBMFF Parser 및/또는 Media Processor 에 필요한 키 정보를 전달할 수 있다. 실시예에 따라 CA 모듈이 라이선스, 키 정보, 시청 권한 정보를 처리하여 다른 모듈로 전달할 수도 있고, CA 모듈 자체에서 암호화된 스트림의 복호화까지 실행될 수도 있다. The CA module may process key information and / or viewing authority information for decoding the scrambled broadcast stream. Here, the scrambled broadcast stream may mean an encrypted broadcast stream. The CA module may process information and deliver key information required for the DASH client, the ISOBMFF Parser, and / or the Media Processor. According to an embodiment, the CA module may process the license, key information, and viewing authority information and transmit the same to another module, or even decrypt the encrypted stream in the CA module itself.
아웃풋 인터페이스는 외부 장치와 연결할 수 있는 외부 인터페이스를 제어할 수 있다. 외부 장치는 컴패니언 디바이스 및/또는 기타 인증 정보가 담긴 장치를 포함할 수 있다.The output interface can control an external interface that can be connected to an external device. The external device may include a companion device and / or a device containing other authentication information.
도 13 은 본 발명의 일 실시예에 따른 메타 데이터 기반 HDR 방송 서비스를 제작, 재생하는 장치를 나타낸 도면이다. FIG. 13 is a diagram illustrating an apparatus for producing and playing a metadata-based HDR broadcast service according to an embodiment of the present invention.
HDR 비디오 제작 장치는 캡쳐/필름 스캐너 (101), 포스트-프로덕션 블록(마스터링부, 102) 및/또는 인코더/멀티플렉서 (103) 중 적어도 하나를 포함할 수 있다. HDR 비디오 재생 장치는 디멀티플렉서(104), 디코더(105), 메타데이터 프로세서(106), 포스트 프로세서(107), 싱크로나이저(108) 및/또는 디스플레이(109) 중 적어도 하나를 포함할 수 있다. 도면에서는 비디오 스트림에 포함되어 수신되는 메타 데이터를 도시하였으나, 본 발명의 메타 데이터는 방송 신호 뿐만 아니라 다른 경로(예를 들어 IP 기반 방송/통신, 유/무선 통신, 유/무선 인터페이스, 근거리 무선 통신 등)로도 송수신 될 수 있다. The HDR video production apparatus may include at least one of the capture / film scanner 101, the post-production block (mastering unit 102), and / or the encoder / multiplexer 103. The HDR video playback device may include at least one of a demultiplexer 104, a decoder 105, a metadata processor 106, a post processor 107, a synchronizer 108, and / or a display 109. In the figure, although the metadata included in the video stream is received, the metadata of the present invention is not only a broadcast signal but also other paths (for example, IP-based broadcasting / communication, wire / wireless communication, wire / wireless interface, and near field communication). Etc.) can also be sent and received.
HDR 비디오 제작 장치의 캡쳐/필름 스캐너 (101)는 천연 색으로 구성된 씬(natural scene)을 디지털 이미지로 변환할 수 있다. 예를 들어, 캡쳐/ 필름 스캐너는 비디오 카메라, 카메라, 스캐너 등 광학 이미지를 디지털 이미지로 변환하는 장치가 될 수 있다. 캡쳐/필름 스캐너 (101)는 광학 이미지를 센싱하여 Raw HDR (High Dynamic Range) 비디오를 출력할 수 있다. The capture / film scanner 101 of the HDR video production apparatus may convert a natural scene composed of natural colors into a digital image. For example, the capture / film scanner may be a device for converting an optical image into a digital image such as a video camera, a camera, a scanner, and the like. The capture / film scanner 101 may sense an optical image and output raw HDR (High Dynamic Range) video.
포스트-프로덕션 블록(마스터링부, 102)은 Raw HDR 비디오를 입력 받아 마스터링된 HDR 비디오 및 HDR 메타 데이터를 출력할 수 있다. 포스트-프로덕션 블록은 마스터링 디스플레이 정보, 뷰잉 컨디션(viewing condition) 정보, 칼라 인코딩 정보, 색영역 (Gamut) 매핑 정보 및/또는 DR (dynamic range) 정보 등을 입력 받아 마스터링을 수행할 수 있다. 여기서 칼라 인코딩 정보는 예를 들어 EOTF (electro-optical transfer function), BT. 2020을 예로 들 수 있다. The post-production block (mastering unit) 102 may receive the raw HDR video and output the mastered HDR video and the HDR metadata. The post-production block may receive mastering display information, viewing condition information, color encoding information, gamut mapping information, and / or dynamic range (DR) information, and perform mastering. Wherein the color encoding information is for example EOTF (electro-optical transfer function), BT. For example, 2020.
인코더/멀티플렉서 (103)는 적어도 하나 이상의 마스터링된 HDR 비디오 및 HDR 메타데이터를 인코딩하고 다중화할 수 있다. Encoder / multiplexer 103 may encode and multiplex at least one or more mastered HDR video and HDR metadata.
HDR 비디오 재생 장치의 디멀티플렉서(104)는 HDR 스트림을 수신하여 역다중화할 수 있다. 하나의 HDR 스트림에는 복수의 컨텐츠가 포함될 수 있으며, 디멀티플렉서는 디코딩 대상인 HDR 스트림을 디코더로 출력할 수 있다. The demultiplexer 104 of the HDR video playback device may receive and demultiplex the HDR stream. One HDR stream may include a plurality of contents, and the demultiplexer may output the HDR stream to be decoded to the decoder.
디코더(105)는 HDR 스트림을 수신하여 디코딩을 수행할 수 있다. 이 과정에서 디코더는 디코딩된 HDR 비디오와 HDR 메타데이터를 출력할 수 있다. 디코딩된 HDR 비디오는 포스트 프로세서로 출력되고, HDR 메타데이터는 메타데이터 프로세서로 출력될 수 있다. The decoder 105 may receive the HDR stream and perform decoding. In this process, the decoder may output decoded HDR video and HDR metadata. The decoded HDR video may be output to the post processor and the HDR metadata may be output to the metadata processor.
메타데이터 프로세서(106)는 HDR 메타데이터를 수신하여 저장할 수 있다. 메타데이터 프로세서는 HDR 메타데이터 내에 포함된 set 넘버 또는 버전 넘버를 확인하여 저장된 HDR 메타데이터에 대한 변경이 있는지 확인하고, 변경이 있는 경우, 기존 HDR 메타데이터를 업데이트할 수 있다. 메타데이터 프로세서는 싱크로나이저로부터 수신되는 타이밍 정보에 따라 HDR 메타데이터를 포스트 프로세서로 출력할 수 있다. The metadata processor 106 may receive and store the HDR metadata. The metadata processor may check the set number or the version number included in the HDR metadata to check whether there is a change to the stored HDR metadata, and if there is a change, update the existing HDR metadata. The metadata processor may output the HDR metadata to the post processor according to timing information received from the synchronizer.
포스트 프로세서(107)는 메타데이터 프로세서로부터 수신한 HDR 메타데이터를 이용하여, 디코더로부터 수신한 HDR 비디오에 대해 후처리 작업을 수행할 수 있다. 이 과정을 통해 HDR 비디오는 HDR 메타데이터가 반영된 개선된 HDR 비디오로 변환될 수 있다. The post processor 107 may perform post-processing on the HDR video received from the decoder by using the HDR metadata received from the metadata processor. Through this process, HDR video can be converted to improved HDR video with HDR metadata.
싱크로나이저(108)는 메타데이터 프로세서 및 포스트 프로세서에 타이밍 정보를 제공함으로써 HDR 비디오 전체 또는 각 장면, 각 비디오 클립 또는 각 프레임별로 정확한 시점에 메타데이터가 적용되도록 할 수 있다. 여기서 메타 데이터는 mastering display 에 대한 정보를 나타내거나, channel, program, content 단위로 공통으로 적용되는 정보, 또는 연속된 장면, 비디오 클립, 프레임 각각에 적용되는 정보를 의미할 수 있다. The synchronizer 108 may provide timing information to the metadata processor and the post processor so that the metadata is applied at the correct time point for the entire HDR video or each scene, each video clip, or each frame. Here, the meta data may indicate information on the mastering display, or may mean information that is commonly applied in units of channels, programs, or content, or information that is applied to each of a series of scenes, video clips, and frames.
HDR 디스플레이(109)은 개선된 HDR 비디오를 디스플레이하여 사용자에게 제공할 수 있다. The HDR display 109 may display and provide the enhanced HDR video to the user.
도 14 는 본 발명의 일 실시예에 따른 HDR 비디오에 대한 수신기 동작 방법을 나타낸다. 14 illustrates a method of operating a receiver for HDR video according to an embodiment of the present invention.
본 발명에서는 수신기 동작을 주로 설명하지만 관련 시그널을 생성하는 경우에도 동일한 사항을 고려를 할 수 있으며, 프로덕션 (production) 간 전달 신호 및 마스터링 (mastering) 신호에 대해서도 적용할 수 있다. In the present invention, the operation of the receiver is mainly described, but the same considerations may be considered when generating a related signal, and may also be applied to a transfer signal and a mastering signal between productions.
비디오 스트림이 수신되면, 수신기는 비디오 디코더(201)를 이용하여 HDR metadata 를 HDR 비디오 신호로부터 분리하여 별도의 메타 데이터 프로세서 (202)에 저장할 수 있다. 메타 데이터 프로세서는 메타 데이터 파서, 메타 데이터 버퍼 및 메타 데이터 업데이트 수행기를 포함할 수 있다. HDR 메타 데이터는 공통 적용 정보 (common HDR metadata) 와 부분 적용 정보 (scene/frame HDR metadata)를 포함할 수 있다. 공통 적용 정보는 컨텐츠 전반에 대해 적용될 수 있는 메타 데이터이고, channel, program, content 단위로 공통으로 적용되는 정보를 의미할 수 있다.When the video stream is received, the receiver may separate the HDR metadata from the HDR video signal using the video decoder 201 and store it in a separate metadata processor 202. The metadata processor may include a metadata parser, a metadata buffer, and a metadata update performer. The HDR metadata may include common application information (common HDR metadata) and partial application information (scene / frame HDR metadata). The common application information is metadata that can be applied to the entire content and may mean information that is commonly applied in units of channels, programs, and content.
부분 적용 정보는 컨텐츠의 일부분에 한정하여 적용될 수 있는 메타 데이터를 나타낼 수 있으며, 연속된 장면, 비디오 클립 또는 프레임 각각에 적용되는 정보를 의미할 수 있다. 수신기는 재생 가능한 컨텐츠 종류에 대한 성능 판단 후 수신된 공통 정보 혹은 부분 정보를 컨텐츠에 적용하여 프로세싱할 수 있다. HDR 비디오를 재생할 수 있는 수신기는 수신된 메타데이터를 이용하여 컨텐츠를 변환할 수 있다. 수신기는 프로세싱 작업 후 변환된 컨텐츠를 최종 영상으로 디스플레이할 수 있다. 구체적인 수신기 동작 방법은 다음과 같다. The partial application information may indicate metadata that can be limitedly applied to a part of content and may mean information applied to each of a continuous scene, a video clip, or a frame. The receiver may process the received common information or partial information by applying the received common information or partial information to the content after determining the performance of the playable content type. A receiver capable of playing back HDR video may convert the content using the received metadata. The receiver may display the converted content as the final image after the processing operation. A detailed receiver operation method is as follows.
첫번째 단계로써, 수신기는 비디오 스트림을 디코딩하고 HDR 메타데이터를 획득할 수 있다. HDR 메타데이터는 HDR 비디오 정보 (이하, HDR_info())를 의미할 수 있다. 수신기는 video stream으로부터 획득한 metadata를 metadata parser(202)로 전달하여 분석하고, 메모리에 저장할 수 있다. Metadata는 공통 적용 정보 (common HDR metadata) 와 부분 적용 정보 (scene/frame HDR metadata)로 구분될 수 있다. 본 발명에서는 후술할 타입 정보 (HDR_info_type)를 사용하여 해당 메타데이터가 적용되는 범위를 전달함으로써 mastering display 에 따라 메타데이터를 적용하거나, channel, program, content 단위로 공통으로 메타 데이터를 적용하거나, 연속된 장면, 비디오 클립, 프레임 각각에 메타 데이터를 적용할 수 있다. As a first step, the receiver can decode the video stream and obtain HDR metadata. The HDR metadata may mean HDR video information (hereinafter, referred to as HDR_info ()). The receiver may analyze the metadata obtained from the video stream by passing it to the metadata parser 202 and store the metadata in the memory. Metadata may be divided into common application information (common HDR metadata) and partial application information (scene / frame HDR metadata). In the present invention, by transmitting the range to which the corresponding metadata is applied using the type information (HDR_info_type) to be described later, the metadata is applied according to the mastering display, or the metadata is commonly applied in units of channel, program, and content, or continuous Metadata can be applied to each scene, video clip, and frame.
이와 함께, 메타데이터는 해당 메타데이터가 적용되는 구간, 예를 들어, 해당 메타데이터와 적용되는 영상 프레임을 매칭할 수 있는 정보를 동기화 시작 정보(sync_start), 동기화 구간 정보 (sync_duration)의 형식으로써 더 포함할 수 있다. In addition, the metadata may further include information that can match the corresponding metadata, for example, the metadata and the image frame to which the metadata is applied, in the form of synchronization start information (sync_start) and synchronization period information (sync_duration). It may include.
실시예에 따라 공통 적용 정보는 예를 들어 최대 최소 밝기 또는 고대비와 같이 컨텐츠/마스터링 디스플레이/프레임의 dynamic range를 나타낼 수 있는 값, EOTF와 같은 변환 함수(transfer function), 컨텐츠 혹은 마스터링 디스플레이의 색 공간, 컨텐츠 혹은 마스터링 디스플레이의 색온도, 밝기 범위 변환 함수, 색공간 변환 함수 및/또는 시청 환경 정보 중 적어도 하나의 정보를 포함할 수 있다. Depending on the embodiment, the common application information may be a value that may indicate the dynamic range of the content / mastering display / frame, for example maximum minimum brightness or high contrast, a transfer function such as EOTF, content or mastering display. It may include at least one information of the color space, the color temperature of the content or the mastering display, the brightness range conversion function, the color space conversion function and / or viewing environment information.
본 명세서에서 컨텐츠/마스터링 디스플레이/프레임의 dynamic range를 나타낼 수 있는 값은 DR 정보 타입(dynamic_range_info_type) 및 DR 밸류 정보 (dynamic_range_info_value[i])를 통해 전송될 수 있다. 또한 EOTF와 같은 transfer function은 변환 함수 타입(transfer_function_type)을 통해 전송될 수 있다. 컨텐츠 혹은 마스터링 디스플레이의 색 공간은 CG 정보 타입 (color_gamut_type)을 통해 전송될 수 있다. 컨텐츠 혹은 마스터링 디스플레이의 색온도는 색온도 정보 타입 (color_temperature_type)를 통해 전송될 수 있다. 밝기 범위 변환 함수는 DR 매핑 정보 타입 (dynamic_range_mapping_info_type)을 통해 전송될 수 있다. 색공간 변환 함수는 CG 매핑 정보 타입 (color_gamut_mapping_info_type)을 통해 전송될 수 있다. 시청 환경 정보 는 시청 환경 정보 타입 (viewing_condition_info_type)을 통해 전송될 수 있다. 각 정보의 신택스 및 포함하는 필드에 대한 설명은 후술하기로 한다. In this specification, a value that can indicate the dynamic range of the content / mastering display / frame may be transmitted through a DR information type (dynamic_range_info_type) and DR value information (dynamic_range_info_value [i]). In addition, a transfer function such as EOTF may be transmitted through a transfer function type (transfer_function_type). The color space of the content or mastering display may be transmitted through the CG information type (color_gamut_type). The color temperature of the content or mastering display may be transmitted through the color temperature information type (color_temperature_type). The brightness range conversion function may be transmitted through the DR mapping information type (dynamic_range_mapping_info_type). The color space conversion function may be transmitted through the CG mapping information type (color_gamut_mapping_info_type). The viewing environment information may be transmitted through the viewing environment information type (viewing_condition_info_type). The syntax of each information and a description of the included field will be described later.
부분 적용 정보는 공통 적용 정보와 동일하거나 유사한 정보를 포함할 수 있으며, 그 적용 범위에 대한 정보를 함께 포함할 수 있다. 부분 적용정보는 그 적용 범위가 컨텐츠의 일정 부분에 한정되어있다는 점에서 보다 구체적인 정보를 전달할 수 있다. 예를 들어 공통 적용 정보는 컨텐츠 전체에 적용되는 밝기 범위를 f-stop이나 고대비와 같은 값으로 전달할 수 있다. 이에 비해 부분 적용 정보는 프레임 단위에 대해서는 최대 최소 값을 전달하여 보다 구체적인 정보를 전달할 수 있다. 이를 통해 전송되는 적용 정보의 종류에 따라, 정보 전달 범위를 각 단계별로 차등적으로 적용할 수 있다. 마찬가지로 dynamic range mapping의 경우 공통 적용 정보로써 전반적인 컨텐츠 변환 정보를 전달한 후, 부분 적용 정보를 통해 장면마다의 특징을 살릴 수 있는 복잡한 변환 함수를 전달할 수 있다. The partial application information may include the same or similar information as the common application information, and may also include information on the coverage. Partial application information can deliver more specific information in that the application range is limited to a certain portion of the content. For example, the common application information may transmit a brightness range applied to the entire content as a value such as f-stop or high contrast. In contrast, the partial application information may deliver more specific information by transmitting a maximum minimum value for a frame unit. Depending on the type of application information transmitted through this, the information delivery range may be differentially applied to each step. Similarly, in the case of dynamic range mapping, after general content transformation information is transmitted as common application information, a complex transformation function that can make use of characteristics of each scene can be delivered through partial application information.
두번째 단계로써, 수신기는 자신이 포함하는 디스플레이가 HDR display 인지 여부를 결정할 수 있다. 수신기는 공통 정보를 이용하여, 획득한 컨텐츠에 대한 정보 (혹은 마스터링 디스플레이에 대한 정보)를 기반으로 수신기의 재생 환경이 적합한지 여부를 결정할 수 있다. 예를 들어, 수신기는 상술한 공통 적용 정보를 이용할 수 있으며, 만약 컨텐츠 재생 환경이 적합하지 않은 경우, SDR 디스플레이 혹은 SDR과 HDR 사이의 성능에 해당하는 디스플레이를 고려할 수 있다. As a second step, the receiver may determine whether the display it includes is an HDR display. The receiver may determine whether the playback environment of the receiver is appropriate based on the information about the acquired content (or the information about the mastering display) using the common information. For example, the receiver may use the common application information described above, and if the content playback environment is not suitable, the SDR display or the display corresponding to the performance between the SDR and the HDR may be considered.
먼저, 수신기에 포함된 디스플레이가 SDR display 또는 이에 준하는 성능을 갖는 디스플레이인 경우에 대해 설명한다. 만약 수신기 디스플레이가 디코딩된 HDR 컨텐츠를 온전히 재생할 수 없다고 결정되는 경우, 수신기는 HDR 컨텐츠를 재생하지 않거나, 또는 컨텐츠를 재생하기 위한 변환을 수행할 수 있다. HDR 비디오를 SDR 비디오로 변환할 수 있는 수신기는 수신된 HDR 비디오를 SDR 비디오로 변환하여 재생할 수 있다. 이를 위해 HDR 메타데이터는 HDR 비디오를 SDR 비디오로 변환하는 변환 함수에 대한 정보를 포함할 수 있다. 예를 들어, 상술한 변환 함수에 대한 정보로써 dynamic_range_mapping_info_type 또는 color_gamut_mapping_info_type 등을 사용할 수 있으며, HDR 메타데이터는 필요한 경우 해당 정보들이 HDR 비디오를 SDR 비디오로 변환하는 용도로 사용됨을 추가적으로 시그널링 할 수 있다.First, a case in which the display included in the receiver is an SDR display or a display having a similar capability will be described. If it is determined that the receiver display cannot fully play the decoded HDR content, the receiver may not play the HDR content or may perform a transformation to play the content. A receiver capable of converting an HDR video into an SDR video may convert and receive the received HDR video into an SDR video. To this end, the HDR metadata may include information on a transform function for converting the HDR video into the SDR video. For example, dynamic_range_mapping_info_type or color_gamut_mapping_info_type may be used as the information on the above-described transform function, and the HDR metadata may additionally signal that the corresponding information is used for converting the HDR video to the SDR video when necessary.
다음으로, 수신기에 포함된 디스플레이가 HDR display인 경우에 대해 설명한다. 이는 수신기의 디스플레이가 디코딩된 컨텐츠를 온전히 재생 가능하다고 결정되는 경우에 해당한다. 이 경우, HDR 메타데이터에 포함된 공통 적용 정보를 이용하여 비디오에 대한 화질 개선이 가능하며, dynamic range mapping, color gamut mapping, viewing condition mapping 등을 이용하여 화질 개선을 수행할 수 있다. 실시예에 따라, 공통 적용 정보를 이용한 컨텐츠 전반에 대한 화질 계선은 후술할 세번째 단계에서 부분 적용 정보의 적용이 가능한 경우, 생략될 수도 있다. 또한 공통 적용 정보를 이용한 비디오에 대한 화질 개선 작업은 별도의 모듈을 통해 구현하거나 도 3에서 설명할 post processing 모듈에 연계하여 적용할 수도 있다.Next, a case in which the display included in the receiver is an HDR display will be described. This is the case when the display of the receiver is determined to be able to fully play the decoded content. In this case, image quality may be improved by using common application information included in HDR metadata, and image quality may be improved by using dynamic range mapping, color gamut mapping, viewing condition mapping, and the like. According to an embodiment, the image quality line for the entire content using the common application information may be omitted when the partial application information may be applied in the third step to be described later. In addition, the image quality improvement for the video using the common application information may be implemented through a separate module or applied in connection with the post processing module described in FIG. 3.
세번째 단계로써, 수신기는 HDR 비디오의 장면 별로 화질 개선 작업을 수행할 수 있다. 메타데이터 정보를 기반으로 수신기가 HDR 컨텐츠를 재생할 수 있다고 결정되는 경우, 수신기는 추가적인 HDR 메타데이터 처리가 가능한지 결정할 수 있다. As a third step, the receiver may perform image quality improvement for each scene of the HDR video. If it is determined that the receiver can play the HDR content based on the metadata information, the receiver may determine whether additional HDR metadata processing is possible.
앞선 설명에서는 scene-by-scene (혹은 clip-by-clip, frame-by-frame) 처리를 추가적으로 하는 경우를 예로 들었으며, 이 경우 각 장면, 클립, 혹은 프레임 단위로 제공되는 메타 데이터를 이용하여 각 컨텐츠의 장면, 비디오 클립 또는 프레임별로 디테일한 동적 변환을 통해 더욱 향상된 화질의 HDR 비디오를 디스플레이할 수 있다. 이 경우 본 발명의 일 실시예에 따라 방송 송신 장치는 HDR_info_type을 이용하여, 수신기가 장면, 비디오 클립 혹은 프레임 단위의 정보가 전송됨을 SEI(supplemental enhancement information) message 내에서 식별하게 할 수 있다. 또한 방송 송신 장치는 동기화 정보 타입 (sync_info_type), 동기화 시작 정보 (sync_start), 동기화 구간 정보 (sync_duration)를 이용하여, 수신기에게 장면 혹은 프레임 단위의 정보를 적용해야 하는 시점에 대한 정보를 제공할 수 있다. 수신기는 HDR 비디오 정보 타입 (HDR_info_type)을 통해 장면, 비디오 클립 또는 프레임 단위의 정보가 전송됨을 식별하고, sync_info_type, sync_start, sync_duration 통해 장면, 비디오 클립 또는 프레임 단위의 정보를 적용할 시점에 대한 타이밍 정보를 획득할 수 있다. 또한 필요한 경우 수신기는 메타데이터를 통해 제공되는 타이밍 정보를 영상과 sync를 맞추기 위한 정보로 변환할 수도 있다. In the above description, the scene-by-scene (or clip-by-clip, frame-by-frame) processing is added as an example. In this case, the metadata provided for each scene, clip, or frame is used. Detailed dynamic transformations per scene, video clip or frame of each content allow for the display of even higher quality HDR video. In this case, according to an embodiment of the present invention, the broadcast transmission device may allow the receiver to identify in a supplemental enhancement information (SEI) message that information on a scene, video clip or frame basis is transmitted using HDR_info_type. In addition, the broadcast transmission device may provide information on a time point at which scene or frame information should be applied to the receiver by using a synchronization information type (sync_info_type), synchronization start information (sync_start), and synchronization interval information (sync_duration). . The receiver identifies that scene, video clip, or frame information is transmitted through the HDR video information type (HDR_info_type), and provides timing information on when to apply scene, video clip, or frame information through sync_info_type, sync_start, and sync_duration. Can be obtained. In addition, if necessary, the receiver may convert timing information provided through metadata into information for synchronizing with an image.
또한 방송 송신 장치는 공통 적용 정보를 제공할 때, 향후 어떤 종류의 장면, 비디오 클립 혹은 프레임 단위 메타데이터가 제공되는지 여부를 수신기에게 알려줄 수 있다. 방송 송신 장치는 HDR_video_enhancement_info_present_type을 통해 상기 정보를 수신기에게 미리 알려줄 수 있다. 즉, 수신기는 공통 적용 정보로부터 부분 적용 정보의 수신 여부 및 그 종류에 대한 정보를 미리 획득함으로써 관련 모듈의 동작을 준비할 수 있다. 실시예에 따라 방송 송신 장치는 공통 적용 정보를 이용하여 프레임, 비디오 클립 혹은 장면 단위 메타데이터가 제공된다는 사실 자체를 인디케이팅하거나, 프레임 단위, 비디오 클립 단위 혹은 장면 단위로 구체적으로 어떤 정보가 있는지를 인디케이팅할 수 있다. 예를 들어, 방송 송신 장치는 공통 적용 정보를 이용하여 프레임 단위 또는 장면 단위로 dynamic range mapping 혹은/및 color gamut mapping 정보가 제공됨을 인디케이팅할 수 있다. In addition, when the broadcast transmission device provides common application information, the broadcast transmission device may inform the receiver of what kind of scene, video clip, or frame unit metadata is provided in the future. The broadcast transmission device may inform the receiver in advance of the information through HDR_video_enhancement_info_present_type. That is, the receiver may prepare the operation of the associated module by obtaining in advance information on whether the partial application information is received from the common application information and the type thereof. According to an embodiment, the broadcast transmission device may indicate the fact that metadata is provided in a frame, video clip, or scene unit using common application information, or may have specific information in frame, video clip, or scene unit. Can be indicated. For example, the broadcast transmission device may indicate that dynamic range mapping or / and color gamut mapping information is provided in units of frames or scenes using common application information.
실시예에 따라서, 수신기는 공통 적용 정보 및 장면 적용 정보를 HDR 비디오에 대해 단계적으로 적용하거나 하나의 동작으로 적용할 수도 있다. 또한 수신기는 Dynamic range mapping 및 color gamut mapping 별로 공통 적용 정보 및 장면 적용 정보를 HDR 비디오에 적용하거나 하나의 변환식으로 적용할 수도 있다.According to an embodiment, the receiver may apply common application information and scene application information step by step to the HDR video or in one operation. In addition, the receiver may apply common application information and scene application information to each of the dynamic range mapping and the color gamut mapping to the HDR video or as a transformation.
도 15 는 본 발명의 일 실시예에 따른 후처리부를 나타낸다. 15 illustrates a post-processing unit according to an embodiment of the present invention.
본 발명에서 후처리부 (post processor)는 DR 매핑 블록 (Dynamic range mapping, 301), CG 매핑 블록 (Color Gamut mapping, 302) 및 시청 환경 조정 블록 (viewing condition adjustment, 303)을 포함할 수 있다. 후처리부는 HDR 비디오 데이터를 입력 받아 dynamic range mapping, color gamut mapping, viewing condition mapping 등을 이용하여 화질 개선을 수행할 수 있다. DR 매핑 블록 (Dynamic range mapping, 301)은 입력된 HDR 비디오 데이터에 대해 dynamic range 정보, 변환 함수(transfer function) 정보 및 DR mapping 정보를 적용하여 화질 개선 작업을 수행할 수 있다. CG 매핑 블록 (Color Gamut mapping, 302)은 입력된 HDR 비디오 데이터에 대해 Color gamut 정보, 색온도 (color temperature) 정보, CG 매핑 정보를 적용하여 화질 개선 작업을 수행할 수 있다. 시청 환경 조정 블록 (viewing condition adjustment, 303)은 시청 환경 정보를 HDR 비디오 데이터에 적용하여 화질 개선 작업을 수행할 수 있다.In the present invention, the post processor may include a DR mapping block 301, a CG mapping block 302, and a viewing condition adjustment block 303. The post processing unit may receive the HDR video data and perform image quality improvement using dynamic range mapping, color gamut mapping, viewing condition mapping, and the like. The dynamic range mapping block 301 may perform image quality improvement by applying dynamic range information, transfer function information, and DR mapping information to the input HDR video data. The CG mapping block 302 may apply color gamut information, color temperature information, and CG mapping information to the input HDR video data to perform image quality improvement. The viewing condition adjustment block 303 may apply the viewing environment information to the HDR video data to perform image quality improvement.
도 16 내지 19 는 본 발명의 일 실시예에 따른 SEI message 및 HDR information descriptor의 신택스를 나타낸다. 16 through 19 illustrate syntax of an SEI message and an HDR information descriptor according to an embodiment of the present invention.
SEI message는 HDR information descriptor를 포함할 수 있으며 HDR information descriptor는 다음의 필드들 중 적어도 하나의 필드를 포함할 수 있다. 본 발명에서 HDR information은 HDR video information과 동일한 의미로 사용될 수 있다.The SEI message may include an HDR information descriptor and the HDR information descriptor may include at least one of the following fields. In the present invention, HDR information may be used as the same meaning as HDR video information.
HDR 정보 타입 (HDR_info_type) 정보는 HDR information descriptor 내의 정보가 적용되는 단위를 나타낼 수 있다. 예를 들어, 마스터링 디스플레이 (mastering display) 에 대한 정보를 나타내거나 채널 (channel), 프로그램 (program), 컨텐츠 (content) 단위로 공통으로 적용될 수 있다. 또한 연속된 장면, 비디오 클립, 프레임 각각에 적용 되는 식으로 구분할 수 있으며, 다른 방법(예를 들어 변환 이전과 이후, 전송 포맷, 변환 후 목표 대상 포맷, static/dynamic metadata 등)으로 분류되는 경우를 추가할 수도 있다. The HDR information type (HDR_info_type) information may indicate a unit to which information in the HDR information descriptor is applied. For example, information about a mastering display may be displayed or commonly applied in units of channels, programs, and content. In addition, it can be classified into a series of scenes, video clips, and frames, and classified into different methods (e.g., before and after conversion, transmission format, target format after conversion, and static / dynamic metadata). You can also add
위와 같은 분류에 따라 현재 payloadType 내에서 정의된 HDR information의 종류를 구분 지을 수 있다. 이 때, 전술한 실시예와 같이 payloadType 내에 하나의 HDR_info_type에 해당하는 세부정보만 기술될 수도 있고, 두 개 이상의 정보가 모두 기술 될 수도 있다. 이 경우 각각의 HDR_info_type에 따라 분류된 정보가 연속적으로 위치하도록 syntax를 구성할 수 있다. According to the above classification, the type of HDR information defined in the current payloadType can be distinguished. At this time, as in the above-described embodiment, only the detailed information corresponding to one HDR_info_type may be described in the payloadType, or two or more information may be described. In this case, the syntax may be configured such that information classified according to each HDR_info_type is continuously located.
또한 정보가 적용되는 단위를 SEI message 내에서 분류하는 방법 뿐 아니라 서로 다른 payloadType을 할당하여 구분할 수도 있다. 예를 들어 payloadType = 52 (mastering display), payloadType = 53 (channal), payloadType = 54 (program), payloadType = 55 (content), payloadType = 56 (scene), payloadType = 57 (clip), payloadType = 58 (frame) 과 같이 구분할 수 있다. In addition, the unit to which the information is applied may be classified in the SEI message as well as assigned by different payloadTypes. For example payloadType = 52 (mastering display), payloadType = 53 (channal), payloadType = 54 (program), payloadType = 55 (content), payloadType = 56 (scene), payloadType = 57 (clip), payloadType = 58 ( frame).
트랜지션 플래그 (transition_flag) 정보는 현재 기술하고 있는 SEI message 가 연관된 컨텐츠의 종료 시점에 대한 시그널이다. 예를 들어 HDR 컨텐츠가 종료되고 SDR 컨텐츠로 전환되는 경우 마지막 프레임에 대해 transition_flag를 1로 세팅한다. 이 때 적용 분야에 따라 HDR information descriptor 전송이 종료된다는 의미로써 고려할 수도 있으며, 수신기에서는 본 시그널을 바탕으로 HDR information descriptor 와 관련된 모듈을 off 시키는 등의 동작으로 이어질 수 있다. 만약 수신기가 STB (settop box)와 display device로 구분되어 유/무선 interface로 연결 된 경우 (예를 들어 HDMI, DisplayPort, MHL 등) 이와 유사하게 HDR 관련 정보의 중단 혹은 HDR 컨텐츠 종료와 같은 정보를 STB로부터 display device로 전달할 수 있다. transition_flag는 종료 시점을 알려준다는 의미에서 HDR information descriptor 가 종료되는 프레임에서 알려줄 수 있다. 미리 약속된 경우 종료 프레임이 포함된 RAP에서 알려주는 방법도 적용할 수 있다. The transition flag (transition_flag) information is a signal for ending time of content associated with the currently described SEI message. For example, when the HDR content ends and is converted to the SDR content, the transition_flag is set to 1 for the last frame. In this case, it may be considered as meaning that the transmission of the HDR information descriptor is terminated according to the application field, and the receiver may lead to an operation such as turning off a module related to the HDR information descriptor based on this signal. If the receiver is separated into a STB (settop box) and a display device and connected to a wired / wireless interface (for example, HDMI, DisplayPort, MHL, etc.), it is similar to STB for information such as interruption of HDR related information or termination of HDR content. To the display device. The transition_flag may be informed in the frame in which the HDR information descriptor terminates in the meaning of informing the end time. If it is promised in advance, a method notified by the RAP including the end frame may also be applied.
세트 (set_number) 정보는 HDR information descriptor 고유의 식별 번호를 나타낼 수 있다. 즉, 시간 단위 혹은 프레임 단위로 복수의 HDR information descriptor가 방송 송신 장치로부터 수신기에 전달되는 상황에서, 각각의 HDR information descriptor를 구분하는 역할을 할 수 있다. 필요한 경우 상술한 HDR_info_type과 연계하여 channel, program, content, frame, scene, clip 등 각각에 대해 복수의 descriptor를 구분하는 역할을 할 수 있다. 예를 들어 다양한 종류의 휘도(luminance)를 갖는 디스플레이 지원을 목적으로 서로 다른 DR mapping function을 전달하는 경우 상술한 HDR_info_type과 연계하여 channel, program, content,frame, scene, clip 등 각각에 대해 복수의 descriptor를 구분하는 역할을 할 수 있다. The set_number information may indicate an identification number unique to the HDR information descriptor. That is, in a situation in which a plurality of HDR information descriptors are transmitted from the broadcast transmission device to the receiver on a time unit or frame basis, the HDR information descriptors may serve to distinguish each HDR information descriptor. If necessary, it may play a role of distinguishing a plurality of descriptors for each channel, program, content, frame, scene, clip, etc. in connection with the above-described HDR_info_type. For example, in case of delivering different DR mapping functions for the purpose of supporting a display having various kinds of luminance, a plurality of descriptors for each channel, program, content, frame, scene, clip, etc. in connection with the above-described HDR_info_type It can play a role of distinguishing.
버전 (version_number) 정보는 HDR information descriptor 의 버전을 나타낼 수 있다. HDR_info_type 또는 set_number 중 적어도 하나와 연계하여 현재 디스크립터 중에서 정보 변경이 있음을 나타낼 수 있다. 예를 들어 동일한 HDR_info_type 및/또는 set_number를 갖는 descriptor에 대해서 동일한 version number를 갖는 경우 metadata processor 내의 정보를 영상에 그대로 적용할 수 있다. 하지만 방송 수신 장치는 version_number 가 변경된 경우 metadata buffer 내 정보를 update 하고 새로운 정보를 영상에 적용할 수 있다. The version (version_number) information may indicate the version of the HDR information descriptor. In association with at least one of the HDR_info_type and the set_number, this may indicate that there is an information change in the current descriptor. For example, when descriptors having the same HDR_info_type and / or set_number have the same version number, information in the metadata processor may be applied to the image as it is. However, when the version_number is changed, the broadcast reception device may update information in the metadata buffer and apply new information to an image.
DR 플래그 (dynamic_range_mapping_info_present_flag) 정보는 디스크립터 내에 dynamic range mapping 관련 정보가 포함되어 있음을 나타낼 수 있다. The DR flag (dynamic_range_mapping_info_present_flag) information may indicate that dynamic range mapping related information is included in the descriptor.
CG 플래그 (color_gamut_mapping_info_present_flag) 정보는 디스크립터 내에 gamut mapping 관련 정보가 포함되어 있음을 나타낼 수 있다. The CG flag (color_gamut_mapping_info_present_flag) information may indicate that gamut mapping related information is included in the descriptor.
시청 환경 플래그 (viewing_condition_info_present_flag) 정보는 디스크립터 내에 viewing condition 관련 정보가 포함되어 있음을 나타낼 수 있다. The viewing environment flag (viewing_condition_info_present_flag) information may indicate that viewing condition related information is included in the descriptor.
추가 개선정보 개수(number_of_HDR_video_enhancement_info) 정보는 현재의 SEI message와 관련된 추가 SEI message 가 있는 경우에 대해 관련된 정보의 수를 나타낸다. 또는 향상된 정보를 제공할 수도 있다. 예를 들어 HDR_info_type = 0011 (content) 정보를 전달하고 있는 경우, mastering display, scene 에 대한 정보가 이와 연관하여 전달될 수 있으며, 이 경우 3 값을 가지게 된다. 이 때, 수신기에서는 tone mapping, gamut mapping 등의 화질 처리를 할 때 성능에 따라 content 내의 정보만을 이용할 수 있다. 또한, 보다 자세한 정보를 가졌다고 판단되는 경우, 예를 들어 HDR_info_type = 0100 (scene) 의 정보만을 이용하거나, 실시예에 따라서는 모든 정보를 종합해서 이용할 수 있다. The number of additional enhancement information (number_of_HDR_video_enhancement_info) information indicates the number of related information for the case where there is an additional SEI message related to the current SEI message. Or it may provide enhanced information. For example, if HDR_info_type = 0011 (content) information is transmitted, information about a mastering display and a scene may be transmitted in association with it, in which case it has a value of 3. In this case, the receiver may use only the information in the content according to the performance when performing image quality processing such as tone mapping and gamut mapping. If it is determined that the user has more detailed information, for example, only information of HDR_info_type = 0100 (scene) may be used, or all the information may be collectively used according to the embodiment.
추가 개선정보 종류 (HDR_video_enhancement_info_present_type) 정보는 현재의 SEI message와 관련된 추가 정보의 종류를 나타내며, 도 5의 HDR_info_type과 동일한 값을 이용하여 정의할 수 있다. 이 때, enh_dynamic_range_mapping_info_ present_flag, enh_color_gamut_mapping_info_present_flag, enh_viewing_condition_info_present_flag 를 통해 DR mapping, gamut mapping, viewing condition 관련 정보가 전달되는지 여부를 알려줄 수 있으며, 이에 대한 정보 처리를 위한 수신기 동작을 미리 준비하거나 현재 있는 정보에 비해 향상된 정보 사용 여부를 판단할 때 사용할 수 있다. The additional enhancement information type (HDR_video_enhancement_info_present_type) information indicates the type of additional information related to the current SEI message and may be defined using the same value as the HDR_info_type of FIG. 5. In this case, it is possible to inform whether DR mapping, gamut mapping, and viewing condition related information are transmitted through enh_dynamic_range_mapping_info_ present_flag, enh_color_gamut_mapping_info_present_flag, and enh_viewing_condition_info_present_flag, and prepare the receiver operation for processing information on the information in advance or use the improved information compared to the current information. Can be used to determine whether or not.
개선 DR 플래그 (enh_dynamic_range_mapping_info_present_flag)는 그 값이 1인 경우 연관된 metadata 정보에 대해 DR mapping 정보가 존재함을 나타낼 수 있다. An improved DR flag (enh_dynamic_range_mapping_info_present_flag) may indicate that DR mapping information exists for associated metadata information when the value is 1.
개선 CG 플래그 (enh_color_gamut_mapping_info_present_flag)는 그 값이 1인 경우 연관된 metadata 정보에 대해 gamut mapping 정보가 존재함을 나타낼 수 있다. The enhanced CG flag (enh_color_gamut_mapping_info_present_flag) may indicate that gamut mapping information exists for associated metadata information when the value is 1.
개선 시청 환경 플래그 (enh_viewing_condition_info_present_flag)는 그 값이 1인 경우 연관된 metadata 정보에 대해 viewing condition 정보가 존재함을 나타낼 수 있다. The enhanced viewing environment flag enh_viewing_condition_info_present_flag may indicate that viewing condition information exists for associated metadata information when the value is 1.
만약 metadata type이 HDR info 가 아닌 SEI message의 payloadType 값으로 구분되는 경우, 위와 같이 HDR_info_type 및 그와 관련된 flag 들을 사용하는 방법 외에도 해당 SEI message의 payloadType 값을 직접 전달할 수 있다. 즉, 위의 예에 대해 payloadType = 53 (content) 에 대한 추가 (향상) 정보로써 payloadType = 52 (mastering display), payloadType = 56 (scene)을 전달할 수 있다는 것이다. 혹은 payloadType을 추가하여 HDR_info_type 와 함께 정보를 제공할 수도 있다. If metadata type is distinguished by payloadType value of SEI message instead of HDR info, in addition to using HDR_info_type and related flags as above, payloadType value of corresponding SEI message may be directly transmitted. That is, for the above example, payloadType = 52 (mastering display) and payloadType = 56 (scene) can be delivered as additional (enhancement) information about payloadType = 53 (content). Alternatively, payloadType may be added to provide information together with HDR_info_type.
동기화 정보 타입 (sync_info_type) 정보는 HDR information descriptor 내의 정보가 적용되어야 할 content, scene, clip 또는 frame 과의 동기화를 위한 정보의 표현 방법을 나타낼 수 있다. 예를 들어 decoder 내에서 사용되는 POC(Picture order count) 값을 전달할 수 있으며, 혹은 pic_order_count_lsb 값을 직접 전달할 수도 있다. Storage media인 경우 media time 정보를 사용할 수 있으며, video 시작에 대한 reference time을 기준으로 한 누적 frame 수로 정할 수도 있다.The sync information type (sync_info_type) information may indicate a method of representing information for synchronizing with content, scene, clip, or frame to which information in the HDR information descriptor is to be applied. For example, a picture order count (POC) value used in a decoder can be delivered, or a pic_order_count_lsb value can be delivered directly. In the case of storage media, media time information can be used and the cumulative frame number can be determined based on the reference time for the start of video.
동기화 시작 (sync_start) 정보는 동기화의 시작 지점과 관련된 정보이다. 매 프레임마다 관련 정보를 보내주는 경우가 아닌, RAP 등의 특정 주기마다 해당 정보를 전달하는 경우 해당 정보가 사용되는 구간의 시작과 끝을 비디오 프레임과 연결시켜줄 필요가 있다. 본 발명에서는 sync_start 정보를 사용하여 해당 정보가 적용되는 구간 또는 프레임의 시작 정보를 sync_info_type과 연계하여 시간, POC, frame수, PTS 등의 정보로 나타내는 실시예를 적용할 수 있다. sync_info_type는 시간, 시간 차이, 시작 순서, POC (picture order count), PTS, 합산된 프레임의 수로써 동기화 정보의 타입을 정의할 수 있다.The synchronization start (sync_start) information is information related to the start point of synchronization. Rather than sending related information every frame, if the relevant information is delivered in a specific period such as RAP, it is necessary to connect the start and end of the section in which the information is used with the video frame. According to the present invention, an embodiment in which start information of a section or frame to which corresponding information is applied using sync_start information is indicated by information such as time, POC, number of frames, and PTS in association with sync_info_type. The sync_info_type may define the type of synchronization information as time, time difference, start order, picture order count (POC), PTS, and the number of aggregated frames.
예를 들어 2초의 RAP 간격을 갖는 50fps 비디오 스트림에 대해 2~4초 RAP 구간 내에서 3개의 metadata가 각각 2초(시작시점), 2.5초, 3.5초에 적용되는 경우를 고려해볼 수 있다. For example, consider a case where three metadata are applied to 2 seconds (starting point), 2.5 seconds, and 3.5 seconds within a 2 to 4 second RAP interval for a 50 fps video stream having a RAP interval of 2 seconds.
Sync_info_type=0x00 인 경우, 동기화 정보의 타입은 시간으로써 설정되고, 각 메타데이터의 sync_start 정보를 2000, 2500, 3500으로 전달할 수 있다. 또한, 추가적으로 sync_duration을 500, 1000, 1000으로 시그널링 할 수 있다. 이 때, 시간 판단을 위해 시간에 대한 기준이 필요한 경우가 있는데, TS header의 adaptation field에 시간을 정의하는 것과 같이 별도로 시그널링 해줄 수 있다.   When Sync_info_type = 0x00, the type of synchronization information is set as time, and the sync_start information of each metadata may be transmitted to 2000, 2500, and 3500. Additionally, sync_duration may be additionally signaled as 500, 1000, or 1000. At this time, there is a case where a time reference is required for time determination, and may be separately signaled, such as defining a time in an adaptation field of a TS header.
Sync_info_type=0x01 인 경우, 동기화 정보의 타입은 시간 차이로써 설정될 수 있다. 방송 송신 장치는 sync_start = 0, 500, 1000으로 각각 시그널링 함으로써 각각 바로 적용, RAP로부터 0.5초 후 적용, RAP로부터 1.5초 후 적용임을 수신기에 알려줄 수 있다.   When Sync_info_type = 0x01, the type of synchronization information may be set as a time difference. The broadcast transmission device may signal to the receiver that the signal is immediately applied, applied after 0.5 seconds from the RAP, and applied after 1.5 seconds from the RAP by signaling sync_start = 0, 500, and 1000, respectively.
Sync_info_type=0x02의 경우, 동기화 정보의 타입은 시작 순서로써 설정되고, sync_start = 0, 1, 2와 같이 순서를 알려줄 수 있다. 시작 순서가 시그널링 되면, 수신기는 일정 시간 간격으로 순서에 따라 동기화 정보를 적용할 수 있다. 일정 시간 간격은 고정된 값이거나, 순서에 따라 정해진 값을 가질 수도 있다. 예를 들어, 0은 바로 적용 시작, 1은 RAP+0.5초에 적용, 2는 RAP+1.5초에 적용과 같이 추정할 수 있다. In the case of Sync_info_type = 0x02, the type of synchronization information may be set as a start order, and may indicate the order such as sync_start = 0, 1, and 2. FIG. If the start order is signaled, the receiver may apply synchronization information in order at regular time intervals. The predetermined time interval may be a fixed value or may have a value determined in order. For example, it can be assumed that 0 is applied immediately, 1 is applied to RAP + 0.5 seconds, and 2 is applied to RAP + 1.5 seconds.
Sync_info_type = 0x03의 경우, 동기화 정보의 타입은 POC로써 설정될 수 있다. 이 경우, metadata 적용 시점의 video의 POC 값을 100, 125, 175와 같이 전달할 수 있으며 후술할 duration도 POC 단위에 따라 25, 50, 50과 같이 전달할 수 있다. 또한 video codec syntax 내 POC와 연관된 값을 직접 전달할 수도 있다.In the case of Sync_info_type = 0x03, the type of synchronization information may be set as a POC. In this case, the POC value of the video at the time of metadata application may be transmitted as 100, 125, 175, and the duration to be described below may be delivered as 25, 50, 50 according to the POC unit. You can also pass the value associated with POC in video codec syntax directly.
PTS (presentation time stamp), Frame 수를 시그널링 하는 경우에도 위의 POC의 예와 유사하게 PTS, Frame 수 정보를 통해 metadata의 적용 시점을 나타낼 수 있다.Even when signaling PTS (presentation time stamp) and frame number, the application time of metadata can be indicated through PTS and frame number information similarly to the above POC example.
동기화 구간 (sync_duration) 정보는 동기화 시작(sync_start)으로부터 지속되는 구간에 대한 정보이다. 앞선 예와 같이 동기화 종료 지점은 sync_start + sync_duration 으로 계산할 수 있으며, 필요한 경우 sync_duration과 함께 혹은 대신 동기화 종료 시점 정보를 직접 전달할 수도 있다. Live 방송의 경우 종료 시간을 미리 정할 수 없으므로 FFFF 와 같이 미리 약속된 값으로 설정할 수 있다. 만약 sync_start 정보 만으로 메타데이터 적용 시간에 대한 판단이 가능한 경우 sync_duration값이 사용되지 않을 수도 있다. 이 경우 sync_duration은 해당 메타데이터 이후에 다른 메타데이터가 전송되는지 여부와 같은 추가 정보를 주는 플래그로 사용할 수도 있다. The synchronization section (sync_duration) information is information about a section that continues from the synchronization start (sync_start). As in the previous example, the synchronization end point may be calculated as sync_start + sync_duration, and if necessary, the synchronization end point information may be directly transmitted together with or instead of sync_duration. In the case of live broadcasting, the end time cannot be set in advance, so it can be set to a predetermined value such as FFFF. If it is possible to determine the metadata application time using only sync_start information, the sync_duration value may not be used. In this case, sync_duration can also be used as a flag giving additional information such as whether other metadata is transmitted after the corresponding metadata.
DR 정보 개수 (number_of_dynamic_range_info) 정보는 mastering display, channel, program, content, scene, clip 또는 frame에 해당하는 dynamic range 정보 표현 방법의 수를 나타낼 수 있다.The number of DR information (number_of_dynamic_range_info) information may indicate the number of dynamic range information expression methods corresponding to a mastering display, channel, program, content, scene, clip, or frame.
DR 정보 타입 (dynamic_range_info_type) 정보는 mastering display, channel, program, content, scene, clip 또는 frame에 해당하는 dynamic range 정보 표현 방법을 나타낸다. Dynamic range를 표현하기 위한 방법에는 도시된 바와 같을 수 있다. Dynamic range는 최대 밝기, 최소 밝기, 평균 밝기, 일정 성분으로 구성된 평균 또는 median 값 중 적어도 하나를 이용하여 나타낼 수 있다. 또한 white의 경우에도 normal white, diffuse white, specular white와 같이 밝은 부분을 특성에 따라 세부적으로 구분할 수 있으며, black의 경우에도 normal black, deep black, pitch dark 와 같이 특성에 따라 종류를 구분하여 표시할 수 있다. The DR information type (dynamic_range_info_type) information indicates a method of expressing dynamic range information corresponding to a mastering display, channel, program, content, scene, clip, or frame. The method for expressing the dynamic range may be as shown. The dynamic range may be expressed using at least one of maximum brightness, minimum brightness, average brightness, average or median values composed of certain components. In addition, in the case of white, bright parts such as normal white, diffuse white, and specular white can be classified in detail according to their characteristics, and in the case of black, they can be classified according to their characteristics such as normal black, deep black, and pitch dark. Can be.
아래의 예시와 같이 방송 송신 장치는 HDR info를 통해 specular white, pitch dark 와 같은 정보를 줌으로써 컨텐츠 내에 명부, 암부에 대해 밝기를 세분화하여 표현할 수 있으며, 이와 같은 정보들은 수신기 디스플레이 환경에 대한 판단 기준으로 이용하거나, 디스플레이 환경에 따른 mapping을 위한 정보로 활용될 수 있다.As shown in the example below, the broadcast transmission device may express information such as specular white and pitch dark through HDR info to subdivide the brightness of the list and the shadow in the content. Such information is used as a criterion for determining the receiver display environment. It can be used or used as information for mapping according to the display environment.
DR정보 밸류 (dynamic_range_info_value) 정보는 dynamic_range_info_type 에 따라 해당하는 값을 전달할 수 있다. 즉, 아래와 같이 dynamic_range_info_type 에 따라 content, mastering display, scene DR 각각을 세밀하게 표현할 수 있다. 혹은 container video format 과 실제 content 의 특성을 구분하여 기술하기 위해 사용할 수도 있다. The DR information value (dynamic_range_info_value) information may carry a corresponding value according to dynamic_range_info_type. That is, content, mastering display, and scene DR can be expressed in detail according to dynamic_range_info_type as follows. Alternatively, it can be used to describe the characteristics of the container video format and the actual content separately.
Ex) content : peak_luminance_level = 2000(nit), minimum_luminance_level = 0.1(nit) Ex) content: peak_luminance_level = 2000 (nit), minimum_luminance_level = 0.1 (nit)
mastering display : peak_luminance_level = 4000(nit), minimum_luminance_level = 0.01(nit) mastering display: peak_luminance_level = 4000 (nit), minimum_luminance_level = 0.01 (nit)
scene : white_level_A = 800(nit), white_level_B = 1500(nit), black_level_A = 1(nit), black_level_B = 0.1(nit) scene: white_level_A = 800 (nit), white_level_B = 1500 (nit), black_level_A = 1 (nit), black_level_B = 0.1 (nit)
변환 함수 타입(transfer_function_type) 정보는 HDR video의 mastering display, channel, program, content, scene, clip 또는 frame에 사용된 transfer function의 종류를 나타낼 수 있다. 예를 들어 SMPTE ST 2084, ITU BT.1886, BT.2020 등과 같이 미리 정해진 EOTF가 시그널링 될 수 있다. transfer function의 종류에 따라 절대 밝기 표현 방법, 상대 밝기 표현 방법 등과 같이 구분하고 구체적인 방법을 시그널링 할 수도 있다. 필요한 경우 임의의 transfer function의 계수를 전달할 수도 있다. The transfer function type (transfer_function_type) information may indicate the type of transfer function used for the mastering display, channel, program, content, scene, clip, or frame of the HDR video. For example, a predetermined EOTF may be signaled, such as SMPTE ST 2084, ITU BT.1886, BT.2020, and the like. Depending on the type of transfer function, the method may be classified and signaled as a method of representing absolute brightness or representing relative brightness. If necessary, the coefficient of any transfer function may be transferred.
CG 타입 (color_gamut_type) 정보는 HDR video의 mastering display, channel, program, content, scene, clip 또는 frame에 해당하는 컬러 개멋 (color gamut) 종류를 나타낼 수 있다. 예를 들어 BT.709, BT.2020, DCI-P3와 같은 표준 color gamut을 나타내거나, 필요에 따라서는 RGB color primary (XYZ, RGBW 등도 가능)를 통해 임의의 color gamut을 나타낼 수 있다. The CG type (color_gamut_type) information may indicate the type of color gamut corresponding to the mastering display, channel, program, content, scene, clip, or frame of the HDR video. For example, a standard color gamut such as BT.709, BT.2020, or DCI-P3 may be represented, or, if necessary, an arbitrary color gamut may be represented through an RGB color primary (XYZ, RGBW, etc.).
색온도 타입 (color_temperature_type) 정보는 mastering display, channel, program, content, scene, clip 또는 frame에 해당하는 기준 white에 대한 정보를 나타낼 수 있다. 예를 들어 D65, D50과 같은 표준 광원 색온도가 될 수도 있으며, 필요에 따라서는 white 에 대한 RGB color primary (XYZ, RGBW 등도 가능) 와 같이 색온도에 대한 대표성을 띠는 임의의 값을 나타낼 수도 있다. The color_temperature_type information may indicate information about a reference white corresponding to a mastering display, channel, program, content, scene, clip, or frame. For example, it may be a standard light source color temperature such as D65 and D50, and if necessary, an arbitrary value representative of the color temperature may be represented, such as an RGB color primary for white (XYZ, RGBW, etc.).
DR 매핑 타입 (dynamic_range_mapping_info_type) 정보는 mastering display, channel, program, content, scene, clip 또는 frame에 해당하는 dynamic range mapping 정보의 종류를 나타낸다. 예를 들어 도면에 도시된 바와 같이 HEVC에 포함되어있는 Knee function information SEI message 혹은 Tone mapping information SEI message 를 지칭함으로써 다른 SEI message이 정보를 참조할 수 있다. 또한 미리 약속된 HDR information descriptor 내에 직접 내용을 기술할 수도 있다. The DR mapping type (dynamic_range_mapping_info_type) information indicates the type of dynamic range mapping information corresponding to the mastering display, channel, program, content, scene, clip, or frame. For example, as shown in the figure, another SEI message may refer to information by referring to a Knee function information SEI message or a Tone mapping information SEI message included in the HEVC. In addition, the content may be described directly in a predetermined HDR information descriptor.
CG 매핑 타입 (color_gamut_mapping_info_type) 정보는 mastering display, channel, program, content, scene, clip 또는 frame에 해당하는 color gamut mapping 정보의 종류를 나타낸다. 예를 들어 도면에 도시된 바와 같이 HEVC에 포함되어있는 Colour remapping information SEI message 에 정의된 정보를 인용할 수 있다. 또한, 미리 약속된 HDR information descriptor 내에 직접 내용을 기술할 수도 있다. The CG mapping type (color_gamut_mapping_info_type) information indicates the type of color gamut mapping information corresponding to the mastering display, channel, program, content, scene, clip, or frame. For example, as shown in the figure, information defined in the color remapping information SEI message included in the HEVC may be cited. In addition, the content may be described directly in a predetermined HDR information descriptor.
시청 환경 타입 (viewing_condition_info_type) 정보는 mastering display, channel, program, content, scene, clip 또는 frame에 해당하는 viewing condition 정보의 종류를 나타낸다. 예를 들어 viewing_condition_info_type 정보는 별도의 SEI message로 정의된 viewing_condition에 정의된 정보를 인용할 수도 있고, 미리 약속된 HDR information descriptor 내에 직접 내용을 기술할 수도 있다. The viewing_condition_info_type information indicates the type of viewing condition information corresponding to the mastering display, channel, program, content, scene, clip, or frame. For example, the viewing_condition_info_type information may refer to the information defined in the viewing_condition defined as a separate SEI message, or may describe the content directly in a predetermined HDR information descriptor.
상술한 dynamic_range_mapping_info_type, color_gamut_mapping_info_type, viewing_condition_info_type에 대해 외부의 SEI 메시지를 참고하는 경우, 위와 달리 SEI message의 payloadType을 직접 시그널링 해주는 방법을 사용할 수 도 있다. 예를 들어 Knee function information SEI message를 참고하는 경우 dynamic_range_mapping_info_type = 0, payloadType = 141을 통해 보다 구체적으로 알려주는 방법을 사용할 수도 있다. When the external SEI message is referred to the above-described dynamic_range_mapping_info_type, color_gamut_mapping_info_type, and viewing_condition_info_type, a method of directly signaling payloadType of the SEI message may be used. For example, when referring to the Knee function information SEI message, a method of notifying in detail through dynamic_range_mapping_info_type = 0 and payloadType = 141 may be used.
도 20 은 본 발명의 일 실시예에 따른 시간 흐름에 기초하여 메타 데이터 정보를 시그널링하는 방법을 나타낸다. 20 illustrates a method of signaling metadata information based on a time flow according to an embodiment of the present invention.
시간에 따른 메타데이터 전송은 1) 매 프레임마다 해당 정보를 모두 보내주는 방법, 2) RAP 내에서 metadata가 변경되어 적용되는 구간의 시점의 프레임 내에 전송하는 방법 3) RAP 등의 주기를 가지고 주기 내에서 적용되는 metadata를 주기 시점에 한꺼번에 전송하는 방법 4) 적용 시점과 관련된 RAP 이전에 전송하는 방법과 같이 다양한 방법을 고려할 수 있다. 또한, 1)~4)의 방법을 혼합하여 사용할 수도 있다. Metadata transmission according to time is 1) method to send all the information in every frame, 2) method to transmit in the frame of the point of time when metadata is changed in RAP and 3) within period with RAP Method of transmitting metadata applied at once at the time of cycle 4) Various methods can be considered, such as transmitting before RAP related to application time. Moreover, the method of 1) -4) can also be mixed and used.
도 20 은 RAP에 따라 metadata 정보를 시그널링 하는 실시예를 나타낸다. 비디오 전체에 적용되는 공통 적용 정보(common type)는 각 RAP마다 전송될 수 있다. 이는 HDR_info_type가 0000으로 설정된 경우이다. 공통 적용 정보 는 반복되는 정보지만, 방송 송신 장치는 RAP 마다 공통 적용 정보를 전송함으로써 전송 오류에 의한 정보 손실을 보완하도록 할 수 있다. 20 illustrates an embodiment of signaling metadata information according to a RAP. Common application information (common type) applied to the entire video may be transmitted for each RAP. This is the case when HDR_info_type is set to 0000. The common application information is repeated information, but the broadcast transmission device may compensate for information loss due to a transmission error by transmitting common application information for each RAP.
장면에 따라 다르게 적용되는 정보를 제공할 필요가 있는 경우 Scene metadata를 이용하여 전송할 수 있다. 이는 HDR_info_type가 0100으로 설정된 경우이다. 이 경우 RAP 시점에 해당하는 정보와 RAP 내 scene change 이후 적용되는 정보를 같이 보내줄 수 있다. RAP 시점에 해당하는 정보 및 RAP 내 scene change 이후 적용되는 정보는 각각을 서로 다른 역할을 하는 set으로 정의될 수 있으며, 서로 다른 set_number가 부여됨으로써 구분될 수 있다. 또한 실시예에 따라 같은 장면에 적용되는 정보라도 서로 다른 역할을 하는 정보를 분리하여 별도로 전달하는 경우 이를 구분하기 위한 목적에도 서로 다른 set_number를 사용할 수 있다. 만약 동일한 정보가 두 개 이상의 RAP에 걸쳐서 적용되는 경우에는 동일 set_number를 갖되, 세부 정보 업데이트가 없는 경우 동일한 version_number를 설정할 수 있다. 여기서, 세부 정보 변경이 있는 경우에는 다른 version_number를 갖도록 함으로써 metadata processor 가 어느 set에 정보 변경이 있는지 여부를 확인하고 업데이트 여부를 결정할 수 있다. 다음 RAP이 도래하면, scene 시작 시점이 새로운 RAP으로 바뀌게 되므로 sync_start가 새로운 RAP으로 바뀌어 적용될 수 있다. 이 경우, 싱크 구간의 끝 지점 (sync_start+sync_duration)이 동일한 경우 정보 변경이 없다고 보고 동일한 version_number를 적용할 수 있다. When it is necessary to provide information that is applied differently according to a scene, it can be transmitted by using scene metadata. This is the case when HDR_info_type is set to 0100. In this case, the information corresponding to the RAP time point and the information applied after the scene change in the RAP can be sent together. The information corresponding to the RAP time point and the information applied after the scene change in the RAP may be defined as sets having different roles, and may be distinguished by being given different set_numbers. Also, according to an embodiment, different sets_numbers may be used for the purpose of distinguishing the information applied to the same scene by separately separating and transmitting the information that plays different roles. If the same information is applied over two or more RAPs, the same set_number may be used. However, if there is no detailed information update, the same version_number may be set. In this case, when there is a change in the detailed information, the metadata processor may determine whether the information is changed in which set and update the metadata processor by having a different version_number. When the next RAP arrives, sync_start can be applied to the new RAP because the scene start time is replaced by the new RAP. In this case, if the end point (sync_start + sync_duration) of the sync interval is the same, there is no information change and the same version_number may be applied.
프로그램 내 사용되는 메타데이터 적용 시점과 관련된 RAP이 도래하기 이전에 적용 정보를 미리 전송하는 경우에는, 시간 차이, 순서, Frame 수와 같이 상대적인 개념을 통해 적용 시점을 알려줄 수 있다. 이 경우 Sync_start = FFFF와 같이 미리 약속 된 시그널링 혹은 RAP 보다 더 긴 구간 길이로 시그널링 하는 방법을 이용하여 해당 RAP이 아닌 향후에 적용 될 메타데이터임을 알려줄 수도 있다. When the application information is transmitted in advance before the RAP related to the metadata application time used in the program arrives, the application time may be informed through relative concepts such as time difference, order, and frame number. In this case, it may be informed that the metadata is to be applied in the future instead of the corresponding RAP by using a method of signaling in a longer interval than the RAP or the pre-promised signaling such as Sync_start = FFFF.
00:00:00:00~00:00:02:00 구간에서 두번째 HDR_info_type=0100는 sync_start=0, sync_duration=180으로 설정되고 00:00:02:00~00:00:04:00 구간에서 두번째 HDR_info_type=0100은 sync_start=0, sync_duration=60으로 설정될 수 있다. Start 시점이 00:00:00:00에서 00:00:02:00로 변함에 따라 동일 정보(set 1, ver 0)에 대해 duration을 변경하여 시그널링 할 수 있다, 동일 정보임이 확인되는 경우 수신기에서는 metadata update 수행하지 않는다. The second HDR_info_type = 0100 for 00: 00: 00: 00 ~ 00: 00: 02: 00 is set to sync_start = 0, sync_duration = 180 and the second in 00: 00: 02: 00 ~ 00: 00: 04: 00 HDR_info_type = 0100 may be set to sync_start = 0 and sync_duration = 60. As the start time is changed from 00: 00: 00: 00 to 00: 00: 02: 00, the duration can be signaled by changing the duration of the same information (set 1, ver 0). Do not perform metadata update.
만약 이전 정보와 동일한 역할을 하는 정보에 대해 세부 내용 변경이 있는 경우, 방송 송신 장치는 공통 적용 정보의 set_number는 유지한 채로 version_number를 증가시킬 수 있다. 수신기의 metadata processor 는 변경된 version_number에 기초하여 정보 변경을 인지할 수 있으며, 기존 정보를 새로운 정보로 업데이트 할 수 있다. If there is a change in details about the information that plays the same role as the previous information, the broadcast transmission device may increase version_number while maintaining set_number of common application information. The metadata processor of the receiver may recognize the information change based on the changed version_number and update the existing information with the new information.
00:00:04:00~00:00:06:00 구간에서 메타 데이터 내의 정보 변경이 있는 경우 추가로 시작 시점 등의 정보를 전달할 수도 있다. 메타데이터 내 정보 변경이 있는 경우, 예를 들어 도시된 바와 같이 B 정보가 B'로 변경되면, 새로운 version number를 부여할 수 있다. 도면에서 00:00:02:00~00:00:04:00 구간에서 set_number=2에 대한 version number가 0이었으나, 00:00:04:00~00:00:06:00 구간에서는 version number가 1로 증가한 것을 확인할 수 있다. 종료 시점이 변하는 경우 등에도 version number를 통해 update 되어야 함을 알려줄 수 있다.If there is a change of information in the metadata in the section 00: 00: 04: 00 ~ 00: 00: 06: 00, information such as a start time may be additionally delivered. When there is a change in information in the metadata, for example, when B information is changed to B 'as illustrated, a new version number may be assigned. In the drawing, the version number for set_number = 2 was 0 in the range 00: 00: 02: 00 ~ 00: 00: 04: 00, but the version number in the range 00: 00: 04: 00 ~ 00: 00: 06: 00. You can see that it increased to 1. Even if the end point changes, it can be informed that the version number should be updated.
도 21 은 본 발명의 다른 실시예에 따른 시간 흐름에 기초하여 메타 데이터 정보를 시그널링하는 방법을 나타낸다. 도 21 은 메타 데이터 정보를 시그널링 함에 있어서, HDR과 SDR 사이에 전환이 있는 경우를 나타낸다. 도시된 바와 같이 세번째 RAP에서 HDR 비디오 스트림은 SDR 비디오 스트림으로 전환되며 이 경우, 세번째 RAP 이후에는 HDR information descriptor가 더 이상 송수신되지 않는다.21 illustrates a method of signaling metadata information based on a time flow according to another embodiment of the present invention. 21 illustrates a case in which there is a switch between HDR and SDR in signaling metadata information. As shown, in the third RAP, the HDR video stream is converted into an SDR video stream. In this case, the HDR information descriptor is no longer transmitted or received after the third RAP.
HDR information descriptor 전송이 중단되는 경우 방송 송신 장치는 transition_flag를 통해 수신기에 알려줄 수 있다. 컨텐츠의 DR이 HDR에서 SDR 로 전환되는 경우, HDR/WCG 컨텐츠에 대한 비디오 특성을 전달하였던 SEI message의 전달이 중단되며, 컨텐츠 전환 시첨 이후 더 이상의 정보가 전달되지 않을 수 있다. 물론, SDR 컨텐츠에 대해서도 mastering display 정보, color gamut mapping, viewing condition 과 같이 HDR information descriptor를 사용하는 경우도 발생할 수 있지만, 본 예시에서는 HDR information descriptor를 사용하지 않는 legacy SDR content에 대해 고려할 수 있다. 이 경우, transition_flag를 on하는 시점, 즉, 1로 세팅하는 시점이 중요한데, 위의 예시와 같이 전환이 일어나는 시점의 직전 프레임 및 그 프레임을 포함하는 RAP (도면에서 두번째 RAP)에서 transition_flag를 on으로 세팅할 수 있다.When transmission of the HDR information descriptor is stopped, the broadcast transmission device may inform the receiver through the transition_flag. When the DR of the content is switched from HDR to SDR, the delivery of the SEI message that has delivered the video characteristics for the HDR / WCG content is stopped, and no further information may be delivered after the content switching contest. Of course, the use of HDR information descriptors such as mastering display information, color gamut mapping, and viewing conditions may also occur for SDR content. However, in this example, legacy SDR content not using the HDR information descriptor may be considered. In this case, it is important to turn on the transition_flag, that is, to set it to 1, and set transition_flag to on in the frame immediately before the transition occurs and the RAP containing the frame (second RAP in the drawing) as shown in the above example. can do.
도 22 는 본 발명의 일 실시예에 따른 dynamic_range_mapping_info를 나타낸 도면이다. 전술한 dynamic_range_mapping_info_type이 0x03으로 설정되면, dynamic_range_mapping_info()가 HDR_info descriptor 내에서 직접 정의될 수 있다. HDR_info_type이 Mastering display 혹은 video 와 관련된 공통 적용 정보로써 channel, program 또는 content인 경우, 영상 (channel, program 또는 content) 전반에 걸쳐 도 9에서 설명하는 정보를 사용할 수 있으며, 부분 적용 정보로써 scene type 혹은 frame type인 경우, 해당되는 구간에 대해 전술한 정보를 사용할 수 있다. 아래에서는 dynamic_range_mapping_info()가 포함하는 필드에 대해 설명하도록 한다. 22 illustrates dynamic_range_mapping_info according to an embodiment of the present invention. If the above-described dynamic_range_mapping_info_type is set to 0x03, dynamic_range_mapping_info () may be directly defined in the HDR_info descriptor. When HDR_info_type is channel, program, or content as common application information related to mastering display or video, the information described in FIG. 9 may be used throughout the image (channel, program or content), and scene type or frame as partial application information. In the case of type, the above-described information may be used for a corresponding section. The following describes the fields included in dynamic_range_mapping_info ().
본 발명의 일 실시예에 따른 dynamic_range_mapping_info()는 최대 기준 밝기 정보 (luminance_max), 최소 기준 밝기 정보 (luminance_min), 임의 EOTF 정보 (private_EOTF), EOTF 계수 개수 정보 (number_of_coeff), EOTF 계수 정보 (transfer_curve_coeff[i]), 클리핑 플래그 정보 (clipping_flag), 선형 매핑 플래그 정보 (linear_mapping_flag), 클리핑 최대 밝기 범위 정보 (luma_clipping_upper_bound), 클리핑 최소 밝기 범위 정보 (luma_clipping_lower_bound), 최대 밝기 정보 (luminance_upper_bound), 최소 밝기 정보 (luminance_lower_bound), 최대 밝기 디지털 값 (luma_upper_value), 최소 밝기 디지털 값 (luma_lower_value), 핵심 영역 변환 곡선 타입 정보 (mid_DR_transformation_curve_type), 핵심 영역 변환 곡선 세부 정보 (mid_DR_transformation_curve()), 핵심 밝기 범위 영역 비율 정보 (mid_DR_percentage), 상위 영역 변환 곡선 타입 정보 (upper_DR_transformation_curve_type), 상위 영역 변환 곡선 세부 정보 (upper_DR_transformation_curve()), 상위 밝기 범위 영역 비율 정보 (upper_DR_percentage), 하위 영역 변환 곡선 타입 정보 (lower_DR_transformation_curve_type), 하위 영역 변환 곡선 세부 정보 (lower_DR_transformation_curve()), 추가 영역 개수 정보 (number_luminance_upper_bound_diff), 추가 영역 차이 정보 (luminance_upper_bound_diff[i]), 추가 영역 차이 디지털 값 (luma_upper_value_diff[i]), 변경 상위 영역 변환 곡선 타입 정보 (upper_DR_transformation_curve_type[i]), 변경 상위 영역 변환 곡선 세부 정보 (upper_DR_transformation_curve()), 변경 상위 밝기 범위 영역 비율 정보 (upper_DR_percentage[i]) 및/또는 변경 핵심 밝기 범위 영역 비율 정보 (mid_DR_percentage[i])를 포함할 수 있다.Dynamic_range_mapping_info () according to an embodiment of the present invention includes maximum reference brightness information (luminance_max), minimum reference brightness information (luminance_min), arbitrary EOTF information (private_EOTF), EOTF coefficient number information (number_of_coeff), EOTF coefficient information (transfer_curve_coeff [i ]), Clipping flag information (clipping_flag), linear mapping flag information (linear_mapping_flag), clipping maximum brightness range information (luma_clipping_upper_bound), clipping minimum brightness range information (luma_clipping_lower_bound), maximum brightness information (luminance_upper_bound), minimum brightness information (luminance_lower_bound), Maximum brightness digital value (luma_upper_value), minimum brightness digital value (luma_lower_value), key area transformation curve type information (mid_DR_transformation_curve_type), key area transformation curve detail (mid_DR_transformation_curve ()), key brightness range area ratio information (mid_DR_percentage), upper area Transform curve type information (upper_DR_transformation_curve_t ype), upper region transformation curve details (upper_DR_transformation_curve ()), upper luminance range region ratio information (upper_DR_percentage), lower region transformation curve type information (lower_DR_transformation_curve_type), subregion transformation curve details (lower_DR_transformation_curve ()), and the number of additional regions Information (number_luminance_upper_bound_diff), additional region difference information (luminance_upper_bound_diff [i]), additional region difference digital value (luma_upper_value_diff [i]), change upper region transformation curve type information (upper_DR_transformation_curve_type [i]), and change upper region transformation curve details ( upper_DR_transformation_curve ()), change upper brightness range region ratio information (upper_DR_percentage [i]), and / or change key brightness range region ratio information (mid_DR_percentage [i]).
최대 기준 밝기 정보 (luminance_max)는 초고화질 방송 컨텐츠에서 표현된 최대 기준 밝기를 나타낸다. 즉, 밝기 범위 (DR)의 최대값을 나타낸다. 예를 들어, 참조 모니터 (reference monitor)의 경우 100cd/m^2를 최대 기준 밝기로 정하고 있고 이 경우 일반적인 범위를 고려하여 상기 값을 100 (10진수)으로 나눈 값의 몫인 1이 전송될 수 있다. The maximum reference brightness information (luminance_max) indicates the maximum reference brightness expressed in the UHD broadcast content. That is, the maximum value of the brightness range DR is shown. For example, in the case of a reference monitor, 100 cd / m ^ 2 is set as the maximum reference brightness, and in this case, 1, which is the quotient of the value divided by 100 (decimal) in consideration of a general range, may be transmitted. .
최소 기준 밝기 정보 (luminance_min)는 초고화질 방송 컨텐츠에서 표현된 최소 기준 밝기를 나타낸다. 즉, 밝기 범위 (DR)의 최소값을 나타낸다. 예를 들어, 참조 모니터 (reference monitor)의 경우 0.05cd/m^2를 최소 기준 밝기로 정하고 있고 이 경우 일반적인 범위를 고려하여 상기 값에 100 (10진수)을 곱한 값인 5가 전송될 수 있다.The minimum reference brightness information (luminance_min) indicates the minimum reference brightness expressed in the UHD broadcast content. That is, the minimum value of the brightness range DR is shown. For example, in the case of a reference monitor, 0.05 cd / m ^ 2 is set as the minimum reference brightness. In this case, 5, which is a value obtained by multiplying 100 (decimal number) by the value in consideration of a general range, may be transmitted.
임의 EOTF 정보 (private_EOTF)는 임의의 EOTF 함수가 사용되는지 여부를 나타낸다. 일반적으로 ITU-R BT.1886, REC.709, BT.2020 등과 같이 널리 사용되는 EOTF가 사용되는 경우에는 VUI 정보에 의해 전달될 수 있다. 하지만, 아직 표준으로 정해지지 않은 EOTF가 사용되는 경우 당해 필드 값을 1로 설정하여 나타낼 수 있다. 예를 들어, 표준으로 정해 지지 않은 EOTF 즉, 임의의 EOTF로서 perceptual quantization이 사용될 수 있다.The arbitrary EOTF information (private_EOTF) indicates whether any EOTF function is used. In general, when a widely used EOTF such as ITU-R BT.1886, REC.709, BT.2020, etc. is used, it can be delivered by VUI information. However, when the EOTF, which is not yet defined as a standard, is used, it may be indicated by setting the field value to 1. For example, perceptual quantization can be used as an EOTF, i.
EOTF 계수 개수 정보 (number_of_coeff)는 임의의 EOTF에 사용된 계수의 개수를 나타낸다.EOTF coefficient number information (number_of_coeff) represents the number of coefficients used for any EOTF.
EOTF 계수 정보 (transfer_curve_coeff[i])는 임의의 EOTF에 사용된 계수를 나타낸다.EOTF coefficient information (transfer_curve_coeff [i]) represents a coefficient used for any EOTF.
클리핑 플래그 정보 (clipping_flag)는 클리핑 옵션이 사용되는지 여부를 나타내는 정보로서 클리핑 옵션의 사용이 허용되는 경우 1값을 가질 수 있다.The clipping flag information clipping_flag is information indicating whether the clipping option is used and may have a value of 1 when the use of the clipping option is allowed.
선형 매핑 플래그 정보 (linear_mapping_flag)는 선형 밝기 범위 변환 (linear dynamic range transformation) 방법의 사용 여부를 나타낸다. 선형 밝기 범위 변환 (linear dynamic range transformation) 방법이 사용되는 경우 1값을 가진다.The linear mapping flag information (linear_mapping_flag) indicates whether or not to use a linear dynamic range transformation method. It has a value of 1 when the linear dynamic range transformation method is used.
클리핑 최대 밝기 범위 정보 (luma_clipping_upper_bound)는 클리핑 옵션이 사용되는 경우에 디스플레이 되는 밝기 범위 (DR)에서 상위 임계점에 대한 디지털 값 (digtal value)을 나타낸다.The clipping maximum brightness range information (luma_clipping_upper_bound) indicates a digital value for the upper threshold in the brightness range DR displayed when the clipping option is used.
클리핑 최소 밝기 범위 정보 (luma_clipping_lower_bound)는 클리핑 옵션이 사용되는 경우에 디스플레이 되는 밝기 범위 (DR)에서 하위 임계점에 대한 디지털 값 (digtal value)을 나타낸다.The clipping minimum brightness range information (luma_clipping_lower_bound) indicates a digital value for the lower threshold in the brightness range DR displayed when the clipping option is used.
최대 밝기 정보 (luminance_upper_bound)는 초고화질 방송 컨텐츠에서 표현된 밝기 범위 중 필수적으로 표현되어야 하는 밝기 범위의 최대값 (nit 단위)을 나타낸다. 최대 밝기 정보는 수신 장치의 디스플레이 종류를 판단하는 기준이 될 수 있다. 또한, 수신 장치의 디스플레이 종류를 판단하는 별도의 기준을 시그널링 할 수 있다. The maximum brightness information (luminance_upper_bound) represents a maximum value (in units of nit) of the brightness range that must be expressed among the brightness ranges expressed in the UHD broadcast content. The maximum brightness information may be a criterion for determining the display type of the receiving device. In addition, an additional criterion for determining the display type of the receiving device may be signaled.
최소 밝기 정보 (luminance_lower_bound)는 초고화질 방송 컨텐츠에서 표현된 밝기 범위 중 필수적으로 표현되어야 하는 밝기 범위의 최소값 (nit 단위)을 나타낸다. 최소 밝기 정보는 수신 장치의 디스플레이 종류를 판단하는 기준이 될 수 있다. 또한, 수신 장치의 디스플레이 종류를 판단하는 별도의 기준을 시그널링 할 수 있다. The minimum brightness information (luminance_lower_bound) indicates a minimum value (in nit) of the brightness range that must be expressed among the brightness ranges expressed in the UHD broadcast content. The minimum brightness information may be a criterion for determining the display type of the receiving device. In addition, an additional criterion for determining the display type of the receiving device may be signaled.
최대 밝기 디지털 값 (luma_upper_value)은 최대 밝기 정보 (luminance_upper_bound)에 해당하는 디지털 값 (digital value)을 나타낸다. The maximum brightness digital value (luma_upper_value) indicates a digital value corresponding to the maximum brightness information (luminance_upper_bound).
최소 밝기 디지털 값 (luma_lower_value)은 최소 밝기 정보 (luminance_lower_bound)에 해당하는 디지털 값 (digital value)을 나타낸다. The minimum brightness digital value (luma_lower_value) indicates a digital value corresponding to the minimum brightness information (luminance_lower_bound).
핵심 영역 변환 곡선 타입 정보 (mid_DR_transformation_curve_type)는 핵심 밝기 범위 영역에서 사용되는 밝기 범위 변환 곡선을 식별한다. 변환 곡선은 선형 곡선 (linear curve), 지수 곡선 (exponential curve), S곡선 (s curve), 로그 곡선 (logarithmic curve), 여러 곡선이 조합된 곡선 (combination curve) 및 LUT (Look Up Table) 중 어느 하나가 사용될 수 있다.The core region transformation curve type information (mid_DR_transformation_curve_type) identifies a luminance range transformation curve used in the core luminance range region. The conversion curve can be any one of a linear curve, an exponential curve, an S curve, a logarithmic curve, a combination curve, and a look up table (LUT). One can be used.
핵심 영역 변환 곡선 세부 정보 (mid_DR_transformation_curve())는 핵심 영역 변환 곡선 타입 정보 (mid_DR_transformation_curve_type)에 의해 식별된 변환 곡선에 따른 추가 정보를 나타낸다. 예를 들어, 선형 곡선 (linear curve)이 사용되는 경우 기울기 정보가 전송될 수 있고, 지수 곡선 (exponential curve)이나 로그 곡선 (logarithmic curve)이 사용되는 경우 밑에 대한 정보가 전송될 수 있고, S곡선 (s curve)이 사용되는 경우 변곡점의 좌표 및 각 구간에 대한 밑과 y절편에 대한 정보가 전송될 수 있고, 여러 곡선이 조합된 곡선 (combination curve)이 사용되는 경우 각 구간의 x좌표, 각 구간의 곡선 종류 및 당해 그래프에 대한 정보가 전송될 수 있다.The core region transformation curve detail information mid_DR_transformation_curve () indicates additional information according to the transformation curve identified by the core region transformation curve type information mid_DR_transformation_curve_type. For example, slope information may be transmitted when a linear curve is used, and information about the bottom may be transmitted when an exponential curve or a logarithmic curve is used, and an S curve may be used. If (s curve) is used, the coordinates of the inflection point and the information about the base and y-intercept for each section can be transmitted.When the combination curve is used, the x coordinate of each section, each The curve type of the section and information on the graph may be transmitted.
핵심 밝기 범위 영역 비율 정보 (mid_DR_percentage)는 초고화질 방송 컨텐츠의 밝기 범위 중 핵심 밝기 범위 영역이 수신 장치 디스플레이의 전체 밝기 범위 (DR)에서 차지하는 비율을 나타낸다.The core brightness range region ratio information mid_DR_percentage represents a ratio of the core brightness range region of the brightness range of the ultra-high definition broadcasting content to the entire brightness range DR of the reception device display.
상위 영역 변환 곡선 타입 정보 (upper_DR_transformation_curve_type)는 상위 밝기 범위 영역에서 사용되는 밝기 범위 변환 곡선을 식별한다. 변환 곡선은 선형 곡선 (linear curve), 지수 곡선 (exponential curve), S곡선 (s curve), 로그 곡선 (logarithmic curve), 여러 곡선이 조합된 곡선 (combination curve) 및 LUT (Look Up Table) 중 어느 하나가 사용될 수 있다.The upper region transformation curve type information (upper_DR_transformation_curve_type) identifies a brightness range transformation curve used in the upper luminance range region. The conversion curve can be any one of a linear curve, an exponential curve, an S curve, a logarithmic curve, a combination curve, and a look up table (LUT). One can be used.
상위 영역 변환 곡선 세부 정보 (upper_DR_transformation_curve())는 상위 영역 변환 곡선 타입 정보 (upper_DR_transformation_curve_type)에 의해 식별된 변환 곡선에 따른 추가 정보를 나타낸다. 예를 들어, 선형 곡선 (linear curve)이 사용되는 경우 기울기 정보가 전송될 수 있고, 지수 곡선 (exponential curve)이나 로그 곡선 (logarithmic curve)이 사용되는 경우 밑에 대한 정보가 전송될 수 있고, S곡선 (s curve)이 사용되는 경우 변곡점의 좌표 및 각 구간에 대한 밑과 y절편에 대한 정보가 전송될 수 있고, 여러 곡선이 조합된 곡선 (combination curve)이 사용되는 경우 각 구간의 x좌표, 각 구간의 곡선 종류 및 당해 그래프에 대한 정보가 전송될 수 있다.The upper region transformation curve detailed information (upper_DR_transformation_curve ()) indicates additional information according to the transformation curve identified by the upper region transformation curve type information (upper_DR_transformation_curve_type). For example, slope information may be transmitted when a linear curve is used, and information about the bottom may be transmitted when an exponential curve or a logarithmic curve is used, and an S curve may be used. If (s curve) is used, the coordinates of the inflection point and the information about the base and y-intercept for each section can be transmitted.When the combination curve is used, the x coordinate of each section, each The curve type of the section and information on the graph may be transmitted.
상위 밝기 범위 영역 비율 정보 (upper_DR_percentage)는 초고화질 방송 컨텐츠의 밝기 범위 중 상위 밝기 범위 영역이 수신 장치 디스플레이의 전체 밝기 범위 (DR)에서 차지하는 비율을 나타낸다.The upper brightness range region ratio information (upper_DR_percentage) indicates a ratio of the upper brightness range region of the brightness range of the UHD broadcast content to the entire brightness range DR of the display of the receiving device.
하위 영역 변환 곡선 타입 정보 (lower_DR_transformation_curve_type)는 하위 밝기 범위 영역에서 사용되는 밝기 범위 변환 곡선을 식별한다. 변환 곡선은 선형 곡선 (linear curve), 지수 곡선 (exponential curve), S곡선 (s curve), 로그 곡선 (logarithmic curve), 여러 곡선이 조합된 곡선 (combination curve) 및 LUT (Look Up Table) 중 어느 하나가 사용될 수 있다.The lower region transformation curve type information (lower_DR_transformation_curve_type) identifies a brightness range transformation curve used in the lower luminance range region. The conversion curve can be any one of a linear curve, an exponential curve, an S curve, a logarithmic curve, a combination curve, and a look up table (LUT). One can be used.
하위 영역 변환 곡선 세부 정보 (lower_DR_transformation_curve())는 하위 영역 변환 곡선 타입 정보 (lower_DR_transformation_curve_type)에 의해 식별된 변환 곡선에 따른 추가 정보를 나타낸다. 예를 들어, 선형 곡선 (linear curve)이 사용되는 경우 기울기 정보가 전송될 수 있고, 지수 곡선 (exponential curve)이나 로그 곡선 (logarithmic curve)이 사용되는 경우 밑에 대한 정보가 전송될 수 있고, S곡선 (s curve)이 사용되는 경우 변곡점의 좌표 및 각 구간에 대한 밑과 y절편에 대한 정보가 전송될 수 있고, 여러 곡선이 조합된 곡선 (combination curve)이 사용되는 경우 각 구간의 x좌표, 각 구간의 곡선 종류 및 당해 그래프에 대한 정보가 전송될 수 있다.The lower region transformation curve detail information (lower_DR_transformation_curve ()) indicates additional information according to the transformation curve identified by the lower region transformation curve type information (lower_DR_transformation_curve_type). For example, slope information may be transmitted when a linear curve is used, and information about the bottom may be transmitted when an exponential curve or a logarithmic curve is used, and an S curve may be used. If (s curve) is used, the coordinates of the inflection point and the information about the base and y-intercept for each section can be transmitted.When the combination curve is used, the x coordinate of each section, each The curve type of the section and information on the graph may be transmitted.
추가 영역 개수 정보 (number_luminance_upper_bound_diff)는 핵심 밝기 범위 영역을 확장하기 위해 사용되는 변수의 개수를 나타낸다.The additional region number information (number_luminance_upper_bound_diff) represents the number of variables used to extend the core brightness range region.
추가 영역 차이 정보 (luminance_upper_bound_diff[i])는 초고화질 방송 컨텐츠에서 i+1 번째 밝기 값을 구성하기 위한 차이 값을 나타낸다. 기존 밝기 범위보다 넓은 밝기 범위를 갖지만 초고화질 방송 컨텐츠에서 표현된 밝기 범위를 모두 수용하지 못하는 디스플레이 (경우 2)에서 핵심 밝기 범위 영역을 확장하는 경우 최대 밝기 정보 (luminance_upper_bound)는 luminance_upper_bound + luminance_upper_bound_diff[0] + … + luminance_upper_bound_diff[i]가 나타내는 값으로 변경될 수 있다.The additional area difference information (luminance_upper_bound_diff [i]) represents a difference value for configuring an i + 1th brightness value in ultra high definition broadcast content. If you extend the core brightness range area on a display (case 2) that has a wider brightness range than the existing brightness range but does not accommodate all of the brightness ranges expressed in ultra-high definition broadcast content, the maximum brightness information (luminance_upper_bound) is luminance_upper_bound + luminance_upper_bound_diff [0] +… Can be changed to the value indicated by luminance_upper_bound_diff [i].
추가 영역 차이 디지털 값 (luma_upper_value_diff[i])은 초고화질 방송 컨텐츠에서 i+1 번째 밝기 값에 대한 디지털 값 (digital value)을 나타낸다. 기존 밝기 범위보다 넓은 밝기 범위를 갖지만 초고화질 방송 컨텐츠에서 표현된 밝기 범위를 모두 수용하지 못하는 디스플레이 (경우 2)에서 핵심 밝기 범위 영역을 확장하는 경우 최대 밝기 디지털 값 (luma_upper_value)은 luma_upper_value + luma_upper_value_diff[0] + … + luma_upper_value_diff[i]가 나타내는 값으로 변경될 수 있다.The additional region difference digital value luma_upper_value_diff [i] represents a digital value for the i + 1th brightness value in the ultra high definition broadcast content. If you extend the core brightness range area on a display that has a wider brightness range than the existing brightness range but does not accommodate all the brightness ranges represented in ultra-high definition broadcast content (case 2), the maximum brightness digital value (luma_upper_value) is luma_upper_value + luma_upper_value_diff [0 ] +… Can be changed to the value indicated by luma_upper_value_diff [i].
변경 상위 영역 변환 곡선 타입 정보 (upper_DR_transformation_curve_type[i])는 i+1 번째 밝기 범위를 지원하는 경우 변경된 상위 밝기 범위 영역에서 사용되는 변환 곡선을 식별할 수 있다. 즉, 변경 상위 영역 변환 곡선 타입 정보는 핵심 밝기 범위 영역이 확장되는 경우 이에 따라 변경된 상위 밝기 범위 영역에서 사용되는 변환 곡선을 식별할 수 있다.The changed upper region transformation curve type information (upper_DR_transformation_curve_type [i]) may identify the transformation curve used in the changed upper luminance range region when supporting the i + 1 th brightness range. That is, the changed upper region conversion curve type information may identify the conversion curve used in the changed upper brightness range region when the core brightness range region is extended.
변경 상위 영역 변환 곡선 세부 정보 (upper_DR_transformation_curve())는 변경 상위 영역 변환 곡선 타입 정보 (upper_DR_transformation_curve_type[i])에 의해 식별된 변환 곡선에 따른 추가 정보를 나타낸다. 즉, i+1 번째 밝기 범위를 지원하는 경우 변경된 상위 밝기 범위 영역에서 사용되는 변환 곡선에 대한 세부 사항을 나타낸다.The change upper region transformation curve detailed information (upper_DR_transformation_curve ()) indicates additional information according to the transformation curve identified by the change upper region transformation curve type information (upper_DR_transformation_curve_type [i]). That is, when the i + 1th brightness range is supported, the details of the conversion curve used in the changed upper brightness range area are shown.
변경 상위 밝기 범위 영역 비율 정보 (upper_DR_percentage[i])는 초고화질 방송 컨텐츠의 핵심 밝기 범위 영역이 변경되는 경우 이에 따라 변경된 상위 밝기 범위 영역이 수신 장치 디스플레이의 전체 밝기 범위 (DR)에서 차지하는 비율을 나타낸다.The changed upper brightness range region ratio information (upper_DR_percentage [i]) indicates the ratio of the changed upper brightness range region to the total brightness range (DR) of the receiving device when the core brightness range region of the UHD broadcast content is changed. .
변경 핵심 밝기 범위 영역 비율 정보 (mid_DR_percentage[i])는 초고화질 방송 컨텐츠의 핵심 밝기 범위 영역이 변경되는 경우 변경된 핵심 밝기 범위 영역이 수신 장치 디스플레이의 전체 밝기 범위 (DR)에서 차지하는 비율을 나타낸다.The changed core brightness range region ratio information mid_DR_percentage [i] indicates a ratio of the changed core brightness range region to the entire brightness range DR of the receiving device display when the core brightness range region of the UHD broadcast content is changed.
도 23 은 본 발명의 일 실시예에 따른 HEVC 내에 정의된 SEI 메시지를 참조하는 경우를 나타낸다. 전술한 color_gamut_mapping_info_type 이 0x00으로 설정되면, gamut_mapping_info()가 HDR_info descriptor 내에 직접 정의되지 않고 HEVC에 정의된 SEI 메시지를 참조할 수 있다. 여기서 SEI 메시지는 HEVC에 정의된 colour remapping information SEI message syntax를 따를 수 있다. 23 shows a case of referring to an SEI message defined in HEVC according to an embodiment of the present invention. If the above-described color_gamut_mapping_info_type is set to 0x00, gamut_mapping_info () may refer to the SEI message defined in HEVC without being directly defined in the HDR_info descriptor. Here, the SEI message may follow the color remapping information SEI message syntax defined in HEVC.
HDR_info_type가 Mastering display 혹은 video 와 관련된 공통 적용 정보로써 channel, program 또는 content인 경우 영상 (channel, program 또는 content) 전반에 걸쳐 참조된 정보를 사용할 수 있으며, 부분 적용 정보로써 scene type 혹은 frame type인 경우 해당되는 구간에만 참조된 정보를 적용할 수 있다.When HDR_info_type is common application information related to mastering display or video, information that is referred to throughout the image (channel, program or content) can be used when channel, program or content is used. In case of scene type or frame type as partial application information The referenced information can be applied only to the section.
도 24 및 25 는 본 발명의 일 실시예에 따른 HDR_info descriptor를 PMT를 통해 시그널링하는 실시예를 나타낸다. PMT는 program mapping table을 의미하며, 테이블 식별자 정보, 섹션 신택스 지시자 정보, 섹션 길이 정보, 프로그램 넘버 정보, 버전 넘버 정보, current_next 지시자 정보, 섹션 넘버 정보, PCR_PID 정보, program info 길이 정보, 제1 디스크립터 정보, 스트림 타입 정보, 기본 PID (elementary PID) 정보, 엘레멘터리 스트림 정보 길이 (Es_info_length) 정보, 제2 디스크립터 정보, CRC 정보 등을 포함할 수 있다. 제1 디스크립터 정보는 program info 길이 정보 뒤에 따라오는 첫번째 루프에 포함된 디스크립터 정보를 나타낼 수 있으며, 제2 디스크립터 정보는 엘레멘터리 스트림 정보 길이 뒤에 따라오는 두번째 루프에 포함된 디스크립터 정보를 나타낼 수 있다. 24 and 25 illustrate an embodiment of signaling HDR_info descriptor through PMT according to an embodiment of the present invention. PMT stands for program mapping table and includes table identifier information, section syntax indicator information, section length information, program number information, version number information, current_next indicator information, section number information, PCR_PID information, program info length information, and first descriptor information. , Stream type information, basic PID (elementary PID) information, elementary stream information length (Es_info_length) information, second descriptor information, CRC information, and the like. The first descriptor information may indicate descriptor information included in the first loop following the program info length information, and the second descriptor information may indicate descriptor information included in the second loop following the length of the elementary stream information.
본 발명의 일 실시예에 따른 UHD_program_info_descriptor는 PMT에 포함된 제1 디스크립터 정보 내에 포함되어 시그널링될 수 있으며, 전술한 HDR_info descriptor는 PMT에 포함된 제2 디스크립터 정보 내에 포함되어 시그널링 될 수 있다. The UHD_program_info_descriptor according to an embodiment of the present invention may be included in the first descriptor information included in the PMT and signaled, and the above-described HDR_info descriptor may be included in the second descriptor information included in the PMT and signaled.
UHD_program_info_descriptor는 디스크립터 태크 (descriptor_tag) 정보, 디스크립터 길이 (descriptor_length) 정보 또는 서비스 타입 정보 (UHD_service_type) 중 적어도 하나를 포함할 수 있다. 여기서 서비스 타입 정보 (UHD_service_type)는 UHD 서비스의 종류를 나타낼 수 있다. 예를 들어, 서비스 타입 정보는 UHD1(4K), UHD2(8K), 혹은 quality에 따른 구분 등 사용자가 지정한 UHD 서비스 종류를 나타낼 수 있다. 이를 통해 수신기에게 다양한 UHD 서비스를 제공할 수 있다. 본 발명의 경우, UHD_service_type = 1100 (UHD1 service with HDR information metadata, 4K의 예)로 지정하여 video, scene, clip 또는 frame 등의 서로 다른 단계 또는 단위에 대한 HDR info 가 제공됨을 나타낼 수 있다.UHD_program_info_descriptor may include at least one of descriptor tag (descriptor_tag) information, descriptor length (descriptor_length) information, or service type information (UHD_service_type). The service type information (UHD_service_type) may indicate the type of UHD service. For example, the service type information may indicate a UHD service type designated by a user, such as UHD1 (4K), UHD2 (8K), or classification according to quality. Through this, various UHD services can be provided to the receiver. In the case of the present invention, UHD_service_type = 1100 (UHD1 service with HDR information metadata, 4K example) may indicate that HDR info is provided for different steps or units such as video, scene, clip, or frame.
도 26 및 27 은 본 발명의 일 실시예에 따른 HDR_info descriptor를 EIT를 통해 시그널링하는 실시예를 나타낸다. ATSC 및 DVB 시스템은 시그널링 테이블로써 EIT를 포함할 수 있으며, 그 안에 포함된 신택스는 도시된 바와 같다. 26 and 27 illustrate an embodiment of signaling HDR_info descriptor through EIT according to an embodiment of the present invention. ATSC and DVB systems may include an EIT as a signaling table, with the syntax contained therein as shown.
본 발명의 일 실시예에 따른 ATSC 및 DVB 시스템의 EIT (Event Information Table)는 공통적으로 table_id 필드, section_syntax_indicator 필드, section_length 필드, source_id (service_id)필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, num_events_in_section (segment_last_section_number)필드, event_id 필드, start_time 필드, length_in_seconds (duration) 필드, descriptors_length 필드, descriptor() 필드 및/또는 CRC_32 필드를 포함할 수 있다.The Event Information Table (EIT) of the ATSC and DVB systems according to the embodiment of the present invention is commonly used as a table_id field, section_syntax_indicator field, section_length field, source_id (service_id) field, version_number field, current_next_indicator field, section_number field, last_section_number field, num_events_in_section It may include a (segment_last_section_number) field, an event_id field, a start_time field, a length_in_seconds (duration) field, a descriptors_length field, a descriptor () field, and / or a CRC_32 field.
table_id 필드는 당해 테이블이 EIT (Event Information Table)임을 식별한다. section_syntax_indicator 필드는 MPEG-2 private_section table의 long 형태를 나타내기 위해 1로 세팅되는 1비트 필드이다. section_length 필드는 이 필드 뒤에 있는 테이블 섹션의 길이를 바이트 수로 나타낸다. source_id 필드는 해당 섹션에서 기술되는 이벤트를 전송하는 가상 채널의 소스 아이디 (source id)를 나타낸다. version_number 필드는 테이블의 버전 번호를 나타내는 5비트 필드이다. current_next_indicator 필드는 1비트 필드로서, 이 테이블이 현재 적용 가능한지 또는 다음에 적용 가능한지를 나타낸다. section_number 필드는 섹션의 번호를 나타낸다. last_section_number 필드는 마지막 섹션의 번호를 식별한다. num_events_in_section 필드는 해당 테이블 섹션에 포함된 이벤트의 개수를 나타낸다. event_id 필드는 기술된 이벤트를 가리키는 특정 숫자를 식별한다. start_time 필드는 해당 이벤트의 시작시간을 GPS 세컨드를 기준으로 나타낸다. 가상 채널에서 이벤트의 시작 시간을 나타내는 값은 방영 중인 이벤트의 종료 시간을 나타내는 값보다 클 수 있다. 이벤트의 종료 시간은 이벤트의 시작 시간과 이벤트의 길이를 시간으로 나타낸 값의 합으로 정의될 수 있다. length_in_seconds (duration) 필드는 이벤트의 지속 시간을 초단위로 나타낸다. descriptors_length 필드는 뒤에 이어서 기술되는 이벤트 디스크립터 (descriptor())의 전체 길이를 나타낸다. descriptor() 는 테이블 내에 위치하는 descriptor loop이다. descriptor loop는 추가적인 descriptor를 포함할 수 있다. EIT 안에는 0개 이상의 디스크립터가 포함될 수 있으며, 당해 디스크립터는 각 이벤트마다 적용되는 정보를 기술하는 이벤트 레벨 디스크립터 (event level descriptor)에 해당할 수 있다. 본 발명의 일 실시예에 따라, UHD_program_info_descriptor 및 HDR_info descriptor는 이벤트 레벨 디스크립터에 포함되어 전송될 수 있다. UHD_program_info_descriptor는 UHD 서비스 종류를 구분하기 위해 사용될 수 있으며, HDR_info descriptor는 event level에서 HDR 영상 정보 메타데이터 포함 여부를 확인할 수 있으며, 수신기에서 수용 가능 여부를 판단하기 위해 사용될 수 있다. 케이블 방송의 경우 상기 디스크립터 대신 AEIT에 동일 정보를 제공할 수 있다.The table_id field identifies that this table is an Event Information Table (EIT). The section_syntax_indicator field is a 1-bit field set to 1 to indicate the long form of the MPEG-2 private_section table. The section_length field indicates the length of the table section following this field in number of bytes. The source_id field represents a source ID of a virtual channel transmitting an event described in this section. The version_number field is a 5-bit field indicating the version number of the table. The current_next_indicator field is a 1-bit field and indicates whether this table is currently applicable or next applicable. The section_number field represents the number of a section. The last_section_number field identifies the number of the last section. The num_events_in_section field represents the number of events included in the corresponding table section. The event_id field identifies a specific number indicating the event described. The start_time field represents the start time of the event based on GPS second. The value representing the start time of the event in the virtual channel may be greater than the value representing the end time of the event being broadcast. The end time of the event may be defined as the sum of the start time of the event and the value representing the length of the event in time. The length_in_seconds (duration) field represents the duration of an event in seconds. The descriptors_length field represents the total length of an event descriptor (descriptor ()) described later. descriptor () is a descriptor loop located in the table. The descriptor loop may include additional descriptors. Zero or more descriptors may be included in the EIT, and the descriptor may correspond to an event level descriptor describing information applied to each event. According to an embodiment of the present invention, the UHD_program_info_descriptor and the HDR_info descriptor may be included in the event level descriptor and transmitted. UHD_program_info_descriptor may be used to distinguish the type of UHD service, and the HDR_info descriptor may determine whether to include HDR image information metadata at an event level, and may be used to determine whether the receiver is acceptable. In the case of cable broadcasting, the same information may be provided to the AEIT instead of the descriptor.
CRC_32 필드는 데이터의 무결성을 체크할 수 있는 CRC 값을 포함한다. CRC 값은 전체 EIT 섹션이 처리된 이후에 Annex A of ISO-13818-1 “MPEG-2 Systems”에 정의되어 있는 디코더 안의 레지스터로부터 0값이 출력되는 것을 보증할 수 있다.The CRC_32 field includes a CRC value for checking the integrity of data. The CRC value can ensure that zero values are output from the registers in the decoder as defined in Annex A of ISO-13818-1 “MPEG-2 Systems” after the entire EIT section has been processed.
EIT를 통해 시그널링되는 UHD_program_info_descriptor의 UHD_service_type이 1100으로 설정되면, 수신기는 적정 시청 환경에 대한 정보가 metadata를 통해 전달됨을 확인할 수 있다. 예를 들어, UHD_service_type이 1100인 경우 수신기는 해당 서비스가 UHD1 service with HDR information metadata, 4K임을 확인할 수 있다. When the UHD_service_type of the UHD_program_info_descriptor signaled through the EIT is set to 1100, the receiver may confirm that information on an appropriate viewing environment is transmitted through metadata. For example, when UHD_service_type is 1100, the receiver may identify that a corresponding service is UHD1 service with HDR information metadata, 4K.
EIT를 통해 시그널링되는 UHD_program_info_descriptor의 UHD_service_type이 0000으로 설정되면, 수신기는 HDR_info_descriptor()의 존재 여부를 확인하고, video, scene 또는 frame 등의 서로 다른 단계 또는 단위에 대한 HDR info 이 제공됨을 알 수 있다. 여기서, UHD_service_type이 0000은 UHD1 서비스임을 나타낼 수 있다. When the UHD_service_type of the UHD_program_info_descriptor signaled through the EIT is set to 0000, the receiver checks the existence of the HDR_info_descriptor () and may know that HDR info is provided for different steps or units such as video, scene or frame. Here, the UHD_service_type may indicate that 0000 is a UHD1 service.
상술한 경우에 대해, HDR_info_descriptor() 를 이용해 컨텐츠 공급자가 원하는 mastering display, content, scene 또는 frame 단위의 정보를 시청자의 디스플레이에서 활용할 수 있는지 판단할 수 있다. 이를 이용해 현재 혹은 미래 시점에 재생 되는 컨텐츠에 대해 content, scene 또는 frame 단위 메타데이터 사용 여부를 미리 판단할 수 있으며, 예약 녹화 등의 상황을 위한 세팅을 수신기에서 미리 준비할 수 있는 효과가 있다.In the above-described case, it is possible to determine whether the content provider can utilize information in units of a mastering display, content, scene, or frame desired by the content provider using HDR_info_descriptor (). By using this, it is possible to determine in advance whether to use content, scene or frame unit metadata with respect to content played back at the current or future time point, and the receiver can prepare a setting for a situation such as a scheduled recording in advance.
도 28은 본 발명의 다른 실시예에 따른 HDR_info_descriptor()를 나타낸다. 하나의 event에 대해 복수의 정보가 존재할 수 있다. 즉, 컨텐츠에 일관되게 정보가 적용되는 것이 아닌, 시간에 따라, 혹은 삽입 된 컨텐츠 유무 등에 의해 적용되는 정보가 변환될 수 있다. 혹은, 하나의 컨텐츠에 대해 제작자가 의도하는 다양한 모드를 지원할 수도 있다. 이때, 수신기의 디스플레이에서 이러한 모드들을 수용 가능한지를 판단할 필요가 있으며, 이에 대한 정보는 방송 송신 장치에 의해 viewing_condition_metadata를 통해 제공될 수 있다. viewing_condition_metadata 내의 syntax는 SEI message의 viewing condition descriptor의 정의를 따를 수 있다. 28 illustrates HDR_info_descriptor () according to another embodiment of the present invention. There may be a plurality of information about an event. That is, the information applied to the content is not consistently applied, but the information applied over time or by the presence or absence of the inserted content may be converted. Alternatively, one mode may support various modes intended by the producer. In this case, it is necessary to determine whether these modes are acceptable in the display of the receiver, and information on this may be provided through the viewing_condition_metadata by the broadcast transmission device. The syntax in viewing_condition_metadata may follow the definition of the viewing condition descriptor of the SEI message.
HDR_info_descriptor는 디스크립터 태크 (descriptor_tag) 정보, 디스크립터 길이 (descriptor_length) 정보 및 정보의 개수 (number_of_info) 정보 중 적어도 하나를 포함할 수 있다. HDR_info_descriptor는 루프를 포함할 수 있으며 number_of_info이 지시하는 개수만큼의 HDR_info_metadata()를 포함할 수 있다. HDR_info_metadata()의 신택스는 전술한 HDR information descriptor 구성의 실시 예의 스크립트 혹은 그의 일부가 전달될 수 있다.The HDR_info_descriptor may include at least one of descriptor tag (descriptor_tag) information, descriptor length (descriptor_length) information, and number of information (number_of_info) information. The HDR_info_descriptor may include a loop and may include as many HDR_info_metadata () as indicated by number_of_info. The syntax of the HDR_info_metadata () may be delivered with a script of the embodiment of the above-described HDR information descriptor configuration or a part thereof.
도 29 는 본 발명의 일 실시예에 따른 미디어 파일의 구조를 도시한 도면이다. 29 is a diagram showing the structure of a media file according to an embodiment of the present invention.
오디오 또는 비디오 등의 미디어 데이터를 저장하고 전송하기 위하여, 정형화된 미디어 파일 포맷이 정의될 수 있다. 실시예에 따라 본 발명의 미디어 파일은 ISO BMFF (ISO base media file format) 를 기반으로한 파일 포맷을 가질 수 있다. In order to store and transmit media data such as audio or video, a standardized media file format may be defined. According to an embodiment, the media file of the present invention may have a file format based on ISO BMFF (ISO base media file format).
본 발명에 따른 미디어 파일은 적어도 하나 이상의 박스를 포함할 수 있다. 여기서 박스(box)는 미디어 데이터 또는 미디어 데이터에 관련된 메타데이터 등을 포함하는 데이터 블락 내지 오브젝트일 수 있다. 박스들은 서로 계층적 구조를 이룰 수 있으며, 이에 따라 데이터들이 분류되어 미디어 파일이 대용량 미디어 데이터의 저장 및/또는 전송에 적합한 형태를 띄게 될 수 있다. 또한 미디어 파일은, 사용자가 미디어 컨텐츠의 특정지점으로 이동하는 등, 미디어 정보에 접근하는데 있어 용이한 구조를 가질 수 있다. The media file according to the present invention may include at least one box. The box may be a data block or an object including media data or metadata related to the media data. The boxes may form a hierarchical structure with each other, such that the data may be classified so that the media file may be in a form suitable for storage and / or transmission of a large amount of media data. In addition, the media file may have an easy structure for accessing the media information, such as a user moving to a specific point of the media content.
본 발명에 따른 미디어 파일은 ftyp 박스, moov 박스 및/또는 mdat 박스를 포함할 수 있다. The media file according to the present invention may include an ftyp box, a moov box and / or an mdat box.
ftyp 박스(파일 타입 박스)는 해당 미디어 파일에 대한 파일 타입 또는 호환성 관련 정보를 제공할 수 있다. ftyp 박스는 해당 미디어 파일의 미디어 데이터에 대한 구성 버전 정보를 포함할 수 있다. 복호기는 ftyp 박스를 참조하여 해당 미디어 파일을 구분할 수 있다. An ftyp box (file type box) can provide file type or compatibility related information for a corresponding media file. The ftyp box may include configuration version information about media data of a corresponding media file. The decoder can identify the media file by referring to the ftyp box.
moov 박스(무비 박스)는 해당 미디어 파일의 미디어 데이터에 대한 메타 데이터를 포함하는 박스일 수 있다. moov 박스는 모든 메타 데이터들을 위한 컨테이너 역할을 할 수 있다. moov 박스는 메타 데이터 관련 박스들 중 최상위 계층의 박스일 수 있다. 실시예에 따라 moov 박스는 미디어 파일 내에 하나만 존재할 수 있다. The moov box (movie box) may be a box including metadata about media data of a corresponding media file. The moov box can act as a container for all metadata. The moov box may be a box of the highest layer among metadata related boxes. According to an embodiment, only one moov box may exist in a media file.
mdat 박스(미디어 데이터 박스) 는 해당 미디어 파일의 실제 미디어 데이터들을 담는 박스일 수 있다. 미디어 데이터들은 오디오 샘플 및/또는 비디오 샘플들을 포함할 수 있는데, mdat 박스는 이러한 미디어 샘플들을 담는 컨테이너 역할을 할 수 있다. The mdat box (media data box) may be a box containing actual media data of the media file. Media data may include audio samples and / or video samples, where the mdat box may serve as a container for storing these media samples.
실시예에 따라 전술한 moov 박스는 mvhd 박스, trak 박스 및/또는 mvex 박스 등을 하위 박스로서 더 포함할 수 있다. According to an embodiment, the above-described moov box may further include a mvhd box, a trak box and / or an mvex box as a lower box.
mvhd 박스(무비 헤더 박스)는 해당 미디어 파일에 포함되는 미디어 데이터의 미디어 프리젠테이션 관련 정보를 포함할 수 있다. 즉, mvhd 박스는 해당 미디어 프리젠테이션의 미디어 생성시간, 변경시간, 시간규격, 기간 등의 정보를 포함할 수 있다. The mvhd box (movie header box) may include media presentation related information of media data included in the media file. That is, the mvhd box may include information such as media generation time, change time, time specification, duration, etc. of the media presentation.
trak 박스(트랙 박스)는 해당 미디어 데이터의 트랙에 관련된 정보를 제공할 수 있다. trak 박스는 오디오 트랙 또는 비디오 트랙에 대한 스트림 관련 정보, 프리젠테이션 관련 정보, 액세스 관련 정보 등의 정보를 포함할 수 있다. trak 박스는 트랙의 개수에 따라 복수개 존재할 수 있다. The trak box (track box) can provide information related to the track of the media data. The trak box may include information such as stream related information, presentation related information, and access related information for an audio track or a video track. There may be a plurality of trak boxes according to the number of tracks.
trak 박스는 실시예에 따라 tkhd 박스(트랙 헤더 박스)를 하위 박스로서 더 포함할 수 있다. tkhd 박스는 trak 박스가 나타내는 해당 트랙에 대한 정보를 포함할 수 있다. tkhd 박스는 해당 트랙의 생성시간, 변경시간, 트랙 식별자 등의 정보를 포함할 수 있다. According to an embodiment, the trak box may further include a tkhd box (track header box) as a lower box. The tkhd box may include information about the track indicated by the trak box. The tkhd box may include information such as a creation time, a change time, and a track identifier of the corresponding track.
mvex 박스(무비 익스텐드 박스)는 해당 미디어 파일에 후술할 moof 박스가 있을 수 있음을 지시할 수 있다. 특정 트랙의 모든 미디어 샘플들을 알기 위해서, moof 박스들이 스캔되어야할 수 있다. The mvex box (movie extend box) may indicate that the media file may have a moof box to be described later. To know all the media samples of a particular track, moof boxes may have to be scanned.
본 발명에 따른 미디어 파일은, 실시예에 따라, 복수개의 프래그먼트로 나뉘어질 수 있다(t14010). 이를 통해 미디어 파일이 분할되어 저장되거나 전송될 수 있다. 미디어 파일의 미디어 데이터들(mdat 박스)은 복수개의 프래그먼트로 나뉘어지고, 각각의 프래그먼트는 moof 박스와 나뉘어진 mdat 박스를 포함할 수 있다. 실시예에 따라 프래그먼트들을 활용하기 위해서는 ftyp 박스 및/또는 moov 박스의 정보가 필요할 수 있다. The media file according to the present invention may be divided into a plurality of fragments according to an embodiment (t14010). Through this, the media file may be divided and stored or transmitted. The media data (mdat box) of the media file may be divided into a plurality of fragments, and each fragment may include a mdat box and a moof box. According to an embodiment, information of the ftyp box and / or the moov box may be needed to utilize the fragments.
moof 박스(무비 프래그먼트 박스)는 해당 프래그먼트의 미디어 데이터에 대한 메타 데이터를 제공할 수 있다. moof 박스는 해당 프래그먼트의 메타데이터 관련 박스들 중 최상위 계층의 박스일 수 있다. The moof box (movie fragment box) may provide metadata about media data of the fragment. The moof box may be a box of the highest layer among metadata-related boxes of the fragment.
mdat 박스(미디어 데이터 박스)는 전술한 바와 같이 실제 미디어 데이터를 포함할 수 있다. 이 mdat 박스는 각각의 해당 프래그먼트에 해당하는 미디어 데이터들의 미디어 샘플들을 포함할 수 있다. The mdat box (media data box) may contain the actual media data as described above. This mdat box may include media samples of media data corresponding to each corresponding fragment.
실시예에 따라 전술한 moof 박스는 mfhd 박스 및/또는 traf 박스 등을 하위 박스로서 더 포함할 수 있다. According to an embodiment, the above-described moof box may further include a mfhd box and / or a traf box as a lower box.
mfhd 박스(무비 프래그먼트 헤더 박스)는 분할된 복수개의 프래그먼트들 간의 연관성과 관련한 정보들을 포함할 수 있다. mfhd 박스는 시퀀스 넘버(sequence number) 를 포함하여, 해당 프래그먼트의 미디어 데이터가 분할된 몇 번째 데이터인지를 나타낼 수 있다. 또한, mfhd 박스를 이용하여 분할된 데이터 중 누락된 것은 없는지 여부가 확인될 수 있다. The mfhd box (movie fragment header box) may include information related to an association between a plurality of fragmented fragments. The mfhd box may include a sequence number to indicate how many times the media data of the corresponding fragment is divided. In addition, it may be confirmed whether there is no missing data divided using the mfhd box.
traf 박스(트랙 프래그먼트 박스)는 해당 트랙 프래그먼트에 대한 정보를 포함할 수 있다. traf 박스는 해당 프래그먼트에 포함되는 분할된 트랙 프래그먼트에 대한 메타데이터를 제공할 수 있다. traf 박스는 해당 트랙 프래그먼트 내의 미디어 샘플들이 복호화/재생될 수 있도록 메타데이터를 제공할 수 있다. traf 박스는 트랙 프래그먼트의 개수에 따라 복수개 존재할 수 있다. The traf box (track fragment box) may include information about a corresponding track fragment. The traf box may provide metadata about the divided track fragments included in the fragment. The traf box may provide metadata so that media samples in the track fragment can be decoded / played back. There may be a plurality of traf boxes according to the number of track fragments.
실시예에 따라 전술한 traf 박스는 tfhd 박스 및/또는 trun 박스 등을 하위 박스로서 더 포함할 수 있다. According to an embodiment, the above-described traf box may further include a tfhd box and / or a trun box as a lower box.
tfhd 박스(트랙 프래그먼트 헤더 박스)는 해당 트랙 프래그먼트의 헤더 정보를 포함할 수 있다. tfhd 박스는 전술한 traf 박스가 나타내는 트랙 프래그먼트의 미디어 샘플들에 대하여, 기본적인 샘플크기, 기간, 오프셋, 식별자 등의 정보를 제공할 수 있다. The tfhd box (track fragment header box) may include header information of the corresponding track fragment. The tfhd box may provide information such as a basic sample size, a duration, an offset, an identifier, and the like for media samples of the track fragment indicated by the traf box described above.
trun 박스(트랙 프래그먼트 런 박스)는 해당 트랙 프래그먼트 관련 정보를 포함할 수 있다. trun 박스는 미디어 샘플별 기간, 크기, 재생시점 등과 같은 정보를 포함할 수 있다. The trun box (track fragment run box) may include corresponding track fragment related information. The trun box may include information such as duration, size, and playback time of each media sample.
전술한 미디어 파일 내지 미디어 파일의 프래그먼트들은 세그먼트들로 처리되어 전송될 수 있다. 세그먼트에는 초기화 세그먼트(initialization segment) 및/또는 미디어 세그먼트(media segment) 가 있을 수 있다. The aforementioned media file or fragments of the media file may be processed into segments and transmitted. The segment may have an initialization segment and / or a media segment.
도시된 실시예(t14020)의 파일은, 미디어 데이터는 제외하고 미디어 디코더의 초기화와 관련된 정보 등을 포함하는 파일일 수 있다. 이 파일은 예를 들어 전술한 초기화 세그먼트에 해당할 수 있다. 초기화 세그먼트는 전술한 ftyp 박스 및/또는 moov 박스를 포함할 수 있다. The file of the illustrated embodiment t14020 may be a file including information related to initialization of the media decoder except for media data. This file may correspond to the initialization segment described above, for example. The initialization segment may include the ftyp box and / or moov box described above.
도시된 실시예(t14030)의 파일은, 전술한 프래그먼트를 포함하는 파일일 수 있다. 이 파일은 예를 들어 전술한 미디어 세그먼트에 해당할 수 있다. 미디어 세그먼트는 전술한 moof 박스 및/또는 mdat 박스를 포함할 수 있다. 또한, 미디어 세그먼트는 styp 박스 및/또는 sidx 박스를 더 포함할 수 있다. The file of the illustrated embodiment t14030 may be a file including the aforementioned fragment. This file may correspond to the media segment described above, for example. The media segment may include the moof box and / or mdat box described above. In addition, the media segment may further include a styp box and / or a sidx box.
styp 박스(세그먼트 타입 박스) 는 분할된 프래그먼트의 미디어 데이터를 식별하기 위한 정보를 제공할 수 있다. styp 박스는 분할된 프래그먼트에 대해, 전술한 ftyp 박스와 같은 역할을 수행할 수 있다. 실시예에 따라 styp 박스는 ftyp 박스와 동일한 포맷을 가질 수 있다. The styp box (segment type box) may provide information for identifying the media data of the fragmented fragment. The styp box may play the same role as the above-described ftyp box for the divided fragment. According to an embodiment, the styp box may have the same format as the ftyp box.
sidx 박스(세그먼트 인덱스 박스) 는 분할된 프래그먼트에 대한 인덱스를 나타내는 정보를 제공할 수 있다. 이를 통해 해당 분할된 프래그먼트가 몇번째 프래그먼트인지가 지시될 수 있다. The sidx box (segment index box) may provide information indicating an index for the divided fragment. Through this, it is possible to indicate how many fragments are the corresponding fragments.
실시예에 따라(t14040) ssix 박스가 더 포함될 수 있는데, ssix 박스(서브 세그먼트 인덱스 박스)는 세그먼트가 서브 세그먼트로 더 나뉘어지는 경우에 있어, 그 서브 세그먼트의 인덱스를 나타내는 정보를 제공할 수 있다. According to an embodiment (t14040), the ssix box may be further included. The ssix box (sub-segment index box) may provide information indicating an index of the sub-segment when the segment is further divided into sub-segments.
미디어 파일 내의 박스들은, 도시된 실시예(t14050)와 같은 박스 내지 풀 박스(FullBox) 형태를 기반으로, 더 확장된 정보들을 포함할 수 있다. 이 실시예에서 size 필드, largesize 필드는 해당 박스의 길이를 바이트 단위 등으로 나타낼 수 있다. version 필드는 해당 박스 포맷의 버전을 나타낼 수 있다. type 필드는 해당 박스의 타입 내지 식별자를 나타낼 수 있다. flags 필드는 해당 박스와 관련된 플래그 등을 나타낼 수 있다. The boxes in the media file may include more extended information based on a box-to-full box form as in the illustrated embodiment t14050. In this embodiment, the size field and the largesize field may indicate the length of the corresponding box in bytes. The version field may indicate the version of the box format. The type field may indicate the type or identifier of the corresponding box. The flags field may indicate a flag related to the box.
도 30 은 본 발명의 일 실시예에 따른 HDR 정보를 제공하기 위한 HDR 컨피규레이션 박스를 나타낸 도면이다. 30 is a diagram illustrating an HDR configuration box for providing HDR information according to an embodiment of the present invention.
미디어 파일 내의 비디오 트랙 내지 비디오 샘플들에 관련된 HDR 정보를 제공하기 위하여, HDR 컨피규레이션 박스가 정의될 수 있다. HDR 컨피규레이션 박스는 미디어 파일 내에 위치할 수 있다. 실시예에 따라 HDR 컨피규레이션 박스는 moov 박스, moof 박스 또는 제 3 의 박스에 포함될 수도 있다. HDR 컨피규레이션 박스는 hdrc 박스라 불릴 수도 있다. In order to provide HDR information related to video tracks or video samples in the media file, an HDR configuration box can be defined. The HDR configuration box can be located in the media file. According to an embodiment, the HDR configuration box may be included in a moov box, a moof box or a third box. The HDR configuration box may be called an hdrc box.
HDR 컨피규레이션 박스는 hdr_config 필드를 가질 수 있다. hdr_config 필드는 OETF_type 필드, max_mastering_display_luminance 필드, min_mastering_display_luminance 필드, hdr_type_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드, sdr_compatibility_flag 필드, average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드를 포함할 수 있다. The HDR configuration box may have a hdr_config field. The hdr_config field may include an OETF_type field, max_mastering_display_luminance field, min_mastering_display_luminance field, hdr_type_transition_flag field, hdr_sdr_transition_flag field, sdr_hdr_transition_flag field, sdr_compatibility_flag field, average_frame_luminance_level field and
OETF_type 필드는 해당 비디오 데이터의 소스 OETF (opto-electronic transfer function) 의 타입을 지시할 수 있다. 본 필드의 값이 1, 2, 3 인 경우, 각각 ITU-R BT.1886, ITU-R BT.709, ITU-R BT.2020 타입에 해당할 수 있다. 다른 값은 향후 사용을 위해 남겨둘 수 있다.The OETF_type field may indicate the type of the source OETF (opto-electronic transfer function) of the video data. When the value of this field is 1, 2, or 3, it may correspond to the ITU-R BT.1886, ITU-R BT.709, and ITU-R BT.2020 types, respectively. Other values can be left for future use.
max_mastering_display_luminance 필드는 해당 비디오 데이터의 마스터링 디스플레이의 피크 루미넌스(peak luminance) 값을 나타낼 수 있다. 이 값은 100-1000 사이의 정수 값일 수 있다. The max_mastering_display_luminance field may indicate a peak luminance value of a mastering display of corresponding video data. This value can be an integer value between 100 and 1000.
min_mastering_display_luminance 필드는 해당 비디오 데이터의 마스터링 디스플레이의 최소 루미넌스(minimum luminance) 값을 나타낼 수 있다. 이 값은 0-0.1 사이의 분수(fractional number) 값일 수 있다. The min_mastering_display_luminance field may indicate a minimum luminance value of a mastering display of corresponding video data. This value may be a fractional number value between 0 and 0.1.
hdr_type_transition_flag 필드는 해당 비디오 데이터에 대한 HDR 정보가 변경되어 다른 타입의 HDR 정보가 적용되는지 여부를 나타내는 플래그일 수 있다. The hdr_type_transition_flag field may be a flag indicating whether the HDR information of the corresponding video data is changed to apply another type of HDR information.
hdr_sdr_transition_flag 필드는 해당 비디오 데이터가 HDR 에서 SDR 로 전환되는지 여부를 나타내는 플래그일 수 있다. The hdr_sdr_transition_flag field may be a flag indicating whether corresponding video data is switched from HDR to SDR.
sdr_hdr_transition_flag 필드는 해당 비디오 데이터가 SDR 에서 HDR 로 전환되는지 여부를 나타내는 플래그일 수 있다. The sdr_hdr_transition_flag field may be a flag indicating whether corresponding video data is switched from SDR to HDR.
sdr_compatibility_flag 필드는 해당 비디오 데이터가 SDR 디코더 내지 SDR 디스플레이와 호환이 가능한지 여부를 나타내는 플래그일 수 있다. The sdr_compatibility_flag field may be a flag indicating whether corresponding video data is compatible with an SDR decoder or an SDR display.
average_frame_luminance_level 필드는 하나의 비디오 샘플에 대해서는 루미넌스 레벨의 평균값을 나타낼 수 있다. 또한 본 필드는 샘플 그룹 또는 비디오 트랙(스트림)에 대해서는 그곳에 소속된 샘플 각각의 루미넌스 레벨의 평균값들 중 최대값을 나타낼 수 있다. The average_frame_luminance_level field may indicate an average value of luminance level for one video sample. In addition, this field may indicate a maximum value among average values of luminance levels of each sample belonging to the sample group or the video track (stream).
max_frame_pixel_luminance 필드는 하나의 비디오 샘플에 대해서는 픽셀 루미넌스 값 중의 최대값을 나타낼 수 있다. 또한 본 필드는 샘플 그룹 또는 비디오 트랙(스트림)에 대해서는 그곳에 소속된 샘플 각각의 픽셀 루미넌스 최대값들 중 가장 큰 값을 나타낼 수 있다. The max_frame_pixel_luminance field may indicate the maximum value of pixel luminance values for one video sample. In addition, this field may indicate the largest value among pixel luminance maximum values of each sample belonging to the sample group or the video track (stream).
상기 필드들이 기술하는 대상인 "해당 비디오 데이터" 는, 미디어 파일 내의 비디오 트랙, 비디오 샘플 그룹 또는 각각의 비디오 샘플들일 수 있다. 기술 대상에 따라 각 필드들이 기술하는 범위가 달라질 수 있다. 예를 들어 hdr_type_transition_flag 필드는 해당 비디오 트랙이 HDR 에서 SDR 로 전환되는지를 지시하거나, 비디오 샘플 하나가 HDR 에서 SDR 로 전환되는지 여부를 지시할 수 있다. “That video data” that the fields describe is a video track, a video sample group, or respective video samples in a media file. The range described by each field may vary according to the description object. For example, the hdr_type_transition_flag field may indicate whether the corresponding video track is switched from HDR to SDR or may indicate whether one video sample is switched from HDR to SDR.
도 31 은 본 발명의 일 실시예에 따른, HDR 정보를 tkhd 박스 내에 정의하는 방안을 도시한 도면이다. FIG. 31 illustrates a scheme for defining HDR information in a tkhd box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 HDR 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 moov 박스 내의 tkhd 박스에 HDR 정보(파라미터)들이 추가될 수 있다. 추가된 HDR 정보들은 음영표시 되었다. HDR information may be included in the structure of the above-described media file itself to store / transmit. In this embodiment, HDR information (parameters) may be added to the tkhd box in the above-described moov box. Added HDR information is shaded.
도시된 실시예(t16010)에서, hdr_flag 필드는 tkhd 박스가 기술하는 해당 비디오 트랙 내에 HDR 비디오 데이터가 포함되어 있는지 여부를 지시하는 플래그일 수 있다. 이 필드의 값이 1 인 경우, 해당 비디오 트랙 내에 HDR 비디오 데이터가 포함되어 있을 수 있다. 이 필드의 값이 1 인 경우, 후술할 4 개의 플래그 필드들이 존재할 수 있다. In the illustrated embodiment t16010, the hdr_flag field may be a flag indicating whether HDR video data is included in a corresponding video track described by the tkhd box. When the value of this field is 1, HDR video data may be included in the corresponding video track. When the value of this field is 1, four flag fields to be described later may exist.
hdr_flag 및 후술할 플래그 필드 값을 기반으로 비디오 디코더 등에서 해당 비디오 트랙 내의 비디오 데이터를 처리할 수 있는지 여부 등을 결정할 수 있다. 예를 들어 SDR 만 처리 가능한 디코더의 경우 HDR_flag =1 이고 SDR_compatibility =0 인 경우 해당비디오 데이터들을 처리할 수 없음을 알 수 있다.Based on the hdr_flag and the flag field value to be described later, it may be determined whether or not the video decoder or the like can process the video data in the corresponding video track. For example, in case of a decoder capable of processing only SDR, it may be understood that corresponding video data cannot be processed when HDR_flag = 1 and SDR_compatibility = 0.
hdr_type_transition_flag 필드는 해당 비디오 트랙 내의 HDR 비디오 데이터에 관련된 HDR 정보(파라미터)들이 변경되었는지 여부를 나타내는 플래그일 수 있다. 이 필드의 값이 1 인 경우, 해당 비디오 트랙 내의 HDR 비디오 데이터에 대한 HDR 정보가 다른 HDR 정보로 변경되었을 수 있다. The hdr_type_transition_flag field may be a flag indicating whether HDR information (parameters) related to HDR video data in a corresponding video track have been changed. When the value of this field is 1, the HDR information for the HDR video data in the corresponding video track may be changed to other HDR information.
hdr_sdr_transition_flag 필드는 해당 비디오 트랙 내의 비디오 데이터가 HDR 에서 SDR 로 전환되는지 여부를 지시하는 플래그일 수 있다. 이 필드의 값이 1 인 경우, 해당 비디오 데이터가 HDR 에서 SDR 로 전환됨이 확인될 수 있다. The hdr_sdr_transition_flag field may be a flag indicating whether video data in a corresponding video track is switched from HDR to SDR. When the value of this field is 1, it may be confirmed that corresponding video data is converted from HDR to SDR.
sdr_hdr_transition_flag 필드는 해당 비디오 트랙 내의 비디오 데이터가 SDR 에서 HDR 로 전환되는지 여부를 지시하는 플래그일 수 있다. 이 필드의 값이 1 인 경우, 해당 비디오 데이터가 SDR 에서 HDR 로 전환됨이 확인될 수 있다. The sdr_hdr_transition_flag field may be a flag indicating whether video data in a corresponding video track is switched from SDR to HDR. When the value of this field is 1, it may be confirmed that video data is converted from SDR to HDR.
sdr_compatibility_flag 필드는 해당 비디오 트랙 내의 비디오 데이터가 SDR 을 지원하는 디코더 내지 디스플레이와 호환이 가능한지 여부를 나타내는 플래그일 수 있다. 이 필드의 값이 1 인 경우, 해당 비디오 트랙 내의 HDR 비디오 데이터가 SDR 을 지원하는 장치들과 호환이 가능함이 확인될 수 있다. 이 필드의 값이 1 인 경우, SDR 을 지원하는 디코더/디스플레이 장치들은 해당 비디오 트랙에 포함된 HDR 비디오 데이터를 디코딩/디스플레이할지 여부 등을 결정할 수 있다. The sdr_compatibility_flag field may be a flag indicating whether video data in a corresponding video track is compatible with a decoder or display that supports SDR. If the value of this field is 1, it may be confirmed that the HDR video data in the corresponding video track is compatible with devices supporting SDR. When the value of this field is 1, decoder / display devices supporting SDR may determine whether to decode / display HDR video data included in a corresponding video track.
실시예에 따라 Transition 관련 플래그가 1로 설정되는 경우 디코더 등에서 비디오 데이터 처리 이전에 이와 관련된 비디오 내의 데이터 (SEI 등)을 확인하게 만들 수 있다. According to an embodiment, when the transition related flag is set to 1, the decoder or the like may make the data (SEI, etc.) in the video related thereto before processing video data.
실시예에 따라(t16020), tkhd 박스 내에 전술한 HDR 컨피규레이션 박스가 추가될 수도 있다. 본 실시예에서의 hdr_flag 필드는 전술한 실시예(t16010) 에서의 hdr_flag 필드와 같을 수 있다. 단 이 경우, hdr_flag 필드의 값이 1 일 때, tkhd 박스 내에 전술한 4 개의 플래그 대신, HDR 컨피규레이션 박스 타입을 가지는 hdr_config 박스가 존재함이 지시될 수 있다. According to an embodiment (t16020), the above-described HDR configuration box may be added to the tkhd box. The hdr_flag field in the present embodiment may be the same as the hdr_flag field in the above-described embodiment t16010. However, in this case, when the value of the hdr_flag field is 1, it may be indicated that the hdr_config box having the HDR configuration box type exists in place of the above four flags in the tkhd box.
여기서 hdr_config 박스는 해당 비디오 트랙 내에 포함된 비디오 데이터에 대한 HDR 정보들을 포함할 수 있다. 이 박스는 전술한 HDR 컨피규레이션 박스 타입을 가지므로, 전술한 바와 같이 OETF_type 필드, max_mastering_display_luminance 필드, min_mastering_display_luminance 필드, hdr_type_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드, sdr_compatibility_flag 필드, average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드를 포함할 수 있다. Here, the hdr_config box may include HDR information about video data included in a corresponding video track. This box is therefore of the above-mentioned HDR configuration box type, and may include a OETF_type field, max_mastering_display_luminance field, min_mastering_display_luminance field, hdr_type_transition_flag field, hdr_sdr_transition_flag field, sdr_hdr_transition_flag field, sdr_compatibility_flag field, average_frame_luminance_level field and / or max_frame_pixel_luminance field as described above, .
이 필드들에 대한 정의는 전술한 바와 같으나, 이 실시예에서는 HDR 컨피규레이션 박스가 tkhd 박스 내에 존재하므로, 이 필드들은 해당 비디오 트랙에 대한 정보들을 기술할 수 있다. 예를 들어 OETF_type 필드는 "해당 비디오 트랙" 내의 비디오 데이터에 대한 OETF 타입을 지시할 수 있다. 특시 hdr_type_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드 및/또는 sdr_compatibility_flag 필드는 전술한 실시예(t16010)에서의 4개의 플래그 필드와 같은 의미일 수 있다. The definition of these fields is as described above, but in this embodiment, since the HDR configuration box is present in the tkhd box, these fields may describe information about the corresponding video track. For example, the OETF_type field may indicate an OETF type for video data in the "corresponding video track". In particular, the hdr_type_transition_flag field, hdr_sdr_transition_flag field, sdr_hdr_transition_flag field, and / or sdr_compatibility_flag field may have the same meaning as the four flag fields in the above-described embodiment (t16010).
실시예에 따라 이 HDR 컨피규레이션 박스 내의 average_frame_luminance_level 필드는 해당 비디오 트랙 내의 비디오 샘플들 각각의 루미넌스 레벨의 평균값들 중, 최대값을 나타낼 수 있다. 또한 max_frame_pixel_luminance 필드는 해당 비디오 트랙 내의 비디오 샘플들 각각의 픽셀 루미넌스의 최대값들 중, 가장 큰 값을 나타낼 수 있다.According to an embodiment, the average_frame_luminance_level field in this HDR configuration box may indicate a maximum value among average values of luminance levels of each of the video samples in the corresponding video track. Also, the max_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each of the video samples in the corresponding video track.
도 32 는 본 발명의 일 실시예에 따른, HDR 정보를 vmhd 박스 내에 정의하는 방안을 도시한 도면이다. 32 is a diagram illustrating a method of defining HDR information in a vmhd box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 HDR 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 trak 박스 내의 vmhd 박스에 HDR 정보(파라미터)들이 추가될 수 있다. 추가된 HDR 정보들은 음영표시 되었다. HDR information may be included in the structure of the above-described media file itself to store / transmit. In this embodiment, HDR information (parameters) may be added to the vmhd box in the above-described trak box. Added HDR information is shaded.
여기서 vmhd 박스(비디오 미디어 헤더 박스) 는 전술한 trak 박스의 하위 박스로서, 해당 비디오 트랙에 대한 일반적인(general) 프리젠테이션 관련 정보를 제공할 수 있다. Here, the vmhd box (video media header box) is a lower box of the above-described trak box and may provide general presentation related information about the corresponding video track.
도시된 실시예(t17010)에서, hdr_flag 필드가 포함될 수 있다. 또한 hdr_flag 필드의 값에 따라 hdr_type_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드 및/또는 sdr_compatibility_flag 필드가 더 포함될 수 있다. 이 필드들은 전술한 tkhd 박스 내의 동명의 필드들과 같은 역할을 수행할 수 있다. In the illustrated embodiment t17010, an hdr_flag field may be included. In addition, the hdr_type_transition_flag field, the hdr_sdr_transition_flag field, the sdr_hdr_transition_flag field, and / or the sdr_compatibility_flag field may be further included according to the value of the hdr_flag field. These fields may play the same role as the fields of the same name in the tkhd box described above.
또한, 도시된 실시예(t17020)에서, hdr_flag 필드가 포함될 수 있다. 또한 hdr_flag 필드의 값에 따라 HDR 컨피규레이션 박스인 hdr_config 박스가 더 포함될 수 있다. hdr_flag 필드 및 hdr_config 박스는 전술한 tkhd 박스 내의 동명의 필드, 박스와 같은 역할을 수행할 수 있다. In addition, in the illustrated embodiment t17020, an hdr_flag field may be included. In addition, the hdr_config box, which is an HDR configuration box, may be further included according to the value of the hdr_flag field. The hdr_flag field and the hdr_config box may play the same role as the field or box of the same name in the above-described tkhd box.
즉, 도시된 실시예들에서, vmhd 박스 내의 HDR 정보들은, 해당 비디오 트랙에 포함되는 비디오 데이터들에 대한 HDR 정보를 제공할 수 있다. That is, in the illustrated embodiments, the HDR information in the vmhd box may provide HDR information about video data included in the corresponding video track.
실시예에 따라, tkhd 박스와 vmhd 박스에 HDR 정보가 동시에 포함될 수도 있다. 이 경우 각각의 박스에 포함되는 HDR 정보 구조의 실시예들은 서로 조합될 수 있다. tkhd 박스와 vmhd 박스에 HDR 정보가 동시에 포함되는 경우, tkhd 박스에 정의된 HDR 정보들의 값은, vmhd 박스에 정의된 HDR 정보들의 값으로 오버라이드(override) 될 수 있다. 즉, 양자에 정의된 HDR 정보들의 값이 다른 경우, vmhd 박스 내의 값이 사용될 수 있다. vmhd 박스 내에 HDR 정보가 포함되어 있지 않은 경우, tkhd 박스 내의 HDR 정보가 사용될 수 있다. According to an embodiment, HDR information may be simultaneously included in the tkhd box and the vmhd box. In this case, embodiments of the HDR information structure included in each box may be combined with each other. When the HDR information is simultaneously included in the tkhd box and the vmhd box, the values of the HDR information defined in the tkhd box may be overridden to the values of the HDR information defined in the vmhd box. That is, when the values of the HDR information defined in both are different, the value in the vmhd box may be used. If the HDR information is not included in the vmhd box, the HDR information in the tkhd box may be used.
도 33 은 본 발명의 일 실시예에 따른, HDR 정보를 trex 박스 내에 정의하는 방안을 도시한 도면이다. 33 is a diagram illustrating a method of defining HDR information in a trex box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 HDR 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 mvex 박스 내의 trex 박스에 HDR 정보(파라미터)들이 추가될 수 있다. 추가된 HDR 정보들은 음영표시 되었다. HDR information may be included in the structure of the above-described media file itself to store / transmit. In the present embodiment, HDR information (parameters) may be added to the trex box in the aforementioned mvex box. Added HDR information is shaded.
여기서 trex 박스(트랙 익스탠드 박스) 는 전술한 mvex 박스의 하위 박스로서, 각각의 무비 프래그먼트에 의해 사용되는 디폴트 값들을 셋업할 수 있다. 이 박스는 디폴트 값을 제공함으로써, traf 박스 내의 공간과 복잡성을 줄일 수 있다. Here, the trex box (track extend box) is a lower box of the above-described mvex box, and may set default values used by each movie fragment. By providing a default value for this box, space and complexity in the traf box can be reduced.
trex 박스는 default_hdr_flag 필드 및/또는 default_sample_hdr_flag 필드를 포함할 수 있다. default_hdr_flag 필드의 값에 따라 HDR 컨피규레이션 박스인 default_hdr_config 박스가 더 포함될 수 있다. 또한 default_sample_hdr_flag 필드의 값에 따라 HDR 컨피규레이션 박스인 default_sample_hdr_config 박스가 더 포함될 수도 있다. The trex box may include a default_hdr_flag field and / or a default_sample_hdr_flag field. Depending on the value of the default_hdr_flag field, the default_hdr_config box, which is an HDR configuration box, may be further included. In addition, depending on the value of the default_sample_hdr_flag field, the default_sample_hdr_config box, which is an HDR configuration box, may be further included.
default_hdr_flag 필드는 해당 프래그먼트에 포함된 비디오 트랙 프래그먼트에 HDR 비디오 데이터가 포함되어 있는지 여부를 나타내는 플래그일 수 있다. 이 필드의 값이 1 인 경우, 해당 프래그먼트에 HDR 비디오 데이터가 디폴트로 포함되어 있음이 지시될 수 있다. 이 필드의 값이 1 인 경우, HDR 컨피규레이션 박스인 default_hdr_config 박스가 더 포함될 수 있다.The default_hdr_flag field may be a flag indicating whether HDR video data is included in a video track fragment included in the corresponding fragment. When the value of this field is 1, it may be indicated that the fragment includes HDR video data by default. If the value of this field is 1, a default_hdr_config box, which is an HDR configuration box, may be further included.
default_hdr_config 박스는 해당 비디오 트랙 프래그먼트에 포함되는 비디오 샘플들에 공통적으로 적용될 수 있는 HDR 정보들을 포함할 수 있다. 본 박스는 전술한 HDR 컨피규레이션 박스로서, 전술한 HDR 컨피규레이션 박스의 필드들을 포함할 수 있다. The default_hdr_config box may include HDR information that can be commonly applied to video samples included in the corresponding video track fragment. This box is the aforementioned HDR configuration box and may include the fields of the aforementioned HDR configuration box.
본 박스의 필드들 중 average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드를 제외한 다른 필드들은, 전술한 tkhd 박스에 포함되는 HDR 컨피규레이션 박스 내의 동명의 필드들과 같은 역할을 수행할 수 있다. average_frame_luminance_level 필드는 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 루미넌스 레벨의 평균값들 중, 최대값을 나타낼 수 있다. max_frame_pixel_luminance 필드 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 픽셀 루미넌스의 최대값들 중, 가장 큰 값을 나타낼 수 있다.Other fields except the average_frame_luminance_level field and / or the max_frame_pixel_luminance field among the fields of the box may play the same role as the fields of the same name in the HDR configuration box included in the tkhd box described above. The average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each video sample belonging to a track fragment in the corresponding fragment. max_frame_pixel_luminance field The maximum_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
default_sample_hdr_flag 필드는 해당 프래그먼트에 포함된 비디오 트랙 프래그먼트에 HDR 비디오 샘플들이 포함되어 있는지 여부를 나타내는 플래그일 수 있다. 이 필드의 값이 1 인 경우, 해당 프래그먼트에 HDR 비디오 샘플들이 디폴트로 포함되어 있음이 지시될 수 있다. 이 필드의 값이 1 인 경우, HDR 컨피규레이션 박스인 default_sample_hdr_config 박스가 더 포함될 수 있다.The default_sample_hdr_flag field may be a flag indicating whether HDR video samples are included in a video track fragment included in the corresponding fragment. When the value of this field is 1, it may be indicated that the fragment includes HDR video samples by default. If the value of this field is 1, the default_sample_hdr_config box, which is an HDR configuration box, may be further included.
default_sample_hdr_config 박스는 해당 비디오 트랙 프래그먼트에 포함되는 비디오 샘플들 각각에 적용될 수 있는 HDR 정보들을 포함할 수 있다. 본 박스는 전술한 HDR 컨피규레이션 박스로서, 전술한 HDR 컨피규레이션 박스의 필드들을 포함할 수 있다. The default_sample_hdr_config box may include HDR information that can be applied to each of the video samples included in the corresponding video track fragment. This box is the aforementioned HDR configuration box and may include the fields of the aforementioned HDR configuration box.
본 박스의 필드들 중 average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드를 제외한 다른 필드들은, 전술한 tkhd 박스에 포함되는 HDR 컨피규레이션 박스 내의 동명의 필드들과 같은 역할을 수행할 수 있다. average_frame_luminance_level 필드는 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 루미넌스 레벨의 평균값을 나타낼 수 있다. max_frame_pixel_luminance 필드 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 픽셀 루미넌스의 최대값을 나타낼 수 있다.Other fields except the average_frame_luminance_level field and / or the max_frame_pixel_luminance field among the fields of the box may play the same role as the fields of the same name in the HDR configuration box included in the tkhd box described above. The average_frame_luminance_level field may indicate an average value of luminance levels of each video sample belonging to a track fragment in a corresponding fragment. max_frame_pixel_luminance field This may indicate the maximum value of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
도 34 는 본 발명의 일 실시예에 따른, HDR 정보를 tfhd 박스 내에 정의하는 방안을 도시한 도면이다. 34 is a diagram illustrating a method of defining HDR information in a tfhd box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 HDR 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 moof 박스 내의 tfhd 박스에 HDR 정보(파라미터)들이 추가될 수 있다. 추가된 HDR 정보들은 음영표시 되었다. HDR information may be included in the structure of the above-described media file itself to store / transmit. In this embodiment, HDR information (parameters) may be added to the tfhd box in the above-described moof box. Added HDR information is shaded.
도시된 실시예(t19010)에서, hdr_flag 필드는 tfhd 박스가 기술하는 해당 비디오 트랙 프래그먼트 내에 HDR 비디오 데이터가 포함되어 있는지 여부를 지시하는 플래그일 수 있다. 이 필드의 값이 1 인 경우, 해당 비디오 트랙 프래그먼트 내에 HDR 비디오 데이터가 포함되어 있을 수 있다. In the illustrated embodiment t19010, the hdr_flag field may be a flag indicating whether HDR video data is included in a corresponding video track fragment described by the tfhd box. When the value of this field is 1, HDR video data may be included in the corresponding video track fragment.
hdr_flag 필드의 값이 1 인 경우, hdr_type_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드 및/또는 sdr_compatibility_flag 필드가 더 포함될 수 있다. 이 필드들은 전술한 tkhd 박스 내의 동명의 필드들과 같은 역할을 수행할 수 있다. 단 이 경우, 이 필드들은 비디오 트랙 전체가 아닌, 해당 비디오 트랙 프래그먼트에 대하여 기술할 수 있다. When the value of the hdr_flag field is 1, the hdr_type_transition_flag field, the hdr_sdr_transition_flag field, the sdr_hdr_transition_flag field, and / or the sdr_compatibility_flag field may be further included. These fields may play the same role as the fields of the same name in the tkhd box described above. In this case, however, these fields may describe the video track fragment, not the entire video track.
즉, hdr_type_transition_flag 필드는 해당 트랙 프래그먼트 내에서, 그 트랙 프래그먼트와 관련된 미디어 데이터에 대해 HDR 정보의 변경이 있는지 나타낼 수 있다. hdr_sdr_transition_flag 필드는 해당 트랙 프래그먼트가 HDR 에서 SDR 로 전환됨을 나타낼 수 있다. sdr_hdr_transition_flag 필드는 해당 트랙 프래그먼트가 SDR 에서 HDR 로 전환됨을 나타낼 수 있다. sdr_compatibility_flag 필드는 해당 트랙 프래그먼트의 HDR 비디오 데이터가 SDR 디코더/디스플레이와 호환되는지 여부를 지시할 수 있다. That is, the hdr_type_transition_flag field may indicate whether there is a change in the HDR information with respect to media data related to the track fragment in the corresponding track fragment. The hdr_sdr_transition_flag field may represent that the track fragment is switched from HDR to SDR. The sdr_hdr_transition_flag field may represent that the track fragment is switched from SDR to HDR. The sdr_compatibility_flag field may indicate whether the HDR video data of the corresponding track fragment is compatible with the SDR decoder / display.
도시된 실시예(t19020)에서, tfhd 박스는 전술한 HDR 컨피규레이션 박스를 포함할 수도 있다. hdr_flag 필드의 값에 따라 HDR 컨피규레이션 박스인 hdr_config 박스가 포함되는지 여부가 지시될 수 있다. hdr_config 박스는 해당 트랙 프래그먼트의 비디오 샘플들에 공통적으로 적용될 수 있는 HDR 정보들을 제공할 수 있다. In the illustrated embodiment t19020, the tfhd box may include the HDR configuration box described above. According to the value of the hdr_flag field, it may be indicated whether the hdr_config box, which is an HDR configuration box, is included. The hdr_config box may provide HDR information that may be commonly applied to video samples of the corresponding track fragment.
본 박스의 필드들 중 average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드를 제외한 다른 필드들은, 전술한 tkhd 박스에 포함되는 HDR 컨피규레이션 박스 내의 동명의 필드들과 같은 역할을 수행할 수 있다. 단 이 경우, 이 필드들은 비디오 트랙 전체가 아닌, 해당 비디오 트랙 프래그먼트에 대하여 기술할 수 있다. Other fields except the average_frame_luminance_level field and / or the max_frame_pixel_luminance field among the fields of the box may play the same role as the fields of the same name in the HDR configuration box included in the tkhd box described above. In this case, however, these fields may describe the video track fragment, not the entire video track.
average_frame_luminance_level 필드는 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 루미넌스 레벨의 평균값들 중, 최대값을 나타낼 수 있다. max_frame_pixel_luminance 필드 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 픽셀 루미넌스의 최대값들 중, 가장 큰 값을 나타낼 수 있다.The average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each video sample belonging to a track fragment in the corresponding fragment. max_frame_pixel_luminance field The maximum_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
도시된 실시예(t19030)에서, tfhd 박스는 tf_flags 값에 따라 HDR 정보를 더 포함할 수 있다. tr_flags 는 해당 박스와 연관된 플래그들을 나타낼 수 있다. 예를 들어 tr_flags 가 0x000001 값을 포함하는 경우 베이스 데이터 오프셋 정보가 tfhd 박스에 포함됨이 지시될 수 있고, 0x000002 값을 포함하는 경우 샘플 디스크립션 인덱스 정보가 tfhd 박스에 포함됨이 지시될 수 있다. In the illustrated embodiment t19030, the tfhd box may further include HDR information according to the tf_flags value. tr_flags may indicate flags associated with the box. For example, when tr_flags includes a value of 0x000001, it may be indicated that the base data offset information is included in the tfhd box, and when it includes the value of 0x000002, it may be indicated that the sample description index information is included in the tfhd box.
실시예에 따라 tf_flags 값이 0x100000 값을 포함하는 경우, 해당 프래그먼트내의 트랙 프래그먼트에 포함된 비디오 샘플들에 대한 HDR 정보의 디폴트 값이 존재함이 지시될 수 있다. HDR 정보가 존재함을 지시하는 tf_flags 값은 실시예에 따라 0x100000 값 외에 다른 값을 가질 수도 있다. (0x100000 : default-sample-hdr-configuration-present)According to an embodiment, when the tf_flags value includes a value of 0x100000, it may be indicated that a default value of HDR information for video samples included in a track fragment in the corresponding fragment exists. The tf_flags value indicating the presence of the HDR information may have a value other than the 0x100000 value in some embodiments. (0x100000: default-sample-hdr-configuration-present)
tf_flags 값이 0x100000 값을 포함하는 경우, tfhd 박스에는 HDR 컨피규레이션 박스인 deafult_sample_hdr_config 박스가 포함될 수 있다. deafult_sample_hdr_config 박스는 전술한 trex 박스 내의 deafult_sample_hdr_config 박스와 같은 역할을 수행할 수 있다. If the tf_flags value includes a value of 0x100000, the tfhd box may include a deafult_sample_hdr_config box, which is an HDR configuration box. The deafult_sample_hdr_config box may play the same role as the deafult_sample_hdr_config box in the above-described trex box.
도 35 는 본 발명의 일 실시예에 따른, HDR 정보를 trun 박스 내에 정의하는 방안을 도시한 도면이다. 35 is a diagram illustrating a method of defining HDR information in a trun box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 HDR 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 traf 박스 내의 trun 박스에 HDR 정보(파라미터)들이 추가될 수 있다. 추가된 HDR 정보들은 음영표시 되었다. HDR information may be included in the structure of the above-described media file itself to store / transmit. In this embodiment, HDR information (parameters) may be added to the trun box in the traf box described above. Added HDR information is shaded.
도시된 실시예(t20010)에서, trun 박스는 hdr_flag 필드를 포함할 수 있다. 또한 hdr_flag 필드의 값에 따라 hdr_type_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드 및/또는 sdr_compatibility_flag 필드가 더 포함될 수 있다. 이 필드들은 해당 트랙 프래그먼트내의 비디오 샘플들에 공통적으로 적용될 수 있는 HDR 관련 사항들을 시그널링할 수 있다. 이 필드들은 전술한 tfhd 박스 내의 동명의 필드들과 같은 의미를 가질 수 있다. In the illustrated embodiment t20010, the trun box may include an hdr_flag field. In addition, the hdr_type_transition_flag field, the hdr_sdr_transition_flag field, the sdr_hdr_transition_flag field, and / or the sdr_compatibility_flag field may be further included according to the value of the hdr_flag field. These fields may signal HDR related matters that may be commonly applied to video samples in the corresponding track fragment. These fields may have the same meaning as the fields of the same name in the tfhd box described above.
실시예에 따라, tfhd 박스와 trun 박스에 HDR 정보가 동시에 포함될 수도 있다. 이 경우 각각의 박스에 포함되는 HDR 정보 구조의 실시예들은 서로 조합될 수 있다. tfhd 박스와 trun 박스에 HDR 정보가 동시에 포함되는 경우, tfhd 박스에 정의된 HDR 정보들의 값은, trun 박스에 정의된 HDR 정보들의 값으로 오버라이드(override) 될 수 있다. 즉, 양자에 정의된 HDR 정보들의 값이 다른 경우, trun 박스 내의 값이 사용될 수 있다. trun 박스 내에 HDR 정보가 포함되어 있지 않은 경우, tfhd 박스 내의 HDR 정보가 사용될 수 있다. In some embodiments, HDR information may be simultaneously included in the tfhd box and the trun box. In this case, embodiments of the HDR information structure included in each box may be combined with each other. When the HDR information is simultaneously included in the tfhd box and the trun box, the values of the HDR information defined in the tfhd box may be overridden to the values of the HDR information defined in the trun box. That is, when the values of the HDR information defined in both are different, the value in the trun box may be used. If the HDR information is not included in the trun box, the HDR information in the tfhd box may be used.
도시된 실시예(t20020)에서, trun 박스는 hdr_flag 필드를 포함할 수 있고, hdr_flag 필드의 값에 따라 HDR 컨피규레이션 박스인 hdr_config 박스를 더 포함할 수 있다. 이 박스는 해당 트랙 프래그먼트내의 비디오 샘플들에 공통적으로 적용될 수 있는 HDR 정보들을 포함할 수 있다. 이 박스 내의 필드들은, 전술한 tfhd 박스 내의 HDR 컨피규레이션 박스의 동명의 필드들과 같은 의미를 가질 수 있다. In the illustrated embodiment t20020, the trun box may include an hdr_flag field, and may further include an hdr_config box, which is an HDR configuration box, according to the value of the hdr_flag field. This box may contain HDR information that can be commonly applied to video samples within the track fragment. The fields in this box may have the same meaning as the fields of the same name of the HDR configuration box in the tfhd box described above.
도시된 실시예(t20030)에서, trun 박스는 tf_flags 값에 따라 HDR 정보를 더 포함할 수 있다. tr_flags 는 해당 박스와 연관된 플래그들을 나타낼 수 있다. 예를 들어 tr_flags 가 0x000001 값을 포함하는 경우 데이터 오프셋 정보가 trun 박스에 포함됨이 지시될 수 있고, 0x000004 값을 포함하는 경우 첫번째 샘플 플래그 정보가 trun 박스에 포함됨이 지시될 수 있다. In the illustrated embodiment t20030, the trun box may further include HDR information according to the tf_flags value. tr_flags may indicate flags associated with the box. For example, when tr_flags includes a value of 0x000001, it may be indicated that data offset information is included in a trun box. When tr_flags includes a value of 0x000004, it may be indicated that the first sample flag information is included in a trun box.
실시예에 따라 tf_flags 값이 0x002000 값을 포함하는 경우, 해당 프래그먼트내의 트랙 프래그먼트에 포함된 비디오 샘플들에 공통적으로 적용될 수 있는 HDR 정보가 존재하는지 여부가 지시될 수 있다. HDR 정보가 존재함을 지시하는 tf_flags 값은 실시예에 따라 0x002000 값 외에 다른 값을 가질 수도 있다. (0x002000: hdr-configuration-present)According to an embodiment, when the tf_flags value includes a value of 0x002000, it may be indicated whether there is HDR information that can be commonly applied to video samples included in the track fragment in the corresponding fragment. The tf_flags value indicating that the HDR information is present may have a value other than the 0x002000 value in some embodiments. (0x002000: hdr-configuration-present)
tf_flags 값이 0x002000 값을 포함하는 경우, trun 박스에는 HDR 컨피규레이션 박스인 hdr_config 박스가 포함될 수 있다. hdr_config 박스는 전술한 tfhd 박스 내의 hdr_config 박스와 같은 역할을 수행할 수 있다. When the tf_flags value includes a value of 0x002000, the trun box may include an hdr_config box, which is an HDR configuration box. The hdr_config box may play the same role as the hdr_config box in the above-described tfhd box.
도시된 실시예(t20040)에서, trun 박스는 tf_flags 값에 따라 HDR 정보를 더 포함할 수 있다. 실시예에 따라 tf_flags 값이 0x001000 값을 포함하는 경우, 해당 프래그먼트내의 트랙 프래그먼트에 포함된 비디오 샘플들 각각에 적용될 수 있는 HDR 정보가 존재하는지 여부가 지시될 수 있다. HDR 정보가 존재함을 지시하는 tf_flags 값은 실시예에 따라 0x001000 값 외에 다른 값을 가질 수도 있다. (0x001000: sample-hdr-configuration-present)In the illustrated embodiment t20040, the trun box may further include HDR information according to the tf_flags value. According to an embodiment, when the tf_flags value includes a value of 0x001000, it may be indicated whether there is HDR information that can be applied to each of the video samples included in the track fragment in the corresponding fragment. The tf_flags value indicating that the HDR information exists may have a value other than the 0x001000 value according to an embodiment. (0x001000: sample-hdr-configuration-present)
tf_flags 값이 0x001000 값을 포함하는 경우, trun 박스에는 HDR 컨피규레이션 박스인 sample_hdr_config 박스가 포함될 수 있다. sample_hdr_config 박스는 해당 샘플에 대한 HDR 정보를 제공할 수 있다. If the tf_flags value includes a value of 0x001000, the trun box may include a sample_hdr_config box, which is an HDR configuration box. The sample_hdr_config box may provide HDR information about the sample.
sample_hdr_config 박스 내의 정보들의 의미는, 전술한 tfhd 박스의 deafult_sample_hdr_config 박스 내의 정보들의 의미와 같을 수 있다. 즉, tfhd 박스의 deafult_sample_hdr_config 박스는 각각의 샘플들에 대해 적용될 수 있는 디폴트 HDR 정보를 제공하고, trun 박스의 sample_hdr_config 박스는 각 샘플들에 대하여 해당 샘플에 적용될 수 있는 개별 HDR 정보를 제공할 수 있다. The meaning of the information in the sample_hdr_config box may be the same as the meaning of the information in the deafult_sample_hdr_config box of the tfhd box described above. That is, the deafult_sample_hdr_config box of the tfhd box may provide default HDR information that may be applied to each sample, and the sample_hdr_config box of the trun box may provide individual HDR information that may be applied to the sample for each sample.
단, sample_hdr_config 박스의 average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드는 default_sample_hdr_config 박스의 그 것들과 다른 의미를 가질 수 있다. average_frame_luminance_level 필드는 해당 비디오 샘플의 루미넌스 레벨의 평균값을 나타낼 수 있다. max_frame_pixel_luminance 필드 해당 비디오 샘플의 픽셀 루미넌스의 최대값을 나타낼 수 있다.However, the average_frame_luminance_level field and / or max_frame_pixel_luminance field of the sample_hdr_config box may have a different meaning from those of the default_sample_hdr_config box. The average_frame_luminance_level field may indicate an average value of the luminance level of the video sample. max_frame_pixel_luminance field This may represent the maximum value of pixel luminance of a corresponding video sample.
도 36 은 본 발명의 일 실시예에 따른, HDR 정보를 각종 플래그, 샘플 그룹 엔트리 또는 샘플 엔트리 내에 정의하는 방안을 도시한 도면이다. FIG. 36 illustrates a scheme for defining HDR information in various flags, sample group entries, or sample entries according to an embodiment of the present invention.
도시된 실시예(t21010)에서, trex 박스 내의 default_sample_flags, tfhd 박스 내의 default_sample_flags, trun 박스 내의 sample_flags 및/또는 trun 박스 내의 first_sample_flags 상에 도시된 HDR 관련 플래그들이 추가될 수 있다. In the illustrated embodiment t21010, default-sample_flags in the trex box, default_sample_flags in the tfhd box, sample_flags in the trun box, and / or HDR related flags shown on the first_sample_flags in the trun box may be added.
먼저 각각의 플래그 상에 hdr_flag 필드가 포함될 수 있다. hdr_flag 필드는 해당 미디어 샘플이 HDR 비디오 샘플인지 아닌지를 나타내는 필드일 수 있다. 이 필드의 값이 1 인 경우, 해당 샘플이 HDR 비디오 샘플임이 지시될 수 있다. 실시예에 따라, hdr_flag 필드의 값에 의해 후술할 플래그 필드들의 존부가 결정될 수도 있다. First, the hdr_flag field may be included on each flag. The hdr_flag field may be a field indicating whether a corresponding media sample is an HDR video sample. When the value of this field is 1, it may be indicated that the corresponding sample is an HDR video sample. According to an embodiment, existence of flag fields to be described later may be determined by the value of the hdr_flag field.
sdr_compatibility_flag 필드, hdr_type_transition_flag 필드 및/또는 hdr_sdr_transition_flag 필드는 전술한 동명의 필드들과 그 의미가 같으나, 해당 미디어 샘플(HDR 비디오 샘플)에 대해서 기술한다는 점이 다를 수 있다. The sdr_compatibility_flag field, the hdr_type_transition_flag field, and / or the hdr_sdr_transition_flag field have the same meaning as the above-described fields of the same name, but may be different in that they are described for the corresponding media sample (HDR video sample).
즉, sdr_compatibility_flag 필드는 해당 HDR 비디오 샘플이 SDR 을 지원하는 디코더/디스플레이와 호환이 가능한지 여부를 나타낼 수 있다. hdr_type_transition_flag 필드는 해당 HDR 비디오 샘플에 대한 HDR 정보(파라미터)와, 이를 뒤따르는 HDR 비디오 샘플에 대한 HDR 정보가 다를 수 있음을 지시할 수 있다. 이 필드의 값이 1 인 경우, 현재 샘플이 기존의 HDR 정보가 적용되는 마지막 HDR 비디오 샘플이며, 뒤따르는 샘플들은 다른 HDR 정보가 적용될 수 있음을 나타낼 수 있다. hdr_sdr_transition_flag 필드는 현재의 HDR 비디오 샘플이 마지막 HDR 샘플이며, 뒤따르는 샘플들은 SDR 샘플들인지 여부를 지시하는 플래그일 수 있다. 이 필드의 값이 1 인 경우, 해당 샘플이 마지막 HDR 샘플로서, 이 후부터는 SDR 샘플들이 뒤따름을 나타낼 수 있다. That is, the sdr_compatibility_flag field may indicate whether the corresponding HDR video sample is compatible with a decoder / display supporting SDR. The hdr_type_transition_flag field may indicate that HDR information (parameter) for the corresponding HDR video sample and HDR information for the HDR video sample subsequent thereto may be different. If the value of this field is 1, the current sample is the last HDR video sample to which the existing HDR information is applied, and the following samples may indicate that other HDR information may be applied. The hdr_sdr_transition_flag field may be a flag indicating whether the current HDR video sample is the last HDR sample, and the following samples are SDR samples. If the value of this field is 1, this may indicate that the corresponding sample is the last HDR sample, followed by the SDR samples.
도시된 실시예(t21020)에서, 비주얼 샘플 그룹 엔트리(visual sampel group entry) 에 HDR 정보가 포함될 수 있다. 하나의 미디어 파일 또는 프래그먼트에 존재하는 하나 이상의 비디오 샘플들에, 동일한 HDR 관련 플래그가 적용될 수 있는 경우, 도시된 실시예와 같은 HDR 플래그들이 비주얼 샘플 그룹 엔트리에 더 포함될 수 있다. In the illustrated embodiment t21020, the HDR information may be included in the visual sampel group entry. If the same HDR related flag can be applied to one or more video samples present in one media file or fragment, HDR flags, such as the illustrated embodiment, may be further included in the visual sample group entry.
도시된 HDR 관련 플래그들은 전술한 동명의 플래그들과 그 의미는 같으나, 이 경우 해당 샘플 그룹에 대해서 기술할 수 있다. 즉, hdr_flag 필드는 해당 샘플 그룹이 HDR 비디오 샘플 그룹인지 아닌지를 나타낼 수 있다. hdr_type_transition_flag 필드는 해당 HDR 비디오 샘플 그룹 내에서, HDR 비디오 샘플들과 관련된 HDR 정보(파라미터)가 다른 HDR 정보로 변경되어 적용되는지 여부를 지시할 수 있다. hdr_sdr_transition_flag 필드는 해당 비디오 샘플 그룹 내에서 HDR 에서 SDR 로 전환되는지 여부를 지시할 수 있다. sdr_hdr_transition_flag 필드는 해당 비디오 샘플 그룹 내에서 SDR 에서 HDR 전환되는지 여부를 지시할 수 있다. sdr_compatibility_flag 필드는 해당 비디오 샘플 그룹 내의 HDR 비디오 샘플들이 SDR 을 지원하는 디코더/디스플레이와 호환될 수 있는지를 지시할 수 있다. The depicted HDR related flags have the same meaning as the flags of the same name described above, but in this case, the corresponding sample group may be described. That is, the hdr_flag field may indicate whether the corresponding sample group is an HDR video sample group. The hdr_type_transition_flag field may indicate whether HDR information (parameter) related to HDR video samples is changed to other HDR information and applied in the corresponding HDR video sample group. The hdr_sdr_transition_flag field may indicate whether to switch from HDR to SDR in the corresponding video sample group. The sdr_hdr_transition_flag field may indicate whether HDR transition is performed in SDR within a corresponding video sample group. The sdr_compatibility_flag field may indicate whether HDR video samples in the corresponding video sample group are compatible with a decoder / display supporting SDR.
도시된 실시예(t21030)에서, 비주얼 샘플 그룹 엔트리(visual sampel group entry) 에 HDR 정보가 포함될 수 있다. 하나의 미디어 파일 또는 프래그먼트에 존재하는 하나 이상의 비디오 샘플들에, 동일한 HDR 정보(파라미터)가 적용될 수 있는 경우, 도시된 실시예와 같이 hdr_flag 필드와 HDR 컨피규레이션 박스가 비주얼 샘플 그룹 엔트리에 더 포함될 수 있다. In the illustrated embodiment t21030, HDR information may be included in the visual sampel group entry. If the same HDR information (parameter) can be applied to one or more video samples present in one media file or fragment, the hdr_flag field and the HDR configuration box may be further included in the visual sample group entry as shown in the illustrated embodiment. .
여기서 hdr_flag 필드는 전술한 비주얼 샘플 그룹 엔트리 내의 hdr_flag 필드와 그 의미가 같을 수 있다. HDR 컨피규레이션 박스 내의 정보들은 전술한 HDR 컨피규레이션 박스 내의 정보들과 그 의미가 같을 수 있다. 단 이 경우, 각 정보들은 해당 샘플 그룹에 대해서 기술할 수 있다. 즉, HDR 컨피규레이션 박스 내의 정보들은 해당 샘플 그룹의 HDR 비디오 샘플들에 공통적으로 적용될 수 있는 디폴트 HDR 정보(파라미터)들을 제공할 수 있다. 여기서, average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드는 그 의미가 다를 수 있는데, average_frame_luminance_level 필드는 해당 샘플 그룹 내에 소속된 각 비디오 샘플의 루미넌스 레벨의 평균값들 중, 최대값을 나타낼 수 있다. max_frame_pixel_luminance 필드는 해당 샘플 그룹 내에 소속된 각 비디오 샘플의 픽셀 루미넌스의 최대값들 중, 가장 큰 값을 나타낼 수 있다.Here, the hdr_flag field may have the same meaning as the hdr_flag field in the aforementioned visual sample group entry. The information in the HDR configuration box may have the same meaning as the information in the HDR configuration box described above. In this case, however, each piece of information may be described for the corresponding sample group. That is, the information in the HDR configuration box can provide default HDR information (parameters) that can be commonly applied to HDR video samples of the corresponding sample group. Here, the average_frame_luminance_level field and / or the max_frame_pixel_luminance field may have different meanings. The average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each video sample belonging to the corresponding sample group. The max_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each video sample belonging to the corresponding sample group.
도시된 실시예(t21040)에서, 비주얼 샘플 엔트리(visual sampel entry) 에 HDR 정보가 포함될 수 있다. 하나의 미디어 파일 또는 프래그먼트에 존재하는 각각의 비디오 샘플들을 디코딩하기 위해 필요한 초기화 정보로서, 해당 샘플과 관련된 HDR 플래그 정보가 비주얼 샘플 엔트리에 더 포함될 수 있다. In the illustrated embodiment t21040, the HDR information may be included in the visual sampel entry. As initialization information required to decode respective video samples present in one media file or fragment, HDR flag information related to the sample may be further included in the visual sample entry.
hdr_flag 필드는 연관된 비디오 트랙 또는 샘플 등이 HDR 비디오 샘플을 포함하는지 여부를 나타낼 수 있다. hdr_type_transition_flag 필드는 연관된 비디오 트랙 또는 샘플 등에 대한 HDR 정보(파라미터)가 변경되어 다른 HDR 정보가 적용되는지 여부를 나타낼 수 있다. hdr_sdr_transition_flag 필드는 연관된 비디오 트랙 또는 샘플 등이 HDR 에서 SDR 로 전환되는지 여부를 나타내는 플래그일 수 있다. sdr_hdr_transition_flag 필드는 연관된 비디오 트랙 또는 샘플 등이 SDR 에서 HDR 로 전환되는지 여부를 나타내는 플래그일 수 있다. sdr_compatibility_flag 필드는 연관된 비디오 트랙 또는 샘플 등이 SDR 디코더/디스플레이와 호환이 가능한지 여부를 나타내는 플래그일 수 있다. The hdr_flag field may indicate whether the associated video track or sample includes the HDR video sample. The hdr_type_transition_flag field may indicate whether HDR information (parameter) for an associated video track or sample is changed and thus other HDR information is applied. The hdr_sdr_transition_flag field may be a flag indicating whether an associated video track or sample is switched from HDR to SDR. The sdr_hdr_transition_flag field may be a flag indicating whether an associated video track or sample is switched from SDR to HDR. The sdr_compatibility_flag field may be a flag indicating whether an associated video track or sample is compatible with the SDR decoder / display.
도시된 실시예(t21050)에서, 비주얼 샘플 엔트리(visual sampel entry) 에 HDR 정보가 포함될 수 있다. 하나의 미디어 파일 또는 프래그먼트에 존재하는 각각의 비디오 샘플들을 디코딩하기 위해 필요한 초기화 정보로서, 해당 샘플과 관련된 HDR 정보(파라미터) 자체가 비주얼 샘플 엔트리에 더 포함될 수 있다. In the illustrated embodiment t21050, HDR information may be included in a visual sampel entry. As initialization information required to decode respective video samples present in one media file or fragment, HDR information (parameter) related to the sample may be further included in the visual sample entry.
hdr_flag 필드는 연관된 비디오 트랙 또는 샘플 등이 HDR 비디오 샘플을 포함하는지 여부를 나타낼 수 있다. hdr_config 박스는 HDR 컨피규레이션 박스로서, 연관된 비디오 트랙 또는 샘플 등에 대한 HDR 정보(파라미터) 들을 포함할 수 있다. 전술한 HDR 컨피규레이션 박스에 포함된 각각의 정보들은 전술한 바와 같을 수 있다. 단 이 경우, 각각의 정보들은 연관된 비디오 트랙 또는 샘플들에 대해 기술할 수 있다. The hdr_flag field may indicate whether the associated video track or sample includes the HDR video sample. The hdr_config box is an HDR configuration box and may include HDR information (parameters) about an associated video track or sample. Each of the information included in the above-described HDR configuration box may be as described above. In this case, however, each of the pieces of information may describe the associated video track or samples.
도 37 은 본 발명의 일 실시예에 따른, HDR 정보를 HEVC 샘플 엔트리, HEVC 컨피규레이션 박스 또는 HEVC 디코더 컨피규레이션 레코드 내에 정의하는 방안을 도시한 도면이다. FIG. 37 illustrates a scheme for defining HDR information in a HEVC sample entry, an HEVC configuration box, or an HEVC decoder configuration record according to an embodiment of the present invention. FIG.
도시된 실시예(t22010)에서, HDR 정보가 HEVC 샘플 엔트리(HEVCSampleEntry)에 포함될 수 있다. 미디어 파일 또는 프래그먼트 내에 존재하는 각각의 HEVC 샘플들을 디코딩하기 위해 필요한 초기화 정보로서, 각각의 HEVC 샘플 등과 관련된 HDR 정보가 도시된 바와 같이 추가될 수 있다. 추가되는 HDR 정보는, 실시예에 따라, 전술한 HDR 컨피규레이션 박스의 형태로 추가될 수 있다. 실시예에 따라 HDR 정보는 AVC 샘플 엔트리(AVCSampleEntry), AVC2 샘플 엔트리(AVC2SampleEntry), SVC 샘플 엔트리(SVCSampleEntry), MVC 샘플 엔트리 (MVCSampleEntry) 등에 같은 방식으로 추가될 수 있다. In the illustrated embodiment t22010, the HDR information may be included in the HEVC sample entry HEVCSampleEntry. As initialization information required to decode respective HEVC samples present in the media file or fragment, HDR information related to each HEVC sample or the like may be added as shown. The added HDR information may be added in the form of the above-described HDR configuration box according to an embodiment. According to an embodiment, the HDR information may be added in the same manner as AVC sample entry (AVCSampleEntry), AVC2 sample entry (AVC2SampleEntry), SVC sample entry (SVCSampleEntry), MVC sample entry (MVCSampleEntry).
도시된 실시예(t22020)에서, HDR 정보가 HEVC 컨피규레이션 박스(HEVCConfigurationBox) 에 포함될 수 있다. 미디어 파일 또는 프래그먼트 내에 존재하는 각각의 HEVC 샘플들을 디코딩하기 위해 필요한 초기화 정보로서, 각각의 HEVC 샘플 등과 관련된 HDR 정보가 도시된 바와 같이 추가될 수 있다. 추가되는 HDR 정보는, 실시예에 따라, 전술한 HDR 컨피규레이션 박스의 형태로 추가될 수 있다. 실시예에 따라 HDR 정보는 AVC 컨피규레이션 박스(AVCConfigurationBox), SVC 컨피규레이션 박스(SVCConfigurationBox), MVC 컨피규레이션 박스(MVCConfigurationBox) 등에 같은 방식으로 추가될 수 있다. In the illustrated embodiment t22020, the HDR information may be included in the HEVC Configuration Box. As initialization information required to decode respective HEVC samples present in the media file or fragment, HDR information related to each HEVC sample or the like may be added as shown. The added HDR information may be added in the form of the above-described HDR configuration box according to an embodiment. According to an embodiment, the HDR information may be added in the same manner as in the AVC configuration box (AVCConfigurationBox), the SVC configuration box (SVCConfigurationBox), the MVC configuration box (MVCConfigurationBox), and the like.
도시된 실시예(t22030)에서, HDR 정보가 HEVC 디코더 컨피규레이션 레코드 (HEVCDecoderConfigurationRecord) 에 포함될 수 있다. 미디어 파일 또는 프래그먼트 내에 존재하는 각각의 HEVC 샘플들을 디코딩하기 위해 필요한 초기화 정보로서, 각각의 HEVC 샘플 등과 관련된 HDR 정보가 도시된 바와 같이 추가될 수 있다. 추가되는 HDR 정보는, 실시예에 따라, 전술한 HDR 컨피규레이션 박스의 형태로 추가될 수 있다. 이 경우, HDR 컨피규레이션 박스의 추가 여부가 hdr_flag 필드에 의해 수행될 수 있다. 실시예에 따라 HDR 정보는 AVC 디코더 컨피규레이션 레코드(AVCDecoderConfigurationRecord), SVC 디코더 컨피규레이션 레코드(SVCDecoderConfigurationRecord), MVC 디코더 컨피규레이션 레코드(MVCDecoderConfigurationRecord) 등에 같은 방식으로 추가될 수 있다. In the illustrated embodiment t22030, HDR information may be included in an HEVC decoder configuration record (HEVCDecoderConfigurationRecord). As initialization information required to decode respective HEVC samples present in the media file or fragment, HDR information related to each HEVC sample or the like may be added as shown. The added HDR information may be added in the form of the above-described HDR configuration box according to an embodiment. In this case, whether to add the HDR configuration box may be performed by the hdr_flag field. According to an embodiment, the HDR information may be added in the same manner as the AVC decoder configuration record (AVCDecoderConfigurationRecord), the SVC decoder configuration record (SVCDecoderConfigurationRecord), the MVC decoder configuration record (MVCDecoderConfigurationRecord), and the like.
도 38 은 본 발명의 일 실시예에 따른, HDR 정보 SEI 박스를 정의하여 HDR 정보를 저장/전달하는 방안을 도시한 도면이다. 38 is a diagram illustrating a method of storing / delivering HDR information by defining an HDR information SEI box according to an embodiment of the present invention.
본 발명은 HDR 정보 SEI 박스(HDRInformationSEIBox) 를 정의한다(t23010). 이 박스는 SEI NAL 유닛을 포함하는데, 이 SEI NAL 유닛은 HDR 관련 정보를 포함하는 SEI 메시지를 가질 수 있다. HDR 정보 SEI 박스는 hisb 박스로 불릴 수도 있다. The present invention defines an HDR information SEI box (HDRInformationSEIBox) (t23010). This box contains an SEI NAL unit, which may have an SEI message containing HDR related information. The HDR information SEI box may be called hisb box.
HDR 정보 SEI 박스는 도시된 실시예들과 같이(t23020, t23030, t23040), 비주얼 샘플 엔트리, HEVC 컨피규레이션 박스 및/또는 HEVC 샘플 엔트리에 포함될 수 있다. 또한 실시예에 따라, AVC 샘플 엔트리, MVC 샘플 엔트리, SVC 샘플 엔트리에 포함될 수도 있다. The HDR information SEI box may be included in the visual sample entry, the HEVC configuration box and / or the HEVC sample entry, as shown in the illustrated embodiments (t23020, t23030, t23040). Also, according to an embodiment, it may be included in an AVC sample entry, an MVC sample entry, and an SVC sample entry.
도 39 는 본 발명의 일 실시예에 따른 화질 개선 정보를 제공하기 위한 HDR 인포메이션 박스를 나타낸 도면이다.39 is a diagram illustrating an HDR information box for providing image quality improvement information according to an embodiment of the present invention.
본 발명은 ISOBMFF에 공통적으로 적용 가능하거나 다양한 장면 특성에 적응적인 화질 개선 정보를 저장 및/또는 시그널링하는 방안을 제안한다. 여기서, 화질 개선 정보는 HDR 정보 및 WCG 정보를 포함할 수 있다. 본 발명은 ISOBMFF 등의 미디어 파일을 기반으로, HDR을 제공하는 콘텐츠의 비디오 트랙 또는 비디오 샘플 등과 관련된 HDR 파라미터를 저장 및/또는 시그널링하는 방안을 제안한다. 구체적으로, 본 발명은 비디오 샘플과 관련된 HDR 파라미터 및/또는 WCG 파라미터를 저장 및/또는 시그널링하는 방안을 제안한다. 또한, 본 발명은 비디오 샘플 엔트리와 관련된 HDR 파라미터 및/또는 WCG 파라미터를 저장 및/또는 시그널링하는 방안을 제안한다. 본 발명은, 콘텐츠 전반에 공통적으로, 또는 다양한 장면 특성에 적응적으로 콘텐츠를 조정할 수 있는 요소에 대한 메타데이터를 전달함으로써, 개선된 화질의 영상을 제공할 수 있다. The present invention proposes a method for storing and / or signaling image quality improvement information that is commonly applicable to ISOBMFF or adaptive to various scene characteristics. Here, the image quality improvement information may include HDR information and WCG information. The present invention proposes a method of storing and / or signaling an HDR parameter related to a video track or a video sample of content providing HDR based on a media file such as ISOBMFF. Specifically, the present invention proposes a method for storing and / or signaling HDR parameters and / or WCG parameters associated with video samples. The present invention also proposes a method of storing and / or signaling HDR parameters and / or WCG parameters associated with video sample entries. The present invention can provide an image having an improved image quality by transmitting metadata about elements that can adjust the content in common or adaptively to various scene characteristics.
미디어 파일 내의 비디오 샘플들에 관련된 화질 개선 정보를 제공하기 위하여 HDR 인포메이션 박스(HDR information box)가 정의될 수 있다. HDR 인포메이션 박스는 ISOBMFF 내에 포함된 비디오 샘플에 적용가능한 HDR static 메타데이터와, HDR dynamic 메타데이터를 저장 및 시그널링할 수 있다. HDR 인포메이션 박스는 전술한 실시예에서의 HDR static 메타데이터와, HDR dynamic 메타데이터를 모두 포함할 수 있다. HDR 인포메이션 박스는 hdri 박스라 지칭될 수도 있다. HDR 인포메이션 박스는 HDR 메타데이터를 비디오 샘플에 저장 및/또는 시그널링 할 수 있다. An HDR information box can be defined to provide picture quality improvement information related to video samples in a media file. The HDR information box may store and signal HDR static metadata and HDR dynamic metadata applicable to video samples included in the ISOBMFF. The HDR information box may include both HDR static metadata and HDR dynamic metadata in the above-described embodiment. The HDR information box may be referred to as an hdri box. The HDR information box can store and / or signal HDR metadata in the video sample.
HDR 인포메이션 박스는, 전술한 HDR information descriptor에 포함된 HDR information(또는 HDR video information) 및/또는 HDR 컨피규레이션 박스 등에 포함된 HDR 정보를 선택적으로 포함할 수 있다. 즉, HDR 인포메이션 박스에는, HDR information descriptor에 포함된 HDR information(또는 HDR video information) 중 일부 또는 전부 및/또는 상기 HDR 컨피규레이션 박스 등에 포함된 HDR 정보의 일부 또는 전부가 포함될 수 있다. 전술한 바와 같이, HDR 인포메이션 박스에는 HDR과 관련된 파라미터 뿐만 아니라 WCG와 관련된 파라미터도 포함될 수 있다.The HDR information box may optionally include HDR information (or HDR video information) included in the above-described HDR information descriptor and / or HDR information included in the HDR configuration box. That is, the HDR information box may include some or all of the HDR information (or HDR video information) included in the HDR information descriptor and / or some or all of the HDR information included in the HDR configuration box or the like. As described above, the HDR information box may include not only parameters related to HDR but also parameters related to WCG.
HDR 인포메이션 박스는 화질 개선 파라미터가 적용되는 대상에 따라 다양한 위치에 적용될 수 있다. 즉, HDR 인포메이션 박스는, 기존 ISOBMFF 에서 정의된 박스에 포함될 수도 있고, 새롭게 정의된 박스에 포함될 수도 있다.The HDR information box may be applied to various positions depending on the object to which the image quality improvement parameter is applied. That is, the HDR information box may be included in the box defined in the existing ISOBMFF or may be included in the newly defined box.
도시된 실시예(H39010)는 풀 박스(full box)로 정의된 HDR 인포메이션 박스를 나타낸다. The illustrated embodiment H39010 represents an HDR information box defined as a full box.
도시된 실시예(H39020)는 비디오 데이터에 공통적으로 적용되는 화질 개선 파라미터를 포함하는 HDR 인포메이션 박스를 나타낸다. 도시된 실시예에 포함된 각 필드들에 대한 설명은 후술한다.The illustrated embodiment H39020 represents an HDR information box that includes image quality enhancement parameters commonly applied to video data. Description of each field included in the illustrated embodiment will be described later.
도 40 은 본 발명의 일 실시예에 따른 화질 개선 정보를 제공하기 위한 HDR 인포메이션 박스를 나타낸 도면이다. 도 41은 HDR 인포메이션 박스에 포함된 필드의 구체적인 타입과 관련된 실시예를 나타낸 도면이다.40 is a diagram illustrating an HDR information box for providing image quality improvement information according to an embodiment of the present invention. FIG. 41 is a diagram illustrating an embodiment related to a specific type of field included in an HDR information box.
도시된 실시예(H40010)는 각 비디오 샘플 별로 적용되는 화질 개선 파라미터를 포함하는 HDR 인포메이션 박스를 나타낸다. HDR 인포메이션 박스는 도시된 바와 같이, 각 비디오 샘플마다 적용될 수 있다. 도면에서 HDR 인포메이션 박스를 각 비디오 샘플마다 적용한 실시예를 도시하였으나, HDR 박스는 비디오 클립(clip), 비디오 씬(scene) 등으로 확장 적용될 수도 있다.The illustrated embodiment H40010 represents an HDR information box including a quality improvement parameter applied to each video sample. The HDR information box can be applied to each video sample, as shown. Although an embodiment in which the HDR information box is applied to each video sample is illustrated in the drawing, the HDR box may be extended to a video clip, a video scene, or the like.
일 실시예에 따른 HDR 인포메이션 박스는 sample_count 필드, HDR_app_type 필드, TF_type 필드, CG_type 필드, CT_type 필드, set_num 필드, version_num 필드, max_mastering_display_luminance 필드, min_mastering_display_luminance 필드, average_frame_luminance_level 필드, max_frame_pixel_luminance 필드, hdr_info_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드, sdr_compatibility_flag 필드, HDR_app_type_transition_flag 필드, WCG_info_transition_flag 필드, number_of_DR_info 필드, DR_mapping_info_present_flag 필드, CG_mapping_info_present_flag 필드 및/또는 VC_info_present_flag 필드를 포함할 수 있다. According to an embodiment, the HDR information box includes a sample_count field, an HDR_app_type field, a TF_type field, a CG_type field, a CT_type field, a set_num field, a version_num field, a max_mastering_display_luminance field, a min_mastering_display_luminance field, an average_frame_luminance_level field, a max_frame_pixel_lumin_trans_field field, hdr_flagg_trans_transition , sdr_compatibility_flag field, HDR_app_type_transition_flag field, WCG_info_transition_flag field, number_of_DR_info field, DR_mapping_info_present_flag field, CG_mapping_info_present_flag field, and / or VC_info_present_flag field.
sample_count 필드는 후술할 화질 개선 파라미터를 적용할 각 샘플의 개수를 나타낼 수 있다. sample_count 의 값은 국제표준 ISO/IEC 14496-12 의 sample size box(stsz) 에서 정의될 수 있다. The sample_count field may indicate the number of samples to which the quality improvement parameter to be described later is applied. The value of sample_count may be defined in the sample size box (stsz) of the international standard ISO / IEC 14496-12.
HDR_app_type 필드는 전술한 HDR_info_type이 지시하는 정보를 모두 포함할 수 있을 뿐만 아니라, 전술한 HDR_info_type을 확장할 수 있다. 예를 들어, 마스터링 디스플레이 (mastering display) 에 대한 정보를 나타내거나 채널 (channel), 프로그램 (program), 컨텐츠 (content) 단위로 공통으로 적용될 수 있다. 또한, 트랙, 연속된 장면, 비디오 클립, 프레임 각각에 적용 되는 식으로 구분할 수 있다. 특히, HDR_app_type 필드는 대상 타입이 비디오 샘플(frame)인 경우를 더 포함할 수 있다. HDR_app_type 필드에 관한 구체적인 실시예(H41010)는 도시된 바와 같다.The HDR_app_type field may not only include all of the information indicated by the aforementioned HDR_info_type, but may also extend the aforementioned HDR_info_type. For example, information about a mastering display may be displayed or commonly applied in units of channels, programs, and content. In addition, it can be divided into tracks, continuous scenes, video clips, and frames. In particular, the HDR_app_type field may further include a case in which the target type is a video sample (frame). A specific embodiment H41010 regarding the HDR_app_type field is as shown.
TF_type 필드는 전술한 transfer_function_type과 동일한 정보를 나타낼 수 있다. 즉, TF_type 필드는 HDR video의 mastering display, channel, program, content, track, scene, clip 또는 frame에 사용된 변환 함수(transfer function)의 종류를 나타낼 수 있다. 예를 들어, SMPTE ST 2084, ITU BT.1886, BT.2020 등과 같이 미리 정해진 EOTF가 시그널링 될 수 있으며, transfer function의 종류에 따라 절대 밝기 표현 방법, 상대 밝기 표현 방법 등과 같이 나눈 뒤 구체적인 방법을 시그널링 할 수도 있다. 필요한 경우 임의의 transfer function의 계수를 전달할 수도 있다.The TF_type field may indicate the same information as the above-described transfer_function_type. That is, the TF_type field may indicate the type of transfer function used for the mastering display, channel, program, content, track, scene, clip, or frame of the HDR video. For example, predetermined EOTFs such as SMPTE ST 2084, ITU BT.1886, BT.2020 can be signaled, and the specific method is divided after signaling like absolute brightness expression, relative brightness expression method, etc. according to the transfer function. You may. If necessary, the coefficient of any transfer function may be transferred.
CG_type 필드는 전술한 color_gamut_type과 동일한 정보를 나타낼 수 있다. 즉, CG_type 필드는 HDR video의 mastering display, channel, program, content, scene, clip 또는 frame에 해당하는 컬러 개멋 (color gamut) 종류를 나타낼 수 있다. 예를 들어 BT.709, BT.2020, DCI-P3와 같은 표준 color gamut을 나타내거나, 필요에 따라서는 RGB color primary (XYZ, RGBW 등도 가능)를 통해 임의의 color gamut을 나타낼 수 있다.The CG_type field may indicate the same information as the color_gamut_type described above. That is, the CG_type field may indicate the type of color gamut corresponding to the mastering display, channel, program, content, scene, clip, or frame of the HDR video. For example, a standard color gamut such as BT.709, BT.2020, or DCI-P3 may be represented, or, if necessary, an arbitrary color gamut may be represented through an RGB color primary (XYZ, RGBW, etc.).
CT_type 필드는 전술한 color_temperature_type과 동일한 정보를 나타낼 수 있다. 즉, CT_type 필드는 mastering display, channel, program, content, scene, clip 또는 frame에 해당하는 기준 white에 대한 정보를 나타낼 수 있다. 예를 들어 D65, D50과 같은 표준 광원 색온도가 될 수도 있으며, 필요에 따라서는 white 에 대한 RGB color primary (XYZ, RGBW 등도 가능) 와 같이 색온도에 대한 대표성을 띠는 임의의 값을 나타낼 수도 있다.The CT_type field may indicate the same information as the color_temperature_type described above. That is, the CT_type field may indicate information about the reference white corresponding to the mastering display, channel, program, content, scene, clip, or frame. For example, it may be a standard light source color temperature such as D65 and D50, and if necessary, an arbitrary value representative of the color temperature may be represented, such as an RGB color primary for white (XYZ, RGBW, etc.).
set_number 필드는 전술한 set_number와 동일한 정보를 나타낼 수 있다. 즉, set_number 필드는, 현재 HDR 파라미터들이 가지고 있는 특성값들의 식별 번호를 나타낸다. 예를 들어, sample, clip, scene 등의 단위로 복수의 HDR 특성값들이 전달되는 상황에서 각각의 샘플, clip, scene 등을 구분하는 역할을 할 수 있다. 실시예에 따라서, set_number 필드는 HDR_app_type 필드와 연계해서 common, frame, scene 등 각각에 대해 복수의 HDR 특성값을 정의할 수 있다. 예를 들어 다양한 종류의 휘도(luminance)를 갖는 디스플레이 지원을 목적으로 서로 다른 DR mapping function을 전달하는 경우 상술한 HDR_app_type 필드와 연계하여 common, frame, scene 등 각각에 대해 서로를 구분하는 역할을 할 수 있다.The set_number field may indicate the same information as the above-described set_number. That is, the set_number field represents an identification number of characteristic values that the current HDR parameters have. For example, it may play a role of distinguishing each sample, clip, scene, etc. in a situation where a plurality of HDR characteristic values are transmitted in units of a sample, a clip, a scene, and the like. According to an embodiment, the set_number field may define a plurality of HDR characteristic values for each of common, frame, scene, etc. in association with the HDR_app_type field. For example, in case of delivering different DR mapping functions for the purpose of supporting a display having various kinds of luminance, it may play a role of distinguishing each other for common, frame, scene, etc. in connection with the above-described HDR_app_type field. have.
version_number 필드는 전술한 version_number와 동일한 정보를 나타낼 수 있다. 즉, version_number 필드는 HDR 인포메이션 박스의 버전을 나타낼 수 있다. version_number 필드는 HDR 인포메이션 박스의 버전을 나타낸다. HDR_app_type 필드 및/또는 set_number 필드와 연계하여 현재 HDR 인포메이션 박스에 포함된 HDR 파라미터 중에서 변경된 사항이 있음을 나타낼 수 있다. 예를 들어 동일한 HDR_app_type 필드 및/또는 set_number 필드를 갖는 HDR 인포메이션 박스에 대해서 같은 version number를 갖는 경우 metadata buffer 내의 정보를 영상에 그대로 적용할 수 있지만, version_number 필드가 변한 경우 metadata buffer 내 정보를 업데이트한 후 새로운 정보를 영상에 적용할 수 있다. The version_number field may indicate the same information as the aforementioned version_number. That is, the version_number field may indicate a version of the HDR information box. The version_number field represents a version of the HDR information box. In connection with the HDR_app_type field and / or the set_number field, it may represent that there is a change among the HDR parameters included in the current HDR information box. For example, if the HDR information box with the same HDR_app_type field and / or set_number field has the same version number, the information in the metadata buffer can be applied to the image as it is.However, if the version_number field is changed, the information in the metadata buffer is updated. New information can be applied to the image.
max_mastering_display_luminance 필드는 전술한 HDR 컨피규레이션 박스(HDRConfigurationBox)에 포함된 max_mastering_display_luminance와 동일한 정보를 나타낼 수 있다. 즉, max_mastering_display_luminance 필드는 마스터링 디스플레이의 피크 루미넌트 값을 나타낼 수 있다. 이 값은 100-10000 사이의 정수 값일 수 있다.The max_mastering_display_luminance field may indicate the same information as max_mastering_display_luminance included in the aforementioned HDR configuration box (HDRConfigurationBox). In other words, the max_mastering_display_luminance field may indicate a peak luminance value of the mastering display. This value can be an integer value between 100-10000.
average_frame_luminance_level 필드는 전술한 HDR 컨피규레이션 박스에 포함된 average_frame_luminance_level과 동일한 정보를 나타낼 수 있다. 즉, average_frame_luminance_level 필드는 하나의 비디오 샘플에 대해서는 루미넌스 레벨의 평균값을 나타낼 수 있다. 또한 average_frame_luminance_level 필드는 샘플 그룹 또는 비디오 트랙(스트림)에 대해서는 그곳에 소속된 샘플 각각의 루미넌스 레벨의 평균값들 중 최대값을 나타낼 수 있다.The average_frame_luminance_level field may indicate the same information as average_frame_luminance_level included in the above-described HDR configuration box. That is, the average_frame_luminance_level field may indicate an average value of luminance level for one video sample. In addition, the average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each sample belonging to the sample group or video track (stream).
max_frame_pixel_luminance 필드는 전술한 HDR 컨피규레이션 박스에 포함된 max_frame_pixel_luminance와 동일한 정보를 나타낼 수 있다. 즉, max_frame_pixel_luminance은 하나의 비디오 샘플에 대해서는 픽셀 루미넌스 값 중 최대값을 나타낼 수 있다. 또한, max_frame_pixel_luminance는 샘플 그룹 또는 비디오 트랙(스트림)에 대해서는 그곳에 소속된 샘플 각각의 픽셀 루미넌스의 최대값들 중 가장 큰 값을 나타낼 수 있다.The max_frame_pixel_luminance field may indicate the same information as max_frame_pixel_luminance included in the above-described HDR configuration box. That is, max_frame_pixel_luminance may represent the maximum value of pixel luminance values for one video sample. In addition, max_frame_pixel_luminance may represent the largest value among the maximum values of pixel luminance of each sample belonging to the sample group or video track (stream).
min_mastering_display_luminance 필드는 전술한 HDR 컨피규레이션 박스에 포함된 min_mastering_display_luminance와 동일한 정보를 나타낼 수 있다. 즉, min_mastering_display_luminance는 마스터링 디스플레이의 최소 루미넌스 값을 나타낼 수 있다. 이 값은 0-0.1사이의 분수(fractional number) 값일 수 있다. The min_mastering_display_luminance field may indicate the same information as min_mastering_display_luminance included in the above-described HDR configuration box. That is, min_mastering_display_luminance may indicate the minimum luminance value of the mastering display. This value may be a fractional number between 0 and 0.1.
hdr_info_transition_flag 필드는 전술한 HDR 컨피규레이션 박스에 포함된 hdr_type_transition_flag와 동일한 정보를 나타낼 수 있다. 즉, hdr_info_transition_flag 필드는 HDR 파라미터 등이 변경되어 다른 HDR 파라미터가 적용되는지 여부를 나타내는 플래그일 수 있다.The hdr_info_transition_flag field may indicate the same information as hdr_type_transition_flag included in the above-described HDR configuration box. That is, the hdr_info_transition_flag field may be a flag indicating whether another HDR parameter is applied by changing an HDR parameter or the like.
hdr_sdr_transition_flag 필드는 전술한 HDR 컨피규레이션 박스에 포함된 hdr_sdr_transition_flag와 동일한 정보를 나타낼 수 있다. 즉, hdr_sdr_transition_flag 필드는 HDR에서 SDR로 전환되는지 여부를 나타내는 플래그일 수 있다.The hdr_sdr_transition_flag field may indicate the same information as hdr_sdr_transition_flag included in the above-described HDR configuration box. That is, the hdr_sdr_transition_flag field may be a flag indicating whether to switch from HDR to SDR.
sdr_hdr_transition_flag 필드는 전술한 HDR 컨피규레이션 박스에 포함된 sdr_hdr_transition_flag와 동일한 정보를 나타낼 수 있다. 즉, sdr_hdr_transition_flag 필드는 SDR에서 HDR로 전환되는지 여부를 나타내는 플래그일 수 있다.The sdr_hdr_transition_flag field may indicate the same information as sdr_hdr_transition_flag included in the above-described HDR configuration box. That is, the sdr_hdr_transition_flag field may be a flag indicating whether to switch from SDR to HDR.
sdr_compatibility_flag 필드는 전술한 HDR 컨피규레이션 박스에 포함된 sdr_compatibility와 동일한 정보를 나타낼 수 있다. 즉, sdr_compatibility_flag 필드는 SDR 디코더 내지 SDR 디스플레이와 호환이 가능한지 여부를 나타내는 플래그일 수 있다.The sdr_compatibility_flag field may indicate the same information as sdr_compatibility included in the above-described HDR configuration box. That is, the sdr_compatibility_flag field may be a flag indicating whether the SDR decoder or the SDR display is compatible.
HDR_app_type_transition_flag 필드는 HDR_app_type이 변경된 것을 나타내는 플래그 일 수 있다. 즉, HDR_app_type_transition_flag 필드는 소정의 HDR_app_type이 다른 HDR_app_type으로 변경된 것을 나타낼 수 있다. 일 실시예에 따르면, HDR_app_type_transition_flag 필드가 1인 경우 HDR_app_type이 변경된 것을 지시할 수 있다.The HDR_app_type_transition_flag field may be a flag indicating that the HDR_app_type has been changed. That is, the HDR_app_type_transition_flag field may indicate that the predetermined HDR_app_type is changed to another HDR_app_type. According to an embodiment, when the HDR_app_type_transition_flag field is 1, it may indicate that the HDR_app_type is changed.
WCG_info_transition_flag 필드는 WCG 정보가 변경된 것을 나타내는 플래그일 수 있아. 즉, WCG_info_transition_flag 필드는 소정의 WCG 정보가 다른 WCG 정보로 변경된 것을 나타낼 수 있다. 일 실시예에 따르면, WCG_info_transition_flag 필드가 1인 경우 WCG 정보가 변경된 것을 지시할 수 있다.The WCG_info_transition_flag field may be a flag indicating that WCG information has been changed. That is, the WCG_info_transition_flag field may indicate that predetermined WCG information is changed to other WCG information. According to an embodiment, when the WCG_info_transition_flag field is 1, it may indicate that the WCG information is changed.
한편, 수신기가 STB와 디스플레이 장치(display device)로 구분되어 유/무선 인터페이스로 연결된 경우, SDR, HDR 및/또는 WCG 관련 정보의 중단 또는 컨텐츠 종료 등을 지시하는 정보 또한 디스플레이 장치로 전달될 수 있다. 상술한 transition_flag들은 정보 또는 HDR 적용 type의 전환시점을 알려주는 역할을 할 수도 있다. 한편, 여기서, 유/무선 인터페이스는 HDMI, DisplayPort, MHL 등일 수 있다.Meanwhile, when the receiver is divided into an STB and a display device and connected through a wired / wireless interface, information indicating an interruption of SDR, HDR, and / or WCG related information or content termination may also be transmitted to the display device. . The above-described transition_flags may serve to inform the time of transition of the information or HDR application type. Meanwhile, the wired / wireless interface may be HDMI, DisplayPort, MHL, or the like.
number_of_DR_info 필드는 전술한 DR 정보 개수(number_of_dynamic_range_info)와 동일한 정보를 나타낼 수 있다. 즉, number_of_DR_info 필드는 mastering display, channel, program, content, track, scene, clip 또는 frame에 해당하는 dynamic range 정보 표현 방법의 수를 나타낼 수 있다.The number_of_DR_info field may indicate the same information as the aforementioned number of DR information (number_of_dynamic_range_info). That is, the number_of_DR_info field may indicate the number of dynamic range information expression methods corresponding to a mastering display, channel, program, content, track, scene, clip, or frame.
DR_info_type 필드는 전술한 DR 정보 타입 (dynamic_range_info_type)과 동일한 정보를 나타낼 수 있다. 즉, DR_info_type 필드는 정보는 mastering display, channel, program, content, track, scene, clip 또는 frame에 해당하는 dynamic range 정보 표현 방법을 나타낸다. Dynamic range를 표현하기 위한 방법은 도시된 실시예(H41020)와 같다. Dynamic range는 최대 밝기, 최소 밝기, 평균 밝기, 일정 성분으로 구성된 평균 또는 median 값 중 적어도 하나를 이용하여 나타낼 수 있다. 또한 white의 경우에도 normal white, diffuse white, specular white와 같이 밝은 부분을 특성에 따라 세부적으로 구분할 수 있으며, black의 경우에도 normal black, deep black, pitch dark 와 같이 특성에 따라 종류를 구분하여 표시할 수 있다. The DR_info_type field may indicate the same information as the above-described DR information type (dynamic_range_info_type). That is, the DR_info_type field indicates a method of expressing dynamic range information corresponding to a mastering display, channel, program, content, track, scene, clip, or frame. The method for expressing the dynamic range is the same as the illustrated embodiment H41020. The dynamic range may be expressed using at least one of maximum brightness, minimum brightness, average brightness, average or median values composed of certain components. In addition, in the case of white, bright parts such as normal white, diffuse white, and specular white can be classified in detail according to their characteristics, and in the case of black, they can be classified according to their characteristics such as normal black, deep black, and pitch dark. Can be.
도면에 도시된 예시와 같이 방송 송신 장치는 specular white, pitch dark 와 같은 정보를 제공함으로써 컨텐츠 내의 명부, 암부에 대한 밝기를 세분화하여 표현할 수 있다. 이와 같은 정보들은 수신기 디스플레이 환경에 대한 판단 기준으로 이용하거나, 디스플레이 환경에 따른 mapping을 위한 정보로 활용될 수 있다. DR_info_type 필드는 적용 범위(HDR_app_type)에 따라 구별되는 의미를 가질 수 있다. 예를 들어, HDR_app_type이 frame인 경우, average level은 단일 프레임 내의 밝기 평균을 의미할 수 있지만, HDR_app_type이 content인 경우, average level은 컨텐츠 내 프레임 average의 최대값, 최소값 또는 중간값 등을 의미할 수 있다. 실시예에 따라서, 최대값, 최소값 또는 중간값 등을 구분하기 위한 요소가 추가적으로 정의될 수도 있다.As shown in the drawing, the broadcast transmission device may express information such as specular white and pitch dark to subdivide the brightness of the directory and the dark part in the content. Such information may be used as a criterion for determining a receiver display environment or may be used as information for mapping according to the display environment. The DR_info_type field may have a meaning distinguished according to an application range HDR_app_type. For example, if the HDR_app_type is a frame, the average level may mean the brightness average in a single frame, but when the HDR_app_type is content, the average level may mean the maximum, minimum or median of the frame average in the content. have. According to an embodiment, elements for distinguishing the maximum value, the minimum value, or the median value may be further defined.
DR_info_value 필드는 전술한 dynamic_range_info_value와 동일한 정보를 나타낼 수 있다. 즉, DR_info_value 필드에 따라 해당하는 값을 전달할 수 있다. 아래와 같이, DR_info_value 필드에 따라 content, mastering display, scene DR 각각을 세밀하게 표현할 수 있다. 실시예에 따라서, DR_info_value 필드는 container video format과 실제 content의 특성을 구분하여 기술하기 위해 사용될 수도 있다.The DR_info_value field may indicate the same information as the above-described dynamic_range_info_value. That is, a corresponding value may be delivered according to the DR_info_value field. As shown below, each of content, mastering display, and scene DR can be expressed in detail according to the DR_info_value field. According to an embodiment, the DR_info_value field may be used to separately describe the characteristics of the container video format and the actual content.
Ex) content : peak_luminance_level = 2000(nit), minimum_luminance_level = 0.1(nit) Ex) content: peak_luminance_level = 2000 (nit), minimum_luminance_level = 0.1 (nit)
mastering display : peak_luminance_level = 4000(nit), minimum_luminance_level = 0.01(nit) mastering display: peak_luminance_level = 4000 (nit), minimum_luminance_level = 0.01 (nit)
scene : white_level_A = 800(nit), white_level_B = 1500(nit), black_level_A = 1(nit), black_level_B = 0.1(nit)scene: white_level_A = 800 (nit), white_level_B = 1500 (nit), black_level_A = 1 (nit), black_level_B = 0.1 (nit)
DR_mapping_info_present_type 필드는 DR 플래그(dynamic_range_mapping_info_present_flag)와 동일한 정보를 나타낼 수 있다. 즉, DR_mapping_info_present_type 필드는 박스 내에 dynamic range mapping 관련 정보가 포함되어 있음을 나타낼 수 있다. 일 실시예에 따르면, DR_mapping_info_present_type 필드가 1인 경우 mastering display, channel, program, content, track, scene, clip 또는 frame 등에 dynamic range mapping 정보가 포함되어 있음을 나타낼 수 있다. DR_mapping_info_present_type 필드가 박스 내에 dynamic range mapping 정보가 포함되어 있음을 지시할 경우, 박스는 DR_mapping_info_type 필드를 포함할 수 있다.The DR_mapping_info_present_type field may indicate the same information as the DR flag (dynamic_range_mapping_info_present_flag). That is, the DR_mapping_info_present_type field may represent that dynamic range mapping related information is included in a box. According to an embodiment, when the DR_mapping_info_present_type field is 1, it may represent that dynamic range mapping information is included in a mastering display, channel, program, content, track, scene, clip, or frame. When the DR_mapping_info_present_type field indicates that dynamic range mapping information is included in a box, the box may include a DR_mapping_info_type field.
DR_mapping_info_type 필드는 전술한 DR 매핑 타입 (dynamic_range_mapping_info_type)과 동일한 정보를 나타낼 수 있다. 즉, DR_mapping_info_type 필드는 mastering display, channel, program, content, track, scene, clip 또는 frame에 해당하는 dynamic range mapping 정보의 종류를 나타낸다. 예를 들어, DR_mapping_info_type 필드는 HEVC에 포함되어있는 Knee function information SEI message 혹은 Tone mapping information SEI message 를 지칭함으로써 다른 SEI message이 정보를 참조할 수 있다. 또한 DR_mapping_info_type 필드는 미리 약속된 HDR 인포메이션 박스 내에 직접 내용을 기술할 수도 있다. dynamic_range_mapping_info_type 필드에 관한 구체적인 실시예(H41030)는 도시된 바와 같다.The DR_mapping_info_type field may indicate the same information as the above-described DR mapping type (dynamic_range_mapping_info_type). That is, the DR_mapping_info_type field represents the type of dynamic range mapping information corresponding to the mastering display, channel, program, content, track, scene, clip, or frame. For example, the DR_mapping_info_type field refers to a Knee function information SEI message or a Tone mapping information SEI message included in HEVC, so that other SEI messages may refer to the information. In addition, the DR_mapping_info_type field may describe the content directly in a predetermined HDR information box. A specific embodiment H41030 regarding the dynamic_range_mapping_info_type field is as shown.
CG_mapping_info_present_flag 필드는 전술한 CG 플래그(color_gamut_mapping_info_present_flag)와 동일한 정보를 나타낼 수 있다. 즉, CG_mapping_info_present_flag 필드는 박스 내에 color gamut mapping 관련 정보가 포함되어 있음을 나타낼 수 있다. 일 실시예에 따르면, CG_mapping_info_present_flag 필드가 1인 경우, mastering display, channel, program, content, track, scene, clip 또는 frame 등에 color gamut mapping 관련 정보가 포함되어 있음을 나타낼 수 있다. CG_mapping_info_present_flag 필드가 박스 내에 color gamut mapping 관련 정보가 포함되어 있음을 지시할 경우, 박스는 CG_mapping_info_type 필드를 포함할 수 있다.The CG_mapping_info_present_flag field may indicate the same information as the above-described CG flag color_gamut_mapping_info_present_flag. That is, the CG_mapping_info_present_flag field may represent that color gamut mapping related information is included in the box. According to an embodiment, when the CG_mapping_info_present_flag field is 1, it may represent that color gamut mapping related information is included in a mastering display, channel, program, content, track, scene, clip, or frame. When the CG_mapping_info_present_flag field indicates that color gamut mapping related information is included in a box, the box may include a CG_mapping_info_type field.
CG_mapping_info_type 필드는 전술한 CG 매핑 타입 (color_gamut_mapping_info_type)과 동일한 정보를 나타낼 수 있다. 즉, CG_mapping_info_type 필드는 mastering display, channel, program, content, track, scene, clip 또는 frame에 해당하는 color gamut mapping 정보의 종류를 나타낸다. 예를 들어, CG_mapping_info_type 필드는 HEVC에 포함되어있는 Colour remapping information SEI message 에 정의된 정보를 인용할 수 있다. 또한, CG_mapping_info_type 필드는 미리 약속된 HDR 인포메이션 박스 내에 직접 내용을 기술할 수도 있다. color_gamut_mapping_info_type 필드에 관한 구체적인 실시예(H41040)는 도시된 바와 같다.The CG_mapping_info_type field may indicate the same information as the above-described CG mapping type (color_gamut_mapping_info_type). That is, the CG_mapping_info_type field indicates the type of color gamut mapping information corresponding to the mastering display, channel, program, content, track, scene, clip, or frame. For example, the CG_mapping_info_type field may cite information defined in the color remapping information SEI message included in HEVC. In addition, the CG_mapping_info_type field may describe the content directly in the pre-defined HDR information box. A specific embodiment H41040 regarding the color_gamut_mapping_info_type field is as shown.
VC_info_present_flag 필드는 전술한 시청 환경 플래그 (viewing_condition_info_present_flag)와 동일한 정보를 나타낼 수 있다. 즉, VC_info_present_flag 필드는 박스 내에 viewing condition 관련 정보가 포함되어 있음을 나타낼 수 있다. 일 실시예에 따르면, VC_info_present_flag 필드가 1인 경우, mastering display, channel, program, content, track, scene, clip 또는 frame 등에 viewing condition 관련 정보가 포함되어 있음을 나타낼 수 있다. VC_info_present_flag 필드가 박스 내에 viewing condition 관련 정보가 포함되어 있음을 지시할 경우, 박스는 VC_info_type 필드를 포함할 수 있다.The VC_info_present_flag field may indicate the same information as the above-described viewing environment flag (viewing_condition_info_present_flag). That is, the VC_info_present_flag field may represent that the viewing condition related information is included in the box. According to an embodiment, when the VC_info_present_flag field is 1, it may represent that viewing condition related information is included in a mastering display, channel, program, content, track, scene, clip, or frame. When the VC_info_present_flag field indicates that the viewing condition related information is included in the box, the box may include a VC_info_type field.
VC_info_type 필드는 전술한 시청 환경 타입 (viewing_condition_info_type)과 동일한 정보를 나타낼 수 있다. 즉, VC_info_type 필드는 mastering display, channel, program, content, track, scene, clip 또는 frame에 해당하는 viewing condition 정보의 종류를 나타낸다. 예를 들어 VC_info_type 필드는 별도의 SEI message로 정의된 viewing_condition에 정의된 정보를 인용할 수도 있고, 미리 약속된 HDR 인포메이션 박스 내에 직접 내용을 기술할 수도 있다.The VC_info_type field may indicate the same information as the aforementioned viewing environment type (viewing_condition_info_type). That is, the VC_info_type field indicates the type of viewing condition information corresponding to the mastering display, channel, program, content, track, scene, clip, or frame. For example, the VC_info_type field may refer to information defined in viewing_condition defined as a separate SEI message, or may describe the content directly in a predetermined HDR information box.
상술한 DR_mapping_info_type, CG_mapping_info_type, VC_info_type에 대해 외부의 SEI 메시지를 참고하는 경우, 위와 달리 SEI message의 payloadType을 직접 시그널링 해주는 방법을 사용할 수 도 있다. 예를 들어 Knee function information SEI message를 참고하는 경우 DR_mapping_info_type = 0, payloadType = 141을 통해 보다 구체적으로 알려주는 방법을 사용할 수도 있다.When referring to the external SEI message for the aforementioned DR_mapping_info_type, CG_mapping_info_type, and VC_info_type, unlike the above, a method of directly signaling the payloadType of the SEI message may be used. For example, when referring to the Knee function information SEI message, a method of more specifically notifying through DR_mapping_info_type = 0 and payloadType = 141 may be used.
도 42 는 본 발명의 일 실시예에 따른 화질 개선 정보를 stsd 박스 내에 정의하는 방안을 도시한 도면이다.42 is a diagram illustrating a method of defining image quality improvement information in a stsd box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 화질 개선 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 trak 박스 내의 sample table 박스의 하위박스인 sample description 박스 (stsd 박스) 화질 개선 관련 정보(파라미터)들이 추가될 수 있다. 추가된 화질 개선 정보들은 도면에 음영표시 되었다.The image quality improvement information may be included in the structure of the above-described media file itself to store / transmit. In the present exemplary embodiment, information (parameters) related to image quality improvement may be added to a sample description box (stsd box), which is a lower box of the sample table box in the trak box. Added picture quality improvement information is shaded in the drawing.
도시된 실시예에서, hdr_flag 필드는 stsd 박스가 기술하는 비디오 트랙 내의 비디오 샘플에 HDR 비디오 데이터가 포함되어 있는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, hdr_flag 필드의 값이 1인 경우, 비디오 샘플 내에 HDR 비디오 데이터가 포함되었음을 지시할 수 있다. 또한, hdr_flag 필드의 값이 1인 경우, stsd 박스 내에 HDR 인포메이션 박스가 포함될 수 있다. In the illustrated embodiment, the hdr_flag field may be a flag indicating whether HDR video data is included in the video sample in the video track described by the stsd box. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in a video sample. In addition, when the value of the hdr_flag field is 1, the HDR information box may be included in the stsd box.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. 즉, hdr_info 박스는 비디오 샘플 내에 포함된 HDR 비디오 데이터에 대한 화질 개선과 관련된 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 어트리뷰트들은 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다. 즉, hdr_info 박스는 sample_count 필드, HDR_app_type 필드, TF_type 필드, CG_type 필드, CT_type 필드, set_num 필드, version_num 필드, max_mastering_display_luminance 필드, min_mastering_display_luminance 필드, average_frame_luminance_level 필드, max_frame_pixel_luminance 필드, hdr_info_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드, sdr_compatibility_flag 필드, HDR_app_type_transition_flag 필드, WCG_info_transition_flag 필드, number_of_DR_info 필드, DR_mapping_info_present_flag 필드, CG_mapping_info_present_flag 필드 및/또는 VC_info_present_flag 필드를 포함할 수 있다. The hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box. That is, the hdr_info field includes the sample_count field, the HDR_app_type field, the TF_type field, the CG_type field, the CT_type field, the set_num field, the version_num field, the max_mastering_display_luminance field, the min_mastering_display_luminance field, the average_frame_luminance_level field, the hd__g_dr_dr_dr_dr_dr_dr_flag_transition_flaition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_fla It may include an HDR_app_type_transition_flag field, a WCG_info_transition_flag field, a number_of_DR_info field, a DR_mapping_info_present_flag field, a CG_mapping_info_present_flag field, and / or a VC_info_present_flag field.
도 43 은 본 발명의 일 실시예에 따른 화질 개선 정보를 tkhd 박스 내에 정의하는 방안을 도시한 도면이다. 43 is a diagram illustrating a method of defining image quality improvement information in a tkhd box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 화질 개선 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 moov 박스 내의 tkhd 박스에 화질 개선 정보(파라미터)들이 추가될 수 있다. 추가된 화질 개선 정보들은 도면에 음영표시 되었다.The image quality improvement information may be included in the structure of the above-described media file itself to store / transmit. In the present embodiment, image quality improvement information (parameters) may be added to the tkhd box in the above-described moov box. Added picture quality improvement information is shaded in the drawing.
도시된 실시예에서, hdr_flag 필드는 tkhd 박스가 기술하는 비디오 트랙 내에 HDR 비디오 데이터가 포함되어 있는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, hdr_flag 필드의 값이 1인 경우, 비디오 트랙 내에 HDR 비디오 데이터가 포함되었음을 지시할 수 있다. 또한, hdr_flag 필드의 값이 1인 경우, tkhd 박스 내에 HDR 인포메이션 박스가 포함될 수 있다.In the illustrated embodiment, the hdr_flag field may be a flag indicating whether HDR video data is included in the video track described by the tkhd box. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in the video track. In addition, when the value of the hdr_flag field is 1, the HDR information box may be included in the tkhd box.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. 즉, hdr_info 박스는 비디오 샘플 내에 포함된 HDR 비디오 데이터에 대한 화질 개선과 관련된 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 어트리뷰트들은 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다. 즉, hdr_info 박스는 sample_count 필드, HDR_app_type 필드, TF_type 필드, CG_type 필드, CT_type 필드, set_num 필드, version_num 필드, max_mastering_display_luminance 필드, min_mastering_display_luminance 필드, average_frame_luminance_level 필드, max_frame_pixel_luminance 필드, hdr_info_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드, sdr_compatibility_flag 필드, HDR_app_type_transition_flag 필드, WCG_info_transition_flag 필드, number_of_DR_info 필드, DR_mapping_info_present_flag 필드, CG_mapping_info_present_flag 필드 및/또는 VC_info_present_flag 필드를 포함할 수 있다. The hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box. That is, the hdr_info field includes the sample_count field, the HDR_app_type field, the TF_type field, the CG_type field, the CT_type field, the set_num field, the version_num field, the max_mastering_display_luminance field, the min_mastering_display_luminance field, the average_frame_luminance_level field, the hd__g_dr_dr_dr_dr_dr_dr_flag_transition_flaition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_fla It may include an HDR_app_type_transition_flag field, a WCG_info_transition_flag field, a number_of_DR_info field, a DR_mapping_info_present_flag field, a CG_mapping_info_present_flag field, and / or a VC_info_present_flag field.
도 44 는 본 발명의 일 실시예에 따른 화질 개선 정보를 vmhd 박스 내에 정의하는 방안을 도시한 도면이다.44 is a diagram illustrating a method of defining image quality improvement information in a vmhd box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 화질 개선 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 vmhd 박스에 화질 개선 정보(파라미터)들이 추가될 수 있다. 추가된 화질 개선 정보들은 도면에 음영표시 되었다.The image quality improvement information may be included in the structure of the above-described media file itself to store / transmit. In the present embodiment, image quality improvement information (parameters) may be added to the aforementioned vmhd box. Added picture quality improvement information is shaded in the drawing.
여기서 vmhd 박스는 전술한 trak 박스의 하위 박스로서, 해당 비디오 트랙에 대한 일반적인(general) 프리젠테이션 관련 정보를 제공할 수 있다.Here, the vmhd box is a lower box of the above-described trak box and may provide general presentation related information about the corresponding video track.
도시된 실시예에서, hdr_flag 필드는 tkhd 박스가 기술하는 비디오 트랙 내에 HDR 비디오 데이터가 포함되어 있는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, hdr_flag 필드의 값이 1인 경우, 비디오 트랙 내에 HDR 비디오 데이터가 포함되었음을 지시할 수 있다. 또한, hdr_flag 필드의 값이 1인 경우, tkhd 박스 내에 HDR 인포메이션 박스가 포함될 수 있다.In the illustrated embodiment, the hdr_flag field may be a flag indicating whether HDR video data is included in the video track described by the tkhd box. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in the video track. In addition, when the value of the hdr_flag field is 1, the HDR information box may be included in the tkhd box.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. 즉, hdr_info 박스는 비디오 샘플 내에 포함된 HDR 비디오 데이터에 대한 화질 개선과 관련된 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 어트리뷰트들은 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다. 즉, hdr_info 박스는 sample_count 필드, HDR_app_type 필드, TF_type 필드, CG_type 필드, CT_type 필드, set_num 필드, version_num 필드, max_mastering_display_luminance 필드, min_mastering_display_luminance 필드, average_frame_luminance_level 필드, max_frame_pixel_luminance 필드, hdr_info_transition_flag 필드, hdr_sdr_transition_flag 필드, sdr_hdr_transition_flag 필드, sdr_compatibility_flag 필드, HDR_app_type_transition_flag 필드, WCG_info_transition_flag 필드, number_of_DR_info 필드, DR_mapping_info_present_flag 필드, CG_mapping_info_present_flag 필드 및/또는 VC_info_present_flag 필드를 포함할 수 있다.The hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box. That is, the hdr_info field includes the sample_count field, the HDR_app_type field, the TF_type field, the CG_type field, the CT_type field, the set_num field, the version_num field, the max_mastering_display_luminance field, the min_mastering_display_luminance field, the average_frame_luminance_level field, the hd__g_dr_dr_dr_dr_dr_dr_flag_transition_flaition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_transition_fla It may include an HDR_app_type_transition_flag field, a WCG_info_transition_flag field, a number_of_DR_info field, a DR_mapping_info_present_flag field, a CG_mapping_info_present_flag field, and / or a VC_info_present_flag field.
실시예에 따라, tkhd 박스와 vmhd 박스에 화질 개선과 관련된 세부 파라미터가 동시에 포함될 수도 있다. 이 경우 각각의 박스에 포함되는 HDR 인포메이션 박스 구조의 실시예들은 서로 조합될 수 있다. tkhd 박스와 vmhd 박스에 화질 개선 정보가 동시에 포함되는 경우, tkhd 박스에 정의된 HDR 인포메이션 박스의 파라미터들의 값은, vmhd 박스에 정의된 HDR 인포메이션 박스의 파라미터들의 값으로 오버라이드(override) 될 수 있다. 즉, 양자에 정의된 화질 개선 정보들의 값이 다른 경우, vmhd 박스 내의 값이 사용될 수 있다. vmhd 박스 내에 포함되어 있지 않은 화질 개선 정보에 대해서는, tkhd 박스 내의 화질 개선 정보가 사용될 수 있다.According to an embodiment, detailed parameters related to image quality improvement may be simultaneously included in the tkhd box and the vmhd box. In this case, embodiments of the HDR information box structure included in each box may be combined with each other. When the tkhd box and the vmhd box include image quality improvement information at the same time, the values of the parameters of the HDR information box defined in the tkhd box may be overridden to the values of the parameters of the HDR information box defined in the vmhd box. That is, when the values of the quality improvement information defined in both are different, the value in the vmhd box may be used. For image quality improvement information not included in the vmhd box, image quality improvement information in the tkhd box may be used.
도 45 는 본 발명의 일 실시예에 따른 화질 개선 정보를 trex 박스 내에 정의하는 방안을 도시한 도면이다.45 is a diagram illustrating a method of defining image quality improvement information in a trex box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 화질 개선 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 mvex 박스 내의 trex 박스에 화질 개선 정보(파라미터)들이 추가될 수 있다. 추가된 화질 개선 정보들은 도면에 음영표시 되었다.The image quality improvement information may be included in the structure of the above-described media file itself to store / transmit. In the present embodiment, image quality improvement information (parameters) may be added to the trex box in the aforementioned mvex box. Added picture quality improvement information is shaded in the drawing.
여기서 trex 박스(트랙 익스탠드 박스) 는 전술한 mvex 박스의 하위 박스로서, 각각의 무비 프래그먼트에 의해 사용되는 디폴트 값들을 셋업할 수 있다. 이 박스는 디폴트 값을 제공함으로써, traf 박스 내의 공간과 복잡성을 줄일 수 있다. Here, the trex box (track extend box) is a lower box of the above-described mvex box, and may set default values used by each movie fragment. By providing a default value for this box, space and complexity in the traf box can be reduced.
trex 박스는 default_hdr_flag 필드 및/또는 default_sample_hdr_flag 필드를 포함할 수 있다. default_hdr_flag 필드의 값에 따라 HDR 인포메이션 박스인 default_hdr_info 박스가 더 포함될 수 있다. 또한 default_sample_hdr_flag 필드의 값에 따라 HDR 인포메이션 박스인 default_sample_hdr_info 박스가 더 포함될 수도 있다. The trex box may include a default_hdr_flag field and / or a default_sample_hdr_flag field. According to the value of the default_hdr_flag field, a default_hdr_info box which is an HDR information box may be further included. In addition, depending on the value of the default_sample_hdr_flag field, a default_sample_hdr_info box which is an HDR information box may be further included.
default_hdr_flag 필드는 해당 프래그먼트에 포함된 비디오 트랙 프래그먼트에 HDR 비디오 데이터가 포함되어 있는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, default_hdr_flag 필드의 값이 1 인 경우, 해당 프래그먼트에 HDR 비디오 데이터가 디폴트로 포함되어 있음을 나타낼 수 있다. default_hdr_flag 필드의 값이 1 인 경우, HDR 인포메이션 박스인 default_hdr_info 박스가 더 포함될 수 있다.The default_hdr_flag field may be a flag indicating whether HDR video data is included in a video track fragment included in the corresponding fragment. According to an embodiment, when the value of the default_hdr_flag field is 1, it may represent that the fragment includes HDR video data by default. When the value of the default_hdr_flag field is 1, a default_hdr_info box which is an HDR information box may be further included.
default_hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. 즉, hdr_info 박스는 비디오 샘플 내에 포함된 HDR 비디오 데이터에 대한 화질 개선과 관련된 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 어트리뷰트들은 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다 즉, hdr_info 박스는 전술한 HDR 인포메이션 박스의 필드들을 포함할 수 있다. The default_hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box, ie, the hdr_info box may include the fields of the aforementioned HDR information box.
본 박스의 필드들 중 average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드를 제외한 다른 필드들은, 전술한 tkhd 박스에 포함되는 HDR 인포메이션 박스 내의 동명의 필드들과 같은 역할을 수행할 수 있다. average_frame_luminance_level 필드는 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 루미넌스 레벨의 평균값들 중, 최대값을 나타낼 수 있다. max_frame_pixel_luminance 필드 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 픽셀 루미넌스의 최대값들 중, 가장 큰 값을 나타낼 수 있다.Other fields except the average_frame_luminance_level field and / or max_frame_pixel_luminance field among the fields of the box may play the same role as fields of the same name in the HDR information box included in the tkhd box described above. The average_frame_luminance_level field may indicate a maximum value among average values of luminance levels of each video sample belonging to a track fragment in the corresponding fragment. max_frame_pixel_luminance field The maximum_frame_pixel_luminance field may indicate the largest value among the maximum values of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
default_sample_hdr_flag 필드는 해당 프래그먼트에 포함된 비디오 트랙 프래그먼트에 HDR 비디오 샘플들이 포함되어 있는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, default_sample_hdr_flag 필드의 값이 1 인 경우, 해당 비디오 트랙 프래그먼트에 HDR 비디오 샘플들이 디폴트로 포함되어 있음이 지시될 수 있다. default_sample_hdr_flag 필드의 값이 1 인 경우, HDR 인포메이션 박스인 default_sample_hdr_info 박스가 더 포함될 수 있다.The default_sample_hdr_flag field may be a flag indicating whether HDR video samples are included in a video track fragment included in the corresponding fragment. According to an embodiment, when the value of the default_sample_hdr_flag field is 1, it may be indicated that HDR video samples are included by default in the corresponding video track fragment. When the value of the default_sample_hdr_flag field is 1, a default_sample_hdr_info box which is an HDR information box may be further included.
default_sample_hdr_config 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. 즉, default_sample_hdr_config 박스는 해당 비디오 트랙 프래그먼트에 포함되는 비디오 샘플들 각각에 적용될 수 있는 HDR 관련 세부 파라미터들을 포함할 수 있다. default_sample_hdr_config 박스에 포함된 각 어트리뷰트들은 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다 즉, default_sample_hdr_config 박스는 전술한 HDR 인포메이션 박스의 필드들을 포함할 수 있다. The default_sample_hdr_config box may represent an instance of the HDR information box. That is, the default_sample_hdr_config box may include HDR-related detailed parameters that may be applied to each of the video samples included in the corresponding video track fragment. Each attribute included in the default_sample_hdr_config box may be the same as that included in the above-described HDR information box. That is, the default_sample_hdr_config box may include the fields of the aforementioned HDR information box.
본 박스의 필드들 중 average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드를 제외한 다른 필드들은, 전술한 tkhd 박스에 포함되는 HDR 인포메이션 박스 내의 동명의 필드들과 같은 역할을 수행할 수 있다. average_frame_luminance_level 필드는 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 루미넌스 레벨의 평균값을 나타낼 수 있다. max_frame_pixel_luminance 필드 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 픽셀 루미넌스의 최대값을 나타낼 수 있다.Other fields except the average_frame_luminance_level field and / or max_frame_pixel_luminance field among the fields of the box may play the same role as fields of the same name in the HDR information box included in the tkhd box described above. The average_frame_luminance_level field may indicate an average value of luminance levels of each video sample belonging to a track fragment in a corresponding fragment. max_frame_pixel_luminance field This may indicate the maximum value of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment.
도 46 은 본 발명의 일 실시예에 따른 화질 개선 정보를 tfhd 박스 내에 정의하는 방안을 도시한 도면이다.46 is a diagram illustrating a method of defining image quality improvement information in a tfhd box according to an embodiment of the present invention.
전술한 미디어 파일의 구조 자체에 화질 개선 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 moof 박스 내의 tfhd 박스에 화질 개선 정보(파라미터)들이 추가될 수 있다. 추가된 화질 개선 정보들은 도면에 음영표시 되었다.The image quality improvement information may be included in the structure of the above-described media file itself to store / transmit. In this embodiment, image quality improvement information (parameters) may be added to the tfhd box in the above-described moof box. Added picture quality improvement information is shaded in the drawing.
도시된 실시예(H46010) 에서, hdr_flag 필드는 tfhd 박스가 기술하는 해당 비디오 트랙 프래그먼트 내에 HDR 비디오 데이터가 포함되어 있는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, hdr_flag 필드의 값이 1 인 경우, 해당 비디오 트랙 프래그먼트 내에 HDR 비디오 데이터가 포함되어 있음을 지시할 수 있다. Hdr_flag 필드의 값이 1 인 경우, HDR 인포메이션 박스인 hdr_info 박스가 더 포함될 수 있다.In the illustrated embodiment H46010, the hdr_flag field may be a flag indicating whether HDR video data is included in a corresponding video track fragment described by the tfhd box. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in the corresponding video track fragment. When the value of the Hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. 즉, hdr_info 박스는 비디오 샘플 내에 포함된 HDR 비디오 데이터에 대한 화질 개선과 관련된 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 어트리뷰트들은 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다. The hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video sample. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box.
도시된 실시예(H46020)에서, tfhd 박스는 tr_flags 값에 따라 화질 개선 정보를 더 포함할 수 있다. tf_flags가 0x100000을 포함하는 경우 비디오 트랙 프래그먼트에 포함된 비디오 샘플과 연관된 화질 개선 파라미터의 디폴트 값이 존재함을 나타낼 수 있다. 이 경우, 도시된 실시예와 같이 비디오 샘플에 적용될 디폴트 화질 개선 파라미터가 저장 및 시그널링 될 수 있다. 한편, 본 실시예에서는 tf_flags가 0x100000을 경우로 특정하고 있으나, 실시예에 따라서 tf_flag의 값은 다른 값으로 설정될 수도 있다.In the illustrated embodiment H46020, the tfhd box may further include image quality improvement information according to the tr_flags value. When tf_flags includes 0x100000, this may indicate that a default value of the quality improvement parameter associated with the video sample included in the video track fragment exists. In this case, as shown in the illustrated embodiment, a default quality improvement parameter to be applied to the video sample may be stored and signaled. In the present embodiment, tf_flags is specified as 0x100000, but the value of tf_flag may be set to another value according to the embodiment.
도시된 실시예(H46030)에서, default_sample_hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. 즉, default_sample_hdr_info 박스는 해당 비디오 트랙 프래그먼트에 포함되는 비디오 샘플들 각각에 적용될 수 있는 디폴트 화질 개선 파라미터들을 포함할 수 있다. default_sample_hdr_info 박스에 포함된 각 어트리뷰트들은 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다 즉, default_sample_hdr_info 박스는 전술한 HDR 인포메이션 박스의 필드들을 포함할 수 있다. In the illustrated embodiment H46030, the default_sample_hdr_info box may represent an instance of the HDR information box. That is, the default_sample_hdr_info box may include default picture quality improvement parameters that can be applied to each of the video samples included in the corresponding video track fragment. Each attribute included in the default_sample_hdr_info box may be the same as that included in the above-described HDR information box. That is, the default_sample_hdr_info box may include the fields of the above-described HDR information box.
본 박스의 필드들 중 average_frame_luminance_level 필드 및/또는 max_frame_pixel_luminance 필드를 제외한 다른 필드들은, 전술한 tkhd 박스에 포함되는 HDR 인포메이션 박스 내의 동명의 필드들과 같은 역할을 수행할 수 있다. average_frame_luminance_level 필드는 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 루미넌스 레벨의 평균값을 나타낼 수 있다. max_frame_pixel_luminance 필드 해당 프래그먼트 내의 트랙 프래그먼트에 소속된 비디오 샘플 각각의 픽셀 루미넌스의 최대값을 나타낼 수 있다. 단 이 경우, 이 필드들은 비디오 트랙 전체가 아닌, 해당 비디오 트랙 프래그먼트에 대하여 기술할 수 있다. Other fields except the average_frame_luminance_level field and / or max_frame_pixel_luminance field among the fields of the box may play the same role as fields of the same name in the HDR information box included in the tkhd box described above. The average_frame_luminance_level field may indicate an average value of luminance levels of each video sample belonging to a track fragment in a corresponding fragment. max_frame_pixel_luminance field This may indicate the maximum value of pixel luminance of each video sample belonging to the track fragment in the corresponding fragment. In this case, however, these fields may describe the video track fragment, not the entire video track.
도 47은 본 발명의 일 실시예에 따른 화질 개선 정보를 trun 박스 내에 정의하는 방안을 도시한 도면이다.FIG. 47 is a diagram illustrating a method of defining image quality improvement information in a trun box according to an embodiment of the present invention. FIG.
전술한 미디어 파일의 구조 자체에 화질 개선 정보를 포함시켜 저장/전송할 수 있다. 본 실시예에서는 전술한 traf 박스 내의 trun 박스에 화질 개선 정보(파라미터)들이 추가될 수 있다. 추가된 화질 개선 정보들은 도면에 음영표시 되었다.The image quality improvement information may be included in the structure of the above-described media file itself to store / transmit. In the present embodiment, image quality improvement information (parameters) may be added to the trun box in the traf box described above. Added picture quality improvement information is shaded in the drawing.
도시된 실시예(H47010) 에서, hdr_flag 필드는 해당 비디오 트랙 프래그먼트 내에 HDR 비디오 데이터가 포함되어 있는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, hdr_flag 필드의 값이 1 인 경우, 해당 비디오 트랙 프래그먼트 내에 HDR 비디오 데이터가 포함되어 있음을 지시할 수 있다. Hdr_flag 필드의 값이 1 인 경우, HDR 인포메이션 박스인 hdr_info 박스가 더 포함될 수 있다.In the illustrated embodiment H47010, the hdr_flag field may be a flag indicating whether HDR video data is included in a corresponding video track fragment. According to an embodiment, when the value of the hdr_flag field is 1, it may indicate that HDR video data is included in the corresponding video track fragment. When the value of the Hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. 즉, hdr_info 박스는 비디오 트랙 내에 포함된 HDR 비디오 데이터에 대한 화질 개선과 관련된 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 어트리뷰트들은 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다. The hdr_info box may represent an instance of the HDR information box. That is, the hdr_info box may include detailed parameters related to image quality improvement for the HDR video data included in the video track. Each attribute included in the hdr_info box may be the same as that included in the aforementioned HDR information box.
실시예에 따라, tfhd 박스와 trun 박스에 화질 개선 정보가 동시에 포함될 수도 있다. 이 경우 각각의 박스에 포함되는 화질 개선 정보 구조의 실시예들은 서로 조합될 수 있다. tfhd 박스와 trun 박스에 화질 개선 정보가 동시에 포함되는 경우, tfhd 박스에 정의된 화질 개선 정보들의 값은, trun 박스에 정의된 화질 개선 정보들의 값으로 오버라이드(override)될 수 있다. trun 박스 내 화질 개선 정보가 포함되어 있지 않은 경우, tfhd 박스 내의 화질 개선 정보가 사용될 수 있다.In some embodiments, the image quality improvement information may be simultaneously included in the tfhd box and the trun box. In this case, embodiments of the image quality improvement information structure included in each box may be combined with each other. When the image quality improvement information is included in the tfhd box and the trun box at the same time, the value of the image quality improvement information defined in the tfhd box may be overridden to the value of the image quality improvement information defined in the trun box. If the image quality improvement information in the trun box is not included, the image quality improvement information in the tfhd box may be used.
도시된 실시예(H47020)에서, trun 박스는 tr_flags 값에 따라 화질 개선 정보를 더 포함할 수 있다. tf_flags가 0x002000을 포함하는 경우, 비디오 트랙 프래그먼트에 포함된 비디오 샘플들에 공통적으로 적용될 수 있는 화질 개선 파라미터에 대한 정보가 존재하는지를 나타낼 수 있다. tf_flags가 0x001000을 포함하는 경우, trun 박스에는 비디오 트랙 프래그먼트 내 비디오 샘플에 각각 적용가능한 화질 개선 파라미터에 대한 정보가 존재하는지를 나타낼 수 있다. 한편, 본 실시예에서는 tf_flags가 0x002000인 경우, tf_flags가 0x001000인 경우를 특정하고 있으나, 실시예에 따라서 tf_flags의 값은 다른 값으로 설정될 수도 있다.In the illustrated embodiment H47020, the trun box may further include image quality improvement information according to the tr_flags value. When tf_flags includes 0x002000, it may indicate whether there is information on an image quality improvement parameter that can be commonly applied to video samples included in the video track fragment. When tf_flags includes 0x001000, the trun box may indicate whether information about a quality improvement parameter applicable to each video sample in the video track fragment exists. In the present embodiment, when tf_flags is 0x002000 and tf_flags is 0x001000, the case where tf_flags is 0x001000 is specified. However, depending on the embodiment, the value of tf_flags may be set to a different value.
도시된 실시예(H47030)에서, tf_flags 값이 0x002000 값을 포함하는 경우, trun 박스에는 HDR 인포메이션 박스인 hdr_info 박스가 포함될 수 있다. hdr_info 박스는 비디오 트랙 프래그먼트에 포함된 비디오 샘플들에 공통적으로 적용될 수 있는 화질 개선 파라미터에 대한 정보를 포함할 수 있다. hdr_info 박스에 포함된 파라미터들의 어트리뷰트는 전술한 HDR 인포메이션 박스의 파라미터들의 어트리뷰트와 동일한 의미를 가질 수 있다.In the illustrated embodiment H47030, when the tf_flags value includes a value of 0x002000, the trun box may include an hdr_info box which is an HDR information box. The hdr_info box may include information on an image quality enhancement parameter that can be commonly applied to video samples included in the video track fragment. The attributes of the parameters included in the hdr_info box may have the same meaning as the attributes of the parameters of the above-described HDR information box.
도시된 실시예(H47040)에서, tf_flags 값이 0x001000 값을 포함하는 경우, trun 박스에는 HDR 인포메이션 박스인 sample_hdr_info 박스가 포함될 수 있다. sample_hdr_info 박스는 비디오 트랙 프래그먼트 내 각 비디오 샘플에 해당하는 화질 개선 파라미터에 대한 정보를 포함할 수 있다. sample_hdr_info 박스에 포함된 파라미터들의 어트리뷰트는 전술한 HDR 인포메이션 박스의 파라미터들의 어트리뷰트와 동일한 의미를 가질 수 있다.In the illustrated embodiment H47040, when the tf_flags value includes a value of 0x001000, the trun box may include a sample_hdr_info box which is an HDR information box. The sample_hdr_info box may include information on an image quality enhancement parameter corresponding to each video sample in the video track fragment. The attributes of the parameters included in the sample_hdr_info box may have the same meaning as the attributes of the parameters of the above-described HDR information box.
도 48 은 본 발명의 일 실시예에 따른 화질 개선 정보를 샘플 그룹 엔트리 또는 샘플 엔트리 내에 정의하는 방안을 도시한 도면이다.48 is a diagram illustrating a method of defining image quality improvement information in a sample group entry or a sample entry according to an embodiment of the present invention.
도시된 실시예(H48010)에서, 비주얼 샘플 그룹 엔트리(visual sample group entry)에 HDR 정보가 포함될 수 있다. 도시된 실시예는, 하나의 미디어 파일 또는 프래그먼트에 존재하는 하나 이상의 비디오 샘플들에, 동일한 화질 개선 관련 파라미터를 저장 및 시그널링할 수 있도록 하는 방안을 제공할 수 있다.In the illustrated embodiment H48010, the HDR information may be included in the visual sample group entry. The illustrated embodiment may provide a way to enable storing and signaling the same picture quality improvement related parameters in one or more video samples present in one media file or fragment.
hdr_flags 필드는 샘플 그룹이 HDR 비디오 샘플 그룹인지 아닌지를 나타내는 플래그일 수 있다. 일 실시예에 따르면, hdr_flags 필드가 1인 경우, 해당 샘플 그룹이 HDR 비디오 샘플그룹임을 지시할 수 있다. hdr_flag 필드의 값이 1 인 경우, HDR 인포메이션 박스인 hdr_info 박스가 더 포함될 수 있다.The hdr_flags field may be a flag indicating whether the sample group is an HDR video sample group or not. According to an embodiment, when the hdr_flags field is 1, it may indicate that the corresponding sample group is an HDR video sample group. When the value of the hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. hdr_info 박스는 샘플 그룹의 HDR 비디오 샘플들에 공통적으로 적용될 수 있는 디폴트 HDR 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 파라미터들의 어트리뷰트는 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다. The hdr_info box may represent an instance of the HDR information box. The hdr_info box may include a default HDR parameter that can be commonly applied to HDR video samples of a sample group. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
도시된 실시예(H48020)에서, 비주얼 샘플 엔트리(visual sample entry)에 화질 개선 정보가 포함될 수 있다. 도시된 실시예는, 하나의 미디어 파일 또는 프래그먼트에 존재하는 각 비디오 샘플들을 디코딩하기 위해 필요한 초기화 정보를 저장 및 시그널링할 수 있도록 하는 방안을 제공할 수 있다. 여기서, 각 비디오 샘플들을 디코딩하기 위해 필요한 초기화 정보는 각 비디오 샘플들과 연관된 화질 개선 파라미터를 의미할 수 있다.In the illustrated embodiment H48020, the image quality improvement information may be included in the visual sample entry. The illustrated embodiment may provide a way to be able to store and signal initialization information necessary to decode each video sample present in one media file or fragment. Here, the initialization information required to decode each video sample may mean an image quality improvement parameter associated with each video sample.
hdr_flags 필드는 연관된 비디오 트랙 또는 샘플 등이 HDR 비디오 샘플을 포함하는지 여부를 나타낼 수 있다. 일 실시예에 따르면, hdr_flag 필드의 값이 1 인 경우, HDR 인포메이션 박스인 hdr_info 박스가 더 포함될 수 있다.The hdr_flags field may indicate whether an associated video track or sample includes an HDR video sample. According to an embodiment, when the value of the hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. hdr_info 박스는 화질 개선과 관련된 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 파라미터들의 어트리뷰트는 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다. The hdr_info box may represent an instance of the HDR information box. The hdr_info box may include detailed parameters related to image quality improvement. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
도 49 는 본 발명의 일 실시예에 따른 화질 개선 정보를 HEVC 샘플 엔트리, HEVC 컨피규레이션 박스 또는 HEVC 디코더 컨피규레이션 레코드 내에 정의하는 방안을 도시한 도면이다. FIG. 49 is a diagram illustrating a method of defining picture quality improvement information in an HEVC sample entry, an HEVC configuration box, or an HEVC decoder configuration record according to an embodiment of the present invention.
도시된 실시예(H49010)에서, HEVC 샘플 엔트리(HEVCSampleEntry)에 화질 개선 정보가 포함될 수 있다. 도시된 실시예는, 미디어 파일 또는 프래그먼트 내에 존재하는 각 HEVC 샘플들을 디코딩하기 위해 필요한 초기화 정보를 저장 및 시그널링하는 방안을 제공할 수 있다. 여기서, 각 HEVC 샘플들을 디코딩하기 위해 필요한 초기화 정보는 각 HEVC 샘플 등과 연관된 화질 개선 파라미터를 의미할 수 있다. 도시된 실시예와 같이, 화질 개선 정보는 HDR 인포메이션 박스의 형태로 HEVCSampleEntry에 포함될 수 있다. 실시예에 따라, 화질 개선 정보는 AVC 샘플 엔트리, AVC2 샘플 엔트리, SVC 샘플 엔트리, MVC 샘플 엔트리 등에 동일한 방식으로 포함될 수 있다.In the illustrated embodiment H49010, the quality improvement information may be included in the HEVC sample entry HEVCSampleEntry. The illustrated embodiment may provide a method of storing and signaling initialization information necessary to decode each HEVC samples present in a media file or fragment. Here, the initialization information necessary to decode each HEVC samples may mean an image quality improvement parameter associated with each HEVC sample. As shown in the illustrated embodiment, the quality improvement information may be included in the HEVCSampleEntry in the form of an HDR information box. According to an embodiment, the picture quality improvement information may be included in the same manner as the AVC sample entry, the AVC2 sample entry, the SVC sample entry, the MVC sample entry, and the like.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. hdr_info 박스는 HEVC 샘플 등과 관련된 화질 개선과 관련된 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 파라미터들의 어트리뷰트는 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다.The hdr_info box may represent an instance of the HDR information box. The hdr_info box may include detailed parameters related to picture quality improvement related to HEVC samples. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
도시된 실시예(H49020)에서, HEVC 컨피규레이션 박스(HEVCConfigurationBox)에 화질 개선 정보가 포함될 수 있다. 도시된 실시예는, 미디어 파일 또는 프래그먼트 내에 존재하는 각 HEVC 샘플들을 디코딩하기 위해 필요한 초기화 정보를 저장 및 시그널링하는 방안을 제공할 수 있다. 여기서, 각 HEVC 샘플들을 디코딩하기 위해 필요한 초기화 정보는 각 HEVC 샘플 등과 연관된 HDR 파라미터를 의미할 수 있다. 도시된 실시예와 같이, 화질 개선 정보는 HDR 인포메이션 박스의 형태로 HEVCConfigurationBox에 포함될 수 있다. 실시예에 따라, 화질 개선 정보는 AVC 컨피규레이션 박스(AVCConfigurationBox), SVC 컨피규레이션 박스(SVCConfigurationBox), MVC 컨피규레이션 박스(MVCConfigurationBox) 등에 동일한 방식으로 포함될 수 있다.In the illustrated embodiment H49020, the quality improvement information may be included in the HEVC configuration box. The illustrated embodiment may provide a method of storing and signaling initialization information necessary to decode each HEVC samples present in a media file or fragment. Here, the initialization information necessary to decode each HEVC samples may mean an HDR parameter associated with each HEVC sample. As shown in the illustrated embodiment, the quality improvement information may be included in the HEVCConfigurationBox in the form of an HDR information box. According to an embodiment, the picture quality improvement information may be included in the same manner as in the AVC configuration box (AVCConfigurationBox), the SVC configuration box (SVCConfigurationBox), the MVC configuration box (MVCConfigurationBox) and the like.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. hdr_info 박스는 HEVC 샘플 등과 관련된 화질 개선 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 파라미터들의 어트리뷰트는 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다.The hdr_info box may represent an instance of the HDR information box. The hdr_info box may include a quality improvement detail parameter related to the HEVC sample and the like. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
도시된 실시예(H49030)에서, HEVC 디코더 컨피규레이션 레코드(HEVCDecoderConfigurationRecord)에 화질 개선 정보가 포함될 수 있다. 도시된 실시예는, 미디어 파일 또는 프래그먼트 내에 존재하는 각 HEVC 샘플들을 디코딩하기 위해 필요한 초기화 정보를 저장 및 시그널링하는 방안을 제공할 수 있다. 여기서, 각 HEVC 샘플들을 디코딩하기 위해 필요한 초기화 정보는 각 HEVC 샘플 등과 연관된 화질 개선 파라미터를 의미할 수 있다. 도시된 실시예와 같이, 화질 개선 정보는 HDR 인포메이션 박스의 형태로 HEVCDecoderConfigurationRecord에 포함될 수 있다. 실시예에 따라, 화질 개선 정보는 AVC 디코더 컨피규레이션 레코드(AVCDecoderConfigurationRecord), SVC 디코더 컨피규레이션 레코드(SVCDecoderConfigurationRecord), MVC 디코더 컨피규레이션 레코드(MVCDecoderConfigurationRecord) 등에 동일한 방식으로 포함될 수 있다.In the illustrated embodiment H49030, the quality improvement information may be included in the HEVC decoder configuration record HEVCDecoderConfigurationRecord. The illustrated embodiment may provide a method of storing and signaling initialization information necessary to decode each HEVC samples present in a media file or fragment. Here, the initialization information necessary to decode each HEVC samples may mean an image quality improvement parameter associated with each HEVC sample. As shown in the illustrated embodiment, the quality improvement information may be included in the HEVCDecoderConfigurationRecord in the form of an HDR information box. According to an embodiment, the picture quality improvement information may be included in the same manner as the AVC decoder configuration record (AVCDecoderConfigurationRecord), the SVC decoder configuration record (SVCDecoderConfigurationRecord), the MVC decoder configuration record (MVCDecoderConfigurationRecord), and the like.
hdr_flags 필드는 연관된 비디오 트랙 또는 샘플 등이 HDR 비디오 샘플을 포함하는지 여부를 나타낼 수 있다. 일 실시예에 따르면, hdr_flag 필드의 값이 1 인 경우, HDR 인포메이션 박스인 hdr_info 박스가 더 포함될 수 있다.The hdr_flags field may indicate whether an associated video track or sample includes an HDR video sample. According to an embodiment, when the value of the hdr_flag field is 1, an hdr_info box which is an HDR information box may be further included.
hdr_info 박스는 HDR 인포메이션 박스의 인스턴스를 나타낼 수 있다. hdr_info 박스는 비디오 샘플 등과 관련된 화질 개선과 관련된 세부 파라미터를 포함할 수 있다. hdr_info 박스에 포함된 각 파라미터들의 어트리뷰트는 전술한 HDR 인포메이션 박스에 포함된 것과 동일할 수 있다.The hdr_info box may represent an instance of the HDR information box. The hdr_info box may include detailed parameters related to picture quality improvement related to video samples. Attributes of each parameter included in the hdr_info box may be the same as those included in the above-described HDR information box.
도 50 은 본 발명의 일 실시예에 따른 화질 개선 정보를 sbgp 박스 또는 sgpd 박스 내에 정의하는 방안을 도시한 도면이다.50 is a diagram illustrating a method of defining image quality improvement information in an sbgp box or an sgpd box according to an embodiment of the present invention.
본 발명의 일 실시예에 따르면, 비디오 scene, sequence 또는 clip 과 관련된 화질 개선 파라미터를 저장 및/또는 시그널링 하는 방안을 제공할 수 있다. 본 발명의 일 실시예에 따르면, 비디오 scene, sequence 및/또는 clip과 관련된 HDR 파라미터 및/또는 WCG 파라미터를 저장 및/또는 시그널링하는 방안을 제공할 수 있다.According to an embodiment of the present invention, a method of storing and / or signaling an image quality improvement parameter associated with a video scene, sequence, or clip may be provided. According to an embodiment of the present invention, a method for storing and / or signaling HDR parameters and / or WCG parameters associated with a video scene, sequence and / or clip may be provided.
본 발명의 일 실시예에 따르면, scene 기반의 HDR/WCG 정보를 제공하기 위해 HDR 인포메이션 박스와 함께 sbgp 박스 또는 sgpd 박스를 이용할 수 있다. 여기서, sbgp 박스 및 sgpd 박스는 각각 국제표준 ISO/IEC 14496-12의 sample-to-group 박스와, sample group description 박스를 의미할 수 있다.According to an embodiment of the present invention, an sbgp box or an sgpd box may be used together with the HDR information box to provide scene-based HDR / WCG information. Here, the sbgp box and the sgpd box may mean a sample-to-group box and a sample group description box of the international standard ISO / IEC 14496-12, respectively.
도시된 실시예(H50010)에서, sbgp 박스는 grouping_type 필드를 포함한다. grouping_type 필드는 그룹핑 타입을 나타내는 파라미터로 정수값을 가질 수 있다. 각 sample을 scene, sequence 또는 clip 등으로 그룹핑하고자 할 경우 grouping_type 필드는 소정의 정수값으로 할당(assign)될 수 있다. 예를 들어, scene #1-100이 존재할 경우, 각 scene에 sample을 할당하기 위해서는 각 scene에 대한 그룹핑 타입은 1-100의 값을 가질 수 있다. 또한, 각 그룹핑 타입 값에 대해 sample_count 및 group_description_index값이 정해질 수 있다. In the illustrated embodiment H50010, the sbgp box includes a grouping_type field. The grouping_type field is a parameter representing a grouping type and may have an integer value. When grouping each sample into a scene, sequence, or clip, the grouping_type field may be assigned a predetermined integer value. For example, when scene # 1-100 exists, in order to assign a sample to each scene, the grouping type for each scene may have a value of 1-100. In addition, sample_count and group_description_index values may be determined for each grouping type value.
도시된 실시예(H50010)에 대해, scene을 기준으로 설명하였으나, 상술한 설명은 scene 뿐만 아니라, sequence 또는 clip 등에도 동일하게 적용될 수 있다. The illustrated embodiment H50010 has been described based on a scene, but the above description may be equally applied to a sequence or a clip as well as a scene.
도시된 실시예(H50020)에서, sgpd 박스는 grouping_type 필드 및 VisualSampleGroupEntry 를 포함한다. grouping_type 필드는 그룹핑 타입을 나타내는 파라미터로 정수값을 가질 수 있다. 각 sample을 scene, sequence 또는 clip 등으로 그룹핑하고자 할 경우 grouping_type 필드는 소정의 정수값으로 할당(assign)될 수 있다. 예를 들어, scene #1-100이 존재할 경우, 각 scene에 sample을 할당하기 위해서는 각 scene에 대한 그룹핑 타입은 1-100의 값을 가질 수 있다. 또한, 각 그룹핑 타입 값에 대해 sample_count 및 group_description_index값이 정해질 수 있다. In the illustrated embodiment H50020, the sgpd box includes a grouping_type field and a VisualSampleGroupEntry. The grouping_type field is a parameter representing a grouping type and may have an integer value. When grouping each sample into a scene, sequence, or clip, the grouping_type field may be assigned a predetermined integer value. For example, when scene # 1-100 exists, in order to assign a sample to each scene, the grouping type for each scene may have a value of 1-100. In addition, sample_count and group_description_index values may be determined for each grouping type value.
VisualSampleGroupEntry 는 그룹핑 타입에 따른 비주얼 샘플 그룹 엔트리(visual sample group entry)를 나타낼 수 있다. VisualSampleGroupEntry 는 전술한 비주얼 샘플 그룹 엔트리의 파라미터에 따라 scene, sequence 또는 clip 등을 기반으로 하는 비디오에 HDR 정보 및/또는 WCG 정보를 제공할 수 있다.VisualSampleGroupEntry may indicate a visual sample group entry according to the grouping type. VisualSampleGroupEntry may provide HDR information and / or WCG information to a video based on a scene, sequence, or clip according to the parameters of the above-described visual sample group entry.
한편, 전술한 HDR 인포메이션 박스 포함되는 HDR_app_type 필드가 scene 또는 clip 등을 지시할 경우, HDR 인포메이션 박스에 포함된 HDR 정보 뿐만 아니라, sbgp 박스 또는 sgpd 박스를 이용할 수 있다. 즉, HDR_app_type 필드가 scene 또는 clip 등을 지시할 경우, HDR 인포메이션 박스와 더불어 sbgp 박스 또는 sgpd 박스를 이용하여 HDR/WCG 정보를 적용할 수 있다.Meanwhile, when the HDR_app_type field included in the HDR information box described above indicates a scene or a clip, the sbgp box or the sgpd box may be used as well as the HDR information included in the HDR information box. That is, when the HDR_app_type field indicates a scene or a clip, the HDR / WCG information may be applied using the sbgp box or the sgpd box in addition to the HDR information box.
도 51 은 본 발명의 일 실시예에 따른 복사 제어 정보를 제공하기 위한 복사 제어 박스를 나타낸 도면이다. 51 is a diagram illustrating a copy control box for providing copy control information according to an embodiment of the present invention.
본 발명의 일 실시예에 따르면, ISOBMFF 기반의 파일을 생성하는 경우, 비디오 트랙, 오디오 트랙, 데이터 트랙 (스트림), 비디오 샘플, 오디오 샘플 및/또는 데이터 샘플에 관련한 복사 제어를 위항 파라미터를 저장하거나, 시그널링할 수 있는 박스를 새롭게 정의할 수 있다. According to an embodiment of the present invention, when generating an ISOBMFF-based file, storing the above parameter for copy control relating to a video track, an audio track, a data track (stream), a video sample, an audio sample, and / or a data sample; In this case, a signalable box can be newly defined.
본 발명의 일 실시예에 따른 복사 제어 박스(cpcl 박스; copy control box)는 copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_output_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 포함할 수 있다.A copy control box (cpcl box) according to an embodiment of the present invention includes copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_output_control_info information, stereo_video_control_flag information, num_scalabilitychannel or audio_control can do.
copy_control_flag 정보는 비디오/오디오/데이터 (비디오, 오디오 및/또는 데이터) 트랙 또는 샘플이 copy protection이 되었는지 여부를 나타낼 수 있다. 예를 들면, copy_control_flag 정보의 값이 0 으로 셋팅되는 경우, 해당 트랙 또는 샘플에 Copy protection이 적용되지 않았음을 나타낼 수 있고, 1 으로 셋팅되는 경우, 해당 트랙 또는 샘플에 Copy protection이 적용되었음을 나타낼 수 있다. Default 로는, copy_control_flag 정보의 값은 1 로 셋팅될 수 있다.The copy_control_flag information may indicate whether the video / audio / data (video, audio and / or data) track or sample is copy protected. For example, when the value of the copy_control_flag information is set to 0, it may indicate that copy protection is not applied to the corresponding track or sample, and when it is set to 1, it may indicate that copy protection is applied to the corresponding track or sample. have. As a default, the value of the copy_control_flag information may be set to one.
num_copy_control_info 정보는 비디오/오디오/데이터 트랙 또는 샘플에 대하여 복사할 수 있는 회수를 나타내는 정보이다. 예를 들면, num_copy_control_info 정보의 값이 0x00 로 설정되는 경우, 복사가 불가능함을 나타낼 수 있고, 0x01-0xFE 로 설정되는 경우, 복사가 가능한 회수를 나타낼 수 있고, 0xFF 로 설정되는 경우, 복사에 대한 제한이 없음을 나타낼 수 있다.The num_copy_control_info information is information indicating the number of copies that can be copied to a video / audio / data track or a sample. For example, if the value of num_copy_control_info information is set to 0x00, it may indicate that copying is impossible, and if it is set to 0x01-0xFE, it may indicate the number of times that copying is possible, and if it is set to 0xFF, It may indicate that there is no limit.
num_play_control_info 정보는 디바이스 (device, 예를 들면, 방송 수신기) 에서 파일을 재생 (playback) 할 수 있는 회수 지정하는 정보에 해당될 수 있다. 예를 들면, num_play_control_info 정보의 값이 0x00 으로 설정되는 경우, 재생이 불가능함을 나타낼 수 있고, 0x01-0xFE 로 설정되는 경우, 재생이 가능한 횟수를 직접 나타낼 수 있고, 0xFF 로 설정되는 경우, 재생에 제한 없음을 나타낼 수 있다. num_play_control_info 정보는 0xFF 값을 default로 가질 수 있다.The num_play_control_info information may correspond to information specifying the number of times a file can be played back in a device (eg, a broadcast receiver). For example, when the value of the num_play_control_info information is set to 0x00, it may indicate that playback is impossible, and when it is set to 0x01-0xFE, it may directly indicate the number of times that playback is possible, and when it is set to 0xFF, It may indicate no limitation. The num_play_control_info information may have a default value of 0xFF.
ep_copy_control_info 정보는 컨텐트에 대한 리코딩 (recoding) 및/또는 타입 쉬프트 (time-shift) 의 만료 기간을 나타낼 수 있다. ep_copy_control_info 정보의 값이 0x0000 로 설정된 경우, 만료 기간이 없음을 나타낼 수 있고, 0x0001로 설정된 경우, 60분의 만료 기간이 적용됨을 나타낼 수 있고, 0x0002-0xFFFF 으로 설정되는 경우, 이 비트들이 나타내는 2 내지 65535 시간의 만료 기간이 적용됨을 나타낼 수 있다.The ep_copy_control_info information may indicate an expiration period of recording and / or time-shift for content. When the value of the ep_copy_control_info information is set to 0x0000, it may indicate that there is no expiration period, and when it is set to 0x0001, it may indicate that an expiration period of 60 minutes is applied, and when it is set to 0x0002-0xFFFF, these bits indicate 2 to It may indicate that an expiration period of 65535 hours applies.
trick_mode_control_flag 정보는 트릭 모드 (trick mode)가 가능한지 여부를 나타낼 수 있다. 예를 들면, trick_mode_control_flag 정보의 값이 0 으로 설정된 경우, 트릭 모드 제어가 불가능함을 나타낼 수 있고, 1 로 설정된 경우, 트릭 모드 제어가 가능함을 나타낼 수 있다.The trick_mode_control_flag information may indicate whether a trick mode is possible. For example, when the value of the trick_mode_control_flag information is set to 0, it may indicate that the trick mode control is impossible. When set to 1, it may indicate that the trick mode control is possible.
num_output_control_info 정보는 output_control_flag 정보 (또는 copy_control_flag 정보) 의 값이 1 일 때, 해당 파일을 동시에 재생할 수 있는 출력 (output) 기기의 개수 지정를 나타낼 수 있다. 예를 들면, num_output_control_info 정보의 값이 0x00 으로 설정된 경우, multi-screen 에서 재생이 불가능하고, 메인 재생 디바이스 (main playback device) 만이 해당 파일을 재생 가능함을 나타낼 수 있고, 0x01 으로 설정된 경우, 메인 재생 디바이스이외에 1개의 디바이스가 동시에 해당 파일의 컨텐트를 재생 가능함을 나타낼 수 있고, '0x02-0Xff' 으로 설정된 경우, 메인 재생 디바이스 외에 2개 이상의 디바이스가 동시에 해당 파일의 컨텐트를 재생 가능함을 나타내고, 해당 디바이스의 개수를 나타낼 수 있다.The num_output_control_info information may indicate designation of the number of output devices capable of simultaneously playing a corresponding file when the value of output_control_flag information (or copy_control_flag information) is 1. For example, when the value of num_output_control_info information is set to 0x00, it may indicate that playback is not possible on the multi-screen, and only the main playback device can play the file, and when set to 0x01, the main playback device In addition, one device may indicate that the content of the file can be played at the same time, and when set to '0x02-0Xff', it indicates that two or more devices other than the main playback device can play the content of the file at the same time. It can represent the number.
차세대 방송 시스템은 n-스크린 서비스를 제공할 수 있다. 방송 시스템에서 서비스를 수신하여, n 개의 스크린에 해당 서비스를 표출하는 것이 가능하다. 그러나 이러한 과정에서 필연적으로 해당 서비스에 대한 복사 또는 재전송이 이루어져야 한다. 이러한 환경에서 무한정한 개수의 스크린에 해당 서비스에 대한 복사 또는 재전송을 허용하는 것이 제한되어야 할 필요성이 있다. 예를 들면, 하나의 가정에서 2대 이상의 텔레비전을 구비하고 있는 경우, 하나의 텔레비전에 대하여만 서비스를 수신하기 위한 방송 시청 플랜에 가입하고, 나머지 텔레비전에 대하여는 해당 서비스를 복사 또는 재전송하여, 복수의 기기에서 서비스를 시청하는 상황이 발생할 수 있다. 이러한 상황은 방송 사업자가 원하지 않는 상황이므로, 방송 사업자는 방송 시청 플랜에 n-스크린 서비스의 제공이 가능한 기기의 개수를 포함시킬 수 있다. 이 경우, 방송 시스템은 num_output_control_info 정보를 이용하여, 방송 사업자가 허용하는, 동시에 재생할 수 있는 출력 (output) 기기의 개수를 시그널링할 수 있다.Next generation broadcast systems may provide n-screen services. By receiving a service in a broadcast system, it is possible to express the corresponding service on n screens. In this process, however, the service must be copied or retransmitted. In such an environment there is a need to be limited to allowing an unlimited number of screens to copy or retransmit the service. For example, if you have two or more televisions in one household, you can subscribe to a broadcast viewing plan to receive services for only one television, and copy or retransmit those services for the remaining televisions. A situation of watching a service on a device may occur. Since this situation is not desired by the broadcaster, the broadcaster may include the number of devices capable of providing the n-screen service in the broadcast viewing plan. In this case, the broadcast system may signal the number of output devices that a broadcaster allows and simultaneously reproduces using the num_output_control_info information.
stereo_video_control_flag 정보는 스테레오 비디오(stereo video)의 복사(copy)가 가능한지 여부를 나타낼 수 있다. 예를 들면, stereo_video_control_flag 정보의 값이 0 으로 설정되는 경우, 스테레오 비디오는 복사가 불가능하고, 모노 비디오(mono video)는 복사가 가능함을 나타낼 수 있고, stereo_video_control_flag 정보의 값이 1로 설정되는 경우, 스테레오 비디오에 대한 복사가 가능함을 나타낼 수 있다. stereo_video_control_flag 정보의 default 값은 0일 수 있다.The stereo_video_control_flag information may indicate whether copy of stereo video is possible. For example, when the value of the stereo_video_control_flag information is set to 0, it may indicate that stereo video cannot be copied, and that mono video can be copied, and when the value of the stereo_video_control_flag information is set to 1, stereo This may indicate that copying of the video is possible. The default value of the stereo_video_control_flag information may be zero.
num_scalability_control_info 정보는 스케일러블 코딩(scalable coding)이 적용된 미디어에 대해 복사(copy)가 가능한 스케일러빌리티(scalability) 개수를 나타낼 수 있다. 예를 들면, num_scalability_control_info 정보의 값이 0x00 으로 설정되는 경우, 스케일러블 코딩이 적용된 미디어에 대한 복사가 불가능함을 지시할 수 있고, num_scalability_control_info 정보의 값이 0x01 로 설정되는 경우, 1개의 스케일러빌리티 복사가 가능함을 지시할 수 있으며, num_scalability_control_info 정보의 값이 0x02-0xFF 로 설정되는 경우, 2개 이상의 스케일러빌리티 복사가 가능함을 지시할 수 있다. 여기서, num_scalability_control_info 정보의 값이 0x01인 경우는 베이스 레이어(base layer)만 복사가 가능함을 지시할 수 있고, num_scalability_control_info 정보의 값이 0x01-0xFF 인 경우는 베이스 레이어(base layer)와, 1개 이상의 인핸스먼트 레이어(enhancement layer)에 대한 복사가 가능함을 지시할 수 있다. default로는, num_scalability_control_info 정보의 default 값은 0x00일 수 있다.The num_scalability_control_info information may indicate the number of scalability that can be copied with respect to media to which scalable coding has been applied. For example, when the value of the num_scalability_control_info information is set to 0x00, it may indicate that copying to media with scalable coding is not possible, and when the value of the num_scalability_control_info information is set to 0x01, one scalability copy is performed. It may indicate that it is possible, and when the value of the num_scalability_control_info information is set to 0x02-0xFF, it may indicate that two or more scalability copies are possible. Here, when the value of the num_scalability_control_info information is 0x01, it may indicate that only the base layer can be copied. When the value of the num_scalability_control_info information is 0x01-0xFF, the base layer and one or more enhancements may be used. It may indicate that copying to an enhancement layer is possible. As a default, a default value of num_scalability_control_info information may be 0x00.
num_audio_channel_control_info 정보는 다채널 오디오에 대해 복사 가능한 채널(channel)의 개수를 나타낼 수 있다. 예를 들면, num_audio_channel_control_info 정보의 값이 0x00으로 설정되는 경우, 다채널 오디오에 대한 복사가 불가능함을 지시할 수 있고, num_audio_channel_control_info 정보의 값이 0x01-0xFF로 설정되는 경우, 다채널 오디오의 1개 이상의 채널에 대한 복사가 가능함을 지시할 수 있다. default로는, num_audio_channel_control_info 정보의 default값은 0x00일 수 있다.The num_audio_channel_control_info information may indicate the number of channels that can be copied for multichannel audio. For example, when the value of num_audio_channel_control_info information is set to 0x00, it may indicate that copying to multichannel audio is impossible, and when the value of num_audio_channel_control_info information is set to 0x01-0xFF, one or more of multichannel audio may be used. It may indicate that copying for the channel is possible. As a default, a default value of num_audio_channel_control_info information may be 0x00.
전술한 정보들 이외에도, 복사 제어 박스에는, 본 발명에서 전술하였거나, 후술할 정보들이 더 포함될 수 있고, Box 및/또는 각 파라미터 (정보) 의 명칭은 변경될 수 있다.In addition to the above-described information, the copy control box may further include the information described above or below in the present invention, and the name of the box and / or each parameter (information) may be changed.
도 52 는 본 발명의 일 실시예에 따른 복사 제어 정보를 tkhd 박스 내에 정의하는 방안을 도시한 도면이다.52 is a diagram illustrating a method of defining copy control information in a tkhd box according to an embodiment of the present invention.
tkhd 박스는 트랙 (비디오/오디오/데이터) 에 대한 속성을 설명하는 정보를 포함할 수 있다. tkhd 박스는 creation_time 정보, modification_time 정보, track_ID 정보, 및/또는 duration 정보를 포함할 수 있다. tkhd 박스는 moov 박스에 포함될 수 있다.The tkhd box may contain information describing attributes for the track (video / audio / data). The tkhd box may include creation_time information, modification_time information, track_ID information, and / or duration information. The tkhd box can be included in the moov box.
creation_time 정보는 본 박스에 의하여 설명되는 트랙을 생성한 시간을 나타내는 정보이다.creation_time information is information indicating the time at which the track described by this box was created.
modification_time 정보는 본 박스에 의하여 설명되는 트랙이 수정된 시간을 나타내는 정보이다.The modification_time information is information indicating the time when the track described by this box was modified.
track_ID 정보는 전체 표출 (presentation) 내에서 특정 트랙을 식별하는 정보이다.The track_ID information is information for identifying a specific track in the entire presentation.
duration 정보는 트랙의 지속시간을 나타내는 정보이다.The duration information is information representing the duration of the track.
tkhd 박스는 전술한 정보 이외에 추가로, 전술한 복사 제어 박스에 포함되는 정보 (복사 제어 정보) 의 일부 또는 전부를 포함할 수 있다. 즉, tkhd 박스는 copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_output_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 더 포함할 수 있다. 이 경우, 복사 제어 정보는 트랙 단위에서, 해당 트랙에 대한 복사 제어에 관한 내용을 설명할 수 있다.In addition to the above-described information, the tkhd box may include some or all of the information (copy control information) included in the above-described copy control box. That is, the tkhd box may further include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_output_control_info information, stereo_video_control_flag information, num_scalability_control_info information, and / or num_audio_channel. In this case, the copy control information can describe the contents of the copy control for the corresponding track in track units.
도 53 은 본 발명의 일 실시예에 따른 복사 제어 정보를 vmhd 박스, smhd 박스, hmhd 박스 또는 nmhd 박스 내에 정의하는 방안을 도시한 도면이다.FIG. 53 illustrates a scheme for defining copy control information in a vmhd box, smhd box, hmhd box, or nmhd box according to an embodiment of the present invention.
vmhd 박스, smhd 박스, hmhd 박스 및/또는 nmhd 박스는 전술한 복사 제어 정보 (또는 복사 제어 파라미터) 의 일부 또는 전부를 포함할 수 있다.The vmhd box, smhd box, hmhd box and / or nmhd box may include some or all of the above-described copy control information (or copy control parameters).
vmhd 박스는 비디오 미디어 헤더 박스 (Video Media Header Box) 에 해당되며, 비디오 미디어를 위한 일반적인 표출 정보를 포함할 수 있다.The vmhd box corresponds to a video media header box and may include general presentation information for video media.
smhd 박스는 사운드 미디어 헤더 박스 (Sound Media Header Box) 에 해당되며, 오디오 미디어를 위한 일반적인 표출 정보를 포함할 수 있다.The smhd box corresponds to a sound media header box and may include general presentation information for audio media.
hmhd 박스는 힌트 미디어 헤더 박스 (Hint Media Header Box) 에 해당되며, 힌트 트랙 (hint track) 에 대한 일반적인 정보를 포함할 수 있다.The hmhd box corresponds to a hint media header box, and may include general information about a hint track.
nmhd 박스는 눌 미디어 헤더 박스 (Null Media Header Box) 에 해당되며, 비디오나 오디오 스트림이 아닌 다른 스트림들에 대한 일반적인 정보를 포함할 수 있다.The nmhd box corresponds to a null media header box, and may include general information about streams other than video or audio streams.
tkhd 박스와 vmhd 박스, smhd 박스, hmhd 박스 및/또는 nmhd 박스에 복사 제어 정보가 동시에 포함되는 경우 트랙 헤더 박스에서 정의된 복사 제어 정보의 값은 vmhd 박스, smhd 박스, hmhd 박스 및/또는 nmhd 박스에 정의된 복사 제어 정보의 값으로 오버라이드 (override) 될 수 있다.If the tkhd box, vmhd box, smhd box, hmhd box, and / or nmhd box contain copy control information at the same time, the value of the copy control information defined in the track header box is the vmhd box, smhd box, hmhd box, and / or nmhd box. Can be overridden by the value of the copy control information defined in.
vmhd 박스, smhd 박스, hmhd 박스 및/또는 nmhd 박스에서 복사 제어 정보를 정의하는 경우, 해당 박스가 설명하는 단위에서 복사 제어가 적용될 수 있다.When the copy control information is defined in the vmhd box, the smhd box, the hmhd box, and / or the nmhd box, the copy control may be applied in the unit described by the box.
도 54 는 본 발명의 일 실시예에 따른 복사 제어 정보를 trek 박스 내에 정의하는 방안을 도시한 도면이다.54 is a diagram illustrating a method of defining copy control information in a trek box according to an embodiment of the present invention.
trex 박스는 mvex 박스 (movie extends box) 에 포함될 수 있다.The trex box can be included in the mvex box (movie extends box).
trex 박스는 무비 프래그먼트 (movie fragment) 에 의하여 사용되는 default 값들을 설정하는 정보를 포함할 수 있다.The trex box may include information for setting default values used by a movie fragment.
trex 박스는 track_ID 정보, default_sample_description_index 정보, default_sample_duration 정보, default_sample_size 정보, default_sample_flags 정보, default_sample_copy_control_flag 정보, default_sample_num_copy_control_info 정보, default_sample_num_play_control_info 정보, default_sample_ep_copy_control_info 정보, default_sample_ trick_mode_control_flag 정보, default_sample_ num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 포함할 수 있다.trex box track_ID information, default_sample_description_index information, default_sample_duration information, default_sample_size information, default_sample_flags information, default_sample_copy_control_flag information, default_sample_num_copy_control_info information, default_sample_num_play_control_info information, default_sample_ep_copy_control_info information, default_sample_ trick_mode_control_flag information, default_sample_ num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information and / or comprises a num_audio_channel_control_info information can do.
track_ID 정보는 무비 박스 (movie box) 내에서 트랙을 식별하는 정보이다.The track_ID information is information for identifying a track in a movie box.
default_sample_description_index 정보, default_sample_duration 정보, default_sample_size 정보 및 default_sample_flags 정보는 각각 샘플을 설명하는 샘플 엔트리의 인덱스를 나타내는 sample_description_index 정보, 샘플의 지속 시간을 나타내는 sample_duration 정보, 샘플의 크기를 나타내는 sample_size 정보 및 샘플을 위하여 설정되는 플래그들의 값을 나타내는 sample_flags 정보를 위한 기본 (default) 값을 나타낼 수 있다.The default_sample_description_index information, default_sample_duration information, default_sample_size information, and default_sample_flags information each include sample_description_index information indicating the index of the sample entry describing the sample, sample_duration information indicating the duration of the sample, sample_size information indicating the size of the sample, and the flags set for the samples. A default value for sample_flags information indicating a value may be indicated.
default_sample_copy_control_flag 정보, default_sample_num_copy_control_info 정보, default_sample_num_play_control_info 정보, default_sample_ep_copy_control_info 정보, default_sample_trick_mode_control_flag 정보, default_sample_num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및 num_audio_channel_control_info 정보는 각각 전술한 copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및 num_audio_channel_control_info 정보의 기본 값을 나타낼 수 있다. default_sample_copy_control_flag 정보, default_sample_num_copy_control_info 정보, default_sample_num_play_control_info 정보, default_sample_ep_copy_control_info 정보, default_sample_trick_mode_control_flag 정보, default_sample_num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및 num_audio_channel_control_info 정보는 비디오/오디오/데이터 샘플 단위에서 복사 제어 정보의 기본 값을 설정하는데 사용될 수 있다. default_sample_copy_control_flag information, default_sample_num_copy_control_info information, default_sample_num_play_control_info information, default_sample_ep_copy_control_info information, default_sample_trick_mode_control_flag information, default_sample_num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information and num_audio_channel_control_info information are each above one copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information The basic values of the num_scalability_control_info information and the num_audio_channel_control_info information may be indicated. The default_sample_copy_control_flag information, the default_sample_num_copy_control_info information, the default_sample_num_play_control_info information, the default_sample_ep_copy_control_info information, the default_sample_trick_mode_control_flag information, the default_sample_num_out_control_info information, the stereo_video_control_flag information, the num_scalability control_info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the _info, the __, _, _, _, _ and _
본 발명의 다른 실시예에 따르면, default_sample_flags 정보가 copy_control_flag 정보, trick_mode_control_flag 정보 및/또는 stereo_video_control_flag 정보를 포함할 수 있다. default_sample_flags 정보는 샘플들에 대한 하나 이상의 플래그들을 포함할 수 있으므로, 샘플들과 관련한 copy_control_flag 정보, trick_mode_control_flag 정보 및/또는 stereo_video_control_flag 정보를 포함할 수 있다.According to another embodiment of the present invention, the default_sample_flags information may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information. Since the default_sample_flags information may include one or more flags for the samples, it may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information related to the samples.
도 55 는 본 발명의 일 실시예에 따른 복사 제어 정보를 tfhd 박스 내에 정의하는 방안을 도시한 도면이다.55 is a diagram illustrating a method of defining copy control information in a tfhd box according to an embodiment of the present invention.
tfhd 박스는 moof 박스에 포함될 수 있다.The tfhd box can be included in the moof box.
각각의 무비 프래그먼트는 각각의 트랙에 0 또는 그보다 많은 프래그먼트를 추가할 수 있다. 트랙 프래그먼트 (track fragment) 는 0 또는 그보다 많은 연속된 샘플들을 포함할 수 있다. tfhd 박스는 이러한 샘플들에 사용되는 기본 값 및/또는 정보를 설정하기 위한 정보를 포함한다.Each movie fragment can add zero or more fragments to each track. A track fragment may contain zero or more consecutive samples. The tfhd box contains information for setting default values and / or information used for these samples.
tfhd 박스는 track_ID 정보, copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보, num_audio_channel_control_info 정보, base_data_offset 정보, sample_description_index 정보, default_sample_duration 정보, default_sample_size 정보 및/또는 default_sample_flags 정보를 포함할 수 있다.tfhd box includes track_ID information, copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, num_audioset_channel_data_data_data It may include.
base_data_offset 정보는 데이터의 오프셋을 계산하기 위한 기본 오프셋 (base offset) 을 나타내는 정보이다.The base_data_offset information is information indicating a base offset for calculating an offset of data.
tfhd 박스에 포함되는 정보 중, 전술한 정보와 동일한 명칭을 가지는 정보에 대한 설명은, 전술한 설명으로 대체한다.The description of the information contained in the tfhd box with the same name as the above-mentioned information is replaced with the above-mentioned description.
본 발명의 다른 실시예에 따르면, default_sample_flags 정보가 copy_control_flag 정보, trick_mode_control_flag 정보 및/또는 stereo_video_control_flag 정보를 포함할 수 있다. default_sample_flags 정보는 샘플들에 대한 하나 이상의 플래그들을 포함할 수 있으므로, 샘플들과 관련한 copy_control_flag 정보, trick_mode_control_flag 정보 및/또는 stereo_video_control_flag 정보를 포함할 수 있다.According to another embodiment of the present invention, the default_sample_flags information may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information. Since the default_sample_flags information may include one or more flags for the samples, it may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information related to the samples.
도 56 은 본 발명의 일 실시예에 따른 복사 제어 정보를 trun 박스 내에 정의하는 방안을 도시한 도면이다.56 is a diagram illustrating a method of defining copy control information in a trun box according to an embodiment of the present invention.
trun 박스는 moof 박스 내의 track fragment 박스에 포함될 수 있다.The trun box can be included in the track fragment box in the moof box.
trun 박스는 하나의 트랙을 위한 샘플들의 세트를 설명하는 정보를 포함한다.The trun box contains information describing a set of samples for one track.
trun 박스는 sample_count 정보, copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보, num_audio_channel_control_info 정보, data_offset 정보, first_sample_flags 정보, sample_duration 정보, sample_size 정보, sample_flags 정보 및/또는 sample_composition_time_offset 정보를 포함할 수 있다.trun box includes sample_count information, copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, num_audiogs sample_fla Sample_composition_time_offset information may be included.
sample_count 정보는 이 프래그먼트에 포함된 샘플들의 개수를 나타내는 정보이다.The sample_count information is information indicating the number of samples included in this fragment.
trun 박스에 포함되는 정보 중, 전술한 정보와 동일한 명칭을 가지는 정보에 대한 설명은, 전술한 설명으로 대체한다.The description of the information contained in the trun box with the same name as the above-mentioned information is replaced with the above-mentioned description.
tfhd 박스 (Track fragment header Box) 와 trun 박스 (track run Box)에 복사 제어 정보의 전부 또는 일부가 동시에 포함되는 경우, tfhd 박스에사 정의된 복사 제어 정보는 trun 박스에서 정의된 값으로 오버라이드 (override) 될 수 있다.If all or part of the copy control information is simultaneously included in the tfhd box (Track fragment header box) and the trun box (track run box), the copy control information defined in the tfhd box is overridden by the value defined in the trun box. Can be
trun 박스에서 복사 제어 정보가 정의되는 경우, 샘플들의 세트 단위로 복사 제어가 적용될 수 있다.When copy control information is defined in a trun box, copy control may be applied in units of sets of samples.
본 발명의 다른 실시예에 따르면, sample_flags 정보 및/또는 first_sample_flags 정보가 copy_control_flag 정보, trick_mode_control_flag 정보 및/또는 stereo_video_control_flag 정보를 포함할 수 있다. sample_flags 정보 및/또는 first_sample_flags 정보는 샘플들에 대한 하나 이상의 플래그들을 포함할 수 있으므로, 샘플들과 관련한 copy_control_flag 정보, trick_mode_control_flag 정보 및/또는 stereo_video_control_flag 정보를 포함할 수 있다.According to another embodiment of the present invention, sample_flags information and / or first_sample_flags information may include copy_control_flag information, trick_mode_control_flag information, and / or stereo_video_control_flag information. Since sample_flags information and / or first_sample_flags information may include one or more flags for samples, it may include copy_control_flag information, trick_mode_control_flag information and / or stereo_video_control_flag information related to the samples.
도 57 은 본 발명의 일 실시예에 따른 복사 제어 정보를 비쥬얼 샘플 그룹 엔트리 내에 정의하는 방안을 도시한 도면이다.57 illustrates a method of defining copy control information in a visual sample group entry according to an embodiment of the present invention.
비쥬얼 샘플 그룹 엔트리 (visual sample group entry)는 copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 포함할 수 있다.The visual sample group entry may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, and / or audio.
비쥬얼 샘플 그룹 엔트리 (visual sample group entry)에 포함되는 정보 중, 전술한 정보와 동일한 명칭을 가지는 정보에 대한 설명은, 전술한 설명으로 대체한다.In the information included in the visual sample group entry, the description of the information having the same name as the above information is replaced with the above description.
비쥬얼 샘플 그룹 엔트리 (visual sample group entry)에 복사 제어 정보가 포함되는 경우, 하나의 파일 또는 무비 프래그먼트 (movie fragment) 내에 존재하는 하나 이상의 비디오 샘플들에 동일한 복사 제어 정보가 적용될 수 있다. 즉, 비쥬얼 샘플 그룹 엔트리 (visual sample group entry)에 복사 제어 정보를 정의하는 경우, 각각의 샘플들을 위하여 복수의 복사 제어 정보를 정의하거나 시그널링할 필요가 없으므로, 데이터 전송을 위한 대역폭을 절약할 수 있는 효과가 있다.When copy control information is included in a visual sample group entry, the same copy control information may be applied to one or more video samples existing in one file or movie fragment. That is, when defining copy control information in a visual sample group entry, it is not necessary to define or signal a plurality of copy control information for each sample, thereby saving bandwidth for data transmission. It works.
도 58 은 본 발명의 일 실시예에 따른 복사 제어 정보를 비쥬얼 샘플 엔트리 내에 정의하는 방안을 도시한 도면이다.58 is a diagram illustrating a method of defining copy control information in a visual sample entry according to an embodiment of the present invention.
비쥬얼 샘플 엔트리 (visual sample entry)는 copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 포함할 수 있다.The visual sample entry may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, and / or num_audio.
비쥬얼 샘플 엔트리 (visual sample entry)에 포함되는 정보 중, 전술한 정보와 동일한 명칭을 가지는 정보에 대한 설명은, 전술한 설명으로 대체한다.Description of information having the same name as the above-mentioned information among the information included in the visual sample entry is replaced with the above description.
비쥬얼 샘플 엔트리 (visual sample entry)에 복사 제어 정보가 포함되는 경우, 하나의 파일 또는 무비 프래그먼트 (movie fragment) 내에 존재하는 각각의 샘플을 디코딩하는데 필요한 초기화 정보로서, 각 샘플에 복사 제어 정보가 적용될 수 있다.When the visual sample entry includes copy control information, the copy control information may be applied to each sample as initialization information necessary to decode each sample existing in one file or movie fragment. have.
이 경우, 각각의 샘플 별로, 복사 제어가 가능하다는 효과가 있다.In this case, there is an effect that copy control is possible for each sample.
전술한 ISOBMFF 을 기반으로, 복사 제어가 가능한 컨텐트에 대한 파일을 생성하거나, MPEG DASH 상에서 동작할 수 있는 DASH 세그먼트를 생성하거나, MPEG MMT 상에서 동작할 수 있는 MPU 생성하는 경우, 복사 제어 정보를 해당 단위에 포함시킬 수 있다. 수신기는 (DASH client, 및/또는 MMT client를 포함하는) 의 디코더는 복사 제어 정보를 이용하여, 해당 컨텐트의 디코딩 및/또는 디스플레이를 효과적으로 수행할 수 있도록 한다. Based on the above-described ISOBMFF, when generating a file for the content that can be controlled for copying, generating a DASH segment that can operate on MPEG DASH, or generating an MPU that can operate on MPEG MMT, the copy control information is included in a corresponding unit. Can be included in The receiver allows the decoder (including the DASH client, and / or MMT client) to effectively perform decoding and / or display of the corresponding content using copy control information.
전술한 복사 제어 정보의 일부 또는 전부는, 하나의 ISOBMFF 파일 혹은 DASH Segment, MMT MPU 내의 여러 박스들에 동시에 존재할 수 있다. 이 경우 상위 박스에서 정의된 복사 제어 정보의 일부 또는 전부는, 하위 박스에서 정의된 동일한 명칭을 가지는 복사 제어 정보의 일부 또는 전부의 값들로 오버라이드 (override) 될 수 있다.Some or all of the above-described copy control information may exist simultaneously in several boxes in one ISOBMFF file or DASH segment, MMT MPU. In this case, some or all of the copy control information defined in the upper box may be overridden by values of some or all of the copy control information having the same name defined in the lower box.
도 59 는 본 발명의 일 실시예에 따른 복사 제어 정보를 pssh 박스 내에 정의하는 방안을 도시한 도면이다.FIG. 59 is a diagram illustrating a method of defining copy control information in a pssh box according to an embodiment of the present invention. FIG.
pssh 박스는 컨텐트를 재생하기 위해 컨텐트 보호 시스템 (content protection system)에 의해 필요한 정보를 포함할 수 있다. The pssh box may include information required by the content protection system to play the content.
pssh 박스는 copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 포함할 수 있다.The pssh box may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information and / or num_audio_channel.
무비 박스 또는 무비 프래그먼트 박스 내에, pssh 박스 가 존재할 수 있고, pssh 박스가 복사 제어 정보의 전부 또는 일부를 포함하는 경우, 해당 복사 제어 정보는, 트랙 프래그먼트 (track fragment) 내에 포함된 비디오 샘플들에 공통적으로 적용될 수 있다.In a movie box or movie fragment box, if a pssh box can exist and the pssh box contains all or part of the copy control information, the copy control information is common to the video samples included in the track fragment. Can be applied as
도 60 은 본 발명의 일 실시예에 따른 복사 제어 정보를 tenc 박스 내에 정의하는 방안을 도시한 도면이다.60 is a diagram illustrating a method of defining copy control information in a tenc box according to an embodiment of the present invention.
tenc 박스는 Scheme Information Box 내에 포함될 수 있다. The tenc box may be included in the Scheme Information Box.
tenc 박스는 트랙 프래그먼트에 포함되는 비디오 샘플들에 대하여 공통되는 암호화와 관련된 정보를 포함한다.The tenc box contains information related to encryption common to video samples included in the track fragment.
tenc 박스는 default_copy_control_flag 정보, default_num_copy_control_info 정보, default_num_play_control_info 정보, default_ep_copy_control_info 정보, default_trick_mode_control_flag 정보, default_num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 포함할 수 있다.The tenc box may include default_copy_control_flag information, default_num_copy_control_info information, default_num_play_control_info information, default_ep_copy_control_info information, default_trick_mode_control_flag information, default_num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information, and / or channel.
tenc 박스가 복사 제어 정보의 일부 또는 전부를 포함하는 경우, 해당 복사 제어 정보는 트랙 프래그먼트에 포함되는 비디오 샘플들에 대한 복사 제어를 위한 기본 (default) 값으로 사용될 수 있다.When the tenc box includes some or all of the copy control information, the copy control information may be used as a default value for copy control on video samples included in the track fragment.
도 61 은 본 발명의 일 실시예에 따른 복사 제어 정보를 senc 박스 내에 정의하는 방안을 도시한 도면이다.FIG. 61 is a diagram illustrating a method of defining copy control information in a senc box according to an embodiment of the present invention. FIG.
senc 박스는 트랙 프래그먼트 박스 (track fragment box) 또는 트랙 박스 (track box) 에 포함될 수 있다. The senc box may be included in a track fragment box or a track box.
senc 박스는 각각의 샘플에 적용되는 암호화와 관련된 정보를 포함한다.The senc box contains information related to the encryption that is applied to each sample.
senc 박스는 copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 포함할 수 있다.The senc box may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info information and / or num_audio_channel_control_info.
senc 박스는 복사 제어 정보의 일부 또는 전부를 포함하는 경우, 해당 복사 제어 정보는 트랙 프래그먼트에 포함되는 비디오 샘플들에 각각에 적용될 수 있다. 즉, 이 경우, 비디오 샘플들 각각에 대하여 복사 제어가 가능하다.If the senc box includes some or all of the copy control information, the copy control information may be applied to each of the video samples included in the track fragment. In this case, copy control is possible for each of the video samples.
도 62 는 본 발명의 일 실시예에 따른 복사 제어 정보를 CencSampleEncryptionInformationVideoGroupEntry 또는 CencSampleEncryptionInformationGroupEntry에 정의하는 방안을 도시한 도면이다.62 is a diagram illustrating a method of defining copy control information in CencSampleEncryptionInformationVideoGroupEntry or CencSampleEncryptionInformationGroupEntry according to an embodiment of the present invention.
CencSampleEncryptionInformationVideoGroupEntry는 copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 포함할 수 있다.CencSampleEncryptionInformationVideoGroupEntry may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, numnum_scalability_control_info info / channel, and / or audio information.
CencSampleEncryptionInformationGroupEntry는 copy_control_flag 정보, num_copy_control_info 정보, num_play_control_info 정보, ep_copy_control_info 정보, trick_mode_control_flag 정보, num_out_control_info 정보, stereo_video_control_flag 정보, num_scalability_control_info 정보 및/또는 num_audio_channel_control_info 정보를 포함할 수 있다.CencSampleEncryptionInformationGroupEntry may include copy_control_flag information, num_copy_control_info information, num_play_control_info information, ep_copy_control_info information, trick_mode_control_flag information, num_out_control_info information, stereo_video_control_flag information, num_scalability_control_info info and / or channel.
트랙 (track)의 handler type이 비디오 ('vide') 일 때, 하나의 파일 혹은 무비 프래그먼트 내에 존재하는 하나 이상의 비디오 샘플들에 동일한 복사 제어 정보를 적용하고자 하는 경우, CencSampleEncryptionInformationGroupEntry 에 복사 제어 정보의 전부 또는 일부가 포함될 수 있다.When the handler type of the track is video ('vide'), if you want to apply the same copy control information to one or more video samples present in a file or movie fragment, all or all of the copy control information in CencSampleEncryptionInformationGroupEntry Some may be included.
트랙 (track)의 handler type이 비디오가 아닌 다른 타입을 가리키는 경우, 하나의 파일 혹은 무비 프래그먼트 내에 존재하는 하나 이상의 비디오 샘플들에 동일한 복사 제어 정보를 적용하고자 하는 경우, CencSampleEncryptionInformationGroupEntry 에 복사 제어 정보의 전부 또는 일부가 포함될 수 있다.If the handler's type of track indicates a type other than video, and you want to apply the same copy control information to one or more video samples that exist in a file or movie fragment, all of the copy control information in CencSampleEncryptionInformationGroupEntry or Some may be included.
도 63 은 본 발명의 일 실시예에 따른 복사 제어 박스를 나타낸 도면이다. 63 is a view showing a copy control box according to an embodiment of the present invention.
본 발명의 일 실시예에 따르면, 전술한 복사 제어 박스에 포함된 파라미터들을 저장 및 시그널링하기 위해 복사 제어 박스를 정의할 수 있다. 본 발명의 일 실시예에 따르면, 별도의 박스타입(boxtype)을 정의하는 대신, ISOBMFF의 uuid(Universal Unique IDentifier) 박스타입을 그대로 사용할 수 있다. 본 발명의 일 실시예에 따르면, 16 바이트의 확장타입(extended_type)을 추가로 정의하여 박스를 구성할 수 있다. 도시된 syntax는 CopyControlInfo라는 확장타입을 사용하고 있으나, CopyControlInfo 타입 이외의 확장타입이 사용될 수도 있다. 본 발명의 일 실시예에 따르면, 별도의 박스타입을 정의하지 않고, 기존의 ISOBMFF 박스타입을 이용하면서도 복사 제어 파라미터를 제공할 수 있다. According to an embodiment of the present invention, a copy control box may be defined to store and signal the parameters included in the above-described copy control box. According to an embodiment of the present invention, instead of defining a separate boxtype, a uuid (Universal Unique IDentifier) box type of ISOBMFF may be used as it is. According to an embodiment of the present invention, a box may be configured by further defining an extended type of 16 bytes. The illustrated syntax uses an extension type called CopyControlInfo, but an extension type other than CopyControlInfo type may be used. According to an embodiment of the present invention, a copy control parameter may be provided while using an existing ISOBMFF box type without defining a separate box type.
도 64 는 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 HDR configuration description에 대한 설명을 나타낸 도면이다. 64 is a diagram illustrating a description of an HDR configuration description including image quality improvement information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 화질 개선 정보는 도시된 HDRConfiguration 엘레먼트에 의해 기술될 수 있다.The picture quality improvement information according to an embodiment of the present invention may be described by the illustrated HDRConfiguration element.
본 발명의 일 실시예에 따르면, HDR configuration description (HDR 구성 정보)는 HDRConfiguration 엘레먼트에 포함되어 이 엘레먼트에 의해 설명될 수 있다.According to an embodiment of the present invention, the HDR configuration description (HDR configuration information) may be included in the HDRConfiguration element and described by this element.
본 발명의 일 실시예에 따른 HDRConfiguration 엘레먼트는 @schemeIdUri, @value 및/또는 @id를 포함한다. 여기서, @schemeIdUri는 필수적인 (mandatory) 필드이고, @value 및 @id는 선택적인 (optional) 필드일 수 있다. (L10010)The HDRConfiguration element according to an embodiment of the present invention includes @schemeIdUri, @value and / or @id. Here, @schemeIdUri may be a mandatory field, and @value and @id may be an optional field. (L10010)
@schemeIdUri는 해당 스키마를 식별하는 URI를 나타낸다. 이 엘레먼트의 시맨틱 (semantic)은 이 어트리뷰트에 의해 설명되는 스키마에 특정될 수 있다. 이 어트리뷰트는 URN 또는 URL일 수 있다. 이 어트리뷰트로서 URL이 사용되는 경우, 이 어트리뷰트는 mmyyyy 형태의 날짜 정보를 포함할 수 있다.@schemeIdUri represents a URI that identifies the schema. The semantic of this element can be specified in the schema described by this attribute. This attribute can be a URN or a URL. If a URL is used as this attribute, this attribute may contain date information in the form mmyyyy.
@value는 이 엘레먼트를 위한 값을 나타낸다. 이 값에 대한 공간 및 시맨틱은 상술한 @schemeIdUri에 의해 식별되는 스키마에 의해 정의될 수 있다.@value represents the value for this element. The spatial and semantics for this value may be defined by the schema identified by @schemeIdUri described above.
@id는 이 엘레먼트를 위한 식별자를 나타낸다. 동일한 이 어트리뷰트 값을 갖는 엘레먼트들은 서로 동일할 수 있다. 즉, 동일한 이 어트리뷰트 값을 갖는 엘레먼트들이 존재하는 경우, 이 엘레먼트들 중에 하나만 처리되며 충분하며 다른 엘레먼트들은 처리되지 않아도 된다.@id represents an identifier for this element. Elements with the same attribute value may be identical to each other. In other words, if there are elements with the same attribute value, only one of these elements is processed and sufficient, and the other elements do not have to be processed.
본 발명의 일 실시예에 따른 HDRConfiguration 엘레먼트는 이 도면의 하단 (L10020)과 같은 형태로 표현될 수 있다.HDRConfiguration element according to an embodiment of the present invention may be represented in the form of the bottom (L10020) of this figure.
도 65 및 66 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 HDRConfiguration 엘레먼트의 @schemeIdUri 및 @value에 대한 설명을 나타낸다. 도 67 은 HDRConfiguration 엘레먼트에 포함된 필드의 구체적인 타입과 관련된 실시예를 나타낸 도면이다.65 and 66 illustrate a description of @schemeIdUri and @value of an HDRConfiguration element including picture quality improvement information according to an embodiment of the present invention. 67 is a view showing an embodiment related to a specific type of field included in an HDRConfiguration element.
본 발명의 일 실시예에 따른 화질 개선 정보는 도시된 HDRConfiguration 엘레먼트에 의해 기술될 수 있다.The picture quality improvement information according to an embodiment of the present invention may be described by the illustrated HDRConfiguration element.
본 발명의 일 실시예에 따르면, HDR configuration description을 포함하는 HDRConfiguration 엘레먼트의 @schemeIdUri는 urn:mpeg:dash:hdr:201x 을 가질 수 있다.According to an embodiment of the present invention, the @schemeIdUri of the HDRConfiguration element including the HDR configuration description may have urn: mpeg: dash: hdr: 201x.
본 발명의 일 실시예에 따르면, HDR configuration description을 포함하는 HDRConfiguration 엘레먼트의 @value는 HDRAppType, TransferFunctionType, ColorGamutType, ColorTemperatureType, SetNumber, VersionNumber, ContrastRatio, FStop, PeakLuminanceLevel, MinLuminanceLevel, AverageLuminanceLevel, MedianLuminanceLevel, NormalWhiteLevel, DiffuseWhiteLevel, SpecularWhiteLevel, NormalBlackLevel, DeepBlackLevel, PitchDarkLevel, HDRSDRTransitionFlag, SDRHDRTransitionFlag, SDRCompatibilityFlag, HDRInfoTransitionFlag, HDRAppTypeTransitionFlag, TransferFunctionTransitionFlag, WCGInfoTransitionFlag, ColorTemperatureTransitionFlag, HDRMappingInfoPresentFlag, HDRMappingInfoType, WCGMappingInfoPresentFlag, WCGMappingInfoType, ViewingConditionInfoPresentFlag 및/또는 ViewingConditionInfoType를 포함할 수 있다.According to an embodiment of the present invention, the @value of the HDRConfiguration element including the HDR configuration description is HDRAppType, TransferFunctionType, ColorGamutType, ColorTemperatureType, SetNumber, VersionNumber, ContrastRatio, FStop, PeakLuminanceLevel, MinLuminanceLevel, AverageLuminanceLevel, MedianLuminanceLevel, NormalWhiteLevel, DiffWhite NormalBlackLevel, DeepBlackLevel, PitchDarkLevel, HDRSDRTransitionFlag, SDRHDRTransitionFlag, SDRCompatibilityFlag, HDRInfoTransitionFlag, HDRAppTypeTransitionFlag, TransferFunctionTransitionFlag, WCGInfoTransitionFlag, ColorTemperatureTransitionFlag, HDRMappingInfoPresentFlag, HDRMappingFontInfo
HDRAppType은 HDR 컨피규레이션을 위한 정보가 적용되는 범위를 나타낼 수 있다. 예를 들어, HDRAppType은 mastering display에 대한 정보를 나타내거나, channel, program, content 단위에 대한 적용 정보를 나타낼 수 있으며, 연속된 장면, 비디오 클립, 프레임 각각에 대한 적용 정보를 나타낼 수 있다. 그 밖에, HDRAppType는 다른 기준에 따른 적용 정보를 나타낼 수도 있다. 예를 들어, HDRAppType은 변환 전후, 전송 포맷, 변환 후 목표 대상 포맷, 스태틱 메타데이터 또는 다이나믹 메타데이터 등를 구별하여 적용 정보를 나타낼 수도 있다. HDRAppType은 HDR Application Type에 도시된 실시예(H67010)와 같이 표현될 수 있으며, 향후에 확장될 수도 있다.The HDRAppType may indicate a range to which information for HDR configuration is applied. For example, the HDRAppType may indicate information on a mastering display, or may apply application information about a channel, a program, and a content unit, and may indicate application information about each of a series of scenes, video clips, and frames. In addition, the HDRAppType may indicate application information according to other criteria. For example, the HDRAppType may indicate application information by distinguishing between before and after conversion, a transmission format, a target target format after conversion, static metadata, and dynamic metadata. The HDRAppType may be expressed like the embodiment H67010 shown in the HDR Application Type and may be extended in the future.
TransferFunctionType은 HDR 비디오의 mastering display, channel, program, content, track, scene, clip 및/또는 frame에 사용된 transfer function의 종류를 나타낼 수 있다. 예를 들어, TransferFunctionType을 통해 SMPTE ST 2084, ITU BT.1886, BT.2020 등과 같이 미리 정해진 EOTF가 시그널링 될 수 있다. 또한, transfer function의 종류에 따라 절대 밝기 표현 방법, 상대 밝기 표현 방법 등을 나눈 다음 TransferFunctionType을 통해 구체적인 방법이 시그널링될 수도 있다. 실시예에 따라서, TransferFunctionType을 통해 임의의 transfer function의 계수가 전달될 수도 있다. TransferFunctionType은 도시된 Transfer Functino Type(H67020)과 같이 표현될 수 있으며, 향후에 확장될 수도 있다.The TransferFunctionType may indicate the type of transfer function used for the mastering display, channel, program, content, track, scene, clip, and / or frame of the HDR video. For example, a predetermined EOTF such as SMPTE ST 2084, ITU BT.1886, BT.2020, etc. may be signaled through TransferFunctionType. In addition, a specific method may be signaled through a TransferFunctionType after dividing an absolute brightness expression method or a relative brightness expression method according to the type of the transfer function. Depending on the embodiment, coefficients of any transfer function may be passed through TransferFunctionType. TransferFunctionType may be expressed as Transfer Functino Type (H67020) shown and may be extended in the future.
ColorGamutType은 HDR 비디오의 mastering display, channel, program, content, track, scene, clip 및/또는 frame 에 해당하는 color gamut 종류를 나타낼 수 있다. 예를 들어, ColorGamutType은 BT.709, BT.2020, DCI-P3와 같은 표준 color gamut을 나타낼 수 있다. 실시예에 따라서, ColorGamutType은 RGB color primary, XYZ 또는 RGBW 등을 통해 임의의 color gamut을 나타낼 수 있다. ColorGamutType은 도시된 Color Gamut type(H67030)과 같이 표현될 수 있으며, 향후에 확장될 수도 있다.The ColorGamutType may indicate a type of color gamut corresponding to a mastering display, channel, program, content, track, scene, clip, and / or frame of the HDR video. For example, ColorGamutType may indicate standard color gamut such as BT.709, BT.2020, and DCI-P3. According to an embodiment, the ColorGamutType may represent any color gamut through RGB color primary, XYZ, or RGBW. The ColorGamutType may be represented as the illustrated Color Gamut type (H67030), and may be extended in the future.
ColorTemperatureType은 color gamut의 mastering display, channel, program, content, track, scene, clip 및/또는 frame 에 해당하는 기준 white에 대한 정보를 나타낼 수 있다. 예를 들어, ColorTemperatureType은 D65, D50과 같은 표준 광원 색온도가 될 수도 있다. 실시예에 따라서, ColorTemperatureType은 white 에 대한 RGB color primary, XYZ 또는 RGBW 등과 같이 색온도에 대한 대표성을 띄는 임의의 값을 나타낼 수도 있다.The ColorTemperatureType may indicate information about a reference white corresponding to a mastering display, channel, program, content, track, scene, clip, and / or frame of a color gamut. For example, ColorTemperatureType may be a standard light source color temperature such as D65, D50. According to an embodiment, ColorTemperatureType may represent any value representative of color temperature, such as RGB color primary, XYZ, or RGBW for white.
SetNumber는 현재 HDR 파라미터들이 가지고 있는 특성값들의 식별 번호를 나타낼 수 있다. 예를 들어, SetNumber는 샘플, clip, scene 등의 단위로 복수의 HDR 특성값들이 전달되는 상황에서 각각의 샘플, clip, scene 등을 구분하는 역할을 할 수 있다. 실시예에 따라서, SetNumber는 HDR_info_type과 연계해서 common, frame, scene 등 각각에 대해 복수의 HDR 특성값을 정의하는 경우 각각을 구분 할 수 있게 한다. 예를 들어, 다양한 종류의 luminance를 갖는 display 지원을 목적으로 서로 다른 DR mapping function이 전달되는 경우 SetNumber는 이들을 구분하는 역할을 할 수 있다.SetNumber may indicate an identification number of characteristic values currently held by the HDR parameters. For example, SetNumber may play a role of distinguishing each sample, clip, scene, etc. in a situation where a plurality of HDR characteristic values are transmitted in units of a sample, a clip, a scene, and the like. According to an embodiment, SetNumber may be distinguished when defining a plurality of HDR characteristic values for each of common, frame, scene, etc. in association with HDR_info_type. For example, if different DR mapping functions are delivered to support displays with various kinds of luminance, SetNumber can play a role in distinguishing them.
VersionNumber는 HDR 컨피규레이션(HDRConfiguration)의 버전을 나타낸다. VersionNumber는 HDR_app_type 및/또는 set_number와 연계하여 현재 HDR Configuration element에 포함된 HDR 파라미터 중에서 정보 변경이 있음을 나타낼 수 있다. 예를 들어, 동일한 HDR_app_type 및/또는 set_number를 갖는 HDR Configuration element이 같은 version number를 갖는 경우 metadata buffer 내의 정보는 영상에 그대로 적용될 수 있을 것이다. 그러나, version_number가 변경된 경우 metadata buffer 내 정보를 이용하여 업데이트(update) 한 다음, 업데이트된 새로운 정보가 영상에 적용될 수 있다.VersionNumber represents the version of the HDR Configuration. VersionNumber may indicate that there is information change among HDR parameters included in the current HDR configuration element in association with HDR_app_type and / or set_number. For example, when the HDR configuration elements having the same HDR_app_type and / or set_number have the same version number, the information in the metadata buffer may be applied to the image as it is. However, when the version_number is changed, the updated new information may be applied to the image after updating using information in the metadata buffer.
ContrastRatio는 N:1의 명암비(contrast ratio)에서 N을 지시할 수 있다.ContrastRatio may indicate N at a contrast ratio of N: 1.
FStop는 2^N f-stop에서 N을 지시할 수 있다.FStop can indicate N at 2 ^ N f-stop.
PeakLuminanceLevel은 최대 밝기 값을 지시할 수 있다. PeakLuminanceLevel may indicate a maximum brightness value.
MinLuminanceLevel은 최소 밝기 값을 지시할 수 있다.MinLuminanceLevel may indicate a minimum brightness value.
AverageLuminanceLevel은 평균 밝기 값을 지시할 수 있다.AverageLuminanceLevel may indicate an average brightness value.
MedianLuminanceLevel은 중간 밝기 값을 지시할 수 있다.MedianLuminanceLevel may indicate a medium brightness value.
NormalWhiteLevel은 normal white 레벨 값을 지시할 수 있다.NormalWhiteLevel may indicate a normal white level value.
DiffuseWhiteLevel은 diffuse white 레벨 값을 지시할 수 있다.DiffuseWhiteLevel may indicate a diffuse white level value.
SpecularWhiteLevel은 specular white 레벨 값을 지시할 수 있다.SpecularWhiteLevel may indicate a specular white level value.
NormalBlackLevel은 normal black 레벨 값을 지시할 수 있다.NormalBlackLevel may indicate a normal black level value.
DeepBlackLevel은 deep black 레벨 값을 지시할 수 있다. DeepBlackLevel may indicate a deep black level value.
PitchDarkLevel은 pitch dark 레벨 값을 지시할 수 있다.PitchDarkLevel may indicate a pitch dark level value.
PeakLuminanceLevel, MinLuminanceLevel, AverageLuminanceLevel, MedianLuminanceLevel, NormalWhiteLevel, DiffuseWhiteLevel, SpecularWhiteLevel, NormalBlackLevel, DeepBlackLevel 및/또는 PitchDarkLevel은 nit 또는 cd/m2 등의 단위를 가질 수 있다.PeakLuminanceLevel, MinLuminanceLevel, AverageLuminanceLevel, MedianLuminanceLevel, NormalWhiteLevel, DiffuseWhiteLevel, SpecularWhiteLevel, NormalBlackLevel, DeepBlackLevel and / or PitchDarkLevel may have units such as nit or cd / m 2 .
HDRSDRTransitionFlag는 HDR에서 SDR로 전환되는지 여부를 지시하는 플래그일 수 있다.The HDRSDRTransitionFlag may be a flag indicating whether to switch from HDR to SDR.
SDRHDRTransitionFlag는 SDR에서 HDR로 전환되는지 여부를 지시하는 플래그일 수 있다.SDRHDRTransitionFlag may be a flag indicating whether to switch from SDR to HDR.
SDRCompatibilityFlag는 SDR 디코더/디스플레이와의 호환가능성을 지시하는 플래그일 수 있다. SDRCompatibilityFlag may be a flag indicating compatibility with the SDR decoder / display.
HDRInfoTransitionFlag는 HDR 파라미터 등이 변경되어 다른 HDR 파라미터가 적용되는지 여부를 지시하는 플래그일 수 있다.The HDRInfoTransitionFlag may be a flag indicating whether another HDR parameter is applied by changing an HDR parameter or the like.
HDRAppTypeTransitionFlag는 HDR applicable type(HDRAppType)이 변경되어 다른 HDRAppType이 적용되는 경우를 나타내는 플래그일 수 있다. 일 실시예에 따르면, HDRAppTypeTransitionFlag가 1 인 경우 HDRAppType의 전환을 나타낼 수 있다.The HDRAppTypeTransitionFlag may be a flag indicating a case where an HDR applicable type (HDRAppType) is changed and another HDRAppType is applied. According to an embodiment, when the HDRAppTypeTransitionFlag is 1, this may indicate a transition of the HDRAppType.
TransferFunctionTransitionFlag는 Transfer Function type이 변경되어 다른 Transfer Function이 적용되는 경우를 나타내는 플래그일 수 있다. 일 실시예에 따르면, TransferFunctionTransitionFlag가 1인 경우 Transfer Function의 전환을 나타낼 수 있다.The TransferFunctionTransitionFlag may be a flag indicating a case where a Transfer Function type is changed and another Transfer Function is applied. According to an embodiment, when TransferFunctionTransitionFlag is 1, this may indicate transition of a transfer function.
WCGInfoTransitionFlag는 WCG 정보가 변경되어 다른 WCG 정보를 적용해야 하는 경우를 나타내는 플래그일 수 있다. 일 실시예에 따르면, WCGInfoTransitionFlag가 1 인 경우 WCG 정보의 변환을 나타낼 수 있다.The WCGInfoTransitionFlag may be a flag indicating a case in which WCG information is changed to apply other WCG information. According to an embodiment, when the WCGInfoTransitionFlag is 1, this may indicate conversion of WCG information.
ColorTemperatureTransitionFlag는 색온도 정보가 변경되어 다른 색온도 정보를 적용해야 하는 경우를 나타내는 플래그일 수 있다. 일 실시예에 따르면, ColorTemperatureTransitionFlag가 1인 경우 색온도(Color Temperature) 정보의 변환을 나타낼 수 있다.The ColorTemperatureTransitionFlag may be a flag indicating a case where color temperature information is changed to apply different color temperature information. According to an embodiment, when ColorTemperatureTransitionFlag is 1, this may indicate conversion of color temperature information.
HDRMappingInfoPresentFlag는 HDR 컨피규레이션 엘레먼트에 HDR 맵핑 관련 정보가 포함되었는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, HDRMappingInfoPresentFlag가 1인 경우 HDR configuration element에 HDR mapping 관련 정보가 포함되어 있음을 나타낼 수 있다.The HDRMappingInfoPresentFlag may be a flag indicating whether HDR mapping related information is included in the HDR configuration element. According to an embodiment, when the HDRMappingInfoPresentFlag is 1, it may represent that HDR mapping related information is included in the HDR configuration element.
HDRMappingInfoType은 HDR mapping을 위한 정보 종류를 나타낼 수 있다. 예를 들어, HDRMappingInfoType은 HEVC에 포함되어 있는 Knee function information SEI message 혹은 Tone mapping information SEI message 를 지칭함으로써 다른 SEI message의 정보를 인용하거나, HDR Configuration element 내에 내용을 직접 기술할 수 있다. HDRMappingInfoType은 도시된 HDR mapping info type(H67040)과 같이 표현될 수 있으며, 향후에 확장될 수도 있다.The HDRMappingInfoType may indicate an information type for HDR mapping. For example, HDRMappingInfoType may refer to a Knee function information SEI message or a Tone mapping information SEI message included in HEVC, and may quote information of another SEI message or directly describe content in an HDR configuration element. The HDRMappingInfoType may be expressed as the HDR mapping info type H67040 shown and may be extended in the future.
WCGMappingInfoPresentFlag는 HDR 컨피규레이션 엘레먼트 에 WCG 맵핑 관련 정보가 포함되었는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, WCGMappingInfoPresentFlag가 1인 경우 HDR configuration element에 WCG mapping 관련 정보가 포함되어 있음을 나타낼 수 있다.The WCGMappingInfoPresentFlag may be a flag indicating whether WCG mapping related information is included in the HDR configuration element. According to an embodiment, when the WCGMappingInfoPresentFlag is 1, it may represent that the WCG mapping related information is included in the HDR configuration element.
WCGMappingInfoType은 WCG mapping을 위한 정보 종류를 나타낼 수 있다. 예를 들어, WCGMappingInfoType은 HEVC에 포함되어있는 Colour remapping information SEI message 에 정의된 정보를 인용하거나, HDR Configuration element 내에 내용을 직접 기술할 수 있다. WCGMappingInfoType은 도시된 WCG mapping info type(H67050)과 같이 표현될 수 있으며, 향후에 확장될 수도 있다.WCGMappingInfoType may indicate an information type for WCG mapping. For example, WCGMappingInfoType can refer to the information defined in the Color remapping information SEI message included in HEVC, or can describe the content directly in the HDR configuration element. The WCGMappingInfoType may be expressed as the illustrated WCG mapping info type (H67050) and may be extended in the future.
ViewingConditionInfoPresentFlag는 HDR 컨피규레이션 엘레먼트에 Viewing Condition 맵핑 관련 정보가 포함되었는지 여부를 나타내는 플래그일 수 있다. 일 실시예에 따르면, ViewingConditionInfoPresentFlag가 1인 경우 HDR configuration element에 Viewing Condition mapping 관련 정보가 포함되어 있음을 나타낼 수 있다. The ViewingConditionInfoPresentFlag may be a flag indicating whether the HDR configuration element includes the Viewing Condition mapping related information. According to an embodiment, when ViewingConditionInfoPresentFlag is 1, it may represent that the Viewing Condition mapping related information is included in the HDR configuration element.
ViewingConditionInfoType은 Viewing Condition mapping을 위한 정보 종류를 나타낼 수 있다. 예를 들어, ViewingConditionInfoType은 별도의 SEI message로 정의된 viewing_condition 에 정의된 정보를 인용하거나, HDR Configuration element 내에 내용을 직접 기술할 수도 있다. ViewingConditionInfoType may indicate an information type for viewing condition mapping. For example, ViewingConditionInfoType may cite information defined in viewing_condition defined as a separate SEI message, or may directly describe content in an HDR configuration element.
도 68 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 커먼 어트리뷰트 및 엘레먼트의 구성의 일 실시예를 나타낸 도면이다.68 is a diagram illustrating an embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 화질 개선 정보는 도시된 커먼 어트리뷰트 및 엘레먼트에 의해 기술될 수 있다.The picture quality improvement information according to an embodiment of the present invention may be described by the common attributes and elements shown.
본 발명의 일 실시예에 따르면, HDR description은 커먼 어트리뷰트 및 엘레먼트(common attributes and elements)에 포함될 수 있다. 커먼 어트리뷰트 및 엘레먼트는 어댑테이션 셋(Adaptation Set), 레프리젠테이션(Representation) 및/또는 서브 레프리젠테이션(Sub-Representation)에 적용될 수 있다. According to an embodiment of the present invention, the HDR description may be included in common attributes and elements. Common attributes and elements may be applied to an adaptation set, a representation, and / or a sub-representation.
본 발명의 일 실시예에 따른 커먼 어트리뷰트 및 엘레먼트는 @profile, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, FramePacking 및/또는 HDRConfiguration을 포함할 수 있다.Common attributes and elements according to an embodiment of the present invention are @profile, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransat or FrameTransaction It may include an HDRConfiguration.
@profile은 미디어 프리젠테이션 프로파일의 리스트 중 관련 레프리젠테이션과 관련된 프로파일을 나타낼 수 있다. 이 어트리뷰트의 값은 더 높은 레벨의 계층적 문서(Representatino, Adapatation Set, MPD) 내 각 밸류(value)의 서브셋일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@profile may represent a profile related to a related representation in a list of media presentation profiles. The value of this attribute may be a subset of each value in a higher level hierarchical document (Representatino, Adapatation Set, MPD). This attribute may be optional.
@HDRFlag는 해당 비디오 미디어 컴포넌트가 HDR을 지원하는지를 나타내는 플래그일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@HDRFlag may be a flag indicating whether a corresponding video media component supports HDR. This attribute may be optional.
@HDRTypeTransitionFlag는 현재의 HDR 비디오 미디어 컴포넌트의 끝을 나타내거나 비디오 미디어 컴포넌트 내에서 현재 HDR 타입(HDR type)으로부터 다른 HDR 타입으로의 전환을 나타낼할 수 있다. 즉, HDR 타입이 다르면, HDR을 구성하는 어트리뷰트 및/또는 엘레먼트의 하나 이상의 값은 다를 수 있다. 예를 들어, HDR type #1은 oeft:3, max_lum:100, min_lum:0.5, max_frame_lum:0, max_pixel_lum:0를 갖는 HDR 비디오 미디어 컴포넌트의 타입을 나타내고, HDR type #2는 oeft:1, max_lum:1000, min_lum:0.05, max_frame_lum:0, max_pixel_lum:0를 갖는 HDR 비디오 미디어 컴포넌트의 타입을 나타내면, 두 HDR 비디오 미디어 컴포넌트는 다른 타입을 갖는다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@HDRTypeTransitionFlag may indicate the end of the current HDR video media component or may indicate the transition from the current HDR type to another HDR type within the video media component. That is, if the HDR types are different, one or more values of the attributes and / or elements constituting the HDR may be different. For example, HDR type # 1 represents the type of HDR video media component with oeft: 3, max_lum: 100, min_lum: 0.5, max_frame_lum: 0, max_pixel_lum: 0, and HDR type # 2 represents oeft: 1, max_lum: Representing the type of the HDR video media component with 1000, min_lum: 0.05, max_frame_lum: 0, max_pixel_lum: 0, the two HDR video media components have different types. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@HDRSDRTransitionFlag는 현재의 HDR 비디오 미디어 컴포넌트의 끝을 나타내거나, 비디오 미디어 컴포넌트 내에서 HDR에서 SDR로의 전환을 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@HDRSDRTransitionFlag may indicate the end of the current HDR video media component or may indicate the transition from HDR to SDR within the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@SDRHDRTransitionFlag는 현재의 SDR 비디오 미디어 컴포넌트의 끝을 나타내거나, 비디오 미디어 컴포넌트 내에서 SDR에서 HDR로의 전환을 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@SDRHDRTransitionFlag may indicate the end of the current SDR video media component or may indicate the transition from SDR to HDR within the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@HDRInfoTransition는 비디오 미디어 컴포넌트 내에서 현재의 HDR 특성(HDR characterisitics)의 전환을 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@HDRInfoTransition may represent a transition of current HDR characterisitics within a video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@HDRAppTypeTransition은 비디오 미디어 컴포넌트 내에서 현재의 HDR 적용 타입(HDR applicable type)의 전환을 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@HDRAppTypeTransition may indicate a transition of the current HDR applicable type within the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@TransferFunctionTransition은 비디오 미디어 컴포넌트 내에서 현재의 HDR 변환 함수(HDR Transfer Function)의 전환을 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다. @TransferFunctionTransition can represent a transition of the current HDR Transfer Function within the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@WCGInfoTransition은 비디오 미디어 컴포넌트 내에서 현재의 WCG 타입(WCG type)의 전환을 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@WCGInfoTransition may indicate the transition of the current WCG type in the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@ColorTemperatureTransition은 비디오 미디어 컴포넌트 내에서 현재의 색온도(color temperature)의 전환을 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@ColorTemperatureTransition can indicate the transition of the current color temperature within the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@SDRCompatibility는 비디오 미디어 컴포넌트가 SDR과 호환성이 있는지를 나타내는 플래그일 수 있다. 이 어트리뷰트는 옵셔널일 수 있다.@SDRCompatibility may be a flag indicating whether the video media component is compatible with SDR. This attribute may be optional.
FramePacking은 해당 비디오 미디어 컴포넌트 타입의 프레임 패킹 어레인지먼트 정보(frame-packing arrangement information)를 나타낼 수 있다. 이 엘레먼트는 0 개 이상일 수 있다.FramePacking may indicate frame-packing arrangement information of a corresponding video media component type. This element may be zero or more.
HDRConfiguration는 비디오 미디어 컴포넌트의 HDR 컨피규레이션 정보(HDR configuration infomation)를 나타낼 수 있다. 이 엘레먼트는 0 개 이상일 수 있다.The HDRConfiguration may represent HDR configuration information of the video media component. This element may be zero or more.
도 69 는 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 커먼 어트리뷰트 및 엘레먼트의 구성의 다른 실시예를 나타낸 도면이다.69 is a view showing another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 화질 개선 정보는 도시된 커먼 어트리뷰트 및 엘레먼트에 의해 기술될 수 있다.The picture quality improvement information according to an embodiment of the present invention may be described by the common attributes and elements shown.
본 발명의 다른 실시예에 따르면, HDR description은 커먼 어트리뷰트 및 엘레먼트(common attributes and elements)에 포함될 수 있다. 커먼 어트리뷰트 및 엘레먼트는 어댑테이션 셋(Adaptation Set), 레프리젠테이션(Representation) 및/또는 서브 레프리젠테이션(Sub-Representation)에 적용될 수 있다. According to another embodiment of the present invention, the HDR description may be included in common attributes and elements. Common attributes and elements may be applied to an adaptation set, a representation, and / or a sub-representation.
본 발명의 다른 실시예에 따른 커먼 어트리뷰트 및 엘레먼트는 @profile, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, @HDRAppType, @TransferFunctionType, @ColorGamutType 및/또는 @ColorTemperatureType을 포함할 수 있다.The common attributes and elements according to another embodiment of the present invention are @profile, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureAppatibility, @ColorTemperatureTransition, It may include TransferFunctionType, @ColorGamutType and / or @ColorTemperatureType.
@profile, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition 및 @SDRCompatibility에 대한 설명은 전술한 바와 같다.The description of @profile, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, and @SDRCompatibility have been described above.
@HDRAppType은 비디오 미디어 컴포넌트의 소스 픽처(source picture)의 HDR 적용 타입(HDR applicable type)을 위한 식별자를 제공할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@HDRAppType may provide an identifier for the HDR applicable type of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
@TransferFunctionType은 비디오 미디어 컴포넌트의 소스 픽처의 OETF 커브(opto-electronic transfer function curve)를 위한 식별자를 제공할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@TransferFunctionType may provide an identifier for an opto-electronic transfer function curve of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
@ColorGamutType는 비디오 미디어 컴포넌트의 소스 픽처의 WCG를 위한 식별자를 제공할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@ColorGamutType may provide an identifier for the WCG of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
@ColorTemperatureType는 비디오 미디어 컴포넌트의 소스 픽처의 색온도를 위한 식별자를 제공할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@ColorTemperatureType may provide an identifier for the color temperature of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
도 70 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 커먼 어트리뷰트 및 엘레먼트의 구성의 또 다른 실시예를 나타낸 도면이다.70 is a view illustrating another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 화질 개선 정보는 도시된 커먼 어트리뷰트 및 엘레먼트에 의해 기술될 수 있다.The picture quality improvement information according to an embodiment of the present invention may be described by the common attributes and elements shown.
본 발명의 또 다른 실시예에 따르면, HDR description은 커먼 어트리뷰트 및 엘레먼트(common attributes and elements)에 포함될 수 있다. 커먼 어트리뷰트 및 엘레먼트는 어댑테이션 셋(Adaptation Set), 레프리젠테이션(Representation) 및/또는 서브 레프리젠테이션(Sub-Representation)에 적용될 수 있다. According to another embodiment of the present invention, the HDR description may be included in common attributes and elements. Common attributes and elements may be applied to an adaptation set, a representation, and / or a sub-representation.
본 발명의 또 다른 실시예에 따른 커먼 어트리뷰트 및 엘레먼트는 @profile, @SetNumber, @VersionNumber, @ContrastRatio, @Fstop, @PeakLuminanceLevel, @MinLuminanceLevel, @AverageLuminanceLevel, @MedianLuminanceLevel, @NormalWhiteLevel, @DiffuseWhiteLevel, @SpecularWhiteLevel, @NormalBlackLevel, @DeepBlackLevel 및/또는 @PitchDarkLevel을 포함할 수 있다.The common attributes and elements according to another embodiment of the present invention are @profile, @SetNumber, @VersionNumber, @ContrastRatio, @Fstop, @PeakLuminanceLevel, @MinLuminanceLevel, @AverageLuminanceLevel, @MedianLuminanceLevel, @NormalWhiteLevel, @DiffuseWhiteLevel, @SpecularWhite It may include @NormalBlackLevel, @DeepBlackLevel and / or @PitchDarkLevel.
@profile은 미디어 프리젠테이션 프로파일의 리스트 중 관련 레프리젠테이션과 관련된 프로파일을 나타낼 수 있다. 이 어트리뷰트의 값은 더 높은 레벨의 계층적 문서(Representatino, Adapatation Set, MPD) 내 각 밸류(value)의 서브셋일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다. 이는 전술한 바와 같다.@profile may represent a profile related to a related representation in a list of media presentation profiles. The value of this attribute may be a subset of each value in a higher level hierarchical document (Representatino, Adapatation Set, MPD). This attribute may be optional. This is as described above.
@SetNumber는 비디오 미디어 컴포넌트의 소스 픽처(source picture)의 HDR 파라미터를 위한 식별자를 제공할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@SetNumber may provide an identifier for the HDR parameter of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
@VersionNumber는 비디오 미디어 컴포넌트의 소스 픽처(source picture)의 HDR 컨피규레이션 버전(HDR configuration version)을 위한 식별자를 제공할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@VersionNumber may provide an identifier for an HDR configuration version of a source picture of a video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
@ContrastRatio는 명암비(contrast ratio)를 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 분수(non-negative fractional value)일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@ContrastRatio can express the contrast ratio. This attribute may be a non-negative fractional value. This attribute may be optional.
@Fstop은 F-stop을 표현할 수 있다. 즉, @Fstop은 2^N에서 N을 의미할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@Fstop can represent an F-stop. That is, @Fstop may mean N at 2 ^ N. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
@PeakLuminanceLevel은 피크 루미넌스 레벨(peak luminance level)을 표현할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다. 이 어트리뷰트는 100-10000의 값을 가질 수 있다.@PeakLuminanceLevel can express peak luminance level. This attribute can be a positive integer expressed in decimal. This attribute may be optional. This attribute can have a value of 100-10000.
@MinLuminanceLevel은 최소 루미넌스 레벨(minimum luminance level)을 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 분수(non-negative fractional value)일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 0-0.1의 값을 가질 수 있다.@MinLuminanceLevel can express the minimum luminance level. This attribute may be a non-negative fractional value. This attribute may be optional. According to one embodiment, this attribute may have a value of 0-0.1.
@AverageLuminanceLevel은 평균 루미넌스 레벨(average luminance level)을 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 정수 또는 분수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@AverageLuminanceLevel can represent an average luminance level. This attribute can be a positive integer or a fraction. This attribute may be optional.
@MedianLuminanceLevel은 중간 루미넌스 레벨(median luminance level)을 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 정수 또는 분수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@MedianLuminanceLevel can express the median luminance level. This attribute can be a positive integer or a fraction. This attribute may be optional.
@NormalWhiteLevel은 노말 화이트 레벨(normal white level)을 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 정수 또는 분수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@NormalWhiteLevel may represent a normal white level. This attribute can be a positive integer or a fraction. This attribute may be optional.
@DiffuseWhiteLevel은 디퓨즈 화이트 레벨(diffuse white level)을 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 정수 또는 분수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@DiffuseWhiteLevel can represent a diffuse white level. This attribute can be a positive integer or a fraction. This attribute may be optional.
@SpecularWhiteLevel은 스페큘러 화이트 레벨(specular white level)을 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 정수 또는 분수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@SpecularWhiteLevel can represent a specular white level. This attribute can be a positive integer or a fraction. This attribute may be optional.
@NormalBlackLevel은 노말 블랙 레벨(normal black level)을 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 정수 또는 분수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@NormalBlackLevel can represent a normal black level. This attribute can be a positive integer or a fraction. This attribute may be optional.
@DeepBlackLevel은 딥 블랙 레벨(deep black level)을 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 정수 또는 분수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@DeepBlackLevel can express deep black level. This attribute can be a positive integer or a fraction. This attribute may be optional.
@PitchDarkLevel은 피치 다크 레벨(pitch dark level)을 표현할 수 있다. 이 어트리뷰트는 양의 값을 갖는 정수 또는 분수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다.@PitchDarkLevel can represent pitch dark level. This attribute can be a positive integer or a fraction. This attribute may be optional.
도 71 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 커먼 어트리뷰트 및 엘레먼트의 구성의 또 다른 실시예를 나타낸 도면이다.71 is a view showing another embodiment of a configuration of a common attribute and an element including picture quality improvement information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 화질 개선 정보는 도시된 커먼 어트리뷰트 및 엘레먼트에 의해 기술될 수 있다.The picture quality improvement information according to an embodiment of the present invention may be described by the common attributes and elements shown.
본 발명의 또 다른 실시예에 따르면, HDR description은 커먼 어트리뷰트 및 엘레먼트(common attributes and elements)에 포함될 수 있다. 커먼 어트리뷰트 및 엘레먼트는 어댑테이션 셋(Adaptation Set), 레프리젠테이션(Representation) 및/또는 서브 레프리젠테이션(Sub-Representation)에 적용될 수 있다. According to another embodiment of the present invention, the HDR description may be included in common attributes and elements. Common attributes and elements may be applied to an adaptation set, a representation, and / or a sub-representation.
본 발명의 또 다른 실시예에 따른 커먼 어트리뷰트 및 엘레먼트는 @profile, @HDRMappingInfoPresentFlag, @HDRMappingInfoType, @WCGMappingInfoPresentFlag, @WCGMappingInfoType, @ViewingConditionInfoPresentFlag 및/또는 @ViewingConditionInfoType을 포함할 수 있다.Common attributes and elements according to another embodiment of the present invention may include @profile, @HDRMappingInfoPresentFlag, @HDRMappingInfoType, @WCGMappingInfoPresentFlag, @WCGMappingInfoType, @ViewingConditionInfoPresentFlag and / or @ViewingConditionInfoType.
@profile은 미디어 프리젠테이션 프로파일의 리스트 중 관련 레프리젠테이션과 관련된 프로파일을 나타낼 수 있다. 이 어트리뷰트의 값은 더 높은 레벨의 계층적 문서(Representatino, Adapatation Set, MPD) 내 각 밸류(value)의 서브셋일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다. 이는 전술한 바와 같다.@profile may represent a profile related to a related representation in a list of media presentation profiles. The value of this attribute may be a subset of each value in a higher level hierarchical document (Representatino, Adapatation Set, MPD). This attribute may be optional. This is as described above.
@HDRMappingInfoPresentFlag는 비디오 미디어 컴포넌트 내 HDR 맵핑 정보(HDR mapping information)를 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@HDRMappingInfoPresentFlag may indicate HDR mapping information in a video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@HDRMappingInfoType은 비디오 미디어 컴포넌트의 소스 픽처의 HDR 맵핑 정보(HDR mapping information)를 위한 식별자를 제공할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다. @HDRMappingInfoType may provide an identifier for HDR mapping information of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
@WCGMappingInfoPresentFlag는 비디오 미디어 컴포넌트 내 WCG 맵핑 정보(WCG mapping inforamation)를 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@WCGMappingInfoPresentFlag may indicate WCG mapping information in the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@WCGMappingInfoType은 비디오 미디어 컴포넌트의 소스 픽처의 WCG 맵핑 정보(WCG mapping information)를 위한 식별자를 제공할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다. @WCGMappingInfoType may provide an identifier for WCG mapping information of a source picture of a video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
@ViewingConditionInfoPresentFlag는 비디오 미디어 컴포넌트 내 뷰잉 컨디션 정보(viewing condition information)를 나타낼 수 있다. 일 실시예에 따르면, 이 어트리뷰트는 true로 설정될 경우 존재하고, false로 설정될 경우 존재하지 않을 수 있으며, 이 어트리뷰트의 디폴트 값은 false일 수 있다.@ViewingConditionInfoPresentFlag may indicate viewing condition information in the video media component. According to one embodiment, this attribute may be present if set to true, not present if set to false, and the default value of this attribute may be false.
@ViewingConditionInfoType은 비디오 미디어 컴포넌트의 소스 픽처의 뷰잉 컨디션 정보(viewing condition information)를 위한 식별자를 제공할 수 있다. 이 어트리뷰트는 10진수로 표현되는 양의 정수일 수 있다. 이 어트리뷰트는 옵셔널(optional)일 수 있다. @ViewingConditionInfoType may provide an identifier for viewing condition information of the source picture of the video media component. This attribute can be a positive integer expressed in decimal. This attribute may be optional.
도 72 는 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 컨텐트 컴포넌트의 구성을 나타낸 도면이다.72 is a diagram illustrating a configuration of a content component including image quality improvement information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 화질 개선 정보는 도시된 컨텐트 컴포넌트에 의해 기술될 수 있다.The picture quality improvement information according to an embodiment of the present invention may be described by the illustrated content component.
본 발명의 일 실시예에 따르면, HDR 컨피규레이션(HDR configuration)은 컨텐트 컴포넌트(content component) 엘레먼트에 포함될 수 있다. According to an embodiment of the present invention, the HDR configuration may be included in a content component element.
본 발명의 일 실시예에 다른 컨텐트 컴포넌트 엘레먼트는 @id, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, Accessibility 및/또는 HDRConfiguration를 포함할 수 있다.According to an embodiment of the present invention, another content component element includes @id, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, HDR It may include.
ContnetComponent 엘레먼트는 하나의 컨텐트 컴포넌트에 대한 설명을 나타내는 엘레먼트이다.The ContnetComponent element is an element representing a description of one content component.
@id는 해당 미디어 컴포넌트의 식별자를 나타낸다. 이 어트리뷰트는 해당 어뎁테이션 셋 내에서 유일한 값을 가질 수 있다.@id represents the identifier of the media component. This attribute can have a unique value within the corresponding adaptation set.
@HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility 및 HDRConfiguration에 대한 설명은 전술한 바와 같다.The description of @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, and HDRConfiguration are as described above.
Accessibility는 접근성 스킴(accessibility scheme)에 대한 정보를 나타낼 수 있다.Accessibility may indicate information about an accessibility scheme.
도 73 은 본 발명의 일 실시예에 따른 화질 개선 정보를 포함하는 세그먼트 베이스의 구성을 나타낸 도면이다.73 is a diagram illustrating a configuration of a segment base including image quality improvement information according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 화질 개선 정보는 도시된 세그먼트 베이스에 의해 기술될 수 있다.The image quality improvement information according to an embodiment of the present invention may be described by the illustrated segment base.
본 발명의 일 실시예에 따르면, HDR 컨피규레이션(HDR configuration)은 세그먼트 베이스(SegmentBase) 엘레먼트에 포함될 수 있다.According to an embodiment of the present invention, the HDR configuration may be included in the SegmentBase element.
본 발명의 일 실시예에 따른 SegmentBase 엘레먼트는 SegmentBase 엘레먼트를 기술하고, 이 엘레먼트는 다른 엘레먼트들을 위한 베이스 타입 (base type)을 나타내는 세그먼트 베이스 정보 (segment base information)를 위한 타입을 기술한다.A SegmentBase element according to an embodiment of the present invention describes a SegmentBase element, which describes a type for segment base information indicating a base type for other elements.
본 발명의 일 실시예에 따른 SegmentBase 엘레먼트는 @timescale, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, Initialization 및/또는 HDRConfiguration를 포함할 수 있다.SegmentBase element according to an embodiment of the present invention is @timescale, @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ ColorTemperature / Transition, HDR It may include.
@timescale은 세그먼트 정보 내에서 서로 다른 실시간 듀레이션 값을 맞추기 위해 사용되는 초단위의 타임스케일을 기술한다.@timescale describes the timescale in seconds used to match different real-time duration values in the segment information.
@HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility 및 HDRConfiguration에 대한 설명은 전술한 바와 같다.The description of @HDRFlag, @HDRTypeTransitionFlag, @HDRSDRTransitionFlag, @SDRHDRTransitionFlag, @HDRInfoTransition, @HDRAppTypeTransition, @TransferFunctionTransition, @WCGInfoTransition, @ColorTemperatureTransition, @SDRCompatibility, and HDRConfiguration are as described above.
Initialization는 Initialization segment를 위한 가능한 바이트 범위를 포함하는 URL을 나타낸다.Initialization represents a URL that contains the possible byte range for the initialization segment.
본 발명의 일 실시예에 따르면, 상술한 엘레먼트 및/또는 어트리뷰트가 패런트 레벨 (parent level)에서 시그널링되고, 차일드 레벨(parent level)에서도 시그널링된 경우, 이 때, 패런트 레벨에서의 값과 차일드 레벨에서의 값이 다르면, 상위 레벨에서 시그널링된 엘레먼트 및/또는 어트리뷰트의 값들은 하위 레벨에서 시그널링되는 값들로 오버라이드 될 수 있다. 예를 들어, MPD 및 segmentBase를 통해 엘레먼트 및/또는 어트리뷰트가 시그널링된 경우, 패런트 레벨에 해당하는 MPD의 엘레먼트 및/또는 어트리뷰트의 값들은 차일드 레벨에 해당하는 segmentBase의 엘레먼트 및/또는 어트리뷰트의 값들로 오버라이드될 수 있다.According to an embodiment of the present invention, when the above-described elements and / or attributes are signaled at the parent level and also at the parent level, at this time, the value and the child at the parent level If the value at the level is different, the values of the element and / or attribute signaled at the higher level may be overridden with values signaled at the lower level. For example, when an element and / or an attribute is signaled through the MPD and segmentBase, the values of the element and / or attribute of the MPD corresponding to the parent level are the values of the element and / or attribute of the segmentBase corresponding to the child level. Can be overridden.
본 발명의 일 측면에 따르면, 미디어 파일 포맷을 이용하여, 화질 개선 정보를 전달하는 방안이 제공된다. 본 발명의 일 측면에 따르면, 별도의 시그널링 패쓰(path)가 아닌, 해당 미디어 자체에 화질 개선 정보를 정의함으로써, UHD 방송을 지원하는 다양한 차세대 컨텐트 시스템에서 효율성을 제고할 수 있다.According to an aspect of the present invention, a method for delivering picture quality improvement information using a media file format is provided. According to an aspect of the present invention, by defining the quality improvement information on the media itself rather than a separate signaling path, it is possible to improve efficiency in various next generation content systems supporting UHD broadcasting.
본 발명의 일 측면에 따르면, HDR 미디어 데이터 또는 WCG 미디어 데이터에 대하여 HDR 정보, WCG 정보에 대한 시그널링 정보가 별도로 구성될 필요가 없을 수 있다. 미디어 파일 그 자체로 HDR 정보 등이 파악될 수 있으므로, 수신기는 비디오 데이터 디코딩 이전에 HDR 정보 등을 파악하고 그에 따라 화질 개선 프로세스 등을 수행할 수 있다.According to an aspect of the present invention, the signaling information for the HDR information and the WCG information may not need to be separately configured for the HDR media data or the WCG media data. Since the HDR information and the like can be identified by the media file itself, the receiver can grasp the HDR information and the like and perform an image quality improvement process before decoding the video data.
본 발명의 일 측면에 따르면, 화질 개선 정보가 기본적인 미디어 파일 자체에 정의될 수 있으므로, 다양한 저장/전달 시스템과 호환될 수 있다. 즉, 해당 미디어 파일 포맷을 사용하는 시스템이라면 추가적인 저장/전송 시스템의 구조 변경이나 개선 없이도 화질 개선 프로세스 등이 수행될 수 있다.According to an aspect of the present invention, since the image quality improvement information may be defined in the basic media file itself, it may be compatible with various storage / delivery systems. That is, if the system uses the media file format, the image quality improvement process may be performed without changing or improving the structure of the additional storage / transmission system.
본 발명의 일 측면에 따르면, 미디어 파일 생성 당시에 화질 개선 정보가 반영되므로, 수신기는 해당 미디어 데이터의 생성 당시에 의도된대로 미디어 데이터를 제공할 수 있다. 즉, 본 발명의 일 측면에 따르면, 화질 개선 정보는, 시그널링 정보 등에 의해 변경되지 않을 수 있다.According to an aspect of the present invention, since the image quality improvement information is reflected at the time of generating the media file, the receiver may provide the media data as intended at the time of generating the media data. That is, according to an aspect of the present invention, the image quality improvement information may not be changed by signaling information.
본 발명의 다른 측면에 따르면, HDR 파라미터 및/또는 WCG 파라미터와 같은 화질 개선 정보는, mastering display에 대한 정보를 나타내거나 channel, program, content 단위로 공통적으로 적용될 수도 있고, track, scene, clip, frame(sample) 단위에 개별적으로 적용될 수도 있다. 즉, 본 발명의 다른 측면에 따르면, 화질 개선 정보는 static 메타데이터와, dynamic 메타데이터로 구별될 수 있다. 따라서, 본 발명의 다른 측면에 따르면, 공통적으로 적용가능한 정보와, 다양한 장면 특성에 적응적인 화질 개선 정보 등이 시그널링될 수 있다.According to another aspect of the present invention, image quality improvement information such as HDR parameters and / or WCG parameters may indicate information on a mastering display, or may be commonly applied in units of channels, programs, and content, and may include tracks, scenes, clips, and frames. It may be applied individually to the (sample) unit. That is, according to another aspect of the present invention, the image quality improvement information may be classified into static metadata and dynamic metadata. Accordingly, according to another aspect of the present invention, commonly applicable information and image quality improvement information adaptive to various scene characteristics may be signaled.
본 발명의 또 다른 측면에 따르면, 미디어 파일 포맷을 이용하여 복사 제어 정보를 저장 및/또는 시그널링하는 방안이 제공된다. 복사 제어 정보는 별도로 정의된 박스에 포함되어 미디어 파일 내에 저장되거나, 기 정의된 박스에 포함될 수 있다. 복사 제어 정보가 별도로 정의된 박스에 포함될 경우, 확장성이 제고되고, 복사 제어 정보가 기 정의된 박스에 포함될 경우, 호환성이 제고된다.According to another aspect of the present invention, a method of storing and / or signaling copy control information using a media file format is provided. The copy control information may be included in a separately defined box and stored in a media file, or may be included in a predefined box. When the copy control information is included in a separately defined box, scalability is enhanced, and when the copy control information is included in a predefined box, compatibility is enhanced.
본 명세서는 HDR 정보 및/또는 WCG 정보를 저장 및/또는 시그널링하는 방안을 개시한다. 본 명세서에 개시된 HDR 정보 및/또는 WCG 정보는 미디어 파일 내에 포함되어 전송될 수 있으며, DASH MPD와 같이 시스템 레벨을 통해 전송될 수도 있다. 즉, 전술한 실시예에서, 각 HDR 파라미터 및/또는 WCG 파라미터가 미디어 파일에 포함되거나 전송되는 경우(도 39 ~ 63 참조)나, 시스템 레벨에서 전송되는 경우(도 64 ~73 참조)로 한정하여 기술하고 있으나, 각 파라미터들은 미디어 레벨, 시스템 레벨 또는 미디어 레벨 및 시스템 레벨에서 저장 및/또는 전송될 수도 있다.The present disclosure discloses a scheme for storing and / or signaling HDR information and / or WCG information. The HDR information and / or WCG information disclosed herein may be included in a media file and transmitted, or may be transmitted through a system level, such as a DASH MPD. That is, in the above-described embodiment, only when each HDR parameter and / or WCG parameter is included or transmitted in the media file (see FIGS. 39 to 63) or transmitted at the system level (see FIGS. 64 to 73) Although described, each parameter may be stored and / or transmitted at the media level, system level or media level and system level.
또한 본 명세서에서 HDR 정보 및/또는 WCG 정보 등은, HDR information descriptor, HDR configuration descriptor, HDR 인포메이션 박스, HDR 컨피규레이션 박스 등의 형태로 제공된다. 이러한 디스크립터, 박스 등에 포함된 다양한 파라미터들은 모순되지 않는 범위에서 다른 디스크립터, 박스 등에 적용될 수도 있다.In addition, in the present specification, the HDR information and / or WCG information is provided in the form of an HDR information descriptor, an HDR configuration descriptor, an HDR information box, an HDR configuration box, and the like. Various parameters included in such descriptors, boxes, and the like may be applied to other descriptors, boxes, and the like within the scope of contradiction.
또한, 본 명세서에서 HDR 정보, WCG 정보 등의 용어는 명확하게 구별된 경우도 있고, HDR 정보 내에 WCG 정보가 포함된 개념으로 사용된 경우도 있다. 실시예에 따라서, HDR 정보는, HDR 정보 뿐만 아니라 WCG 정보를 포함하는 개념으로 사용될 수도 있다.In this specification, terms such as HDR information and WCG information may be clearly distinguished, or may be used as a concept in which WCG information is included in the HDR information. According to an embodiment, the HDR information may be used as a concept including WCG information as well as HDR information.
도 74 는 본 발명의 일 실시예에 따른 방송 신호를 송신하는 방법을 나타낸 순서도이다.74 is a flowchart illustrating a method of transmitting a broadcast signal according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 방송 신호를 송신하는 방법은, 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 생성하는 단계(S74100), 생성된 미디어 파일을 포함하는 하나 이상의 세그먼트를 생성하는 단계(S74200), 생성된 하나 이상의 세그먼트를 포함하는 방송 신호를 생성하는 단계(S74300) 및 방송 신호를 전송하는 단계(S74400)를 포함할 수 있다.The method for transmitting a broadcast signal according to an embodiment of the present invention may include generating a media file including video data and image quality improvement information (S74100), and generating one or more segments including the generated media file ( S74200), generating a broadcast signal including the generated one or more segments (S74300), and transmitting the broadcast signal (S74400).
미디어 파일을 생성하는 단계(S74100)는, 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 생성할 수 있다. 여기서, 미디어 파일은 ISOBMFF 기반의 미디어 파일일 수 있다. 이러한 미디어 파일 구조의 상세한 내용은 도 29 등을 참조하여 전술하였다. 미디어 파일은 비디오 데이터 및 화질 개선 정보를 포함할 수 있다. 화질 개선 정보는 전술한 HDR 정보 및/또는 WCG 정보를 의미할 수 있다. HDR 정보 및/또는 WCG 정보는 도 39~도 73에 기술된 화질 개선 정보일 수 있다. 화질 개선 정보는 비디오 데이터에 적용되어 비디어 데이터의 화질을 개선하는데 사용될 수 있다.In the generating of the media file (S74100), a media file including video data and image quality improvement information may be generated. Here, the media file may be an ISOBMFF based media file. Details of such a media file structure have been described above with reference to FIG. 29 and the like. The media file may include video data and picture quality improvement information. The image quality improvement information may mean the above-described HDR information and / or WCG information. The HDR information and / or the WCG information may be image quality improvement information described with reference to FIGS. 39 to 73. The picture quality improvement information may be applied to the video data and used to improve the picture quality of the video data.
일 실시예에 따르면, 미디어 파일을 생성하는 단계(S74100)는, 전술한 도 13의 HDR 방송 서비스를 제작하는 장치에 의해 수행될 수 있다.According to an embodiment, the generating of the media file (S74100) may be performed by the apparatus for manufacturing the HDR broadcast service of FIG. 13.
세그먼트를 생성하는 단계(S74200)는, 미디어 파일을 생성하는 단계(S74100)에서 생성된 미디어 파일을 포함하는 하나 이상의 세그먼트를 생성할 수 있다. 세그먼트를 생성하는 단계(S74200)는, 생성된 미디어 파일을 처리하여 하나 이상의 세그먼트로 프로세싱할수 있다. 여기서 세그먼트는 DASH 세그먼트일 수 있다. 실시예에 따라 미디어 파일을 생성하는 단계(S74100)와 세그먼트를 생성하는 단계(S74200)는 하나의 단계로 통합될 수도 있다. 여기서, 세그먼트는 ftyp 박스와 moov 박스를 포함하는 초기화 세그먼트와, 전술한 프래그먼트를 포함하는 미디어 세그먼트로 구별될 수 있다.In the generating of the segment (S74200), one or more segments including the media file generated in the generating of the media file (S74100) may be generated. In operation S74200, the generated media file may be processed into one or more segments. Here, the segment may be a DASH segment. According to an embodiment, the generating of the media file (S74100) and the generating of the segment (S74200) may be combined into one step. Here, the segment may be divided into an initialization segment including an ftyp box and a moov box, and a media segment including the aforementioned fragment.
방송 신호를 생성하는 단계(S74300)는, 생성된 하나 이상의 세그먼트를 포함하는 방송 신호를 생성할 수 있다. The generating of the broadcast signal in operation S74300 may generate a broadcast signal including one or more generated segments.
방송 신호를 전송하는 단계(S74400)는 생성된 방송 신호를 전송할 수 있다. 방송 신호는 적응적 스트리밍 방식에 따라 방송망 또는 브로드밴드를 통해 전송될 수 있다. DASH 기반의 적응적 스트리밍 방식과 DASH 기반의 데이터 모델에 대한 구체적인 내용은 도 9 및 도 10에서 전술하였다.In operation S74400, the broadcast signal may be transmitted. The broadcast signal may be transmitted through a broadcast network or broadband according to an adaptive streaming scheme. Details of the DASH-based adaptive streaming scheme and the DASH-based data model are described above with reference to FIGS. 9 and 10.
일 실시예에서, 화질 개선 정보는 적어도 하나의 제1 화질 개선 파라미터를 포함할 수 있다. 제1 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터를 구성하는 제1 비디오 프레젠테이션 단위에 공통적으로 적용되는 화질 개선 정보를 의미할 수 있다. 즉, 제1 화질 개선 파라미터는 특정 비디오 프레젠테이션 단위에 공통적으로 적용되는 화질 개선 정보를 의미할 수 있다. 제1 화질 개선 파라미터는 전술한 HDR 인포메이션 박스에 포함될 수 있다. 일 예로, 제1 화질 개선 파라미터는, 전술한 도 39의 HDR 인포메이션 박스에 포함된 화질 개선 파라미터들일 수 있다. 여기서, 비디오 프레젠테이션 단위는 track, scene, clip 또는 frame 단위를 의미할 수 있다. 일 예로, 제1 화질 개선 파라미터는 비디오 트랙에 공통적으로 적용될 수 있다. 다른 예로, 제1 화질 개선 파라미터는 비디오 씬에 공통적으로 적용될 수 있다. 또 다른 예로, 제1 화질 개선 파라미터는 비디오 클립에 공통적으로 적용될 수 있다. 또 다른 예로, 제1 화질 개선 파라미터는 비디오 프레임(샘플)에 공통적으로 적용될 수 있다.In one embodiment, the image quality improvement information may include at least one first image quality improvement parameter. The first quality improvement parameter may refer to quality improvement information commonly applied to the first video presentation unit constituting video data included in the media file. That is, the first quality improvement parameter may refer to quality improvement information that is commonly applied to a specific video presentation unit. The first quality improvement parameter may be included in the aforementioned HDR information box. For example, the first image quality improvement parameters may be image quality improvement parameters included in the HDR information box of FIG. 39 described above. Here, the video presentation unit may mean a track, scene, clip or frame unit. For example, the first quality improvement parameter may be commonly applied to the video track. As another example, the first quality improvement parameter may be commonly applied to the video scene. As another example, the first quality improvement parameter may be commonly applied to a video clip. As another example, the first quality improvement parameter may be commonly applied to a video frame (sample).
다른 실시예에서, 화질 개선 정보는 적어도 하나의 제2 화질 개선 파라미터를 포함할 수 있다. In another embodiment, the image quality improvement information may include at least one second image quality improvement parameter.
제2 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터를 구성하는 제2 비디오 프레젠테이션 단위들 각각에 적용되는 화질 개선 정보를 의미할 수 있다. 즉, 제2 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터의 다양한 장면에 각각 적용되는 화질 개선 정보를 의미할 수 있다. 여기서, 비디오 데이터의 다양한 장면은 track, scene, clip 또는 frame(sample) 등을 의미할 수 있다. 따라서, 제2 화질 개선 파라미터는 track 별로 적용되거나, scene 별로 적용되거나, clip 별로 적용되거나 frame 별로 적용될 수 있다. 다시 말해, 제2 화질 개선 파라미터는 비디오 데이터를 구성하는 비디오 프레젠테이션 단위 별로 적용될 수 있다. 여기서, 비디오 프레젠테이션 단위는 track, scene, clip 또는 frame 단위를 의미할 수 있다는 것은 전술한 바와 같다. 일 예로, 제2 화질 개선 파라미터는 비디오 트랙들 각각에 적용될 수 있다. 다른 예로, 제2 화질 개선 파라미터는 비디오 씬들 각각에 적용될 수 있다. 또 다른 예로, 제2 화질 개선 파라미터는 비디오 클립들 각각에 적용될 수 있다. 또 다른 예로, 제2 화질 개선 파라미터는 비디오 프레임(샘플)들 각각에 적용될 수 있다. 제2 화질 개선 파리미터는 제1화질 개선 파라미터와 마찬가지로 전술한 HDR 인포메이션 박스에 포함될 수 있다. 일 예로, 제2 화질 개선 파라미터는, 전술한 도 40의 HDR 인포메이션 박스에 포함된 화질 개선 파라미터들일 수 있다.The second quality improvement parameter may refer to quality improvement information applied to each of the second video presentation units constituting video data included in the media file. That is, the second quality improvement parameter may refer to quality improvement information applied to various scenes of video data included in the media file, respectively. Here, various scenes of the video data may mean a track, a scene, a clip, or a frame (sample). Therefore, the second quality improvement parameter may be applied for each track, for each scene, for each clip, or for each frame. In other words, the second quality improvement parameter may be applied for each video presentation unit constituting the video data. As described above, the video presentation unit may mean a track, scene, clip, or frame unit. As an example, the second quality improvement parameter may be applied to each of the video tracks. As another example, the second quality improvement parameter may be applied to each of the video scenes. As another example, the second quality improvement parameter may be applied to each of the video clips. As another example, the second quality improvement parameter may be applied to each of the video frames (samples). The second quality improvement parameter may be included in the above-described HDR information box similarly to the first quality improvement parameter. For example, the second quality improvement parameter may be image quality improvement parameters included in the HDR information box of FIG. 40 described above.
전술한 제1 화질 개선 파라미터와 제2 화질 개선 파라미터는 함께 사용될 수도 있다. 제1 화질 개선 파라미터는 공통적으로 적용되는 화질 개선 정보를 제공하고, 제2 화질 개선 파라미터는 장면에 적응적인 화질 개선 정보를 제공할 수 있다. 또한, 제1 화질 개선 파라미터가 적용되는 제1 비디오 프레젠테이션 단위와, 제2 화질 개선 파라미터가 적응적으로 적용되는 제2 비디오 프레젠테이션 단위를 동일할 수 있다. 예를 들어, 제1 화질 개선 파라미터가 비디오 샘플에 공통적으로 적용될 수 있고, 제2 화질 개선 파리미터는 비디오 샘플들 각각에 개별적으로 적용될 수도 있다.The above-described first quality improvement parameter and the second quality improvement parameter may be used together. The first image quality improvement parameter may provide image quality improvement information that is commonly applied, and the second image quality improvement parameter may provide image quality improvement information adaptive to a scene. Also, the first video presentation unit to which the first quality improvement parameter is applied and the second video presentation unit to which the second quality improvement parameter is adaptively applied may be the same. For example, the first quality improvement parameter may be commonly applied to the video sample, and the second quality improvement parameter may be applied to each of the video samples separately.
또 다른 실시예에서, 비디오 프레젠테이션 단위는 비디오 샘플일 수 있다. 이 경우, 제2 화질 개선 파라미터는 비디오 데이터를 구성하는 비디오 샘플들 각각에 적용될 수 있다. 이때, 비디오 샘플들 중 일부는, 비디오 씬 또는 비디오 클립으로 그룹핑될 수 있다. 그룹핑될 경우, 그룹핑 타입은 ISO/IEC 14496-12 표준의 sbgp 박스(sample-to-group box) 또는 sqpd 박스(sample group description box)에 포함된 그룹핑 타입 필드에 지시될 수 있다. 비디오 샘플 단위로 그룹핑하는 실시예는 전술한 도 51에 도시되어 있다.In yet another embodiment, the video presentation unit may be a video sample. In this case, the second quality improvement parameter may be applied to each of the video samples constituting the video data. At this time, some of the video samples may be grouped into a video scene or a video clip. When grouping, the grouping type may be indicated in a grouping type field included in a sample-to-group box or a sample group description box of the ISO / IEC 14496-12 standard. An embodiment of grouping on a video sample basis is illustrated in FIG. 51 described above.
또 다른 실시예에서, 미디어 파일은 적어도 하나 이상의 복사 제어 정보를 포함할 수 있다. 복사 제어 정보의 구체적인 예시는, 도 51 내지 도 63 및 해당 설명에 기술되어 있다. 복사 제어 정보는, 비디오 데이터를 구성하는 미디어 요소와 관련된 복사 제어 파라미터를 포함할 수 있다. 여기서, 미디어 요소는 비디오, 오디오 및/또는 데이터의 요소를 나타낼 수 있다. 구체적으로, 미디어 요소는 비디오, 오디오 및/또는 데이터를 구성하는 데이터 집합을 가리키는 용어로 사용될 수 있다. 즉, 미디어 요소는 비디오, 오디오 및/또는 데이터의 컨텐트, 컴포넌트, 세그먼트(서브 세그먼트), 트랙, 샘플, 어댑테이션 세트 및/또는 리프레젠테이션을 나타낼 수 있다. In yet another embodiment, the media file may include at least one copy control information. Specific examples of the copy control information are described in Figs. 51 to 63 and the corresponding descriptions. The copy control information can include copy control parameters associated with the media elements that make up the video data. Here, the media element may represent an element of video, audio and / or data. Specifically, the media element may be used as a term referring to a data set constituting video, audio and / or data. That is, media elements may represent content, components, segments (subsegments), tracks, samples, adaptation sets, and / or presentations of video, audio, and / or data.
복사 제어 파라미터는 이러한 미디어 요소와 관련된 복사 제어 정보를 제공할 수 있다. 실시예에 따라서, 복사 제어 파라미터는 전술한 비디오 프레젠테이션과 관련된 복사 제어 정보를 제공할 수도 있다. 즉, 복사 제어 파라미터는 track, scene, clip 또는 frame 별로 복사 제어 정보를 제공할 수도 있다. Copy control parameters may provide copy control information associated with such media elements. According to an embodiment, the copy control parameters may provide copy control information related to the above-described video presentation. That is, the copy control parameter may provide copy control information for each track, scene, clip or frame.
미디어 파일에 포함되는 복사 제어 파라미터로는, 복사 제어 플래그, 복사 제어 횟수 정보, 스트레오 비디오 플래그, 오디오 채널 넘버 정보, 스케일러빌리 넘버 정보 등이 있을 수 있으며, 이외의 다른 파라미터 더 있을 수 있다. 보다 구체적인 복사 제어 파라미터의 예시는 도 51 내지 도 63 및 해당 설명에 기술되어 있다.Copy control parameters included in the media file may include a copy control flag, copy control count information, stereo video flag, audio channel number information, scalability number information, and the like, and may further include other parameters. Examples of more specific copy control parameters are described in FIGS. 51-63 and the corresponding description.
미디어 파일은, 별도로 정의된 복사 제어 박스에 포함되거나, 기 정의된 박스에 포함될 수 있다. 기 정의된 박스의 예시로는, ISOBMFF 에 정의된 uuid(Universal Unique IDentifier) 박스가 있을 수 있다. 미디어 파일이 별도로 정의된 복사 제어 박스에 포함된 실시예는, 도 51 및 해당 설명에 기술에 기술되어 있다. 그리고, 미디어 파일이 ISOBMFF 에 정의된 uuid(Universal Unique IDentifier) 박스에 포함된 실시예는, 도 63 및 해당 설명에 기술되어 있다. The media file may be included in a copy control box defined separately or in a predefined box. An example of the predefined box may be a uuid (Universal Unique IDentifier) box defined in ISOBMFF. Embodiments in which a media file is included in a copy control box defined separately are described in the description in FIG. 51 and the corresponding description. Incidentally, the embodiment in which the media file is included in a uuid (Universal Unique IDentifier) box defined in ISOBMFF is described in FIG. 63 and the corresponding description.
도 75 는 본 발명의 일 실시예에 따른 방송 신호를 전송하는 장치의 구성을 나타낸 도면이다.75 is a diagram showing the configuration of an apparatus for transmitting a broadcast signal according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 방송 신호를 송신하는 장치는, 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 생성하는 파일 생성부(75100), 생성된 미디어 파일을 포함하는 하나 이상의 세그먼트를 생성하는 세그먼트 생성부(75200), 생성된 하나 이상의 세그먼트를 포함하는 방송 신호를 생성하는 방송 신호 생성부(75300) 및 방송 신호를 전송하는 방송 신호 전송부(75400)를 포함할 수 있다.An apparatus for transmitting a broadcast signal according to an embodiment of the present invention, the file generator 75100 for generating a media file including video data and image quality improvement information, and generating one or more segments including the generated media file The segment generator 75200 may include a broadcast signal generator 75300 for generating a broadcast signal including the generated one or more segments, and a broadcast signal transmitter 75400 for transmitting the broadcast signal.
파일 생성부(75100)는, 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 생성할 수 있다. 여기서, 미디어 파일은 ISOBMFF 기반의 미디어 파일일 수 있다. 이러한 미디어 파일 구조의 상세한 내용은 도 29 및 해당 설명에 기술되어 있다. 미디어 파일은 비디오 데이터 및 화질 개선 정보를 포함할 수 있다. 화질 개선 정보는 전술한 HDR 정보 및/또는 WCG 정보를 의미할 수 있다. HDR 정보 및/또는 WCG 정보는 도 39~도 73에 기술된 화질 개선 정보일 수 있다. 화질 개선 정보는 비디오 데이터에 적용되어 비디어 데이터의 화질을 개선하는데 사용될 수 있다.The file generator 75100 may generate a media file including video data and image quality improvement information. Here, the media file may be an ISOBMFF based media file. Details of this media file structure are described in FIG. 29 and the corresponding description. The media file may include video data and picture quality improvement information. The image quality improvement information may mean the above-described HDR information and / or WCG information. The HDR information and / or the WCG information may be image quality improvement information described with reference to FIGS. 39 to 73. The picture quality improvement information may be applied to the video data and used to improve the picture quality of the video data.
세그먼트 생성부(75200)는, 파일 생성부(75100)가 생성된 미디어 파일을 포함하는 하나 이상의 세그먼트를 생성할 수 있다. 세그먼트 생성부(75200)는, 생성된 미디어 파일을 처리하여 하나 이상의 세그먼트로 프로세싱할수 있다. 여기서 세그먼트는 DASH 세그먼트일 수 있다. 여기서, 세그먼트는 ftyp 박스와 moov 박스를 포함하는 초기화 세그먼트와, 전술한 프래그먼트를 포함하는 미디어 세그먼트로 구별될 수 있다.The segment generator 75200 may generate one or more segments including the media file in which the file generator 75100 is generated. The segment generator 75200 may process the generated media file into one or more segments. Here, the segment may be a DASH segment. Here, the segment may be divided into an initialization segment including an ftyp box and a moov box, and a media segment including the aforementioned fragment.
방송 신호 생성부(75300)는, 생성된 하나 이상의 세그먼트를 포함하는 방송 신호를 생성할 수 있다. The broadcast signal generator 75300 may generate a broadcast signal including one or more generated segments.
방송 신호 전송부(75400)는 생성된 방송 신호를 전송할 수 있다. 방송 신호는 적응적 스트리밍 방식에 따라 방송망 또는 브로드밴드를 통해 전송될 수 있다. DASH 기반의 적응적 스트리밍 방식과 DASH 기반의 데이터 모델에 대한 구체적인 내용은 도 9 및 도 10에서 전술하였다.The broadcast signal transmitter 75400 may transmit the generated broadcast signal. The broadcast signal may be transmitted through a broadcast network or broadband according to an adaptive streaming scheme. Details of the DASH-based adaptive streaming scheme and the DASH-based data model are described above with reference to FIGS. 9 and 10.
일 실시예에서, 화질 개선 정보는 적어도 하나의 제1 화질 개선 파라미터를 포함할 수 있다. 제1 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터를 구성하는 제1 비디오 프레젠테이션 단위에 공통적으로 적용되는 화질 개선 정보를 의미할 수 있다. 즉, 제1 화질 개선 파라미터는 특정 비디오 프레젠테이션 단위에 공통적으로 적용되는 화질 개선 정보를 의미할 수 있다. 제1 화질 개선 파라미터는 전술한 HDR 인포메이션 박스에 포함될 수 있다. 일 예로, 제1 화질 개선 파라미터는, 전술한 도 39의 HDR 인포메이션 박스에 포함된 화질 개선 파라미터들일 수 있다. 여기서, 비디오 프레젠테이션 단위는 track, scene, clip 또는 frame 단위를 의미할 수 있다. 일 예로, 제1 화질 개선 파라미터는 비디오 트랙에 공통적으로 적용될 수 있다. 다른 예로, 제1 화질 개선 파라미터는 비디오 씬에 공통적으로 적용될 수 있다. 또 다른 예로, 제1 화질 개선 파라미터는 비디오 클립에 공통적으로 적용될 수 있다. 또 다른 예로, 제1 화질 개선 파라미터는 비디오 프레임(샘플)에 공통적으로 적용될 수 있다.In one embodiment, the image quality improvement information may include at least one first image quality improvement parameter. The first quality improvement parameter may refer to quality improvement information commonly applied to the first video presentation unit constituting video data included in the media file. That is, the first quality improvement parameter may refer to quality improvement information that is commonly applied to a specific video presentation unit. The first quality improvement parameter may be included in the aforementioned HDR information box. For example, the first image quality improvement parameters may be image quality improvement parameters included in the HDR information box of FIG. 39 described above. Here, the video presentation unit may mean a track, scene, clip or frame unit. For example, the first quality improvement parameter may be commonly applied to the video track. As another example, the first quality improvement parameter may be commonly applied to the video scene. As another example, the first quality improvement parameter may be commonly applied to a video clip. As another example, the first quality improvement parameter may be commonly applied to a video frame (sample).
다른 실시예에서, 화질 개선 정보는 적어도 하나의 제2 화질 개선 파라미터를 포함할 수 있다. In another embodiment, the image quality improvement information may include at least one second image quality improvement parameter.
제2 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터를 구성하는 제2 비디오 프레젠테이션 단위들 각각에 적용되는 화질 개선 정보를 의미할 수 있다. 즉, 제2 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터의 다양한 장면에 각각 적용되는 화질 개선 정보를 의미할 수 있다. 여기서, 비디오 데이터의 다양한 장면은 track, scene, clip 또는 frame(sample) 등을 의미할 수 있다. 따라서, 제2 화질 개선 파라미터는 track 별로 적용되거나, scene 별로 적용되거나, clip 별로 적용되거나 frame 별로 적용될 수 있다. 다시 말해, 제2 화질 개선 파라미터는 비디오 데이터를 구성하는 비디오 프레젠테이션 단위 별로 적용될 수 있다. 여기서, 비디오 프레젠테이션 단위는 track, scene, clip 또는 frame 단위를 의미할 수 있다는 것은 전술한 바와 같다. 일 예로, 제2 화질 개선 파라미터는 비디오 트랙들 각각에 적용될 수 있다. 다른 예로, 제2 화질 개선 파라미터는 비디오 씬들 각각에 적용될 수 있다. 또 다른 예로, 제2 화질 개선 파라미터는 비디오 클립들 각각에 적용될 수 있다. 또 다른 예로, 제2 화질 개선 파라미터는 비디오 프레임(샘플)들 각각에 적용될 수 있다. 제2 화질 개선 파리미터는 제1화질 개선 파라미터와 마찬가지로 전술한 HDR 인포메이션 박스에 포함될 수 있다. 일 예로, 제2 화질 개선 파라미터는, 전술한 도 40의 HDR 인포메이션 박스에 포함된 화질 개선 파라미터들일 수 있다.The second quality improvement parameter may refer to quality improvement information applied to each of the second video presentation units constituting video data included in the media file. That is, the second quality improvement parameter may refer to quality improvement information applied to various scenes of video data included in the media file, respectively. Here, various scenes of the video data may mean a track, a scene, a clip, or a frame (sample). Therefore, the second quality improvement parameter may be applied for each track, for each scene, for each clip, or for each frame. In other words, the second quality improvement parameter may be applied for each video presentation unit constituting the video data. As described above, the video presentation unit may mean a track, scene, clip, or frame unit. As an example, the second quality improvement parameter may be applied to each of the video tracks. As another example, the second quality improvement parameter may be applied to each of the video scenes. As another example, the second quality improvement parameter may be applied to each of the video clips. As another example, the second quality improvement parameter may be applied to each of the video frames (samples). The second quality improvement parameter may be included in the above-described HDR information box similarly to the first quality improvement parameter. For example, the second quality improvement parameter may be image quality improvement parameters included in the HDR information box of FIG. 40 described above.
전술한 제1 화질 개선 파라미터와 제2 화질 개선 파라미터는 함께 사용될 수도 있다. 제1 화질 개선 파라미터는 공통적으로 적용되는 화질 개선 정보를 제공하고, 제2 화질 개선 파라미터는 장면에 적응적인 화질 개선 정보를 제공할 수 있다. 또한, 제1 화질 개선 파라미터가 적용되는 제1 비디오 프레젠테이션 단위와, 제2 화질 개선 파라미터가 적응적으로 적용되는 제2 비디오 프레젠테이션 단위를 동일할 수 있다. 예를 들어, 제1 화질 개선 파라미터가 비디오 샘플에 공통적으로 적용될 수 있고, 제2 화질 개선 파리미터는 비디오 샘플들 각각에 개별적으로 적용될 수도 있다.The above-described first quality improvement parameter and the second quality improvement parameter may be used together. The first image quality improvement parameter may provide image quality improvement information that is commonly applied, and the second image quality improvement parameter may provide image quality improvement information adaptive to a scene. Also, the first video presentation unit to which the first quality improvement parameter is applied and the second video presentation unit to which the second quality improvement parameter is adaptively applied may be the same. For example, the first quality improvement parameter may be commonly applied to the video sample, and the second quality improvement parameter may be applied to each of the video samples separately.
또 다른 실시예에서, 비디오 프레젠테이션 단위는 비디오 샘플일 수 있다. 이 경우, 제2 화질 개선 파라미터는 비디오 데이터를 구성하는 비디오 샘플들 각각에 적용될 수 있다. 이때, 비디오 샘플들 중 일부는, 비디오 씬 또는 비디오 클립으로 그룹핑될 수 있다. 그룹핑될 경우, 그룹핑 타입은 ISO/IEC 14496-12 표준의 sbgp 박스(sample-to-group box) 또는 sqpd 박스(sample group description box)에 포함된 그룹핑 타입 필드에 지시될 수 있다. 비디오 샘플 단위로 그룹핑하는 실시예는 전술한 도 51에 도시되어 있다.In yet another embodiment, the video presentation unit may be a video sample. In this case, the second quality improvement parameter may be applied to each of the video samples constituting the video data. At this time, some of the video samples may be grouped into a video scene or a video clip. When grouping, the grouping type may be indicated in a grouping type field included in a sample-to-group box or a sample group description box of the ISO / IEC 14496-12 standard. An embodiment of grouping on a video sample basis is illustrated in FIG. 51 described above.
또 다른 실시예에서, 미디어 파일은 적어도 하나 이상의 복사 제어 정보를 포함할 수 있다. 또 다른 실시예에서, 파일 생성부(75100)는, 하나 이상의 복사 제어 정보를 포함하는 미디어 파일을 생성할 수 있다. 복사 제어 정보의 구체적인 예시는, 도 51 내지 도 63 및 해당 설명에 기술되어 있다. 복사 제어 정보는, 비디오 데이터를 구성하는 미디어 요소와 관련된 복사 제어 파라미터를 포함할 수 있다. 여기서, 미디어 요소는 비디오, 오디오 및/또는 데이터의 요소를 나타낼 수 있다. 구체적으로, 미디어 요소는 비디오, 오디오 및/또는 데이터를 구성하는 데이터 집합을 가리키는 용어로 사용될 수 있다. 즉, 미디어 요소는 비디오, 오디오 및/또는 데이터의 컨텐트, 컴포넌트, 세그먼트(서브 세그먼트), 트랙, 샘플, 어댑테이션 세트 및/또는 리프레젠테이션을 나타낼 수 있다. In yet another embodiment, the media file may include at least one copy control information. According to another embodiment, the file generator 75100 may generate a media file including one or more copy control information. Specific examples of the copy control information are described in Figs. 51 to 63 and the corresponding descriptions. The copy control information can include copy control parameters associated with the media elements that make up the video data. Here, the media element may represent an element of video, audio and / or data. Specifically, the media element may be used as a term referring to a data set constituting video, audio and / or data. That is, media elements may represent content, components, segments (subsegments), tracks, samples, adaptation sets, and / or presentations of video, audio, and / or data.
복사 제어 파라미터는 이러한 미디어 요소와 관련된 복사 제어 정보를 제공할 수 있다. 실시예에 따라서, 복사 제어 파라미터는 전술한 비디오 프레젠테이션과 관련된 복사 제어 정보를 제공할 수도 있다. 즉, 복사 제어 파라미터는 track, scene, clip 또는 frame 별로 복사 제어 정보를 제공할 수도 있다. Copy control parameters may provide copy control information associated with such media elements. According to an embodiment, the copy control parameters may provide copy control information related to the above-described video presentation. That is, the copy control parameter may provide copy control information for each track, scene, clip or frame.
미디어 파일에 포함되는 복사 제어 파라미터로는, 복사 제어 플래그, 복사 제어 횟수 정보, 스트레오 비디오 플래그, 오디오 채널 넘버 정보, 스케일러빌리 넘버 정보 등이 있을 수 있으며, 이외의 다른 파라미터 더 있을 수 있다. 보다 구체적인 복사 제어 파라미터의 예시는 도 51 내지 도 63 및 해당 설명에 기술되어 있다.Copy control parameters included in the media file may include a copy control flag, copy control count information, stereo video flag, audio channel number information, scalability number information, and the like, and may further include other parameters. Examples of more specific copy control parameters are described in FIGS. 51-63 and the corresponding description.
미디어 파일은, 별도로 정의된 복사 제어 박스에 포함되거나, 기 정의된 박스에 포함될 수 있다. 기 정의된 박스의 예시로는, ISOBMFF 에 정의된 uuid(Universal Unique IDentifier) 박스가 있을 수 있다. 미디어 파일이 별도로 정의된 복사 제어 박스에 포함된 실시예는, 도 51 및 해당 설명에 기술에 기술되어 있다. 그리고, 미디어 파일이 ISOBMFF 에 정의된 uuid(Universal Unique IDentifier) 박스에 포함된 실시예는, 도 63 및 해당 설명에 기술되어 있다.The media file may be included in a copy control box defined separately or in a predefined box. An example of the predefined box may be a uuid (Universal Unique IDentifier) box defined in ISOBMFF. Embodiments in which a media file is included in a copy control box defined separately are described in the description in FIG. 51 and the corresponding description. Incidentally, the embodiment in which the media file is included in a uuid (Universal Unique IDentifier) box defined in ISOBMFF is described in FIG. 63 and its description.
도 76 은 본 발명의 일 실시예에 따른 방송 신호를 수신하는 방법을 나타낸 순서도이다.76 is a flowchart illustrating a method of receiving a broadcast signal according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 방송 신호를 수신하는 방법은, 하나 이상의 세그먼트를 포함하는 방송 신호를 수신하는 단계(S76100) - 여기서, 하나 이상의 세그먼트는 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 데이터를 포함함-, 수신한 방송 신호에 포함된 세그먼트를 프로세싱하여 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 획득하는 단계(S76200) 및 획득한 화질 개선 정보를 이용하여 비디오 데이터를 프레젠테이션하는 단계(S76300)를 포함할 수 있다. According to an embodiment of the present invention, a method for receiving a broadcast signal includes receiving a broadcast signal including one or more segments (S76100), wherein the one or more segments include media data including video data and quality improvement information. Includes,-obtaining a media file including video data and image quality improvement information by processing a segment included in the received broadcast signal (S76200) and presenting the video data using the obtained image quality improvement information (S76300). ) May be included.
방송 신호를 수신하는 단계(S76100)는, 하나 이상의 세그먼트를 포함하는 방송 신호를 수신할 수 있다. 여기서, 하나 이상의 세그먼트는 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 포함할 수 있다. 방송 신호를 수신하는 단계(S76100)에서 방송 신호는 전술한 방송 신호를 전송하는 방법 및/또는 장치에서 생성하여 전송한 방송 신호일 수 있다. 일 실시예에 따르면, 방송 신호를 수신하는 단계(S76100)는, 전술한 도 12의 수신기에 의해 수행될 수 있다. 여기서 세그먼트는 DASH 세그먼트일 수 있다. 세그먼트는 ftyp 박스와 moov 박스를 포함하는 초기화 세그먼트와, 전술한 프래그먼트를 포함하는 미디어 세그먼트로 구별될 수 있다. 방송 신호는 적응적 스트리밍 방식에 따라 방송망 또는 브로드밴드를 통해 수신될 수 있다. DASH 기반의 적응적 스트리밍 방식과 DASH 기반의 데이터 모델에 대한 구체적인 내용은 도 9 및 도 10에서 전술하였다.Receiving a broadcast signal (S76100), a broadcast signal including one or more segments may be received. Here, the one or more segments may include a media file containing video data and picture quality improvement information. In operation S76100, the broadcast signal may be a broadcast signal generated and transmitted by the method and / or apparatus for transmitting the above-described broadcast signal. According to an embodiment, the step (S76100) of receiving a broadcast signal may be performed by the receiver of FIG. 12. Here, the segment may be a DASH segment. The segment may be divided into an initialization segment including an ftyp box and a moov box, and a media segment including the aforementioned fragment. The broadcast signal may be received through a broadcast network or broadband according to an adaptive streaming scheme. Details of the DASH-based adaptive streaming scheme and the DASH-based data model are described above with reference to FIGS. 9 and 10.
미디어 파일을 획득하는 단계(S76200)는, 방송 신호를 수신하는 단계(S76100)에서 수신한 방송 신호에 포함된 세그먼트를 프로세싱하여 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 획득할 수 있다. 여기서, 미디어 파일은 ISOBMFF 기반의 미디어 파일일 수 있다. 이러한 미디어 파일 구조의 상세한 내용은 도 29 등을 참조하여 전술하였다. 미디어 파일은 비디오 데이터 및 화질 개선 정보를 포함할 수 있다. 화질 개선 정보는 전술한 HDR 정보 및/또는 WCG 정보를 의미할 수 있다. HDR 정보 및/또는 WCG 정보는 도 39~도 73에 기술된 화질 개선 정보일 수 있다. 화질 개선 정보는 비디오 데이터에 적용되어 비디어 데이터의 화질을 개선하는데 사용될 수 있다. 일 실시예에 따르면, 미디어 파일을 획득하는 단계(S76200)는, 전술한 도 13의 방송 서비스를 재생하는 장치에 의해 수행될 수 있다.In operation S76200, a media file including video data and image quality improvement information may be obtained by processing a segment included in the broadcast signal received in operation S76100. Here, the media file may be an ISOBMFF based media file. Details of such a media file structure have been described above with reference to FIG. 29 and the like. The media file may include video data and picture quality improvement information. The image quality improvement information may mean the above-described HDR information and / or WCG information. The HDR information and / or the WCG information may be image quality improvement information described with reference to FIGS. 39 to 73. The picture quality improvement information may be applied to the video data and used to improve the picture quality of the video data. According to an embodiment, the obtaining of the media file (S76200) may be performed by the apparatus for playing the broadcast service of FIG. 13 described above.
비디오 데이터를 프레젠테이션하는 단계(S76300)는, 획득한 화질 개선 정보를 이용하여 비디오 데이터를 프레젠테이션할 수 있다. 일 실시예에 따르면, 비디오 데이터를 프레젠테이션하는 단계(S76300)는, 전술한 도 13의 방송 서비스를 재생하는 장치에 의해 수행될 수 있다.In the step of presenting the video data (S76300), the video data may be presented using the obtained image quality improvement information. According to an embodiment, the presenting of the video data (S76300) may be performed by the apparatus for reproducing the above-described broadcast service of FIG. 13.
일 실시예에서, 화질 개선 정보는 적어도 하나의 제1 화질 개선 파라미터를 포함할 수 있다. 제1 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터를 구성하는 제1 비디오 프레젠테이션 단위에 공통적으로 적용되는 화질 개선 정보를 의미할 수 있다. 즉, 제1 화질 개선 파라미터는 특정 비디오 프레젠테이션 단위에 공통적으로 적용되는 화질 개선 정보를 의미할 수 있다. 제1 화질 개선 파라미터는 전술한 HDR 인포메이션 박스에 포함될 수 있다. 일 예로, 제1 화질 개선 파라미터는, 전술한 도 39의 HDR 인포메이션 박스에 포함된 화질 개선 파라미터들일 수 있다. 여기서, 비디오 프레젠테이션 단위는 track, scene, clip 또는 frame 단위를 의미할 수 있다. 일 예로, 제1 화질 개선 파라미터는 비디오 트랙에 공통적으로 적용될 수 있다. 다른 예로, 제1 화질 개선 파라미터는 비디오 씬에 공통적으로 적용될 수 있다. 또 다른 예로, 제1 화질 개선 파라미터는 비디오 클립에 공통적으로 적용될 수 있다. 또 다른 예로, 제1 화질 개선 파라미터는 비디오 프레임(샘플)에 공통적으로 적용될 수 있다.In one embodiment, the image quality improvement information may include at least one first image quality improvement parameter. The first quality improvement parameter may refer to quality improvement information commonly applied to the first video presentation unit constituting video data included in the media file. That is, the first quality improvement parameter may refer to quality improvement information that is commonly applied to a specific video presentation unit. The first quality improvement parameter may be included in the aforementioned HDR information box. For example, the first image quality improvement parameters may be image quality improvement parameters included in the HDR information box of FIG. 39 described above. Here, the video presentation unit may mean a track, scene, clip or frame unit. For example, the first quality improvement parameter may be commonly applied to the video track. As another example, the first quality improvement parameter may be commonly applied to the video scene. As another example, the first quality improvement parameter may be commonly applied to a video clip. As another example, the first quality improvement parameter may be commonly applied to a video frame (sample).
다른 실시예에서, 화질 개선 정보는 적어도 하나의 제2 화질 개선 파라미터를 포함할 수 있다. In another embodiment, the image quality improvement information may include at least one second image quality improvement parameter.
제2 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터를 구성하는 제2 비디오 프레젠테이션 단위들 각각에 적용되는 화질 개선 정보를 의미할 수 있다. 즉, 제2 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터의 다양한 장면에 각각 적용되는 화질 개선 정보를 의미할 수 있다. 여기서, 비디오 데이터의 다양한 장면은 track, scene, clip 또는 frame(sample) 등을 의미할 수 있다. 따라서, 제2 화질 개선 파라미터는 track 별로 적용되거나, scene 별로 적용되거나, clip 별로 적용되거나 frame 별로 적용될 수 있다. 다시 말해, 제2 화질 개선 파라미터는 비디오 데이터를 구성하는 비디오 프레젠테이션 단위 별로 적용될 수 있다. 여기서, 비디오 프레젠테이션 단위는 track, scene, clip 또는 frame 단위를 의미할 수 있다는 것은 전술한 바와 같다. 일 예로, 제2 화질 개선 파라미터는 비디오 트랙들 각각에 적용될 수 있다. 다른 예로, 제2 화질 개선 파라미터는 비디오 씬들 각각에 적용될 수 있다. 또 다른 예로, 제2 화질 개선 파라미터는 비디오 클립들 각각에 적용될 수 있다. 또 다른 예로, 제2 화질 개선 파라미터는 비디오 프레임(샘플)들 각각에 적용될 수 있다. 제2 화질 개선 파리미터는 제1화질 개선 파라미터와 마찬가지로 전술한 HDR 인포메이션 박스에 포함될 수 있다. 일 예로, 제2 화질 개선 파라미터는, 전술한 도 40의 HDR 인포메이션 박스에 포함된 화질 개선 파라미터들일 수 있다.The second quality improvement parameter may refer to quality improvement information applied to each of the second video presentation units constituting video data included in the media file. That is, the second quality improvement parameter may refer to quality improvement information applied to various scenes of video data included in the media file, respectively. Here, various scenes of the video data may mean a track, a scene, a clip, or a frame (sample). Therefore, the second quality improvement parameter may be applied for each track, for each scene, for each clip, or for each frame. In other words, the second quality improvement parameter may be applied for each video presentation unit constituting the video data. As described above, the video presentation unit may mean a track, scene, clip, or frame unit. As an example, the second quality improvement parameter may be applied to each of the video tracks. As another example, the second quality improvement parameter may be applied to each of the video scenes. As another example, the second quality improvement parameter may be applied to each of the video clips. As another example, the second quality improvement parameter may be applied to each of the video frames (samples). The second quality improvement parameter may be included in the above-described HDR information box similarly to the first quality improvement parameter. For example, the second quality improvement parameter may be image quality improvement parameters included in the HDR information box of FIG. 40 described above.
전술한 제1 화질 개선 파라미터와 제2 화질 개선 파라미터는 함께 사용될 수도 있다. 제1 화질 개선 파라미터는 공통적으로 적용되는 화질 개선 정보를 제공하고, 제2 화질 개선 파라미터는 장면에 적응적인 화질 개선 정보를 제공할 수 있다. 또한, 제1 화질 개선 파라미터가 적용되는 제1 비디오 프레젠테이션 단위와, 제2 화질 개선 파라미터가 적응적으로 적용되는 제2 비디오 프레젠테이션 단위를 동일할 수 있다. 예를 들어, 제1 화질 개선 파라미터가 비디오 샘플에 공통적으로 적용될 수 있고, 제2 화질 개선 파리미터는 비디오 샘플들 각각에 개별적으로 적용될 수도 있다.The above-described first quality improvement parameter and the second quality improvement parameter may be used together. The first image quality improvement parameter may provide image quality improvement information that is commonly applied, and the second image quality improvement parameter may provide image quality improvement information adaptive to a scene. Also, the first video presentation unit to which the first quality improvement parameter is applied and the second video presentation unit to which the second quality improvement parameter is adaptively applied may be the same. For example, the first quality improvement parameter may be commonly applied to the video sample, and the second quality improvement parameter may be applied to each of the video samples separately.
또 다른 실시예에서, 비디오 프레젠테이션 단위는 비디오 샘플일 수 있다. 이 경우, 제2 화질 개선 파라미터는 비디오 데이터를 구성하는 비디오 샘플들 각각에 적용될 수 있다. 이때, 비디오 샘플들 중 일부는, 비디오 씬 또는 비디오 클립으로 그룹핑될 수 있다. 그룹핑될 경우, 그룹핑 타입은 ISO/IEC 14496-12 표준의 sbgp 박스(sample-to-group box) 또는 sqpd 박스(sample group description box)에 포함된 그룹핑 타입 필드에 지시될 수 있다. 비디오 샘플 단위로 그룹핑하는 실시예는 전술한 도 51에 도시되어 있다.In yet another embodiment, the video presentation unit may be a video sample. In this case, the second quality improvement parameter may be applied to each of the video samples constituting the video data. At this time, some of the video samples may be grouped into a video scene or a video clip. When grouping, the grouping type may be indicated in a grouping type field included in a sample-to-group box or a sample group description box of the ISO / IEC 14496-12 standard. An embodiment of grouping on a video sample basis is illustrated in FIG. 51 described above.
또 다른 실시예에서, 미디어 파일은 적어도 하나 이상의 복사 제어 정보를 포함할 수 있다. 수신측에서는, 하나 이사의 복사 제어 정보를 이용하여 미디어 파일에 대한 복사 제어 처리를 수행할 수 있다. 복사 제어 정보의 구체적인 예시는, 도 51 내지 도 63 및 해당 설명에 기술되어 있다. 복사 제어 정보는, 비디오 데이터를 구성하는 미디어 요소와 관련된 복사 제어 파라미터를 포함할 수 있다. 여기서, 미디어 요소는 비디오, 오디오 및/또는 데이터의 요소를 나타낼 수 있다. 구체적으로, 미디어 요소는 비디오, 오디오 및/또는 데이터를 구성하는 데이터 집합을 가리키는 용어로 사용될 수 있다. 즉, 미디어 요소는 비디오, 오디오 및/또는 데이터의 컨텐트, 컴포넌트, 세그먼트(서브 세그먼트), 트랙, 샘플, 어댑테이션 세트 및/또는 리프레젠테이션을 나타낼 수 있다. In yet another embodiment, the media file may include at least one copy control information. The receiving side can perform copy control processing on the media file using the copy control information of one director. Specific examples of the copy control information are described in Figs. 51 to 63 and the corresponding descriptions. The copy control information can include copy control parameters associated with the media elements that make up the video data. Here, the media element may represent an element of video, audio and / or data. Specifically, the media element may be used as a term referring to a data set constituting video, audio and / or data. That is, media elements may represent content, components, segments (subsegments), tracks, samples, adaptation sets, and / or presentations of video, audio, and / or data.
복사 제어 파라미터는 이러한 미디어 요소와 관련된 복사 제어 정보를 제공할 수 있다. 실시예에 따라서, 복사 제어 파라미터는 전술한 비디오 프레젠테이션과 관련된 복사 제어 정보를 제공할 수도 있다. 즉, 복사 제어 파라미터는 track, scene, clip 또는 frame 별로 복사 제어 정보를 제공할 수도 있다. Copy control parameters may provide copy control information associated with such media elements. According to an embodiment, the copy control parameters may provide copy control information related to the above-described video presentation. That is, the copy control parameter may provide copy control information for each track, scene, clip or frame.
미디어 파일에 포함되는 복사 제어 파라미터로는, 복사 제어 플래그, 복사 제어 횟수 정보, 스트레오 비디오 플래그, 오디오 채널 넘버 정보, 스케일러빌리 넘버 정보 등이 있을 수 있으며, 이외의 다른 파라미터 더 있을 수 있다. 보다 구체적인 복사 제어 파라미터의 예시는 도 51 내지 도 63 및 해당 설명에 기술되어 있다.Copy control parameters included in the media file may include a copy control flag, copy control count information, stereo video flag, audio channel number information, scalability number information, and the like, and may further include other parameters. Examples of more specific copy control parameters are described in FIGS. 51-63 and the corresponding description.
미디어 파일은, 별도로 정의된 복사 제어 박스에 포함되거나, 기 정의된 박스에 포함될 수 있다. 기 정의된 박스의 예시로는, ISOBMFF 에 정의된 uuid(Universal Unique IDentifier) 박스가 있을 수 있다. 미디어 파일이 별도로 정의된 복사 제어 박스에 포함된 실시예는, 도 51 및 해당 설명에 기술에 기술되어 있다. 그리고, 미디어 파일이 ISOBMFF 에 정의된 uuid(Universal Unique IDentifier) 박스에 포함된 실시예는, 도 63 및 해당 설명에 기술되어 있다. The media file may be included in a copy control box defined separately or in a predefined box. An example of the predefined box may be a uuid (Universal Unique IDentifier) box defined in ISOBMFF. Embodiments in which a media file is included in a copy control box defined separately are described in the description in FIG. 51 and the corresponding description. Incidentally, the embodiment in which the media file is included in a uuid (Universal Unique IDentifier) box defined in ISOBMFF is described in FIG. 63 and the corresponding description.
도 77 은 본 발명의 일 실시예에 따른 방송 신호를 수신하는 장치의 구성을 나타낸 도면이다.77 is a diagram showing the configuration of an apparatus for receiving a broadcast signal according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 방송 신호를 수신하는 장치는, 하나 이상의 세그먼트를 포함하는 방송 신호를 수신하는 방송 신호 수신부(77100) - 여기서, 상기 하나 이상의 세그먼트는 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 데이터를 포함함-, 수신한 방송 신호에 포함된 세그먼트를 프로세싱하여 상기 비디오 데이터 및 상기 화질 개선 정보를 포함하는 미디어 파일을 획득하는 세그먼트 처리부(77200) 및 획득한 화질 개선 정보를 이용하여 비디오 데이터를 프레젠테이션하는 프레젠테이션부(77300)를 포함할 수 있다. An apparatus for receiving a broadcast signal according to an embodiment of the present invention includes a broadcast signal receiver 77100 for receiving a broadcast signal including one or more segments, wherein the one or more segments include video data and image quality improvement information. Including media data, a segment processor 77200 for processing a segment included in the received broadcast signal to obtain a media file including the video data and the image quality improvement information and the video data using the obtained image quality improvement information. It may include a presentation unit (77300) for presenting.
방송 신호 수신부(77100)는, 하나 이상의 세그먼트를 포함하는 방송 신호를 수신할 수 있다. 여기서, 하나 이상의 세그먼트는 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 포함할 수 있다. 방송 신호 수신부(77100)에서 방송 신호는 전술한 방송 신호를 전송하는 방법 및/또는 장치에서 생성하여 전송한 방송 신호일 수 있다. 일 실시예에 따르면, 방송 신호 수신부(77100)는, 전술한 도 12의 수신기의 일부 구성요소에 대응될 수 있다. 여기서 세그먼트는 DASH 세그먼트일 수 있다. 세그먼트는 ftyp 박스와 moov 박스를 포함하는 초기화 세그먼트와, 전술한 프래그먼트를 포함하는 미디어 세그먼트로 구별될 수 있다. 방송 신호는 적응적 스트리밍 방식에 따라 방송망 또는 브로드밴드를 통해 수신될 수 있다. DASH 기반의 적응적 스트리밍 방식과 DASH 기반의 데이터 모델에 대한 구체적인 내용은 도 9 및 도 10에서 전술하였다.The broadcast signal receiver 77100 may receive a broadcast signal including one or more segments. Here, the one or more segments may include a media file containing video data and picture quality improvement information. The broadcast signal in the broadcast signal receiving unit 77100 may be a broadcast signal generated and transmitted by the method and / or apparatus for transmitting the above-described broadcast signal. According to an embodiment, the broadcast signal receiver 77100 may correspond to some components of the receiver of FIG. 12 described above. Here, the segment may be a DASH segment. The segment may be divided into an initialization segment including an ftyp box and a moov box, and a media segment including the aforementioned fragment. The broadcast signal may be received through a broadcast network or broadband according to an adaptive streaming scheme. Details of the DASH-based adaptive streaming scheme and the DASH-based data model are described above with reference to FIGS. 9 and 10.
세그먼트 처리부(77200)는, 방송 신호 수신부(77100)에서 수신한 방송 신호에 포함된 세그먼트를 프로세싱하여 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 획득할 수 있다. 여기서, 미디어 파일은 ISOBMFF 기반의 미디어 파일일 수 있다. 이러한 미디어 파일 구조의 상세한 내용은 도 29 등을 참조하여 전술하였다. 미디어 파일은 비디오 데이터 및 화질 개선 정보를 포함할 수 있다. 화질 개선 정보는 전술한 HDR 정보 및/또는 WCG 정보를 의미할 수 있다. HDR 정보 및/또는 WCG 정보는 도 39~도 73에 기술된 화질 개선 정보일 수 있다. 화질 개선 정보는 비디오 데이터에 적용되어 비디어 데이터의 화질을 개선하는데 사용될 수 있다. 일 실시예에 따르면, 세그먼트 처리부(77200)는, 전술한 도 13의 방송 서비스를 재생하는 장치의 일부 구성요소에 대응될 수 있다.The segment processor 77200 may obtain a media file including video data and image quality improvement information by processing a segment included in the broadcast signal received by the broadcast signal receiver 77100. Here, the media file may be an ISOBMFF based media file. Details of such a media file structure have been described above with reference to FIG. 29 and the like. The media file may include video data and picture quality improvement information. The image quality improvement information may mean the above-described HDR information and / or WCG information. The HDR information and / or the WCG information may be image quality improvement information described with reference to FIGS. 39 to 73. The picture quality improvement information may be applied to the video data and used to improve the picture quality of the video data. According to an embodiment, the segment processor 77200 may correspond to some components of the apparatus for playing the broadcast service of FIG. 13 described above.
프레젠테이션부(77300)는, 획득한 화질 개선 정보를 이용하여 비디오 데이터를 프레젠테이션할 수 있다. 일 실시예에 따르면, 프레젠테이션부(77300)는, 전술한 도 13의 방송 서비스를 재생하는 장치의 일부 구성요소에 대응될 수 있다.The presentation unit 77300 may present video data by using the obtained image quality improvement information. According to an embodiment, the presentation unit 77300 may correspond to some components of the apparatus for playing the broadcast service of FIG. 13 described above.
일 실시예에서, 화질 개선 정보는 적어도 하나의 제1 화질 개선 파라미터를 포함할 수 있다. 제1 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터를 구성하는 제1 비디오 프레젠테이션 단위에 공통적으로 적용되는 화질 개선 정보를 의미할 수 있다. 즉, 제1 화질 개선 파라미터는 특정 비디오 프레젠테이션 단위에 공통적으로 적용되는 화질 개선 정보를 의미할 수 있다. 제1 화질 개선 파라미터는 전술한 HDR 인포메이션 박스에 포함될 수 있다. 일 예로, 제1 화질 개선 파라미터는, 전술한 도 39의 HDR 인포메이션 박스에 포함된 화질 개선 파라미터들일 수 있다. 여기서, 비디오 프레젠테이션 단위는 track, scene, clip 또는 frame 단위를 의미할 수 있다. 일 예로, 제1 화질 개선 파라미터는 비디오 트랙에 공통적으로 적용될 수 있다. 다른 예로, 제1 화질 개선 파라미터는 비디오 씬에 공통적으로 적용될 수 있다. 또 다른 예로, 제1 화질 개선 파라미터는 비디오 클립에 공통적으로 적용될 수 있다. 또 다른 예로, 제1 화질 개선 파라미터는 비디오 프레임(샘플)에 공통적으로 적용될 수 있다.In one embodiment, the image quality improvement information may include at least one first image quality improvement parameter. The first quality improvement parameter may refer to quality improvement information commonly applied to the first video presentation unit constituting video data included in the media file. That is, the first quality improvement parameter may refer to quality improvement information that is commonly applied to a specific video presentation unit. The first quality improvement parameter may be included in the aforementioned HDR information box. For example, the first image quality improvement parameters may be image quality improvement parameters included in the HDR information box of FIG. 39 described above. Here, the video presentation unit may mean a track, scene, clip or frame unit. For example, the first quality improvement parameter may be commonly applied to the video track. As another example, the first quality improvement parameter may be commonly applied to the video scene. As another example, the first quality improvement parameter may be commonly applied to a video clip. As another example, the first quality improvement parameter may be commonly applied to a video frame (sample).
다른 실시예에서, 화질 개선 정보는 적어도 하나의 제2 화질 개선 파라미터를 포함할 수 있다. In another embodiment, the image quality improvement information may include at least one second image quality improvement parameter.
제2 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터를 구성하는 제2 비디오 프레젠테이션 단위들 각각에 적용되는 화질 개선 정보를 의미할 수 있다. 즉, 제2 화질 개선 파라미터는 미디어 파일에 포함된 비디오 데이터의 다양한 장면에 각각 적용되는 화질 개선 정보를 의미할 수 있다. 여기서, 비디오 데이터의 다양한 장면은 track, scene, clip 또는 frame(sample) 등을 의미할 수 있다. 따라서, 제2 화질 개선 파라미터는 track 별로 적용되거나, scene 별로 적용되거나, clip 별로 적용되거나 frame 별로 적용될 수 있다. 다시 말해, 제2 화질 개선 파라미터는 비디오 데이터를 구성하는 비디오 프레젠테이션 단위 별로 적용될 수 있다. 여기서, 비디오 프레젠테이션 단위는 track, scene, clip 또는 frame 단위를 의미할 수 있다는 것은 전술한 바와 같다. 일 예로, 제2 화질 개선 파라미터는 비디오 트랙들 각각에 적용될 수 있다. 다른 예로, 제2 화질 개선 파라미터는 비디오 씬들 각각에 적용될 수 있다. 또 다른 예로, 제2 화질 개선 파라미터는 비디오 클립들 각각에 적용될 수 있다. 또 다른 예로, 제2 화질 개선 파라미터는 비디오 프레임(샘플)들 각각에 적용될 수 있다. 제2 화질 개선 파리미터는 제1화질 개선 파라미터와 마찬가지로 전술한 HDR 인포메이션 박스에 포함될 수 있다. 일 예로, 제2 화질 개선 파라미터는, 전술한 도 40의 HDR 인포메이션 박스에 포함된 화질 개선 파라미터들일 수 있다.The second quality improvement parameter may refer to quality improvement information applied to each of the second video presentation units constituting video data included in the media file. That is, the second quality improvement parameter may refer to quality improvement information applied to various scenes of video data included in the media file, respectively. Here, various scenes of the video data may mean a track, a scene, a clip, or a frame (sample). Therefore, the second quality improvement parameter may be applied for each track, for each scene, for each clip, or for each frame. In other words, the second quality improvement parameter may be applied for each video presentation unit constituting the video data. As described above, the video presentation unit may mean a track, scene, clip, or frame unit. As an example, the second quality improvement parameter may be applied to each of the video tracks. As another example, the second quality improvement parameter may be applied to each of the video scenes. As another example, the second quality improvement parameter may be applied to each of the video clips. As another example, the second quality improvement parameter may be applied to each of the video frames (samples). The second quality improvement parameter may be included in the above-described HDR information box similarly to the first quality improvement parameter. For example, the second quality improvement parameter may be image quality improvement parameters included in the HDR information box of FIG. 40 described above.
전술한 제1 화질 개선 파라미터와 제2 화질 개선 파라미터는 함께 사용될 수도 있다. 제1 화질 개선 파라미터는 공통적으로 적용되는 화질 개선 정보를 제공하고, 제2 화질 개선 파라미터는 장면에 적응적인 화질 개선 정보를 제공할 수 있다. 또한, 제1 화질 개선 파라미터가 적용되는 제1 비디오 프레젠테이션 단위와, 제2 화질 개선 파라미터가 적응적으로 적용되는 제2 비디오 프레젠테이션 단위를 동일할 수 있다. 예를 들어, 제1 화질 개선 파라미터가 비디오 샘플에 공통적으로 적용될 수 있고, 제2 화질 개선 파리미터는 비디오 샘플들 각각에 개별적으로 적용될 수도 있다.The above-described first quality improvement parameter and the second quality improvement parameter may be used together. The first image quality improvement parameter may provide image quality improvement information that is commonly applied, and the second image quality improvement parameter may provide image quality improvement information adaptive to a scene. Also, the first video presentation unit to which the first quality improvement parameter is applied and the second video presentation unit to which the second quality improvement parameter is adaptively applied may be the same. For example, the first quality improvement parameter may be commonly applied to the video sample, and the second quality improvement parameter may be applied to each of the video samples separately.
또 다른 실시예에서, 비디오 프레젠테이션 단위는 비디오 샘플일 수 있다. 이 경우, 제2 화질 개선 파라미터는 비디오 데이터를 구성하는 비디오 샘플들 각각에 적용될 수 있다. 이때, 비디오 샘플들 중 일부는, 비디오 씬 또는 비디오 클립으로 그룹핑될 수 있다. 그룹핑될 경우, 그룹핑 타입은 ISO/IEC 14496-12 표준의 sbgp 박스(sample-to-group box) 또는 sqpd 박스(sample group description box)에 포함된 그룹핑 타입 필드에 지시될 수 있다. 비디오 샘플 단위로 그룹핑하는 실시예는 전술한 도 51에 도시되어 있다.In yet another embodiment, the video presentation unit may be a video sample. In this case, the second quality improvement parameter may be applied to each of the video samples constituting the video data. At this time, some of the video samples may be grouped into a video scene or a video clip. When grouping, the grouping type may be indicated in a grouping type field included in a sample-to-group box or a sample group description box of the ISO / IEC 14496-12 standard. An embodiment of grouping on a video sample basis is illustrated in FIG. 51 described above.
또 다른 실시예에서, 미디어 파일은 적어도 하나 이상의 복사 제어 정보를 포함할 수 있다. 또 다른 실시예에서, 방송 신호 수신 장치는, 복자 제어 정보를 이용하여 미디어 파일에 대한 복사를 제어하는 복사 제어부를 더 포함할 수 있다. 복사 제어 정보의 구체적인 예시는, 도 51 내지 도 63 및 해당 설명에 기술되어 있다. 복사 제어 정보는, 비디오 데이터를 구성하는 미디어 요소와 관련된 복사 제어 파라미터를 포함할 수 있다. 여기서, 미디어 요소는 비디오, 오디오 및/또는 데이터의 요소를 나타낼 수 있다. 구체적으로, 미디어 요소는 비디오, 오디오 및/또는 데이터를 구성하는 데이터 집합을 가리키는 용어로 사용될 수 있다. 즉, 미디어 요소는 비디오, 오디오 및/또는 데이터의 컨텐트, 컴포넌트, 세그먼트(서브 세그먼트), 트랙, 샘플, 어댑테이션 세트 및/또는 리프레젠테이션을 나타낼 수 있다. In yet another embodiment, the media file may include at least one copy control information. In another embodiment, the broadcast signal receiving apparatus may further include a copy control unit which controls copying to a media file using copy control information. Specific examples of the copy control information are described in Figs. 51 to 63 and the corresponding descriptions. The copy control information can include copy control parameters associated with the media elements that make up the video data. Here, the media element may represent an element of video, audio and / or data. Specifically, the media element may be used as a term referring to a data set constituting video, audio and / or data. That is, media elements may represent content, components, segments (subsegments), tracks, samples, adaptation sets, and / or presentations of video, audio, and / or data.
복사 제어 파라미터는 이러한 미디어 요소와 관련된 복사 제어 정보를 제공할 수 있다. 실시예에 따라서, 복사 제어 파라미터는 전술한 비디오 프레젠테이션과 관련된 복사 제어 정보를 제공할 수도 있다. 즉, 복사 제어 파라미터는 track, scene, clip 또는 frame 별로 복사 제어 정보를 제공할 수도 있다. Copy control parameters may provide copy control information associated with such media elements. According to an embodiment, the copy control parameters may provide copy control information related to the above-described video presentation. That is, the copy control parameter may provide copy control information for each track, scene, clip or frame.
미디어 파일에 포함되는 복사 제어 파라미터로는, 복사 제어 플래그, 복사 제어 횟수 정보, 스트레오 비디오 플래그, 오디오 채널 넘버 정보, 스케일러빌리 넘버 정보 등이 있을 수 있으며, 이외의 다른 파라미터 더 있을 수 있다. 보다 구체적인 복사 제어 파라미터의 예시는 도 51 내지 도 63 및 해당 설명에 기술되어 있다.Copy control parameters included in the media file may include a copy control flag, copy control count information, stereo video flag, audio channel number information, scalability number information, and the like, and may further include other parameters. Examples of more specific copy control parameters are described in FIGS. 51-63 and the corresponding description.
미디어 파일은, 별도로 정의된 복사 제어 박스에 포함되거나, 기 정의된 박스에 포함될 수 있다. 기 정의된 박스의 예시로는, ISOBMFF 에 정의된 uuid(Universal Unique IDentifier) 박스가 있을 수 있다. 미디어 파일이 별도로 정의된 복사 제어 박스에 포함된 실시예는, 도 51 및 해당 설명에 기술에 기술되어 있다. 그리고, 미디어 파일이 ISOBMFF 에 정의된 uuid(Universal Unique IDentifier) 박스에 포함된 실시예는, 도 63 및 해당 설명에 기술되어 있다.The media file may be included in a copy control box defined separately or in a predefined box. An example of the predefined box may be a uuid (Universal Unique IDentifier) box defined in ISOBMFF. Embodiments in which a media file is included in a copy control box defined separately are described in the description in FIG. 51 and the corresponding description. Incidentally, the embodiment in which the media file is included in a uuid (Universal Unique IDentifier) box defined in ISOBMFF is described in FIG. 63 and its description.
모듈 또는 유닛은 메모리(또는 저장 유닛)에 저장된 연속된 수행과정들을 실행하는 프로세서들일 수 있다. 전술한 실시예에 기술된 각 단계들은 하드웨어/프로세서들에 의해 수행될 수 있다. 전술한 실시예에 기술된 각 모듈/블락/유닛들은 하드웨어/프로세서로서 동작할 수 있다. 또한, 본 발명이 제시하는 방법들은 코드로서 실행될 수 있다. 이 코드는 프로세서가 읽을 수 있는 저장매체에 쓰여질 수 있고, 따라서 장치(apparatus)가 제공하는 프로세서에 의해 읽혀질 수 있다. The module or unit may be processors that execute successive procedures stored in a memory (or storage unit). Each of the steps described in the above embodiments may be performed by hardware / processors. Each module / block / unit described in the above embodiments can operate as a hardware / processor. In addition, the methods proposed by the present invention can be executed as code. This code can be written to a processor readable storage medium and thus read by a processor provided by an apparatus.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 통상의 기술자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.For convenience of description, each drawing is divided and described, but it is also possible to design a new embodiment by merging the embodiments described in each drawing. And, according to the needs of those skilled in the art, it is also within the scope of the present invention to design a computer-readable recording medium on which a program for executing the previously described embodiments is recorded.
본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.Apparatus and method according to the present invention is not limited to the configuration and method of the embodiments described as described above, the above-described embodiments may be selectively all or part of each embodiment so that various modifications can be made It may be configured in combination.
한편, 본 발명이 제안하는 방법을 네트워크 디바이스에 구비된, 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.On the other hand, it is possible to implement the method proposed by the present invention as a processor-readable code in a processor-readable recording medium provided in a network device. The processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. . The processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the above-described specific embodiment, the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수가 있다.In addition, in this specification, both the object invention and the method invention are described, and description of both invention can be supplementally applied as needed.
본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 이해된다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.It is understood by those skilled in the art that various changes and modifications can be made in the present invention without departing from the spirit or scope of the invention. Accordingly, it is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.
본 명세서에서 장치 및 방법 발명이 모두 언급되고, 장치 및 방법 발명 모두의 설명은 서로 보완하여 적용될 수 있다.Reference is made herein to both apparatus and method inventions, and the descriptions of both apparatus and method inventions may be complementary to one another.
다양한 실시예가 본 발명을 실시하기 위한 최선의 형태에서 설명되었다.Various embodiments have been described in the best mode for carrying out the invention.
본 발명은 일련의 방송 신호 제공 분야에서 이용된다.The present invention is used in the field of providing a series of broadcast signals.
본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 자명하다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.It will be apparent to those skilled in the art that various changes and modifications can be made in the present invention without departing from the spirit or scope of the invention. Accordingly, it is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.

Claims (13)

  1. 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 생성하는 단계;Generating a media file including video data and picture quality improvement information;
    생성된 미디어 파일을 포함하는 하나 이상의 세그먼트를 생성하는 단계;Creating one or more segments containing the created media file;
    생성된 하나 이상의 세그먼트를 포함하는 방송 신호를 생성하는 단계; 및Generating a broadcast signal including the generated one or more segments; And
    상기 방송 신호를 전송하는 단계;Transmitting the broadcast signal;
    를 포함하는 방송 신호 송신 방법.Broadcast signal transmission method comprising a.
  2. 제 1 항에 있어서, 상기 화질 개선 정보는, The image quality improving information of claim 1,
    High Dynamic Range(HDR) 정보 또는 Wide Color Gamut(WCG) 정보를 포함하는 방송 신호 송신 방법.A broadcast signal transmission method comprising high dynamic range (HDR) information or wide color gamut (WCG) information.
  3. 제 1 항에 있어서, 상기 화질 개선 정보는,The image quality improving information of claim 1,
    상기 비디오 데이터를 구성하는 제1 비디오 프레젠테이션 단위에 공통적으로 적용되는 적어도 하나 이상의 제1 화질 개선 파라미터를 포함하는 방송 신호 송신 방법.And at least one first quality improvement parameter commonly applied to a first video presentation unit constituting the video data.
  4. 제 1 항에 있어서, 상기 미디어 파일은, The method of claim 1, wherein the media file,
    상기 적어도 하나 이상의 제1 화질 개선 파라미터를 포함하는 HDR 인포메이션 박스를 포함하는 방송 신호 송신 방법.And an HDR information box including the at least one first quality improvement parameter.
  5. 제 1 항에 있어서, 상기 화질 개선 정보는, The image quality improving information of claim 1,
    적어도 하나 이상의 제2 화질 개선 파라미터를 포함하고,At least one second quality enhancement parameter,
    상기 적어도 하나 이상의 제2 화질 개선 파라미터는, 상기 비디오 데이터를 구성하는 제2 비디오 프레젠테이션 단위들 각각에 적용되는 방송 신호 송신 방법.The at least one second quality improvement parameter is applied to each of the second video presentation units constituting the video data.
  6. 제 5 항에 있어서, 상기 제2 비디오 프레젠테이션 단위는, The method of claim 5, wherein the second video presentation unit,
    각각 비디오 트랙, 비디오 씬, 비디오 클립 및 비디오 샘플 중 어느 하나인 방송 신호 송신 방법.A broadcast signal transmission method, each one of a video track, a video scene, a video clip, and a video sample.
  7. 제 1 항에 있어서, 상기 미디어 파일은, The method of claim 1, wherein the media file,
    상기 적어도 하나 이상의 제2 화질 개선 파라미터로 구성된 HDR 인포메이션 박스를 포함하는 방송 신호 송신 방법.And an HDR information box configured with the at least one second quality improvement parameter.
  8. 제 6 항에 있어서,The method of claim 6,
    상기 제2 비디오 프레젠테이션 단위는, 비디오 샘플이고,The second video presentation unit is a video sample,
    상기 적어도 하나 이상의 제2 화질 개선 파라미터는, 상기 비디오 데이터를 구성하는 비디오 샘플들 각각에 적용되며,The at least one second quality improvement parameter is applied to each of the video samples constituting the video data,
    상기 비디오 샘플들 중 일부는, 비디오 씬 또는 비디오 클립으로 그룹핑되고, 여기서, 그룹핑되는 그룹핑 타입은 sbgp 박스(sample-to-group box) 또는 sgpd 박스(sample group description box)에 포함된 그룹핑 타입 필드에 의해 지시되는 방송 신호 송신 방법.Some of the video samples are grouped into a video scene or video clip, where the grouping type to be grouped is in a grouping type field included in a sample-to-group box or a sample group description box. The broadcast signal transmission method indicated by.
  9. 제 1 항에 있어서, 상기 미디어 파일은, The method of claim 1, wherein the media file,
    적어도 하나 이상의 복사 제어 정보를 포함하고,At least one copy control information,
    상기 적어도 하나 이상의 복사 제어 정보는, 상기 비디오 데이터를 구성하는 비디오 프레젠테이션과 관련된 복사 제어 파라미터를 포함하는 방송 신호 송신 방법.And the at least one copy control information comprises copy control parameters associated with a video presentation constituting the video data.
  10. 제 9 항에 있어서, 상기 복사 제어 정보는,The method of claim 9, wherein the copy control information,
    상기 비디오 프레젠테이션에 대한 복사 제어가 적용되는지 여부를 지시하는 복사 제어 플래그, 상기 비디오 프레젠테이션에 대한 복사 가능 횟수를 지시하는 복사 제어 횟수 정보, 스테레오 비디오에 대한 복사 가능여부를 지시하는 스테레오 비디오 플래그, 다채널 오디오에 대해 복사 가능한 채널의 개수를 지시하는 오디오 채널 넘버 정보 및 스케일러블 코딩이 적용된 미디어에 대한 복사 가능여부를 지시하는 스케일러빌리티 넘버 정보를 포함하는 방송 신호 송신 방법.A copy control flag indicating whether copy control for the video presentation is applied, a copy control number information indicating a copy number for the video presentation, a stereo video flag indicating whether copying for stereo video is possible, and multiple channels A broadcast signal transmission method comprising audio channel number information indicating the number of channels that can be copied for audio and scalability number information indicating whether copying is possible for media to which scalable coding has been applied.
  11. 제 9 항에 있어서, 상기 미디어 파일은, The method of claim 9, wherein the media file,
    상기 적어도 하나 이상의 복사 제어 정보를 포함하는 복사 제어 박스를 포함하는 방송 신호 송신 방법.And a copy control box including the at least one copy control information.
  12. 제 9 항에 있어서, The method of claim 9,
    상기 적어도 하나 이상의 복사 제어 정보는 ISOBMFF(ISO Base Media File Format)에 기 정의된 uuid(Universal Unique IDentifier) 박스에 포함되는 방송 신호 송신 방법.The at least one copy control information is included in a universal unique identifier (uuid) box predefined in the ISO Base Media File Format (ISOBMFF).
  13. 비디오 데이터 및 화질 개선 정보를 포함하는 미디어 파일을 생성하는 파일 생성부;A file generator for generating a media file including video data and quality improvement information;
    생성된 미디어 파일을 포함하는 하나 이상의 세그먼트를 생성하는 세그먼트 생성부;A segment generator which generates at least one segment including the generated media file;
    생성된 하나 이상의 세그먼트를 포함하는 방송 신호를 생성하는 방송 신호 생성부; 및A broadcast signal generator for generating a broadcast signal including one or more generated segments; And
    상기 방송 신호를 전송하는 방송 신호 전송부;A broadcast signal transmitter for transmitting the broadcast signal;
    를 포함하는 방송 신호 송신 장치.Broadcast signal transmission apparatus comprising a.
PCT/KR2016/007384 2015-07-08 2016-07-07 Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method, and broadcast signal receiving method WO2017007263A1 (en)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201562189758P 2015-07-08 2015-07-08
US62/189,758 2015-07-08
US201562194253P 2015-07-19 2015-07-19
US62/194,253 2015-07-19
US201562215747P 2015-09-09 2015-09-09
US62/215,747 2015-09-09
US201562244704P 2015-10-21 2015-10-21
US62/244,704 2015-10-21

Publications (1)

Publication Number Publication Date
WO2017007263A1 true WO2017007263A1 (en) 2017-01-12

Family

ID=57685788

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/007384 WO2017007263A1 (en) 2015-07-08 2016-07-07 Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method, and broadcast signal receiving method

Country Status (1)

Country Link
WO (1) WO2017007263A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155824A1 (en) * 2017-02-24 2018-08-30 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080062192A (en) * 2006-12-29 2008-07-03 엘지전자 주식회사 Terminal for broadcasting and method for display broadcasting image in thereof
WO2014027870A1 (en) * 2012-08-17 2014-02-20 (주)엠더블유스토리 Work management method
WO2014107255A1 (en) * 2013-01-02 2014-07-10 Dolby Laboratories Licensing Corporation Backward-compatible coding for ultra high definition video signals with enhanced dynamic range
KR20150038045A (en) * 2012-07-10 2015-04-08 브이아이디 스케일, 인크. Quality-driven streaming
KR20150045349A (en) * 2013-10-18 2015-04-28 명지대학교 산학협력단 Method and apparatus for constructing sensory effect media data file, method and apparatus for playing sensory effect media data file and structure of the sensory effect media data file

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080062192A (en) * 2006-12-29 2008-07-03 엘지전자 주식회사 Terminal for broadcasting and method for display broadcasting image in thereof
KR20150038045A (en) * 2012-07-10 2015-04-08 브이아이디 스케일, 인크. Quality-driven streaming
WO2014027870A1 (en) * 2012-08-17 2014-02-20 (주)엠더블유스토리 Work management method
WO2014107255A1 (en) * 2013-01-02 2014-07-10 Dolby Laboratories Licensing Corporation Backward-compatible coding for ultra high definition video signals with enhanced dynamic range
KR20150045349A (en) * 2013-10-18 2015-04-28 명지대학교 산학협력단 Method and apparatus for constructing sensory effect media data file, method and apparatus for playing sensory effect media data file and structure of the sensory effect media data file

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155824A1 (en) * 2017-02-24 2018-08-30 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
US10629167B2 (en) 2017-02-24 2020-04-21 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Similar Documents

Publication Publication Date Title
WO2016182371A1 (en) Broadcast signal transmitter, broadcast signal receiver, broadcast signal transmitting method, and broadcast signal receiving method
WO2017030425A1 (en) Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method and broadcast signal reception method
WO2017043863A1 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
WO2017007192A1 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
WO2011049278A1 (en) Method for processing broadcast program information and broadcast receiver
WO2013058633A1 (en) Broadcast service receiving method and broadcast service receiving apparatus
WO2012144867A2 (en) Transmission method for broadcast service, reception method therefor, and reception apparatus therefor
WO2016171518A2 (en) Broadcasting signal transmission device, broadcasting signal reception device, broadcasting signal transmission method, and broadcasting signal reception method
WO2013022309A1 (en) Method for transmitting broadcast service, method for receiving broadcast service, and apparatus for receiving broadcast service
WO2016153326A1 (en) Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method, and broadcast signal receiving method
WO2016204481A1 (en) Media data transmission device, media data reception device, media data transmission method, and media data rececption method
WO2017135673A1 (en) Device for transmitting broadcast signal, device for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
WO2017007224A1 (en) Broadcasting signal transmission device, broadcasting signal reception device, broadcasting signal transmission method, and broadcasting signal reception method
WO2016089095A1 (en) Broadcast signal transmission method, broadcast signal transmission device, broadcast signal reception method, and broadcast signal reception device
WO2016171496A1 (en) Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method, and broadcast signal receiving method
WO2017061796A1 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
WO2012169779A2 (en) Method for transmitting and receiving broadcast service and receiving device thereof
WO2011132883A2 (en) Method for transmitting/receiving internet-based content and transmitter/receiver using same
WO2016144031A1 (en) Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method
WO2016163772A2 (en) Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method
WO2016108606A1 (en) Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method
WO2016178549A1 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
WO2016064150A1 (en) Broadcasting signal transmission device, broadcasting signal reception device, broadcasting signal transmission method, and broadcasting signal reception method
WO2011132879A2 (en) Method for transmitting/receving internet-based content and transmitter/receiver using same
WO2016003137A1 (en) Broadcast receiving device, method of operating broadcast receiving device, linking device for linking to broadcast receiving device, and method of operating linking device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16821669

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16821669

Country of ref document: EP

Kind code of ref document: A1