WO2017183939A1 - Dash 기반 시스템에서 고품질 미디어 제공을 위한 방송 신호 송수신 방법 및 장치 - Google Patents

Dash 기반 시스템에서 고품질 미디어 제공을 위한 방송 신호 송수신 방법 및 장치 Download PDF

Info

Publication number
WO2017183939A1
WO2017183939A1 PCT/KR2017/004282 KR2017004282W WO2017183939A1 WO 2017183939 A1 WO2017183939 A1 WO 2017183939A1 KR 2017004282 W KR2017004282 W KR 2017004282W WO 2017183939 A1 WO2017183939 A1 WO 2017183939A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
representation
sdr
service
hdr
Prior art date
Application number
PCT/KR2017/004282
Other languages
English (en)
French (fr)
Inventor
박종환
서종열
오세진
윤준희
황수진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to EP17786207.5A priority Critical patent/EP3448043B1/en
Publication of WO2017183939A1 publication Critical patent/WO2017183939A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Definitions

  • the present invention relates to a broadcast signal transmission apparatus, a broadcast signal reception apparatus, and a broadcast signal transmission and reception method.
  • UHD HDR content service can provide a greater sense of reality by expressing the brightness that was not expressed in the existing HD content.
  • the DASH protocol may be used to enable more adaptive and flexible content reception.
  • New MPD is needed to provide HDR services in MPEG DASH-based systems.
  • a method of signaling a reference relationship between layers is required.
  • the present invention can provide an HDR service by defining an MPD for the HDR service. Furthermore, the HDR service may be provided by defining reference relationships between layers constituting the HDR service in the MPD.
  • the present invention can provide a WCG service by newly defining color conversion information in the DASH MPD.
  • a conventional receiver may also receive a broadcast service provided in a next generation broadcast stream through a process of converting a next generation broadcast stream into an existing broadcast stream.
  • the present invention can provide an HDR service and a WCG service in a DASH-based system.
  • the present invention can enable a conventional receiver to receive a broadcast service provided in a next generation broadcast stream.
  • FIG. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a service discovery process according to an embodiment of the present invention.
  • LLS low level signaling
  • SLT service list table
  • FIG. 4 is a diagram illustrating a USBD and an STSID delivered to ROUTE according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a USBD delivered to MMT according to an embodiment of the present invention.
  • FIG. 6 illustrates a link layer operation according to an embodiment of the present invention.
  • FIG. 7 illustrates a link mapping table (LMT) according to an embodiment of the present invention.
  • FIG. 8 shows a structure of a broadcast signal transmission apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • FIG 9 illustrates a writing operation of a time interleaver according to an embodiment of the present invention.
  • FIG. 10 is a block diagram illustrating an interleaving address generator including a main PRBS generator and a sub-PRBS generator according to each FFT mode included in a frequency interleaver according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a structure of a media presentation description (MPD) according to an embodiment of the present invention.
  • MPD media presentation description
  • FIG 12 illustrates an MPEG DASH-based signal transceiving system model according to an embodiment of the present invention.
  • FIG. 13 is a diagram illustrating an arrangement of an adaptation set for providing an HDR service supporting backward compatibility according to an embodiment of the present invention.
  • FIG. 14 is a diagram illustrating a structure of a receiver based on MPEG DASH according to an embodiment of the present invention.
  • 15 is a diagram illustrating a structure of an MPD structure and a segment file according to an embodiment of the present invention.
  • 16 illustrates common attributes and common elements in an MPD according to an embodiment of the present invention.
  • FIG. 17 illustrates a structure of an MPD signaling an HDR service for backward compatibility support according to an embodiment of the present invention.
  • FIG. 18 is a diagram illustrating a structure of an MPD signaling an HDR service for supporting backward compatibility according to another embodiment of the present invention.
  • FIG. 19 illustrates a configuration of a representation element according to an embodiment of the present invention.
  • FIG. 20 is a view showing the configuration of a Contentcomponent element according to an embodiment of the present invention.
  • 21 is a diagram illustrating a configuration of a role element according to an embodiment of the present invention.
  • FIG. 22 is a diagram illustrating a method of signaling an HDR service using MPD for backward compatibility support according to an embodiment of the present invention. (Scenario 1)
  • FIG. 23 illustrates a method of signaling an HDR service using MPD for backward compatibility support according to another embodiment of the present invention. (Scenario 2)
  • FIG. 25 illustrates a method of signaling an HDR service using MPD for backward compatibility support according to another embodiment of the present invention. (Scenario 32)
  • 26 is a diagram illustrating a structure of a receiver based on MPEG DASH according to another embodiment of the present invention.
  • 29 shows matrix coefficient information defined in an MPD according to an embodiment of the present invention.
  • FIG. 30 illustrates a color remapping process according to an embodiment of the present invention.
  • FIG. 31 illustrates color remapping information defined in an MPD according to an embodiment of the present invention.
  • FIG. 32 illustrates an embodiment of configuring color remapping information (CRI) based HDR signaling in a DASH MPD.
  • CRI color remapping information
  • 34 is a diagram illustrating a hybrid broadcast reception device according to an embodiment of the present invention.
  • 35 is a block diagram of a receiver according to an embodiment of the present invention.
  • 36 is a diagram showing the structure of a broadcast transmission / reception system according to an embodiment of the present invention.
  • FIG. 39 is a diagram illustrating a @shemeIdUri value of an EssentialProperty descriptor for providing an HDR service according to an embodiment of the present invention.
  • FIG. 40 is a diagram illustrating a service initialization process in an ATSC 1.0 system or an MPEG 2 system according to an embodiment of the present invention.
  • 41 is a diagram illustrating the configuration of an HEVC descriptor according to an embodiment of the present invention.
  • FIG. 42 is a diagram illustrating a description of the HDR_WCG_idc field according to an embodiment of the present invention.
  • FIG. 43 is a view showing a broadcast signal transmission method according to an embodiment of the present invention.
  • 44 is a view showing a broadcast signal transmission method according to another embodiment of the present invention.
  • 45 is a view showing a broadcast signal receiving method according to an embodiment of the present invention.
  • 46 is a diagram illustrating a configuration of a broadcast signal transmission apparatus according to an embodiment of the present invention.
  • 47 is a diagram showing the configuration of a broadcast signal receiving apparatus according to an embodiment of the present invention.
  • the present invention provides an apparatus and method for transmitting and receiving broadcast signals for next generation broadcast services.
  • the next generation broadcast service includes a terrestrial broadcast service, a mobile broadcast service, a UHDTV service, and the like.
  • a broadcast signal for a next generation broadcast service may be processed through a non-multiple input multiple output (MIMO) or MIMO scheme.
  • MIMO multiple input multiple output
  • the non-MIMO scheme may include a multiple input single output (MIS) scheme, a single input single output (SISO) scheme, and the like.
  • MIS multiple input single output
  • SISO single input single output
  • the present invention proposes a physical profile (or system) that is optimized to minimize receiver complexity while achieving the performance required for a particular application.
  • FIG. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.
  • the service may be delivered to the receiver through a plurality of layers.
  • the transmitting side can generate service data.
  • the delivery layer on the transmitting side performs processing for transmission to the service data, and the physical layer encodes it as a broadcast signal and transmits it through a broadcasting network or broadband.
  • the service data may be generated in a format according to ISO BMFF (base media file format).
  • the ISO BMFF media file may be used in broadcast network / broadband delivery, media encapsulation and / or synchronization format.
  • the service data is all data related to the service, and may include a concept including service components constituting the linear service, signaling information thereof, non real time (NRT) data, and other files.
  • the delivery layer will be described.
  • the delivery layer may provide a transmission function for service data.
  • the service data may be delivered through a broadcast network and / or broadband.
  • the first method may be to process service data into Media Processing Units (MPUs) based on MPEG Media Transport (MMT) and transmit the data using MMM protocol (MMTP).
  • MPUs Media Processing Units
  • MMT MPEG Media Transport
  • MMTP MMM protocol
  • the service data delivered through the MMTP may include service components for linear service and / or service signaling information thereof.
  • the second method may be to process service data into DASH segments based on MPEG DASH and transmit it using Real Time Object Delivery over Unidirectional Transport (ROUTE).
  • the service data delivered through the ROUTE protocol may include service components for the linear service, service signaling information and / or NRT data thereof. That is, non-timed data such as NRT data and files may be delivered through ROUTE.
  • Data processed according to the MMTP or ROUTE protocol may be processed into IP packets via the UDP / IP layer.
  • a service list table (SLT) may also be transmitted through a broadcasting network through a UDP / IP layer.
  • the SLT may be included in the LLS (Low Level Signaling) table and transmitted. The SLT and the LLS table will be described later.
  • IP packets may be treated as link layer packets at the link layer.
  • the link layer may encapsulate data of various formats delivered from an upper layer into a link layer packet and then deliver the data to the physical layer. The link layer will be described later.
  • At least one or more service elements may be delivered via a broadband path.
  • the data transmitted through the broadband may include service components in a DASH format, service signaling information and / or NRT data thereof. This data can be processed via HTTP / TCP / IP, passed through the link layer for broadband transmission, and delivered to the physical layer for broadband transmission.
  • the physical layer may process data received from a delivery layer (upper layer and / or link layer) and transmit the data through a broadcast network or a broadband. Details of the physical layer will be described later.
  • the service may be a collection of service components that are shown to the user as a whole, the components may be of different media types, the service may be continuous or intermittent, the service may be real time or non-real time, and the real time service may be a sequence of TV programs. It can be configured as.
  • the service may be a linear audio / video or audio only service that may have app-based enhancements.
  • the service may be an app-based service whose reproduction / configuration is controlled by the downloaded application.
  • the service may be an ESG service that provides an electronic service guide (ESG).
  • ESG electronic service guide
  • EA Emergency Alert
  • the service component may be delivered by (1) one or more ROUTE sessions or (2) one or more MMTP sessions.
  • the service component When a linear service with app-based enhancement is delivered through a broadcast network, the service component may be delivered by (1) one or more ROUTE sessions and (2) zero or more MMTP sessions.
  • data used for app-based enhancement may be delivered through a ROUTE session in the form of NRT data or other files.
  • linear service components (streaming media components) of one service may not be allowed to be delivered using both protocols simultaneously.
  • the service component may be delivered by one or more ROUTE sessions.
  • the service data used for the app-based service may be delivered through a ROUTE session in the form of NRT data or other files.
  • some service components or some NRT data, files, etc. of these services may be delivered via broadband (hybrid service delivery).
  • the linear service components of one service may be delivered through the MMT protocol.
  • the linear service components of one service may be delivered via a ROUTE protocol.
  • the linear service component and NRT data (NRT service component) of one service may be delivered through the ROUTE protocol.
  • linear service components of one service may be delivered through the MMT protocol, and NRT data (NRT service components) may be delivered through the ROUTE protocol.
  • some service component or some NRT data of a service may be delivered over broadband.
  • the data related to the app-based service or the app-based enhancement may be transmitted through a broadcast network according to ROUTE or through broadband in the form of NRT data.
  • NRT data may also be referred to as locally cashed data.
  • Each ROUTE session includes one or more LCT sessions that deliver, in whole or in part, the content components that make up the service.
  • an LCT session may deliver an individual component of a user service, such as an audio, video, or closed caption stream.
  • Streaming media is formatted into a DASH segment.
  • Each MMTP session includes one or more MMTP packet flows carrying an MMT signaling message or all or some content components.
  • the MMTP packet flow may carry a component formatted with an MMT signaling message or an MPU.
  • an LCT session For delivery of NRT user service or system metadata, an LCT session carries a file based content item.
  • These content files may consist of continuous (timed) or discrete (non-timed) media components of an NRT service, or metadata such as service signaling or ESG fragments.
  • Delivery of system metadata, such as service signaling or ESG fragments, can also be accomplished through the signaling message mode of the MMTP.
  • the tuner can scan frequencies and detect broadcast signals at specific frequencies.
  • the receiver can extract the SLT and send it to the module that processes it.
  • the SLT parser can parse the SLT, obtain data, and store it in the channel map.
  • the receiver may acquire bootstrap information of the SLT and deliver it to the ROUTE or MMT client. This allows the receiver to obtain and store the SLS. USBD or the like can be obtained, which can be parsed by the signaling parser.
  • FIG. 2 is a diagram illustrating a service discovery process according to an embodiment of the present invention.
  • the broadcast stream delivered by the broadcast signal frame of the physical layer may carry LLS (Low Level Signaling).
  • LLS data may be carried through the payload of an IP packet delivered to a well known IP address / port. This LLS may contain an SLT depending on its type.
  • LLS data may be formatted in the form of an LLS table. The first byte of every UDP / IP packet carrying LLS data may be the beginning of the LLS table. Unlike the illustrated embodiment, the IP stream carrying LLS data may be delivered to the same PLP along with other service data.
  • the SLT enables the receiver to generate a service list through a fast channel scan and provides access information for locating the SLS.
  • the SLT includes bootstrap information, which enables the receiver to obtain Service Layer Signaling (SLS) for each service.
  • SLS Service Layer Signaling
  • the bootstrap information may include destination IP address and destination port information of the ROUTE session including the LCT channel carrying the SLS and the LCT channel.
  • the bootstrap information may include a destination IP address and destination port information of the MMTP session carrying the SLS.
  • the SLS of service # 1 described by the SLT is delivered via ROUTE, and the SLT includes bootstrap information (sIP1, dIP1, dPort1) for the ROUTE session including the LCT channel to which the SLS is delivered. can do.
  • SLS of service # 2 described by the SLT is delivered through MMT, and the SLT may include bootstrap information (sIP2, dIP2, and dPort2) for an MMTP session including an MMTP packet flow through which the SLS is delivered.
  • the SLS is signaling information describing characteristics of a corresponding service and may include information for acquiring a corresponding service and a service component of the corresponding service, or may include receiver capability information for reproducing the corresponding service significantly. Having separate service signaling for each service allows the receiver to obtain the appropriate SLS for the desired service without having to parse the entire SLS delivered in the broadcast stream.
  • the SLS When the SLS is delivered through the ROUTE protocol, the SLS may be delivered through a dedicated LCT channel of a ROUTE session indicated by the SLT.
  • the SLS may include a user service bundle description (USBD / USD), a servicebased transport session instance description (STSID), and / or a media presentation description (MPD).
  • USBD / USD user service bundle description
  • STSID servicebased transport session instance description
  • MPD media presentation description
  • USBD to USD is one of the SLS fragments and may serve as a signaling hub for describing specific technical information of a service.
  • the USBD may include service identification information, device capability information, and the like.
  • the USBD may include reference information (URI reference) to other SLS fragments (STSID, MPD, etc.). That is, USBD / USD can refer to STSID and MPD respectively.
  • the USBD may further include metadata information that enables the receiver to determine the transmission mode (broadcast network / broadband). Details of the USBD / USD will be described later.
  • the STSID is one of the SLS fragments, and may provide overall session description information for a transport session carrying a service component of a corresponding service.
  • the STSID may provide transport session description information for the ROUTE session to which the service component of the corresponding service is delivered and / or the LCT channel of the ROUTE sessions.
  • the STSID may provide component acquisition information of service components related to one service.
  • the STSID may provide a mapping between the DASH Representation of the MPD and the tsi of the corresponding service component.
  • the component acquisition information of the STSID may be provided in the form of tsi, an identifier of an associated DASH representation, and may or may not include a PLP ID according to an embodiment.
  • the component acquisition information enables the receiver to collect audio / video components of a service and to buffer, decode, and the like of DASH media segments.
  • the STSID may be referenced by the USBD as described above. Details of the STSID will be described later.
  • the MPD is one of the SLS fragments and may provide a description of the DASH media presentation of the service.
  • the MPD may provide a resource identifier for the media segments and may provide contextual information within the media presentation for the identified resources.
  • the MPD may describe the DASH representation (service component) delivered through the broadcast network, and may also describe additional DASH representations delivered through the broadband (hybrid delivery).
  • the MPD may be referenced by the USBD as described above.
  • the SLS When the SLS is delivered through the MMT protocol, the SLS may be delivered through a dedicated MMTP packet flow of an MMTP session indicated by the SLT.
  • packet_id of MMTP packets carrying SLS may have a value of 00.
  • the SLS may include a USBD / USD and / or MMT Package (MP) table.
  • USBD is one of the SLS fragments, and may describe specific technical information of a service like that in ROUTE.
  • the USBD here may also include reference information (URI reference) to other SLS fragments.
  • the USBD of the MMT may refer to the MP table of the MMT signaling.
  • the USBD of the MMT may also include reference information on the STSID and / or the MPD.
  • the STSID may be for NRT data transmitted through the ROUTE protocol. This is because NRT data can be delivered through the ROUTE protocol even when the linear service component is delivered through the MMT protocol.
  • MPD may be for a service component delivered over broadband in hybrid service delivery. Details of the USBD of the MMT will be described later.
  • the MP table is a signaling message of the MMT for MPU components and may provide overall session description information for an MMTP session carrying a service component of a corresponding service.
  • the MP table may also contain descriptions for assets delivered via this MMTP session.
  • the MP table is streaming signaling information for MPU components, and may provide a list of assets corresponding to one service and location information (component acquisition information) of these components. Specific contents of the MP table may be in a form defined in MMT or a form in which modifications are made.
  • Asset is a multimedia data entity, which may mean a data entity associated with one unique ID and used to generate one multimedia presentation. Asset may correspond to a service component constituting a service.
  • the MP table may be used to access a streaming service component (MPU) corresponding to a desired service.
  • the MP table may be referenced by the USBD as described above.
  • MMT signaling messages may be defined. Such MMT signaling messages may describe additional information related to the MMTP session or service.
  • ROUTE sessions are identified by source IP address, destination IP address, and destination port number.
  • the LCT session is identified by a transport session identifier (TSI) that is unique within the scope of the parent ROUTE session.
  • MMTP sessions are identified by destination IP address and destination port number.
  • the MMTP packet flow is identified by a unique packet_id within the scope of the parent MMTP session.
  • the STSID, the USBD / USD, the MPD, or the LCT session for delivering them may be referred to as a service signaling channel.
  • the STSID, the USBD / USD, the MPD, or the LCT session for delivering them may be referred to as a service signaling channel.
  • the STSID, the USBD / USD, the MPD, or the LCT session for delivering them may be referred to as a service signaling channel.
  • MMT signaling messages or packet flow carrying them may be called a service signaling channel.
  • one ROUTE or MMTP session may be delivered through a plurality of PLPs. That is, one service may be delivered through one or more PLPs. Unlike shown, components constituting one service may be delivered through different ROUTE sessions. In addition, according to an embodiment, components constituting one service may be delivered through different MMTP sessions. According to an embodiment, components constituting one service may be delivered divided into a ROUTE session and an MMTP session. Although not shown, a component constituting one service may be delivered through a broadband (hybrid delivery).
  • LLS low level signaling
  • SLT service list table
  • An embodiment t3010 of the illustrated LLS table may include information according to an LLS_table_id field, a provider_id field, an LLS_table_version field, and / or an LLS_table_id field.
  • the LLS_table_id field may identify a type of the corresponding LLS table, and the provider_id field may identify service providers related to services signaled by the corresponding LLS table.
  • the service provider is a broadcaster using all or part of the broadcast stream, and the provider_id field may identify one of a plurality of broadcasters using the broadcast stream.
  • the LLS_table_version field may provide version information of a corresponding LLS table.
  • the corresponding LLS table includes the above-described SLT, a rating region table (RRT) including information related to a content advisory rating, a SystemTime information providing information related to system time, and an emergency alert. It may include one of the CAP (Common Alert Protocol) message that provides information related to. According to an embodiment, other information other than these may be included in the LLS table.
  • RRT rating region table
  • CAP Common Alert Protocol
  • One embodiment t3020 of the illustrated SLT may include an @bsid attribute, an @sltCapabilities attribute, a sltInetUrl element, and / or a Service element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @bsid attribute may be an identifier of a broadcast stream.
  • the @sltCapabilities attribute can provide the capability information required to decode and significantly reproduce all services described by the SLT.
  • the sltInetUrl element may provide base URL information used to obtain ESG or service signaling information for services of the corresponding SLT through broadband.
  • the sltInetUrl element may further include an @urlType attribute, which may indicate the type of data that can be obtained through the URL.
  • the service element may be an element including information on services described by the corresponding SLT, and a service element may exist for each service.
  • the Service element contains the @serviceId property, the @sltSvcSeqNum property, the @protected property, the @majorChannelNo property, the @minorChannelNo property, the @serviceCategory property, the @shortServiceName property, the @hidden property, the @broadbandAccessRequired property, the @svcCapabilities property, the BroadcastSvcSignaling element, and / or the svcInetUrl element. It may include.
  • the @serviceId attribute may be an identifier of a corresponding service, and the @sltSvcSeqNum attribute may indicate a sequence number of SLT information for the corresponding service.
  • the @protected attribute may indicate whether at least one service component necessary for meaningful playback of the corresponding service is protected.
  • the @majorChannelNo and @minorChannelNo attributes may indicate the major channel number and the minor channel number of the corresponding service, respectively.
  • the @serviceCategory attribute can indicate the category of the corresponding service.
  • the service category may include a linear A / V service, a linear audio service, an app-based service, an ESG service, and an EAS service.
  • the @shortServiceName attribute may provide a short name of the corresponding service.
  • the @hidden attribute can indicate whether the service is for testing or proprietary use.
  • the @broadbandAccessRequired attribute may indicate whether broadband access is required for meaningful playback of the corresponding service.
  • the @svcCapabilities attribute can provide the capability information necessary for decoding and meaningful reproduction of the corresponding service.
  • the BroadcastSvcSignaling element may provide information related to broadcast signaling of a corresponding service. This element may provide information such as a location, a protocol, and an address with respect to signaling through a broadcasting network of a corresponding service. Details will be described later.
  • the svcInetUrl element may provide URL information for accessing signaling information for a corresponding service through broadband.
  • the sltInetUrl element may further include an @urlType attribute, which may indicate the type of data that can be obtained through the URL.
  • the aforementioned BroadcastSvcSignaling element may include an @slsProtocol attribute, an @slsMajorProtocolVersion attribute, an @slsMinorProtocolVersion attribute, an @slsPlpId attribute, an @slsDestinationIpAddress attribute, an @slsDestinationUdpPort attribute, and / or an @slsSourceIpAddress attribute.
  • the @slsProtocol attribute can indicate the protocol used to deliver the SLS of the service (ROUTE, MMT, etc.).
  • the @slsMajorProtocolVersion attribute and @slsMinorProtocolVersion attribute may indicate the major version number and the minor version number of the protocol used to deliver the SLS of the corresponding service, respectively.
  • the @slsPlpId attribute may provide a PLP identifier for identifying a PLP that delivers the SLS of the corresponding service.
  • this field may be omitted, and the PLP information to which the SLS is delivered may be identified by combining information in the LMT to be described later and bootstrap information of the SLT.
  • the @slsDestinationIpAddress attribute, @slsDestinationUdpPort attribute, and @slsSourceIpAddress attribute may indicate the destination IP address, the destination UDP port, and the source IP address of the transport packet carrying the SLS of the corresponding service, respectively. They can identify the transport session (ROUTE session or MMTP session) to which the SLS is delivered. These may be included in the bootstrap information.
  • FIG. 4 is a diagram illustrating a USBD and an STSID delivered to ROUTE according to an embodiment of the present invention.
  • One embodiment t4010 of the illustrated USBD may have a bundleDescription root element.
  • the bundleDescription root element may have a userServiceDescription element.
  • the userServiceDescription element may be an instance of one service.
  • the userServiceDescription element may include an @globalServiceID attribute, an @serviceId attribute, an @serviceStatus attribute, an @fullMPDUri attribute, an @sTSIDUri attribute, a name element, a serviceLanguage element, a capabilityCode element, and / or a deliveryMethod element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @globalServiceID attribute is a globally unique identifier of the service and can be used to link with ESG data (Service @ globalServiceID).
  • the @serviceId attribute is a reference corresponding to the corresponding service entry of the SLT and may be the same as service ID information of the SLT.
  • the @serviceStatus attribute may indicate the status of the corresponding service. This field may indicate whether the corresponding service is active or inactive.
  • the @fullMPDUri attribute can refer to the MPD fragment of the service. As described above, the MPD may provide a reproduction description for a service component delivered through a broadcast network or a broadband.
  • the @sTSIDUri attribute can refer to the STSID fragment of the service.
  • the STSID may provide parameters related to access to the transport session carrying the service as described above.
  • the name element may provide the name of the service.
  • This element may further include an @lang attribute, which may indicate the language of the name provided by the name element.
  • the serviceLanguage element may indicate the available languages of the service. That is, this element may list the languages in which the service can be provided.
  • the capabilityCode element may indicate capability or capability group information of the receiver side necessary for significantly playing a corresponding service. This information may be compatible with the capability information format provided by the service announcement.
  • the deliveryMethod element may provide delivery related information with respect to contents accessed through a broadcasting network or a broadband of a corresponding service.
  • the deliveryMethod element may include a broadcastAppService element and / or a unicastAppService element. Each of these elements may have a basePattern element as its child element.
  • the broadcastAppService element may include transmission related information on the DASH presentation delivered through the broadcast network.
  • These DASH representations may include media components across all periods of the service media presentation.
  • the basePattern element of this element may represent a character pattern used by the receiver to match the segment URL. This can be used by the DASH client to request segments of the representation. Matching may imply that the media segment is delivered over the broadcast network.
  • the unicastAppService element may include transmission related information on the DASH representation delivered through broadband. These DASH representations may include media components across all periods of the service media presentation.
  • the basePattern element of this element may represent a character pattern used by the receiver to match the segment URL. This can be used by the DASH client to request segments of the representation. Matching may imply that the media segment is delivered over broadband.
  • An embodiment t4020 of the illustrated STSID may have an STSID root element.
  • the STSID root element may include an @serviceId attribute and / or an RS element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @serviceId attribute is an identifier of a corresponding service and may refer to a corresponding service of USBD / USD.
  • the RS element may describe information on ROUTE sessions through which service components of a corresponding service are delivered. Depending on the number of such ROUTE sessions, there may be a plurality of these elements.
  • the RS element may further include an @bsid attribute, an @sIpAddr attribute, an @dIpAddr attribute, an @dport attribute, an @PLPID attribute, and / or an LS element.
  • the @bsid attribute may be an identifier of a broadcast stream through which service components of a corresponding service are delivered. If this field is omitted, the default broadcast stream may be a broadcast stream that includes a PLP that carries the SLS of the service. The value of this field may be the same value as the @bsid attribute of SLT.
  • the @sIpAddr attribute, the @dIpAddr attribute, and the @dport attribute may indicate a source IP address, a destination IP address, and a destination UDP port of the corresponding ROUTE session, respectively. If these fields are omitted, the default values may be the source IP address, destination IP address, and destination UDP port values of the current, ROUTE session carrying that SLS, that is, carrying that STSID. For other ROUTE sessions that carry service components of the service but not the current ROUTE session, these fields may not be omitted.
  • the @PLPID attribute may indicate PLP ID information of a corresponding ROUTE session. If this field is omitted, the default value may be the PLP ID value of the current PLP to which the corresponding STSID is being delivered. According to an embodiment, this field is omitted, and the PLP ID information of the corresponding ROUTE session may be confirmed by combining information in the LMT to be described later and IP address / UDP port information of the RS element.
  • the LS element may describe information on LCT channels through which service components of a corresponding service are delivered. Depending on the number of such LCT channels, there may be a plurality of these elements.
  • the LS element may include an @tsi attribute, an @PLPID attribute, an @bw attribute, an @startTime attribute, an @endTime attribute, an SrcFlow element, and / or a RepairFlow element.
  • the @tsi attribute may represent tsi information of a corresponding LCT channel. Through this, LCT channels through which a service component of a corresponding service is delivered may be identified.
  • the @PLPID attribute may represent PLP ID information of a corresponding LCT channel. In some embodiments, this field may be omitted.
  • the @bw attribute may indicate the maximum bandwidth of the corresponding LCT channel.
  • the @startTime attribute may indicate the start time of the LCT session, and the @endTime attribute may indicate the end time of the LCT channel.
  • the SrcFlow element may describe the source flow of ROUTE.
  • the source protocol of ROUTE is used to transmit the delivery object, and can establish at least one source flow in one ROUTE session. These source flows can deliver related objects as an object flow.
  • the RepairFlow element may describe the repair flow of ROUTE. Delivery objects delivered according to the source protocol may be protected according to Forward Error Correction (FEC).
  • FEC Forward Error Correction
  • the repair protocol may define a FEC framework that enables such FEC protection.
  • FIG. 5 is a diagram illustrating a USBD delivered to MMT according to an embodiment of the present invention.
  • One embodiment of the illustrated USBD may have a bundleDescription root element.
  • the bundleDescription root element may have a userServiceDescription element.
  • the userServiceDescription element may be an instance of one service.
  • the userServiceDescription element may include an @globalServiceID attribute, an @serviceId attribute, a Name element, a serviceLanguage element, a content advisoryRating element, a Channel element, an mpuComponent element, a routeComponent element, a broadbandComponent element, and / or a ComponentInfo element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @globalServiceID attribute, the @serviceId attribute, the Name element and / or the serviceLanguage element may be the same as the corresponding fields of the USBD delivered to the above-described ROUTE.
  • the contentAdvisoryRating element may indicate the content advisory rating of the corresponding service. This information may be compatible with the content advisory rating information format provided by the service announcement.
  • the channel element may include information related to the corresponding service. The detail of this element is mentioned later.
  • the mpuComponent element may provide a description for service components delivered as an MPU of a corresponding service.
  • This element may further include an @mmtPackageId attribute and / or an @nextMmtPackageId attribute.
  • the @mmtPackageId attribute may refer to an MMT package of service components delivered as an MPU of a corresponding service.
  • the @nextMmtPackageId attribute may refer to an MMT package to be used next to the MMT package referenced by the @mmtPackageId attribute in time.
  • the MP table can be referenced through the information of this element.
  • the routeComponent element may include a description of service components of the corresponding service delivered to ROUTE. Even if the linear service components are delivered in the MMT protocol, the NRT data may be delivered according to the ROUTE protocol as described above. This element may describe information about such NRT data. The detail of this element is mentioned later.
  • the broadbandComponent element may include a description of service components of the corresponding service delivered over broadband.
  • some service components or other files of a service may be delivered over broadband.
  • This element may describe information about these data.
  • This element may further include the @fullMPDUri attribute. This attribute may refer to an MPD that describes service components delivered over broadband.
  • this element may be needed to support handoff between broadcast network broadband bands. When the broadcast signal is weakened, while acquiring the service component through broadband, and when the broadcast signal is stronger, the service continuity may be guaranteed by acquiring the service component through the broadcast network.
  • the ComponentInfo element may include information on service components of a corresponding service. Depending on the number of service components of the service, there may be a plurality of these elements. This element may describe information such as the type, role, name, identifier, and protection of each service component. Detailed information on this element will be described later.
  • the aforementioned channel element may further include an @serviceGenre attribute, an @serviceIcon attribute, and / or a ServiceDescription element.
  • the @serviceGenre attribute may indicate the genre of the corresponding service
  • the @serviceIcon attribute may include URL information of an icon representing the corresponding service.
  • the ServiceDescription element provides a service description of the service, which may further include an @serviceDescrText attribute and / or an @serviceDescrLang attribute. Each of these attributes may indicate the text of the service description and the language used for that text.
  • the aforementioned routeComponent element may further include an @sTSIDUri attribute, an @sTSIDDestinationIpAddress attribute, an @sTSIDDestinationUdpPort attribute, an @sTSIDSourceIpAddress attribute, an @sTSIDMajorProtocolVersion attribute, and / or an @sTSIDMinorProtocolVersion attribute.
  • the @sTSIDUri attribute can refer to an STSID fragment. This field may be the same as the corresponding field of USBD delivered to ROUTE described above. This STSID may provide access related information for service components passed in ROUTE. This STSID may exist for NRT data delivered according to the ROUTE protocol in the situation where linear service components are delivered according to the MMT protocol.
  • the @sTSIDDestinationIpAddress attribute, the @sTSIDDestinationUdpPort attribute, and the @sTSIDSourceIpAddress attribute may indicate a destination IP address, a destination UDP port, and a source IP address of a transport packet carrying the aforementioned STSID, respectively. That is, these fields may identify a transport session (MMTP session or ROUTE session) carrying the aforementioned STSID.
  • the @sTSIDMajorProtocolVersion attribute and the @sTSIDMinorProtocolVersion attribute may indicate a major version number and a minor version number of the transport protocol used to deliver the aforementioned STSID.
  • ComponentInfo element may further include an @componentType attribute, an @componentRole attribute, an @componentProtectedFlag attribute, an @componentId attribute, and / or an @componentName attribute.
  • the @componentType attribute may indicate the type of the corresponding component. For example, this property may indicate whether the corresponding component is an audio, video, or closed caption component.
  • the @componentRole attribute can indicate the role (role) of the corresponding component. For example, this property can indicate whether the main audio, music, commentary, etc., if the corresponding component is an audio component. If the corresponding component is a video component, it may indicate whether it is primary video. If the corresponding component is a closed caption component, it may indicate whether it is a normal caption or an easy reader type.
  • the @componentProtectedFlag attribute may indicate whether a corresponding service component is protected, for example, encrypted.
  • the @componentId attribute may represent an identifier of a corresponding service component.
  • the value of this attribute may be a value such as asset_id (asset ID) of the MP table corresponding to this service component.
  • the @componentName attribute may represent the name of the corresponding service component.
  • FIG. 6 illustrates a link layer operation according to an embodiment of the present invention.
  • the link layer may be a layer between the physical layer and the network layer.
  • the transmitter may transmit data from the network layer to the physical layer
  • the receiver may transmit data from the physical layer to the network layer (t6010).
  • the purpose of the link layer may be to compress all input packet types into one format for processing by the physical layer, to ensure flexibility and future scalability for input packet types not yet defined. have.
  • the link layer may provide an option of compressing unnecessary information in the header of the input packet, so that the input data may be efficiently transmitted. Operations such as overhead reduction and encapsulation of the link layer may be referred to as a link layer protocol, and a packet generated using the corresponding protocol may be referred to as a link layer packet.
  • the link layer may perform functions such as packet encapsulation, overhead reduction, and / or signaling transmission.
  • the link layer ALP may perform an overhead reduction process on input packets and then encapsulate them into link layer packets.
  • the link layer may encapsulate the link layer packet without performing an overhead reduction process.
  • the use of the link layer protocol can greatly reduce the overhead for transmission of data on the physical layer, and the link layer protocol according to the present invention can provide IP overhead reduction and / or MPEG2 TS overhead reduction.
  • the link layer may sequentially perform IP header compression, adaptation, and / or encapsulation. In some embodiments, some processes may be omitted.
  • the RoHC module performs IP packet header compression to reduce unnecessary overhead, and context information may be extracted and transmitted out of band through an adaptation process.
  • the IP header compression and adaptation process may be collectively called IP header compression.
  • IP packets may be encapsulated into link layer packets through an encapsulation process.
  • the link layer may sequentially perform an overhead reduction and / or encapsulation process for the TS packet. In some embodiments, some processes may be omitted.
  • the link layer may provide sync byte removal, null packet deletion and / or common header removal (compression).
  • Sync byte elimination can provide overhead reduction of 1 byte per TS packet. Null packet deletion can be performed in a manner that can be reinserted at the receiving end. In addition, common information between successive headers can be deleted (compressed) in a manner that can be recovered at the receiving side. Some of each overhead reduction process may be omitted. Thereafter, TS packets may be encapsulated into link layer packets through an encapsulation process.
  • the link layer packet structure for encapsulation of TS packets may be different from other types of packets.
  • IP header compression will be described.
  • the IP packet has a fixed header format, but some information required in a communication environment may be unnecessary in a broadcast environment.
  • the link layer protocol may provide a mechanism to reduce broadcast overhead by compressing the header of the IP packet.
  • IP header compression may include a header compressor / decompressor and / or adaptation module.
  • the IP header compressor (RoHC compressor) may reduce the size of each IP packet header based on the RoHC scheme.
  • the adaptation module may then extract the context information and generate signaling information from each packet stream.
  • the receiver may parse signaling information related to the packet stream and attach context information to the packet stream.
  • the RoHC decompressor can reconstruct the original IP packet by recovering the packet header.
  • IP header compression may mean only IP header compression by a header compressor, or may mean a concept in which the IP header compression and the adaptation process by the adaptation module are combined. The same is true for decompressing.
  • the adaptation function may generate link layer signaling using context information and / or configuration parameters.
  • the adaptation function may periodically send link layer signaling over each physical frame using previous configuration parameters and / or context information.
  • the context information is extracted from the compressed IP packets, and various methods may be used according to the adaptation mode.
  • Mode # 1 is a mode in which no operation is performed on the compressed packet stream, and may be a mode in which the adaptation module operates as a buffer.
  • Mode # 2 may be a mode for extracting context information (static chain) by detecting IR packets in the compressed packet stream. After extraction, the IR packet is converted into an IRDYN packet, and the IRDYN packet can be transmitted in the same order in the packet stream by replacing the original IR packet.
  • context information static chain
  • Mode # 3 t6020 may be a mode for detecting IR and IRDYN packets and extracting context information from the compressed packet stream. Static chains and dynamic chains can be extracted from IR packets, and dynamic chains can be extracted from IRDYN packets. After extraction, the IR and IRDYN packets can be converted into regular compressed packets. The switched packets can be sent in the same order within the packet stream, replacing the original IR and IRDYN packets.
  • the remaining packets after the context information is extracted may be encapsulated and transmitted according to the link layer packet structure for the compressed IP packet.
  • the context information may be transmitted by being encapsulated according to a link layer packet structure for signaling information as link layer signaling.
  • the extracted context information may be included in the RoHCU Description Table (RTD) and transmitted separately from the RoHC packet flow.
  • the context information may be transmitted through a specific physical data path along with other signaling information.
  • a specific physical data path may mean one of general PLPs, a PLP to which LLS (Low Level Signaling) is delivered, a dedicated PLP, or an L1 signaling path. path).
  • the RDT may be signaling information including context information (static chain and / or dynamic chain) and / or information related to header compression.
  • the RDT may be transmitted whenever the context information changes.
  • the RDT may be transmitted in every physical frame. In order to transmit the RDT in every physical frame, the previous RDT may be reused.
  • the receiver may first select PLP to acquire signaling information such as SLT, RDT, LMT, and the like. When the signaling information is obtained, the receiver may combine these to obtain a mapping between the service IP information context information PLPs. That is, the receiver can know which service is transmitted to which IP streams, which IP streams are delivered to which PLP, and can also obtain corresponding context information of the PLPs. The receiver can select and decode a PLP carrying a particular packet stream. The adaptation module can parse the context information and merge it with the compressed packets. This allows the packet stream to be recovered, which can be delivered to the RoHC decompressor. Decompression can then begin.
  • PLP Prior to acquiring the packet stream, the receiver may first select PLP to acquire signaling information such as SLT, RDT, LMT, and the like.
  • the receiver may combine these to obtain a mapping between the service IP information context information PLPs. That is, the receiver can know which service is transmitted to which IP streams, which IP streams are delivered to which PLP, and can also obtain
  • the receiver detects the IR packet to start decompression from the first received IR packet (mode 1), or detects the IRDYN packet to start decompression from the first received IRDYN packet (mode according to the adaptation mode). 2) Decompression can begin from any normal compressed packet (mode 3).
  • the link layer protocol may encapsulate all types of input packets, such as IP packets and TS packets, into link layer packets.
  • IP packets and TS packets may be encapsulated into link layer packets.
  • the physical layer needs to process only one packet format independently of the protocol type of the network layer (here, consider MPEG2 TS packet as a kind of network layer packet).
  • Each network layer packet or input packet is transformed into a payload of a generic link layer packet.
  • Segmentation may be utilized in the packet encapsulation process. If the network layer packet is too large to be processed by the physical layer, the network layer packet may be divided into two or more segments.
  • the link layer packet header may include fields for performing division at the transmitting side and recombination at the receiving side. Each segment may be encapsulated into a link layer packet in the same order as the original position.
  • Concatenation may also be utilized in the packet encapsulation process. If the network layer packet is small enough that the payload of the link layer packet includes several network layer packets, concatenation may be performed.
  • the link layer packet header may include fields for executing concatenation. In the case of concatenation, each input packet may be encapsulated into the payload of the link layer packet in the same order as the original input order.
  • the link layer packet may include a header and a payload, and the header may include a base header, an additional header, and / or an optional header.
  • the additional header may be added depending on the chaining or splitting, and the additional header may include necessary fields according to the situation.
  • an optional header may be further added to transmit additional information.
  • Each header structure may be predefined. As described above, when the input packet is a TS packet, a link layer header structure different from other packets may be used.
  • Link layer signaling may operate at a lower level than the IP layer.
  • the receiving side can acquire the link layer signaling faster than the IP level signaling such as LLS, SLT, SLS, and the like. Therefore, link layer signaling may be obtained before session establishment.
  • Link layer signaling may include internal link layer signaling and external link layer signaling.
  • Internal link layer signaling may be signaling information generated in the link layer.
  • the above-described RDT or LMT to be described later may correspond to this.
  • the external link layer signaling may be signaling information received from an external module, an external protocol, or an upper layer.
  • the link layer may encapsulate link layer signaling into a link layer packet and deliver it.
  • a link layer packet structure (header structure) for link layer signaling may be defined, and link layer signaling information may be encapsulated according to this structure.
  • FIG. 7 illustrates a link mapping table (LMT) according to an embodiment of the present invention.
  • the LMT may provide a list of higher layer sessions carried by the PLP.
  • the LMT may also provide additional information for processing link layer packets carrying higher layer sessions.
  • the higher layer session may be called multicast.
  • Information on which IP streams and which transport sessions are being transmitted through a specific PLP may be obtained through the LMT. Conversely, information on which PLP a specific transport session is delivered to may be obtained.
  • the LMT may be delivered to any PLP identified as carrying an LLS.
  • the PLP through which the LLS is delivered may be identified by the LLS flag of the L1 detail signaling information of the physical layer.
  • the LLS flag may be a flag field indicating whether LLS is delivered to the corresponding PLP for each PLP.
  • the L1 detail signaling information may correspond to PLS2 data to be described later.
  • the LMT may be delivered to the same PLP together with the LLS.
  • Each LMT may describe the mapping between PLPs and IP address / port as described above.
  • the LLS may include an SLT, where these IP addresses / ports described by the LMT are all IP addresses associated with any service described by the SLT forwarded to the same PLP as that LMT. It can be / ports.
  • the PLP identifier information in the above-described SLT, SLS, etc. may be utilized, so that information on which PLP the specific transmission session indicated by the SLT, SLS is transmitted may be confirmed.
  • the PLP identifier information in the above-described SLT, SLS, etc. may be omitted, and the PLP information for the specific transport session indicated by the SLT, SLS may be confirmed by referring to the information in the LMT.
  • the receiver may identify the PLP to know by combining LMT and other IP level signaling information.
  • PLP information in SLT, SLS, and the like is not omitted, and may remain in the SLT, SLS, and the like.
  • the LMT according to the illustrated embodiment may include a signaling_type field, a PLP_ID field, a num_session field, and / or information about respective sessions.
  • a PLP loop may be added to the LMT according to an embodiment, so that information on a plurality of PLPs may be described.
  • the LMT may describe PLPs for all IP addresses / ports related to all services described by the SLTs delivered together, in a PLP loop.
  • the signaling_type field may indicate the type of signaling information carried by the corresponding table.
  • the value of the signaling_type field for the LMT may be set to 0x01.
  • the signaling_type field may be omitted.
  • the PLP_ID field may identify a target PLP to be described. When a PLP loop is used, each PLP_ID field may identify each target PLP. From the PLP_ID field may be included in the PLP loop.
  • the PLP_ID field mentioned below is an identifier for one PLP in a PLP loop, and the fields described below may be fields for the corresponding PLP.
  • the num_session field may indicate the number of upper layer sessions delivered to the PLP identified by the corresponding PLP_ID field. According to the number indicated by the num_session field, information about each session may be included. This information may include an src_IP_add field, a dst_IP_add field, a src_UDP_port field, a dst_UDP_port field, a SID_flag field, a compressed_flag field, a SID field, and / or a context_id field.
  • the src_IP_add field, dst_IP_add field, src_UDP_port field, and dst_UDP_port field are the source IP address, destination IP address, source UDP port, destination UDP port for the transport session among the upper layer sessions forwarded to the PLP identified by the corresponding PLP_ID field. It can indicate a port.
  • the SID_flag field may indicate whether a link layer packet carrying a corresponding transport session has an SID field in its optional header.
  • a link layer packet carrying an upper layer session may have an SID field in its optional header, and the SID field value may be the same as an SID field in an LMT to be described later.
  • the compressed_flag field may indicate whether header compression has been applied to data of a link layer packet carrying a corresponding transport session.
  • the existence of the context_id field to be described later may be determined according to the value of this field.
  • the SID field may indicate a sub stream ID (SID) for link layer packets carrying a corresponding transport session.
  • SID sub stream ID
  • These link layer packets may include an SID having the same value as this SID field in the optional header.
  • the context_id field may provide a reference to a context id (CID) in the RDT.
  • the CID information of the RDT may indicate the context ID for the corresponding compressed IP packet stream.
  • the RDT may provide context information for the compressed IP packet stream. RDT and LMT may be associated with this field.
  • each field, element, or attribute may be omitted or replaced by another field, and additional fields, elements, or attributes may be added according to an embodiment. .
  • service components of one service may be delivered through a plurality of ROUTE sessions.
  • the SLS may be obtained through the bootstrap information of the SLT.
  • the SLSID and MPD can be referenced via the SLS's USBD.
  • the STSID may describe transport session description information for other ROUTE sessions to which service components are delivered, as well as a ROUTE session to which an SLS is being delivered. Through this, all service components delivered through a plurality of ROUTE sessions may be collected. This may be similarly applied when service components of a service are delivered through a plurality of MMTP sessions.
  • one service component may be used simultaneously by a plurality of services.
  • bootstrapping for ESG services may be performed by a broadcast network or broadband.
  • URL information of the SLT may be utilized. ESG information and the like can be requested to this URL.
  • one service component of one service may be delivered to the broadcasting network and one to the broadband (hybrid).
  • the STSID may describe components delivered to the broadcasting network, so that a ROUTE client may acquire desired service components.
  • USBD also has base pattern information, which allows you to describe which segments (which components) are to be routed to which path. Therefore, the receiver can use this to know what segment to request to the broadband server and what segment to find in the broadcast stream.
  • scalable coding for a service may be performed.
  • the USBD may have all the capability information needed to render the service. For example, when a service is provided in HD or UHD, the capability information of the USBD may have a value of “HD or UHD”.
  • the receiver may know which component should be played in order to render the UHD or HD service using the MPD.
  • app components to be used for app-based enhancement / app-based service may be delivered through a broadcast network or through broadband as an NRT component.
  • app signaling for app-based enhancement may be performed by an application signaling table (AST) delivered with SLS.
  • an event which is a signaling of an operation to be performed by an app, may be delivered in the form of an event message table (EMT) with SLS, signaled in an MPD, or in-band signaled in a box form in a DASH representation.
  • EMT event message table
  • App-based enhancement may be provided using the collected app components and such signaling information.
  • a CAP message may be included in the aforementioned LLS table for emergency alerting. Rich media content for emergency alerts may also be provided. Rich media may be signaled by the CAP message, and if rich media is present it may be provided as an EAS service signaled by the SLT.
  • the linear service components may be delivered through a broadcasting network according to the MMT protocol.
  • NRT data for example, an app component
  • data on the service may be delivered through a broadcasting network according to the ROUTE protocol.
  • the receiver can access the MMTP session carrying the SLS using the bootstrap information of the SLT.
  • the USBD of the SLS according to the MMT may refer to the MP table so that the receiver may acquire linear service components formatted with the MPU delivered according to the MMT protocol.
  • the USBD may further refer to the STSID, allowing the receiver to obtain NRT data delivered according to the ROUTE protocol.
  • the USBD may further reference the MPD to provide a playback description for the data delivered over the broadband.
  • the receiver may transmit location URL information for obtaining a streaming component and / or a file content item (such as a file) to the companion device through a method such as a web socket.
  • An application of a companion device may request the component, data, and the like by requesting the URL through an HTTP GET.
  • the receiver may transmit information such as system time information and emergency alert information to the companion device.
  • FIG. 8 shows a structure of a broadcast signal transmission apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • a broadcast signal transmission apparatus for a next generation broadcast service includes an input format block 1000, a bit interleaved coding & modulation (BICM) block 1010, and a frame building block 1020, orthogonal frequency division multiplexing (OFDM) generation block (OFDM generation block) 1030, and signaling generation block 1040. The operation of each block of the broadcast signal transmission apparatus will be described.
  • BICM bit interleaved coding & modulation
  • OFDM generation block orthogonal frequency division multiplexing
  • signaling generation block 1040 The operation of each block of the broadcast signal transmission apparatus will be described.
  • IP streams / packets and MPEG2TS may be main input formats, and other stream types are treated as general streams.
  • the input format block 1000 can demultiplex each input stream into one or multiple data pipes to which independent coding and modulation is applied.
  • the data pipe is the basic unit for controlling robustness, which affects the quality of service (QoS).
  • QoS quality of service
  • One or multiple services or service components may be delivered by one data pipe.
  • a data pipe is a logical channel at the physical layer that carries service data or related metadata that can carry one or multiple services or service components.
  • the BICM block 1010 may include a processing block applied to a profile (or system) to which MIMO is not applied and / or a processing block of a profile (or system) to which MIMO is applied, and for processing each data pipe. It may include a plurality of processing blocks.
  • the processing block of the BICM block to which MIMO is not applied may include a data FEC encoder, a bit interleaver, a constellation mapper, a signal space diversity (SSD) encoding block, and a time interleaver.
  • the processing block of the BICM block to which MIMO is applied is distinguished from the processing block of BICM to which MIMO is not applied in that it further includes a cell word demultiplexer and a MIMO encoding block.
  • the data FEC encoder performs FEC encoding on the input BBF to generate the FECBLOCK procedure using outer coding (BCH) and inner coding (LDPC).
  • Outer coding (BCH) is an optional coding method.
  • the bit interleaver interleaves the output of the data FEC encoder to achieve optimized performance with a combination of LDPC codes and modulation schemes.
  • the Constellation Mapper uses QPSK, QAM16, non-uniform QAM (NUQ64, NUQ256, NUQ1024) or non-uniform constellation (NUC16, NUC64, NUC256, NUC1024) to modulate cell words from the bit interleaver or cell word demultiplexer. It can provide a normalized constellation point.
  • NUQ has any shape, while QAM16 and NUQ have a square shape. Both NUQ and NUC are specifically defined for each code rate and are signaled by the parameter DP_MOD of PLS2 data.
  • the time interleaver may operate at the data pipe level. The parameters of time interleaving can be set differently for each data pipe.
  • the time interleaver of the present invention may be located between a BICM chain block and a frame builder.
  • the time interleaver according to the present invention may selectively use a convolution interleaver (CI) and a block interleaver (BI) according to a physical layer pipe (PLP) mode, or both.
  • PLP according to an embodiment of the present invention is a physical path used in the same concept as the above-described DP, the name can be changed according to the designer's intention.
  • the PLP mode according to an embodiment of the present invention may include a single PLP mode or a multiple PLP mode according to the number of PLPs processed by the broadcast signal transmitter or the broadcast signal transmitter.
  • time interleaving using different time interleaving methods according to the PLP mode may be referred to as hybrid time interleaving.
  • the hybrid time deinterleaver may perform an operation corresponding to the reverse operation of the aforementioned hybrid time interleaver.
  • the cell word demultiplexer is used to separate a single cell word stream into a dual cell word stream for MIMO processing.
  • the MIMO encoding block can process the output of the cell word demultiplexer using the MIMO encoding scheme.
  • the MIMO encoding scheme of the present invention may be defined as full spatial multiplexing (FRSM) to provide capacity increase with a relatively small complexity increase at the receiver side.
  • MIMO processing is applied at the data pipe level.
  • NUQ e1, i and e2, i
  • MIMO encoder output pairs g1, i and g2, i
  • the frame building block 1020 may map data cells of an input data pipe to OFDM symbols and perform frequency interleaving for frequency domain diversity within one frame.
  • a frame according to an embodiment of the present invention is divided into a preamble, one or more frame signaling symbols (FSS), and normal data symbols.
  • the preamble is a special symbol that provides a set of basic transmission parameters for efficient transmission and reception of a signal.
  • the preamble may signal a basic transmission parameter and a transmission type of the frame.
  • the preamble may indicate whether an emergency alert service (EAS) is provided in the current frame.
  • EAS emergency alert service
  • the main purpose of the FSS is to carry PLS data. For fast synchronization and channel estimation, and fast decoding of PLS data, the FSS has a higher density pilot pattern than normal data symbols.
  • the frame building block adjusts the timing between the data pipes and the corresponding PLS data so that a delay compensation block, PLS, is provided at the transmitter to ensure cotime between the data pipes and the corresponding PLS data.
  • a cell mapper and a frequency interleaver for mapping a data pipe, an auxiliary stream, and a dummy cell to an active carrier of an OFDM symbol in a frame.
  • the frequency interleaver may provide frequency diversity by randomly interleaving data cells received from the cell mapper.
  • the frequency interleaver uses a different interleaving seed order to obtain the maximum interleaving gain in a single frame.
  • the frequency interleaver uses a single symbol or data corresponding to an OFDM symbol pair consisting of two sequential OFDM symbols. Operate on corresponding data.
  • OFDM generation block 1030 modulates the OFDM carrier, inserts pilots, and generates time-domain signals for transmission by the cells generated by the frame building block. In addition, the block sequentially inserts a guard interval and applies a PAPR reduction process to generate a final RF signal.
  • the signaling generation block 1040 may generate physical layer signaling information used for the operation of each functional block.
  • Signaling information may include PLS data.
  • PLS provides a means by which a receiver can connect to a physical layer data pipe.
  • PLS data consists of PLS1 data and PLS2 data.
  • PLS1 data is the first set of PLS data delivered to the FSS in frames with fixed size, coding, and modulation that convey basic information about the system as well as the parameters needed to decode the PLS2 data.
  • PLS1 data provides basic transmission parameters including the parameters required to enable reception and decoding of PLS2 data.
  • PLS2 data carries more detailed PLS data about the data pipes and systems and is the second set of PLS data sent to the FSS.
  • PLS2 signaling further consists of two types of parameters: PLS2 static data (PLS2STAT data) and PLS2 dynamic data (PLS2DYN data).
  • PLS2 static data is PLS2 data that is static during the duration of a frame group
  • PLS2 dynamic data is PLS2 data that changes dynamically from frame to frame.
  • the PLS2 data may include FIC_FLAG information.
  • FIC Fast Information Channel
  • the FIC_FLAG information is a 1-bit field and indicates whether a fast information channel (FIC) is used in the current frame group.If the value of this field is set to 1, the FIC is provided in the current frame. If the value of the field is set to 0, the FIC is not transmitted in the current frame
  • the BICM block 1010 may include a BICM block for protecting PLS data
  • the BICM block for protecting PLS data is a PLS FEC encoder. , Bit interleaver, and constellation mapper.
  • the PLS FEC encoder performs external encoding on scrambled PLS 1,2 data using a scrambler for scrambling PLS1 data and PLS2 data, shortened BCH code for PLS protection, and a BCH for inserting zero bits after BCH encoding.
  • An encoding / zero insertion block, an LDPC encoding block for performing encoding using an LDPC code, and an LDPC parity puncturing block may be included.
  • the output bits of zero insertion can be permutated before LDPC encoding.
  • the bit interleaver interleaves the respective shortened and punctured PLS1 data and PLS2 data, and the constellation mapper bit interleaves.
  • the PLS1 data and the PLS2 data can be mapped to the constellation.
  • the broadcast signal receiving apparatus for the next generation broadcast service may perform a reverse process of the broadcast signal transmitting apparatus for the next generation broadcast service described with reference to FIG. 8.
  • An apparatus for receiving broadcast signals for a next generation broadcast service includes a synchronization and demodulation module for performing demodulation corresponding to a reverse process of a procedure executed by a broadcast signal transmitting apparatus and an input signal.
  • a frame parsing module for parsing a frame, extracting data on which a service selected by a user is transmitted, converting an input signal into bit region data, and then deinterleaving the bit region data as necessary, and transmitting efficiency
  • a demapping and decoding module for performing demapping on the mapping applied for decoding, and correcting an error occurring in a transmission channel through decoding, of various compression / signal processing procedures applied by a broadcast signal transmission apparatus.
  • Demodulated by an output processor and a synchronization and demodulation module that executes the inverse process It may include a signaling decoding module for obtaining and processing the PLS information from the signal.
  • the frame parsing module, the demapping and decoding module, and the output processor may execute the function by using the PLS data output from the signaling decoding module.
  • a time interleaving group according to an embodiment of the present invention is directly mapped to one frame or spread over PI frames.
  • Each time interleaving group is further divided into one or more (N TI ) time interleaving blocks.
  • each time interleaving block corresponds to one use of the time interleaver memory.
  • the time interleaving block in the time interleaving group may include different numbers of XFECBLOCKs.
  • the time interleaver may also act as a buffer for data pipe data prior to the frame generation process.
  • the time interleaver according to the embodiment of the present invention is a twisted matrix block interleaver.
  • the twisted matrix block interleaver according to one embodiment of the present invention writes the first XFECBLOCK in the column direction in the first column of the time interleaving memory, the second XFECBLOCK in the next column and writes the remaining XFECBLOCKs in the time interleaving block in the same manner. can do.
  • cells can be read diagonally from the first row to the last row (starting from the leftmost column to the right along the row).
  • the interleaving array for the twisted matrix block interleaver may insert the virtual XFECBLOCK into the time interleaving memory to achieve a single memory deinterleaving at the receiver side regardless of the number of XFECBLOCKs in the time interleaving block.
  • the virtual XFECBLOCK must be inserted in front of the other XFECBLOCKs to achieve a single memory deinterleaving on the receiver side.
  • FIG 9 illustrates a writing operation of a time interleaver according to an embodiment of the present invention.
  • the block shown on the left side of the figure represents a TI memory address array, and the block shown on the right side of the figure shows that virtual FEC blocks are placed at the front of the TI group for two consecutive TI groups. It represents the writing operation when two and one are inserted respectively.
  • the frequency interleaver may include an interleaving address generator for generating an interleaving address for applying to data corresponding to a symbol pair.
  • FIG. 10 is a block diagram illustrating an interleaving address generator including a main PRBS generator and a sub-PRBS generator according to each FFT mode included in a frequency interleaver according to an embodiment of the present invention.
  • the interleaving process for an OFDM symbol pair uses one interleaving sequence and is described as follows.
  • x m, l, p is the p th cell of the l th OFDM symbol in the m th frame
  • N data is the number of data cells.
  • H l (p) is an interleaving address generated based on the cyclic shift value (symbol offset) of the PRBS generator and the sub-PRBS generator.
  • FIG. 11 is a diagram illustrating a structure of a media presentation description (MPD) according to an embodiment of the present invention.
  • MPD media presentation description
  • An embodiment of the present invention proposes a method and apparatus for transmitting and receiving broadcast signals for providing high quality media in a Dynamic Adaptive Streaming over HTTP (MPEGASH) based system.
  • An embodiment of the present invention proposes embodiments of media presentation description in various transmission scenarios for supporting high dynamic range (HDR) service in an MPEG dynamic adaptive streaming over HTTP (DASH) environment.
  • the broadcast system according to an embodiment of the present invention defines an MPD of MPEG DASH for transmitting a plurality of streams constituting the HDR service.
  • the reception apparatus may provide a HDR service by selecting a segment for transmitting a desired URL using the MPD.
  • One embodiment of the present invention may transmit two layers in order to provide an HDR service supporting backward compatibility based on MPEG DASH.
  • backward compatibility may be defined by defining dependency and reference relationships between the two representations. It can provide supporting HDR service.
  • the receiver can receive the HDR service without any problem during IP streaming.
  • One embodiment of the present invention can be applied to all systems requiring backward compatibility such as multicast (DVB ABR) and broadcast (ATSC 3.0) utilizing DASH as well as MPEG.
  • the minimum unit defining a codec of MPEG DASH is a representation or sub representation.
  • the minimum representation or Separation should be made between the sub representations. That is, the base layer and the enhacement layer, which are streams using different codecs, must have respective representations.
  • the MPD should define the contents of the role of the representation representing the dependency and enhancement layer between the two representations.
  • the plurality of layers used in the SHVC are generated by the same codec, and are different from the plurality of layers generated by the heterogeneous codec for providing the HDR service proposed by an embodiment of the present invention.
  • One embodiment of the present invention is to configure the HDR service and information indicating the reference relationship between the dual streams when transmitting the dual stream to support the HDR (High Dynamic Range) service in the MPEG Dynamic Adaptive Streaming over HTTP (DASH) environment Define the information at the system level.
  • HDR High Dynamic Range
  • DASH MPEG Dynamic Adaptive Streaming over HTTP
  • An embodiment of the present invention shows an MPEG DASH transmission / reception model, a hierarchical structure of MPEG DASH MPD and a method for transmitting dual layers, an MPEG DASH MPD structure for transmitting dual layers, and a reference relationship between dual layers for HDR services.
  • a method of defining information and / or a method of defining information for configuring an HDR service is proposed.
  • An embodiment of the present invention divides components using different codecs into an adaptation set, and newly defines a role of a dependency stream and an enhancement layer. can do. (Scenario 1)
  • Another embodiment of the present invention may define a dependency as an AssociationID and a reference type as an Association type. (Scenario 2)
  • Another embodiment of the present invention is to classify components using different codecs into representations, define a reference relationship between representations by dependencyID using essential descriptors or supplementary descriptors, and use HDR as profiles. You can define information about the composition of the service. (Scenario 3)
  • FIG 12 illustrates an MPEG DASH-based signal transceiving system model according to an embodiment of the present invention.
  • MPEG DASH is a technology that defines a format for an adaptive streaming transmission method for IP delivery of media data.
  • This figure shows a possible deployment structure that can use the format defined in DASH.
  • the box shown in this figure refers to a module that performs the process defined in DASH.
  • DASH defines a hierarchical logical unit (adaptation set, representation, etc.) to express media data through MPD and Media Presentation Description (MPD), which provides additional information about media for the purpose of providing streaming services. .
  • FIG. 13 is a diagram illustrating an arrangement of an adaptation set for providing an HDR service supporting backward compatibility according to an embodiment of the present invention.
  • an adaptation set may be classified according to HDR technology.
  • Adaptationset1 represents an SDR service
  • Adaptationset2 represents an HDR service encoded in HDR 10
  • Adaptationset3 represents an HDR service encoded using the Hybrid Log Gamma (HLG) technology proposed by the BBC.
  • An embodiment of the present invention may include a representation representing an SDR service in an adaptation set representing an HDR service by the HLG technology in order to solve a problem in which a hue shift occurs in a BT.709 terminal when applying the HLG technology.
  • Adaptationset4 of this figure shows an HDR service for backward compatibility support, in which an AVC encoded base layer and an HEVC encoded enhancement layer are defined in different representations in Adaptationset4.
  • information for configuring a reference relationship and an HDR service between two representations may be further defined.
  • an embodiment of the present invention may newly define dependency and roll between adaptation sets or representations to provide an HDR service in an environment of transmitting dual layers according to various scenarios.
  • FIG. 14 is a diagram illustrating a structure of a receiver based on MPEG DASH according to an embodiment of the present invention.
  • the receiver After receiving the MPD describing the media data, the receiver according to an embodiment of the present invention requests a segment in consideration of the capability and network conditions that the receiver can receive.
  • the receiver parses and interprets the service list information and the segment selection information described in the MPD to request and receive the appropriate segment of the appropriate service.
  • the DASH client in the receiver receives the desired segment file from the server by obtaining the URL information of the segment and requesting the desired segment file using the obtained URL information.
  • the receiver selects a stream that can be rendered from among the received streams and performs buffering.
  • the segment file sent to the receiver is parsed through the segment parser, and the parsed video stream is rendered via the decoder.
  • the receiver selects and acquires a desired segment file using dependency information included in the MPD, and segments using the HDR composition information included in the MPD. Decode the media data contained in the file and render the decoded media data.
  • 15 is a diagram illustrating a structure of an MPD structure and a segment file according to an embodiment of the present invention.
  • This figure shows the structure of an MPD structure and a segment file used when transmitting a base layer and an enhancement layer encoded by different codecs based on DASH according to an embodiment of the present invention.
  • an attribute or element if an attribute or element is defined at a higher level of the MPD, the attribute or element defined above may not be changed at a lower level, and thus, attributes of the codec applied to each layer according to an embodiment of the present invention. Can be defined at the representation level describing each layer.
  • each layer constituting the HDR service supporting backward compatibility since each layer constituting the HDR service supporting backward compatibility uses a different codec, it may be represented by each adaptation set or representation.
  • an embodiment of the present invention provides a defensive between the two adaptation sets or the two representations.
  • Information representing the dungeon and information for configuring the HDR service may be defined in the MPD.
  • there is a method of defining a relationship between two streams when transmitting dual streams such as 3D or SHVC.
  • compatible streams and incompatible streams for HDR need to be defined separately because they are different applications from scalability.
  • a CICP string value that defines the relationship between two streams is defined in @codec called SHVC codec
  • the dual layer of HDR the relationship between the composition of HDR through the codec information of each bit stream It is hard to show up.
  • the properties of the stereoscopic view or the multiview are predefined, and 3D composition is possible through the above information together with the codec.
  • 16 illustrates common attributes and common elements in an MPD according to an embodiment of the present invention.
  • Common attributes according to an embodiment of the present invention are @profile and / or related adaptation sets, representations and / or subrepresentations representing profiles of related adaptation sets, representations and / or subrepresentations. Include @codecs to indicate the codec of the presentation.
  • Common elements according to an embodiment of the present invention include an EssentialProperty element describing information essential for a media presentation and / or a SupplementalProperty element describing additional information for a media presentation.
  • Common attributes or common elements according to an embodiment of the present invention may be included in an adaptation set element, a representation element, and / or a subrepresentation element in the MPD.
  • FIG. 17 illustrates a structure of an MPD signaling an HDR service for backward compatibility support according to an embodiment of the present invention.
  • an adaptation set in order to configure an HDR service including an adaptation set 3: base video (AVC) stream and an adaptation set 4: enhance video (HEVC) stream, an adaptation set includes a component using different codecs.
  • AVC base video
  • HEVC enhance video
  • a role of a dependency stream and an enhancement layer may be newly defined.
  • Another embodiment of the present invention may define a dependency as an AssociationID and a reference type as an Association type. (Scenario 2)
  • FIG. 18 is a diagram illustrating a structure of an MPD signaling an HDR service for supporting backward compatibility according to another embodiment of the present invention.
  • an HDR service including an adaptation set 3: base video (AVC) stream and an adaptation set 4: enhance video (HEVC) stream
  • AVC base video
  • HEVC enhance video
  • components using different codecs are represented as representations.
  • a reference relationship between representations can be defined by dependencyID using essential descriptors or supplementary descriptors, and information about the composition of the HDR service can be defined by profiles.
  • FIG. 19 illustrates a configuration of a representation element according to an embodiment of the present invention.
  • the representation element of the MPD includes an @dependencyID and / or a contentcomponent element.
  • @dependencyID is used to refer to different representations.
  • @dependencyID can be used to indicate a reference relationship between two representations. A detailed description of the contentcomponent element will be given later in the drawings.
  • FIG. 20 is a view showing the configuration of a Contentcomponent element according to an embodiment of the present invention.
  • the contentcomponent element is an element that describes a content component.
  • the contentcomponent element includes an @id identifying a media component described by this element and / or a role element representing the structural functions and characteristics of the media content component (media component). Details of the role element will be described later in the following drawings.
  • 21 is a diagram illustrating a configuration of a role element according to an embodiment of the present invention.
  • the role element according to an embodiment of the present invention may also be referred to as an HDRConfiguration element.
  • Role elements include @schemeIdUri, @value and / or @id.
  • @schemeIdUri identifies the schema that corresponds to the semantic of this element.
  • the Role element may have "urn: mpeg: dash: role: 2011" as the @schemeIdUri value, and indicates the function of the media component according to the @value value.
  • FIG. 22 is a diagram illustrating a method of signaling an HDR service using MPD for backward compatibility support according to an embodiment of the present invention. (Scenario 1)
  • components using different codecs are classified into an adaptation set, and there is a dependency relationship between the components by using @dependencyId of a representation element in the adaptation set element of the MPD. Signaling may be performed, and a dependency relationship between components may be signaled using a role element in the contentcomponent element.
  • Scenario 1 Scenario 1
  • a representation having a dependency relationship with the representation described by the representation element may be identified.
  • One embodiment of the present invention may define a Role element within a Contentcomponent element within a representation element of an MPD to signal that the corresponding adaptation set or representation is to an HDR enhancement layer and using a @value value in the Role element.
  • the layer related technology of the corresponding HDR enhancement layer may be signaled.
  • the Role element for the representation corresponding to the HDR enhancement layer may have a value of "urn: mpeg: dash: hdr_eh: 201x" as @schemeIdUri, and a value of "en1" as @value. By having, it is possible to signal that the representation is about an HDR enhancement layer.
  • the lower part of this figure shows the adaptation set schema according to scenario 1.
  • the base video encoded with the "avc1.640828” codec and the enhancement video encoded with the "hevc.760028” codec are classified into different adaptation sets.
  • the adaptation set element describing the adaptation set corresponding to the base video encoded with the "avc1.640828” codec includes a representation element.
  • the representation element has a value of "C2" as an @id value, and a segment for transmitting a base video encoded with an "avc1.640828" codec corresponding to this representation is obtained from "segm1HDRbase.mp4". Can be.
  • the adaptation set element describing the adaptation set corresponding to the enhancement video encoded with the "hevc.760028” codec includes a role element.
  • the Role element may signal that the corresponding adaptation set corresponds to the enhancement video component by having the value "urn: mpeg: dash: hdr_enhance: 2011" as the value of @schemeIdUri and the value "eh1" as the value of @value.
  • the adaptation set element includes a representation element, and the representation element has "C1" as the @id value and "C2" as the @dependencyId value, thereby representing the representation described by this presentation element. This @id value may signal that there is a dependency relationship with the representation having "C2".
  • the segment for transmitting the enhancement video encoded by the "hevc.760028” codec corresponding to the representation may be obtained from "segm1HDRenhance.mp4".
  • the above-described Role element may be included under the adaptation set element, and may be included under the representation element.
  • FIG. 23 illustrates a method of signaling an HDR service using MPD for backward compatibility support according to another embodiment of the present invention. (Scenario 2)
  • An embodiment of the present invention may classify components using different codecs into an adaptation set, and signal that there is a reference relationship between components by using the @associationId of the presentation element in the adaptation set element of the MPD.
  • @associationoType may be used to signal which dependency relationship exists between components.
  • a representation element includes @id, @dependencyId, @associationId and / or @associationType.
  • @id identifies the representation
  • @dependencyId represents the identifier of the representation in the dependency relationship (complementary relationship) with the representation.
  • @associationId represents the identifier of the representation in a reference relationship of other options for decoding and / or presentation that is not merely complementary to the corresponding representation.
  • @associationId may represent an identifier of the representation of another Adaptationset having a reference relationship with the corresponding representation.
  • @associationType indicates what kind of reference relationship the representation is with the representation identified by @associationId.
  • the type of reference relationship indicated by @associationType may be represented by a 4-digit character code.
  • the representation element has a value of "hdre" as the @associationtype value, so that the representation having a reference relation with the representation is enhanced for the HDR service.
  • This may represent a representation corresponding to a layer.
  • the lower part of this figure shows the adaptation set schema according to scenario 2.
  • the base video encoded with the "avc1.640828” codec and the enhancement video encoded with the "hevc.760028” codec are classified into different adaptation sets.
  • the adaptation set element describing the adaptation set corresponding to the base video encoded with the "avc1.640828” codec includes a representation element.
  • the representation element has a value of "C2" as an @id value, and a segment for transmitting a base video encoded with an "avc1.640828" codec corresponding to this representation is obtained from "segm1HDRbase.mp4". Can be.
  • the adaptation set element describing the adaptation set corresponding to the enhancement video encoded with the "hevc.760028” codec includes a representation element.
  • the representation element has "C1" as the @id value and "C2" as the @associationId value so that the representation described by this representation element has “C2" as the @id value. It may signal that it is in a reference relationship with the presentation.
  • the representation element has a value of "hdre” as an @associationType value, so that the representation described by this representation element has an HDR enhancement in relation to a representation having a "C2" as the @id value. It can indicate that it corresponds to a layer.
  • the segment for transmitting the enhancement video encoded by the "hevc.760028” codec corresponding to the representation may be obtained from "segm1HDRenhance.mp4".
  • components using different codecs are divided into representations, and there is a dependency relationship between components by using @dependencyId of the representation element of the MPD. May be signaled and any dependency relationship between components may be signaled by using @EssentialProperty or @SupplementalProperty in the representation element.
  • the representation element has a value of "tag5" as the value of @dependencyId and the representation having a "tag5" as the @id value It may indicate that there is a dependency relationship.
  • an embodiment of the present invention has a value of "urn: mpeg: dash: hdr_eh: 201x" as an @schemeIdUri value in @EssentialProperty or @SupplementalProperty in a representation element, and a value of "eh1" as an @value value.
  • the representation may correspond to the HDR enhancement layer in a dependency relationship with the representation having "tag5" as the @id value.
  • the lower part of this figure shows a representation element schema according to scenario 31.
  • the base video encoded with the "avc1.4D401E, mp4a.40" codec and the enhancement video encoded with the "hevc.56401E” codec are classified into different representations.
  • Representation elements describing a representation corresponding to base video encoded with the "avc1.4D401E, mp4a.40" codec have the value "tag5" as the @id value, and the base video corresponding to this representation
  • the segment to transmit can be obtained from "videoHDR_base.mp4".
  • the representation element corresponding to the enhancement video encoded with the "hevc.56401E” codec has the value "tag6" as the @id value and "tag5" as the @dependencyId value, so that the representation element described by this representation element It may signal that the presentation has a dependency relationship with the representation having "tag5" as the @id value.
  • the @EssentialProperty or @SupplementalProperty in the representation element has a value of "urn: mpeg: dash: hdr_eh: 201x" as an @schemeIdUri value and a value of "eh1" as an @value value so that the corresponding representation is @ It may indicate that it corresponds to the HDR enhancement layer in the dependency relationship with the representation having the tag value of “tag5”. Furthermore, the segment for transmitting the enhancement video corresponding to the representation may be obtained from "videopHDR_enhance.mp4".
  • the above-mentioned @EssentialProperty or @SupplementalProperty may correspond to an attribute and may correspond to an element.
  • FIG. 25 illustrates a method of signaling an HDR service using MPD for backward compatibility support according to another embodiment of the present invention. (Scenario 32)
  • components using different codecs are divided into representations, and there is a dependency relationship between components by using @dependencyId of the representation element of the MPD. May be signaled, and may use the @profiles in the representation element to signal what dependency relationships between components.
  • the representation element has a value of "tag5" as the value of @dependencyId and the representation having a "tag5" as the @id value It may indicate that there is a dependency relationship.
  • an embodiment of the present invention has a representation having a value of "urn: mpeg: dash: hdr_eh: 201x" as an @profiles value in a representation element so that the representation has "tag5" as an @id value. It may indicate that it corresponds to the HDR enhancement layer in the dependency relationship with the.
  • the lower part of this figure shows a representation element schema according to scenario 32.
  • the base video encoded with the "avc1.4D401E, mp4a.40" codec and the enhancement video encoded with the "hevc.56401E” codec are classified into different representations.
  • Representation elements describing a representation corresponding to base video encoded with the "avc1.4D401E, mp4a.40" codec have the value "tag5" as the @id value, and the base video corresponding to this representation
  • the segment to transmit can be obtained from "videoHDR_base.mp4".
  • the representation element corresponding to the enhancement video encoded with the "hevc.56401E” codec has the value "tag6" as the @id value and "tag5" as the @dependencyId value, so that the representation element described by this representation element It may signal that the presentation has a dependency relationship with the representation having "tag5" as the @id value.
  • @profiles in the representation element has a value of "urn: mpeg: dash: hdr_eh: 201x” so that the representation has a dependency relationship with a representation having "tag5" as the @id value. It may indicate that it corresponds to the HDR enhancement layer.
  • the representation element may include @EssentialProperty or @SupplementalProperty, which has been described above.
  • 26 is a diagram illustrating a structure of a receiver based on MPEG DASH according to another embodiment of the present invention.
  • An embodiment of the present invention defines color conversion information in the DASH MPD for wide color gamut (WCG) implementation.
  • the color conversion information includes matrix coefficient information and color remapping information.
  • One embodiment of the present invention defines color conversion information in common attributes and / or common elements.
  • the color remapping information may be used for color space conversion.
  • An embodiment of the present invention may enable improved color reproduction using color conversion information, and a user may use a service announcement regarding whether improved color reproduction is possible using color conversion information. It can be provided to, and the buffer and framework of the decoder and renderer can be initialized through the color conversion information.
  • One embodiment of the present invention defines DASH MPD constraints for providing DVB Adaptive Bit Rate (ABR) unicast / multicast service.
  • the DASH MPD constraints may include MPD labeling, adaptation set profiling, and the like.
  • a receiver requests and receives an MPD, and considers a reception capability, a network condition, and / or a user selection of the device based on a description of the received MPD. Select and obtain the segment URL.
  • the receiver may request and receive the selected segment URL from a Contents Delivery Network (CDN) server.
  • CDN Contents Delivery Network
  • the receiver may receive a receivable segment URL.
  • the receiver classifies the received segments according to hierarchical units described in the MPD and stores them in a buffer.
  • the receiver decodes and renders the media data according to the color conversion information of the MPD. Color conversion information parsed from the MPD parser may be passed to the media decoder and / or renderer to initialize the decoder and / or renderer.
  • a profile for HDR and / or WCG which is an improved realistic service technology, is described in MPD to enable initialization of a buffer and a module during post processing after decoding, and service announce on whether to provide realistic content. Can be provided.
  • Matrix coefficient (matrix_coefficient) information is to convert the luma signal and chroma signal converted from RGB through a specific coefficient matrix to an array of primary X, Y or X, Y, Z
  • the matrix coefficient information is provided to the receiver through a specific table to be described later.
  • Color remapping information indicates information necessary for reconstructing the color gamut of the input video into a color gamut suitable for the performance of the display, and the color remapping information may be used. It can enable optimized color conversion and can indicate whether more optimized color conversion is possible.
  • a receiver according to an embodiment of the present invention performs a pre 1D LUT (Look Up Table), matrix and / or post 1D LUT process on linear data using color remapping information to perform chroma component and luma of data. The component can be converted to have a value optimized for display. (For example, BT.2020BT.709)
  • DVB DASH constraints according to an embodiment of the present invention are constraints defined by DVB DASH in the MPD attribute of MPEGDASH and are necessary constraints for providing UHD1 phase 2 technology.
  • the receiver initializes the decoder and the renderer using the color conversion information in the MPD and then performs a color conversion process.
  • a receiver converts chroma and luma components of linear data, which have been rendered by using matrix coefficient information, into X, Y (two-dimensional) or X, Y, Z (three-dimensional) coordinates.
  • matrix information you can specify the default color gamut for defining the color space.
  • color conversion information including matrix coefficient information is defined at the system level, so that initialization of a receiver operation for color conversion and an expression range of color can be announced at the system level.
  • Matrix coefficient information may have a value of 0 to 13 as shown in this figure.
  • 29 shows matrix coefficient information defined in an MPD according to an embodiment of the present invention.
  • Matrix coefficient information may be signaled through an EssentialProperty descriptor or a SupplementaryProperty descriptor.
  • the EssentialProperty descriptor or SupplementaryProperty descriptor may correspond to an element or attribute of XML.
  • an EssentialProperty descriptor or SupplementaryProperty descriptor including matrix coefficient information may be included in an adaptation set element when all representations in the adaptation set provide matrix coefficient information. If all representations in the adaptation set do not provide matrix coefficient information, an EssentialProperty descriptor or SupplementaryProperty descriptor including matrix coefficient information may be included in each representation element or each sub-representation element.
  • the EssentialProperty descriptor or the SupplementaryProperty descriptor including the matrix coefficient information has the value "urn: mpeg: dvb_dash: MatrixCoefficients: 201x" as the @schemeIdUri value, and the matrix described above in the previous figure with the @value value. It may have a value of 0 to 13 representing coefficient information.
  • an EssentialProperty descriptor including matrix coefficient information may have a value of "urn: mpeg: dvb_dash: MatrixCoefficients: 201x" as an @schemeIdUri value and a value of "1" as an @value value.
  • the matrix coefficient information represented by the @value value of the ssentialProperty descriptor or SupplementaryProperty descriptor describes the matrix coefficients used to obtain luma signals and chroma signals from RGB or XYZ pramaries (three primary colors).
  • FIG. 30 illustrates a color remapping process according to an embodiment of the present invention.
  • the receiver may initialize the decoder and the renderer using the color conversion information of the MPD and then perform a color remapping process using the color conversion information including the color remapping information.
  • the receiver converts the color gamut of the video into a color gamut suitable for the receiver by performing a color remapping process when the container color gamut is not supported by the receiver when a multicast or broadcast service is provided. And display the converted video.
  • the color remapping process which is a process of converting the container color gamut into a color gamut that the display device can support, includes three processes.
  • Container color gamut represents the color gamut of the container that delivers the content. That is, in order to transmit the content, the color gamut of the content must be converted to the color gamut of the transmission format, where the color gamut of the transport format represents the color gamut of the container.
  • the color remapping process includes a prematrix tone mapping process, a color remapping matix process, and / or a postmatrix tone mapping process. .
  • the free matrix tone mapping process is performed using three sampled functions defined in the standard (e.g., ST20941). At this time, these functions receive the color component value and output the color component value.
  • the free matrix tone mapping process may use a 1D LUT (1 dimension look up table).
  • the color remapping matrix process is performed using the matrix defined in the standard (e.g., ST20941). At this time, the element used in this matrix may have a value from 4 to 4.
  • the post matrix tone mapping process is performed using three sampled functions defined in the standard (e.g., ST20941). At this time, these functions receive the color component value and output the color component value.
  • the free matrix tone mapping process may use a 1D LUT (1 dimension look up table).
  • An embodiment of the present invention may perform a color conversion process that is more efficient and minimizes loss through the above three processes.
  • the broadcast system defines the color remapping information used in the color remapping process at the system level to explain the color remapping process, whether the color remapping process is applied, whether full range or legal range (The number of bits for expressing the dynamic range of the TV is allocated. At this time, the luma range according to the above bits is to be used as full. It is legally used to prevent saturation from occurring in the TV itself. May be determined based on a selection within a stream or a characteristic of a stream), a matrix for a color remapping process, a transfer characteristic, color primaries, and the like.
  • the receiver according to an embodiment of the present invention may perform a color conversion process so that a device that needs color remapping may use the color remapping information including the above-described information to express an improved color.
  • the broadcast system according to an embodiment of the present invention may system announce the color representation range of the display device by defining the color remapping information in the MPD, and initialize the operations of the decoder and the renderer. Specifically, if there is color remapping information (CRI), the SDR TV performs the decoder and renderer initialization that can be viewed as SDR through the CRI information in the video SEI, and in the case of HDR TV, decoding and rendering according to the information of the stream of HDR Initialization can proceed.
  • CRI color remapping information
  • FIG. 31 illustrates color remapping information defined in an MPD according to an embodiment of the present invention.
  • Color remapping information may be signaled through an EssentialProperty descriptor or a SupplementaryProperty descriptor.
  • the EssentialProperty descriptor or SupplementaryProperty descriptor may correspond to an element or attribute of XML.
  • an EssentialProperty descriptor or SupplementaryProperty descriptor including color remapping information may be included in an adaptation set element when all representations in the adaptation set provide matrix coefficient information. If all the representations in the adaptation set do not provide color remapping information, an EssentialProperty descriptor or SupplementaryProperty descriptor containing the color remapping information may be included in each representation element or each sub-representation element.
  • the EssentialProperty descriptor or the SupplementaryProperty descriptor including the color remapping information has the value "urn: mpeg: dvb_dash: Matrixcolor remapping info: 201x" as the @schemeIdUri value, and the color remap using the @value value. Mapping identification information and color remapping flag information may be indicated.
  • an EssentialProperty descriptor containing color remapping information may have a value of "urn: mpeg: dvb_dash: color_remapping_informaiton: 201x" as the value of @schemeIdUri and a value of "1,1" as the value of @value. have.
  • the color remapping information represented by the @value value of the ssentialProperty descriptor or the SupplementaryProperty descriptor includes color remapping identification information (colour_remap_id) and / or color remapping flag information (colour_remap_cancel).
  • the color remapping identification information is used for identifying the color remapping information.
  • the color remapping identification information may be used as information for identifying the color remapping process, and the receiver may determine whether the receiver can perform the corresponding color remapping process using the color remapping identification information.
  • the color remapping identification information identifies a color remapping process that can be supported by the receiver.
  • the color remapping identification information identifies color remapping information necessary for the color remapping process that can be supported by the receiver.
  • the broadcast system may announce that a color remapping process may be provided through color remapping identification information. Since the color remapping identification information is defined in the system level MPD, the receiver can check supportable color remapping information at the system level.
  • the value 0 indicated by the color remapping identification information indicates that the color remapping process is not applied in the receiver, and 1 indicates that the color remapping information according to BT.2020 or BT.709 is received by the receiver.
  • 2 indicates that the receiver supports color remapping information according to BT.2020 or p3.
  • the color remapping flag information may be applied or not applied to the remapping process to be applied in the color conversion to be used for the current rendering through the colour_remap_cancel_flag information. Through this information, it is possible to confirm whether remapping additional information exists in sequence. That is, one embodiment of the present invention may define the color remapping information in the representation element of the MPD. Thus, color remapping information may be applied to all terminals of the SDR / HDR.
  • FIG. 32 illustrates an embodiment of configuring color remapping information (CRI) based HDR signaling in a DASH MPD.
  • CRI color remapping information
  • HLG enables backward compatibility with BT2020 (DVB UHD phase1), while CRI can express up to 709 color ranges. In other words, HLG covers a wider color gamut.
  • a bit stream of SDR may be converted into a stream of HDR through a CRI including metadata constituting HDR in the bitstream.
  • the bit stream containing the CRI can be compatible with all receiver decoders.
  • an HDR receiver having a profile of 2017 as in Case 1 enables HDR decoding by performing HDR signaling through an Essential property
  • an SDR 709 receiver having a profile of 2014 as in Case 2 is supplemental. Backwards compatibility can be guaranteed through propery. Since the receiver having the profile of 2014 cannot receive the HDR signaling of the essential property, information on whether the CRI is included through the supplemental property can be obtained.
  • the MPD includes an @profile, an adaptation set element and / or common attributes and elements.
  • An embodiment of the present invention may signal services such as SD, HD, DVB Phase1, DVB Phase2, etc. through labeling of the MPD, and may use the same to obtain a corresponding service.
  • An embodiment of the present invention may signal an existing DASH service by setting the @profile value in the MPD to "urn: dvb: dash: profile: dvbdash", and by setting it to "urn: dvb: dash: profile: dvbphase1".
  • the DVB Phase1 service can be signaled and the DVB Phase2 service can be signaled by setting "urn: dvb: dash: profile: dvbphase2".
  • An adaptation set element includes common attrubutes and elements, and the common attrubutes and elements include an EssentialProperty descriptor and / or a SuplementalProperty descriptor.
  • the descriptor may correspond to an element or attribute of XML.
  • Common attrubutes and elements included in the adaptation set element of the MPD include @profile, @framerate and / or @codec.
  • An embodiment of the present invention may define a technology category, codec, frame rate, mime type, etc. of HDR using common attrubutes and elements, and obtain a corresponding service using the same.
  • An embodiment of the present invention may signal that the corresponding adaptation set corresponds to the HDR technology by setting an @profile value defined in the adaptation set element as "urn: dvb: dash: profile: dvbdash # HDR_tech", and the @framerate value
  • the maximum frame rate (HFR) of the video indicated by the adaptation set may be signaled, and by defining a @codec value, the codec supported by the video represented by the adaptation set may be signaled.
  • 34 is a diagram illustrating a hybrid broadcast reception device according to an embodiment of the present invention.
  • the hybrid broadcasting system may transmit a broadcast signal by interworking a terrestrial broadcasting network and an internet network.
  • the hybrid broadcast reception device may receive a broadcast signal through a terrestrial broadcast network (broadcast) and an internet network (broadband).
  • the hybrid broadcast receiver includes a physical layer module, a physical layer I / F module, a service / content acquisition controller, an internet access control module, a signaling decoder, a service signaling manager, a service guide manager, an application signaling manager, an alarm signal manager, an alarm signal parser, Targeting signal parser, streaming media engine, non-real time file processor, component synchronizer, targeting processor, application processor, A / V processor, device manager, data sharing and communication unit, redistribution module, companion device and / or external modules can do.
  • the physical layer module (s) may receive and process a broadcast-related signal through a terrestrial broadcast channel, convert it into an appropriate form, and deliver the signal to a physical layer I / F module.
  • the physical layer I / F module may obtain an IP datagram from information obtained from the physical layer module.
  • the physical layer I / F module may convert the obtained IP datagram into a specific frame (eg, RS Frame, GSE, etc.).
  • the service / content acquisition controller may perform a control operation for acquiring service, content, and signaling data related thereto through broadcast and / or broadband channels.
  • the Internet Access Control Module (s) may control a receiver operation for acquiring a service, content, or the like through a broadband channel.
  • the signaling decoder may decode signaling information obtained through a broadcast channel.
  • the service signaling manager may extract, parse, and manage signaling information related to service scan and service / content from an IP datagram.
  • the service guide manager may extract announcement information from an IP datagram, manage an SG database, and provide a service guide.
  • the App Signaling Manager may extract, parse and manage signaling information related to application acquisition from an IP datagram.
  • Alert Signaling Parser can extract, parse and manage signaling information related to alerting from IP datagram.
  • Targeting Signaling Parser can extract, parse and manage signaling information related to service / content personalization or targeting from IP datagram.
  • the targeting signal parser may deliver the parsed signaling information to the targeting processor.
  • the streaming media engine can extract and decode audio / video data for A / V streaming from IP datagrams.
  • Non-real time file processor can extract, decode and manage file type data such as NRT data and application from IP datagram.
  • the Component Synchronizer can synchronize content and services such as streaming audio / video data and NRT data.
  • the targeting processor may process an operation related to personalization of a service / content based on the targeting signaling data received from the targeting signal parser.
  • the App Processor may process application related information, downloaded application status, and display parameters.
  • the A / V Processor may perform audio / video rendering related operations based on decoded audio, video data, and application data.
  • the device manager may perform a connection and data exchange operation with an external device.
  • the device manager may perform management operations on external devices, such as adding, deleting, and updating external devices that can be interworked.
  • the data sharing & communication unit can process information related to data transmission and exchange between the hybrid broadcast receiver and an external device.
  • the data that can be transmitted and exchanged may be signaling, A / V data, or the like.
  • the redistribution module (s) may obtain relevant information about next-generation broadcast services and contents when the broadcast receiver does not directly receive the terrestrial broadcast signal.
  • the redistribution module may support the acquisition of broadcast services and content by the next generation broadcast system when the broadcast receiver does not directly receive the terrestrial broadcast signal.
  • Companion device (s) may be connected to the broadcast receiver of the present invention to share audio, video, or signaling inclusion data.
  • the companion device may refer to an external device connected to the broadcast receiver.
  • the external module may refer to a module for providing a broadcast service / content and may be, for example, a next generation broadcast service / content server.
  • the external module may refer to an external device connected to the broadcast receiver.
  • 35 is a block diagram of a receiver according to an embodiment of the present invention.
  • the receiver includes a tuner, a physical layer controller, a physical frame parser, a link layer frame processor, and an IP / UDP datagram filter.
  • UDP Datagram Filter DTV Control Engine, ROUTE Client, Segment Buffer Control, MMT Client, MPU Reconstruction, Media Processor (Media Processor), Signaling Parser (Dash Client), DASH Client (DASH Client), ISO BMFF Parser (ISO BMFF Parser), Media Decoder and / or HTTP Access Client.
  • Each detailed block of the receiver may be a processor that is hardware.
  • the tuner can receive and process broadcast signals through terrestrial broadcast channels and convert them into appropriate forms (Physical Frame, etc.).
  • the physical layer controller may control operations of a tuner, a physical frame parser, etc. using RF information of a broadcast channel to be received.
  • the physical frame parser may acquire the link layer frame through parsing the received physical frame and processing related thereto.
  • the link layer frame processor may acquire link layer signaling from a link layer frame, acquire an IP / UDP datagram, and perform related operations.
  • the IP / UDP Datagram Filter may filter a specific IP / UDP datagram from the received IP / UDP datagrams.
  • the DTV Control Engine is in charge of the interface between each component and can control the operation of each component by passing parameters.
  • the Route Client can generate one or more ISO Base Media File Format (ISOBMFF) objects by processing RealTime Object Delivery over Unidirectional Transport (ROUTE) packets that support real-time object transport, and collecting and processing multiple packets.
  • ISOBMFF ISO Base Media File Format
  • ROUTE RealTime Object Delivery over Unidirectional Transport
  • Segment Buffer Control can control the buffer related to segment transmission between Route Client and Dash Client.
  • the MMT Client can process MPEG Media Transport (MPT) transport protocol packets that support real-time object transport and collect and process multiple packets.
  • MPU reconstruction may reconstruct a Media Processing Unit (MPU) from an MMTP packet.
  • the Media Processor can collect and process the reconstructed MPU.
  • MPEG Media Transport MPEG Media Transport
  • the Signaling Parser may acquire and parse DTV broadcast service related signaling (Link Layer / Service Layer Signaling), and generate and / or manage a channel map based on this. This configuration can handle low level signaling and service level signaling.
  • the DASH Client can process real-time streaming or adaptive streaming-related operations and acquired DASH Segments.
  • the ISO BMFF Parser may extract audio / video data and related parameters from an ISO BMFF object.
  • the media decoder may decode and / or present the received audio and video data.
  • the HTTP Access Client can request specific information from an HTTP server and process the response to the request.
  • 36 is a diagram showing the structure of a broadcast transmission / reception system according to an embodiment of the present invention.
  • content production and content transmission are separated, and the terrestrial broadcaster transmits a broadcast service through a broadcast base station in each region, and MVPD transmits a broadcast service in a paid broadcast.
  • MVPD service providers are growing and are not limited to retransmission of terrestrial content, but are expanding to OTT and IPTV to become the transmission service providers that occupy most of broadcasting services.
  • MVPD delivers content in the form of watermark insertion, ad inserting, apppackaging, repackaging or transcoding to the target device.
  • ATSC 3.0 When providing an ATSC 3.0 service through MVPD, content is converted into a stream that can be received through specific processing and then transmitted.
  • ATSC 3.0 streams do not consider backward compatibility, so ATSC 3.0 receivers can receive ATSC 3.0 streams without problems, but legacy legacy TVs (ATSC 1.0) cannot receive ATSC 3.0 streams.
  • MVPD can convert ATSC 3.0 streams so that existing TVs can receive ATSC 3.0 streams.
  • an existing receiver may render UHD content by converting attributes for UHD content of an ATSC 3.0 stream into information in an ATSC 1.0 stream.
  • An embodiment of the present invention may facilitate conversion by designating an essential field or attribute in a process of converting an ATSC 3.0 stream into an ATSC 1.0 stream.
  • MVPD can also provide an ATSC 3.0 broadcast service by converting the stream through accurate transcoding determined as a standard by using a method of converting an ATSC 3.0 stream into an ATSC 1.0 stream.
  • an apparatus for performing the transcoding can be provided.
  • an MVPD can receive an ATSC 3.0 stream and convert it to an ATSC 1.0 stream.
  • the Physical Frame Parser receives an ATSC 3.0 stream, processes a physical frame included in the ATSC 3.0 stream, and parses a link layer frame.
  • the Link Layer Frame Processor processes the link layer frame to parse IP / UDP datagrams.
  • the IP / UDP Diagram Filter processes IP / UDP datagrams and parses ALC / LCT packets containing the desired data.
  • the ALC / LCT Client processes the ALC / LCT packet to parse the object and / or signaling information.
  • the signaling decoder parses a USBD including information identifying an ATSC 3.0 service from signaling information, an STSID describing transmission information of the ATSC 3.0 service, and / or a DASH MPD that defines a content component of the ATSC 3.0 service.
  • the object buffer passes the parsed object to the ISOBMFF parser.
  • the ISOBMFF parser parses the video ES and audio ES from the object and forwards them to the ES buffer.
  • the content can be received and processed in the form of a file, and when the file-type content is received, the ISOMBFF Parser and the signaling decoder process the file-type content and signaling information.
  • the MVPD includes a stream conversion processor L36010, and the stream conversion processor includes a video format converter, an audio format converter, a service signaling transcoder, and / or a delivery protocol generator.
  • the service signaling transcoder transforms signaling information received from a signaling decoder with reference to essential signaling information (service information) describing service information and / or content information.
  • the video format converter converts the format of the video
  • the audio format converter converts the format of the audio.
  • the converted video, audio and / or signaling information is input to a delivery protocol genenrator.
  • the delivery protocol generator converts and transmits a transmission protocol in the form of IPTV, OTT, DTT, etc. according to a transmission type that targets input video, audio, and / or signaling information.
  • the content in order to ideally display UHD HDR content, the content should be processed with RGB to render the content with a combination of an optimal chroma component and luminance (luma) component.
  • the transmitting side may define chromaticity information of the content, and the chromaticity information includes colour_primaries, transfer_characteristics and / or matrix_coefficients.
  • chromaticity is a concept including hue and saturation.
  • attributes of a content component may be defined in an instruction set element in a manifest file of a media presentation description (MPD).
  • MPD media presentation description
  • an HDR technology capable of configuring a high dynamic range (HDR) higher than a current strand dynamic range (SDR) TV with a brightness level of an image
  • HDR technology is a perceptual quantizer.
  • Technology and HLG (hybrid log gamma) technology.
  • One embodiment of the present invention describes a property of a PQ technique and / or HLG technique in an adaptation set element in an MPD so that a receiver capable of receiving and displaying HDR content can receive a DASH segment that transmits the video component of the HDR content. have.
  • EssentialProperty descriptor and SupplementalProperty descriptor are defined with @schemeUri and @value values.
  • @schemeUri and @value can be described in the form of identification strings and Codec Independent Code Points (CICP).
  • CICP Codec Independent Code Points
  • One embodiment of the present invention may describe color primaries of UHD HDR video through colour_primaries information.
  • the color reproduction range has the same meaning as the color gamut.
  • An embodiment of the present invention may describe matrix coefficients to express colors (colors) of UHD HDR video through matrix_coefficients information.
  • An embodiment of the present invention may describe an OETF or an EOTF applied to UHD HDR video through transfer_characteristics information, through which a receiving end may perform decoding and rendering reflecting the rendering purpose of the transmitting end.
  • colour_primaries information, transfer_characteristics information and / or matrix_coefficients information may be defined in the adaptation element of the MPD, and the receiver uses these information to decode and / or the content that the information describes by the receiver. It can identify if it can render and consume content if it can be decoded and / or rendered.
  • FIG. 39 is a diagram illustrating a @shemeIdUri value of an EssentialProperty descriptor for providing an HDR service according to an embodiment of the present invention.
  • the color reproduction range of the HDR video may be signaled through an EssentialProperty descriptor having a value of "urn: mpeg: mpegB: cicp: ColourPrimaries" with a value of @schemeIdUri, which descriptor may be a player. ) Must support the color gamut described in this descriptor in order to correctly represent the representation in the adaptation set.
  • Matrix coefficient information representing the color of the HDR video can be signaled through an EssentialProperty descriptor with the value "urn: mpeg: mpegB: cicp: MatrixCoefficients" as the value of @schemeIdUri, which is used by the player in that adaptation set. In order to properly represent the representation, it indicates that the matrix coefficients described in this descriptor must be supported.
  • Information about the OETF or EOTF applied to the HDR video can be signaled through the EssentialProperty descriptor with the value "urn: mpeg: mpegB: cicp: TransferCharacteristics" with the value @schemeIdUri, which is used by the player in that adaptation set. In order to properly present a representation, it indicates that it must support information about the EOTF or OETF described in this descriptor.
  • the broadcast system can identify HDR video using PQ technology.
  • the HLG technology represents a technology that can maintain backward compatibility with SDR (100nits) terminals by newly defining OETF.
  • HDR video with HLG technology can be represented as far as the SDR range, allowing backwards compatibility to be viewed on SDR TVs with the BT.2020 color gamut range.
  • an SDR compatible stream may be signaled through an EssentialProperty descriptor, and a stream for HDR rendering may be signaled through a SupplementalProperty descriptor.
  • the SDR receiver may display the HDR video on the SDR display using the EssentialProperty descriptor, and the HDR receiver may display the HDR video using the SupplementalProperty descriptor as well as the EssentialProperty descriptor.
  • FIG. 40 is a diagram illustrating a service initialization process in an ATSC 1.0 system or an MPEG 2 system according to an embodiment of the present invention.
  • the ATSC 1.0 receiver initializes a service and configures an EPG based on PSIP information based on the MPEG2 system.
  • the receiver identifies the service and stream ID through the TSID and service type of the channel defined in the ATSC PSIP TVCT, and transmits it in the corresponding channel through the service location descriptor (service_location_desc) in the TVCT.
  • the video stream and the audio stream can be identified using the stream_type and the PID of the stream.
  • stream_type corresponding to UHD SDR and HLG may be defined as 0x24 (HEVC), and in the case of UHD HDR (PQ), a new Stream_type value may not be supported in an existing SDR TV. Can be defined.
  • the broadcast system may signal HDR technology through an HEVC descriptor.
  • the receiver can identify video and audio through stream_type and PID after initialization of the PAT and PMT of the MPEG 2 system.
  • the receiver may identify the attribute of the ES through the elementary info of the PMT.
  • stream_type of UHD SDR and HLG may be defined as 0x24 (HEVC), and in case of UHD HDR (PQ), new Stream_type value may be defined since compatibility cannot be supported in existing SDR TV.
  • the broadcast system may identify the stream by defining a stream_type value of a UHD HDR (PQ) video stream as a value of 0x25.
  • the broadcast system may signal HDR technology through an HEVC descriptor.
  • HEVC descritpor may be included in TVCT, PMT, and the like.
  • 41 is a diagram illustrating the configuration of an HEVC descriptor according to an embodiment of the present invention.
  • An HEVC descriptor represents a descriptor for delivering an attribute of HEVC video.
  • HEVC is a layer configured at the video level and can provide scalable fps through temporal layer reproduction.
  • An HEVC descriptor is a profile_idc representing a profile_space field for interpreting profile_idc and profile_compatibility_indication, a tier_flag field for distinguishing a main tier and a high tier, and a profile (eg main profile, main10 profile) defined in the HEVC video standard.
  • a profile_compatibility_indication field indicating compatibility with the video profile of the HEVC video stream
  • a progressive_source_flag field indicating the scanning method of the screen
  • an interlaced_source_flag field indicating whether or not the arrangement has SEI messages in CVS
  • a frame_only_constraint_flag indicating whether the field_seq_flag is present.
  • Field a level_idc field indicating a video level (level 5. level 5.1) defined in the HEVC specification, a temporal_layer_subset_flag field indicating whether a stream capable of playing a temporal layer is included, a field in a HEVC video.
  • a HEVC_still_present_flag field indicating whether a video is present indicating whether a video is present
  • a HEVC_24hr_picture_present_flag field indicating whether a 24 hour picture is included in an HEVC video stream
  • a temporal_id_min field defining a min value of a temporal id value
  • a temporal_id_max field defining a max value of a temporal id value
  • the HEVC descriptor according to an embodiment of the present invention further includes an HDR_WCG_idc field, a transfer_characteristic field, a ColourPrimaries field and / or a MatrixCoefficients field. Description of the above-described fields will be described later in the following drawings.
  • FIG. 42 is a diagram illustrating a description of the HDR_WCG_idc field according to an embodiment of the present invention.
  • the broadcast system may signal specific encoding information for the UHD HDR stream by defining the HDR_WCG_idc field, the transfer_characteristic field, the ColourPrimaries field, and / or the MatrixCoefficients field in the HEVC descriptor.
  • the receiver may grasp in advance the information described by the fields defined at the system level and identify whether the corresponding stream can be played.
  • the receiver may identify the realistic content of the HDR / WCG using the descriptor.
  • the receiver may identify and render the HDR / WCG stream by using the descriptor when transmitting the HDR / WCG service together with the PID of the MPEG2 video or AVC stream having backward compatibility. Simulcast means broadcasting the same program through each stream.
  • the HDR_WCG_idc field describes the HDR characteristic and / or WCG characteristic of the corresponding video.
  • the value 0 in this field indicates that the video is an SDR video according to BT.1886 and has a color gamut container according to BT.709
  • 1 indicates that the video is an HDR video and has a color gamut container according to BT.709.
  • 2 indicates that the video is a WCG video and has a color gamut container according to BT.2020 / 2100
  • 3 indicates that the video is an HDR video and a WCG video
  • 7 indicates the video is HDR This indicates that the video is neither video nor WCG video or SDR video.
  • the HDR_WCG_idc field value may have 2 and the transfer_characteristic field value may have 18.
  • BT the content having the container color gamut and the SDR range according to 2020 is rendered in the SDR range through the combination of the HDR_WCG_idc field and the transfer_characteristic field, and the content supporting the HLG may be played according to the brightness of the HDR content.
  • the HDR_WCG_idc field value may have 3 and the transfer characteristic field value may have 16.
  • An MVPD receives an ATSC 3.0 stream, identifies a UHD HDR stream using DASH MPD information, segment init information, and / or video high level information in the ATSC 3.0 stream, and then uses the ATSC 3.0 stream as an ATSC. It can be converted to 1.0 stream and transmitted to the receiver.
  • the semantics of the HDR_WCG_idc field may be distinguished by allocating only the relationship between SDR, HDR, and WCG as bit values.
  • specific technical code values of HDR / SDR may be signaled through three HDR metadata following this field.
  • a description group such as PQ10, HLG10, etc. may be distinguished through this field and HDR metadata following this field to distinguish whether the stream is receivable at the system stage.
  • FIG. 43 is a view showing a broadcast signal transmission method according to an embodiment of the present invention.
  • a broadcast signal transmission method includes a plurality of segments constituting a representation representing an encoded version of a high dynamic range (HDR) video component and an MPD including information for accessing the plurality of segments.
  • Generating a (Media Presentation Description) (SL43010), generating a plurality of Layered Coding Transport (LCT) packets including the MPD and the plurality of segments (SL43020), and generating a plurality of LCT packets.
  • Generating an Internet Protocol (IP) packet (SL43030), generating a plurality of link layer packets including the plurality of IP packets (SL43040) and / or transmitting the plurality of link layer packets (SL43050) It may include.
  • IP Internet Protocol
  • the MPD may include an adaptation set element that describes an adaptation set that represents a set of interchangeable encoded versions of the HDR video component, the adaptation set element describing the representation and the representation element.
  • the adaptation set element may further include another essential property including color remapping information necessary to remap a color sample of the HDR video component to a color gamut different from the color gamut of the HDR video component. It may include an element.
  • the color remapping information may include information identifying the color remapping information to be applied to the HDR video component and information indicating whether to apply the color remapping information to the HDR video component. have.
  • the broadcast signal transmission method may further include generating a plurality of SDR segments constituting an SDR representation indicating an encoded version of a Standard Dynamic Range (SDR) video component.
  • the MPD may include information for accessing the plurality of SDR segments, and the MPD may include an SDR adaptation set element describing an SDR adaptation set representing a set of interchangeable encoded versions of the SDR video component.
  • the adaptation set element may include a role element indicating that the adaptation set is an enhancement layer for providing an HDR service, and the representation element may include the representation and the SDR representation. May contain information indicating that you are in a dependent relationship
  • the plurality of LCT packets may include the plurality of SDR segments.
  • the broadcast signal transmission method may further include generating a plurality of SDR segments constituting an SDR representation indicating an encoded version of a Standard Dynamic Range (SDR) video component.
  • the MPD may include information for accessing the plurality of SDR segments, and the MPD may include an SDR adaptation set element describing an SDR adaptation set representing a set of interchangeable encoded versions of the SDR video component.
  • the representation element is information indicating that the representation is in a reference relationship with the SDR representation and the reference relationship is that the representation is an enhancement layer for providing an HDR service. May contain information indicating that the relationship refers to a presentation
  • the plurality of LCT packets may include the plurality of SDR segments.
  • the broadcast signal transmission method may further include generating a plurality of SDR segments constituting an SDR representation indicating an encoded version of a Standard Dynamic Range (SDR) video component.
  • the MPD includes information for accessing the plurality of SDR segments
  • the adaptation set element may include an SDR representation element that describes the SDR representation
  • the representation element includes: May include information indicating that a representation is dependent on the SDR representation, wherein the representation element is another essential property element indicating that the representation is an enhancement layer for providing an HDR service. It may include,
  • the plurality of LCT packets are phase It may include a plurality of SDR segments.
  • 44 is a view showing a broadcast signal transmission method according to another embodiment of the present invention.
  • a broadcast signal transmission method includes a plurality of segments constituting a representation representing an encoded version of a high dynamic range (HDR) video component and an MPD including information for accessing the plurality of segments.
  • PSIP program and system information protocol
  • the MPD includes color gamut information indicating color gamut of the HDR video component, matrix coefficient information used to derive luma signals and chroma signals from color gamut of the HDR video component, and an EOTF (Electo Optical Transfer Function) applied to the HDR video component. ) May include characteristic information, and the second broadcast stream may be generated according to a transport protocol different from that of the first broadcast stream.
  • 45 is a view showing a broadcast signal receiving method according to an embodiment of the present invention.
  • the broadcast signal reception method includes the steps of receiving a plurality of link layer packets (SL45010), parsing a plurality of IP packets from the plurality of link layer packets (SL45020), and the plurality of IP packets. Parsing a plurality of LCT packets from a plurality of segments and / or a plurality of segments constituting a representation representing an encoded version of a high dynamic range (HDR) video component from the plurality of LCT packets (SL45030).
  • the method may include parsing a media presentation description (MPD) including information for access (SL45040).
  • MPD media presentation description
  • the MPD may include an adaptation set element that describes an adaptation set that represents a set of interchangeable encoded versions of the HDR video component, the adaptation set element describing the representation and the representation element.
  • 46 is a diagram illustrating a configuration of a broadcast signal transmission apparatus according to an embodiment of the present invention.
  • the broadcast signal transmission apparatus L46010 provides a plurality of segments constituting a representation indicating an encoded version of a high dynamic range (HDR) video component and information for accessing the plurality of segments.
  • An IP packet generation unit (L46040) for generating a plurality of IP (Internet Protocol) packets including LCT packets, a link layer packet generation unit (L46050) for generating a plurality of link layer packets including the plurality of IP packets, and And / or a transmitter L46060 for transmitting the plurality of link layer packets.
  • IP Internet Protocol
  • the MPD may include an adaptation set element that describes an adaptation set that represents a set of interchangeable encoded versions of the HDR video component, the adaptation set element describing the representation and the representation element.
  • 47 is a diagram showing the configuration of a broadcast signal receiving apparatus according to an embodiment of the present invention.
  • the broadcast signal receiving apparatus L47010 includes a receiver L47020 for receiving a plurality of link layer packets, an IP packet processor L47030 for parsing a plurality of IP packets from the plurality of link layer packets, A plurality of LCT packet processing units L47040 for parsing a plurality of LCT packets from the plurality of IP packets and / or a plurality of representations constituting a representation indicating an encoded version of a high dynamic range (HDR) video component from the plurality of LCT packets. And a data parser L47050 for parsing a media presentation description (MPD) including a segment and information for accessing the plurality of segments.
  • MPD media presentation description
  • the MPD may include an adaptation set element that describes an adaptation set that represents a set of interchangeable encoded versions of the HDR video component, the adaptation set element describing the representation and the representation element.
  • the module or unit may be processors that execute successive procedures stored in a memory (or storage unit). Each of the steps described in the above embodiments may be performed by hardware / processors. Each module / block / unit described in the above embodiments can operate as a hardware / processor.
  • the methods proposed by the present invention can be executed as code. This code can be written to a processor readable storage medium and thus read by a processor provided by an apparatus.
  • Apparatus and method according to the present invention is not limited to the configuration and method of the embodiments described as described above, the above-described embodiments may be selectively all or part of each embodiment so that various modifications can be made It may be configured in combination.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor.
  • Examples of the processor-readable recording medium include ROM, RAM, CDROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission through the Internet.
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
  • the present invention is used in the field of providing a series of broadcast signals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 방송 신호를 전송하는 방법을 제안한다. 본 발명에 따른 방송 신호를 전송하는 방법은, 지상파 방송망과 인터넷 망을 사용하는 차세대 하이브리드 방송을 지원하는 환경에서 차세대 방송 서비스를 지원할 수 있는 시스템을 제안한다. 또한, 차세대 하이브리드 방송을 지원하는 환경에서, 지상파 방송망과 인터넷 망을 모두 아우를 수 있는 효율적인 시그널링 방안을 제안한다.

Description

DASH 기반 시스템에서 고품질 미디어 제공을 위한 방송 신호 송수신 방법 및 장치
본 발명은 방송 신호 송신 장치, 방송 신호 수신 장치, 및 방송 신호 송수신 방법에 관한 것이다.
UHD HDR 콘텐츠 서비스 (HDR 서비스)는 기존 HD 콘텐츠에서 표현하지 못하였던 밝기를 표현함으로써, 보다 큰 현장감을 제공할 수 있다. 이러한 HDR 서비스를 IP 망에서 제공하기 위해 DASH protocol을 사용하여 보다 적응적이고 유연한 콘텐츠 수신이 가능하도록 할 수 있다.
HDR 서비스를 MPEG DASH 기반의 시스템에서 제공하기 위하여 새로운 MPD가 필요하다. HDR 서비스를 하나 이상의 레이어를 통해 전송하는 경우, 레이어 사이의 참조관계를 시그널링하는 방법이 필요하다.
DASH MPD 내에 컬러 변환 (color conversion)을 위한 매트릭스 계수 (Matrix_coefficient) 정보 및 컬러 리맵핑 (Color remapping)을 위한 정보의 정의가 필요하다.
차세대 방송 스트림을 통해 전송되는 방송 서비스를 기존의 MVPD를 통해 방송 수신하던 수신기에서도 수신할 수 있도록하는 방법이 필요하다.
본 발명은 HDR 서비스를 위한 MPD를 정의함으로써 HDR 서비스를 제공할 수 있다. 나아가, MPD 내에 HDR 서비스를 구성하는 레이어들 간의 참조관계를 정의함으로써 HDR 서비스를 제공할 수 있다.
본 발명은 DASH MPD 내에 컬러 변환 정보를 새롭게 정의함으로써 WCG 서비스를 제공할 수 있다.
본 발명은 차세대 방송 스트림을 기존 방송 스트림으로 변환하는 과정을 통해 기존의 수신기도 차세대 방송 스트림에서 제공되는 방송 서비스를 수신할 수 있다.
본 발명은 DASH 기반의 시스템에서 HDR 서비스 및 WCG 서비스를 제공할 수 있다.
본 발명은 기존의 수신기에서 차세대 방송 스트림에서 제공되는 방송 서비스를 제공받을 수 있도록 할 수 있다.
본 발명에 대해 더욱 이해하기 위해 포함되며 본 출원에 포함되고 그 일부를 구성하는 첨부된 도면은 본 발명의 원리를 설명하는 상세한 설명과 함께 본 발명의 실시예를 나타낸다.
도 1 은 본 발명의 일 실시예에 따른 프로토콜 스택을 도시한 도면이다.
도 2 는 본 발명의 일 실시예에 따른 서비스 디스커버리 과정을 도시한 도면이다.
도 3 은 본 발명의 일 실시예에 따른 LLS (Low Level Signaling) 테이블 및 SLT (Service List Table)를 도시한 도면이다.
도 4 는 본 발명의 일 실시예에 따른, ROUTE 로 전달되는 USBD 및 STSID 를 도시한 도면이다.
도 5 는 본 발명의 일 실시예에 따른, MMT 로 전달되는 USBD 를 도시한 도면이다.
도 6 은 본 발명의 일 실시예에 따른 링크 레이어(Link Layer) 동작을 도시한 도면이다.
도 7 은 본 발명의 일 실시예에 따른 LMT (Link Mapping Table) 를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치의 구조를 나타낸다.
도 9는 본 발명의 일 실시예에 따른 타임 인터리버의 라이팅 (writing) 오퍼레이션을 나타낸다.
도 10은 본 발명의 일 실시예에 따른 프리퀀시 인터리버에 포함된 각 FFT 모드에 따른 메인PRBS 제너레이터와 서브PRBS 제너레이터로 구성된 인터리빙 어드레스 제너레이터의 블록 다이아그램을 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른 MPD (media presentation description)의 구조를 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른 MPEG DASH 기반 신호 송수신 시스템 모델을 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따른 역호환성을 지원하는 HDR 서비스를 제공하기 위한 어뎁테이션셋의 배열을 나타낸 도면이다.
도 14는 본 발명의 일 실시예에 따른 MPEG DASH 기반의 수신기 구조를 나타낸 도면이다.
도 15는 본 발명의 일 실시예에 따른 MPD 구조 및 세그먼트 파일의 구조를 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따른 MPD 내의 common attributes 및 common elements를 나타낸 도면이다.
도 17은 본 발명의 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 시그널링하는 MPD의 구조를 나타낸 도면이다.
도 18은 본 발명의 다른 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 시그널링하는 MPD의 구조를 나타낸 도면이다.
도 19는 본 발명의 일 실시예에 따른 representation element의 구성을 나타낸 도면이다.
도 20은 본 발명의 일 실시예에 따른 Contentcomponent 엘레먼트의 구성을 나타낸 도면이다.
도 21은 본 발명의 일 실시예에 따른 Role 엘레먼트의 구성을 나타낸 도면이다.
도 22는 본 발명의 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 MPD를 이용해 시그널링하는 방법을 나타낸 도면이다. (시나리오 1)
도 23은 본 발명의 다른 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 MPD를 이용해 시그널링하는 방법을 나타낸 도면이다. (시나리오 2)
도 24는 본 발명의 다른 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 MPD를 이용해 시그널링하는 방법을 나타낸 도면이다. (시나리오 31)
도 25는 본 발명의 다른 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 MPD를 이용해 시그널링하는 방법을 나타낸 도면이다. (시나리오 32)
도 26은 본 발명의 다른 일 실시예에 따른 MPEG DASH 기반의 수신기 구조를 나타낸 도면이다.
도 27은 본 발명의 일 실시예에 따른 컬러 변환 과정을 나타낸 도면이다.
도 28은 본 발명의 일 실시예에 따른 매트릭스 계수 정보를 나타낸 도면이다.
도 29는 본 발명의 일 실시예에 따른 MPD 내에 정의된 매트릭스 계수 정보를 나타낸다.
도 30은 본 발명의 일 실시예에 따른 컬러 리맵핑 과정을 나타낸 도면이다.
도 31은 본 발명의 일 실시예에 따른 MPD 내에 정의된 컬러 리맵핑 정보를 나타낸다.
도 32는 DASH MPD 내 CRI (color remapping information) 기반 HDR signaling 을 구성하는 실시예이다.
도 33은 본 발명의 일 실시예에 따른 DVB DASH 제약 사항을 설명한 도면이다.
도 34는 본 발명의 일 실시예에 따른 하이브리드 방송 수신 장치를 나타낸 도면이다.
도 35는 본 발명의 일 실시예에 따른 수신기의 블락 다이어그램을 도시한 도면이다.
도 36은 본 발명의 일 실시예에 따른 방송 송수신 시스템의 구조를 나타낸 도면이다.
도 37은 ATSC 3.0 스트림을 ATSC 1.0 스트림으로 변환하는 실시예를 나타낸 도면이다.
도 38은 본 발명의 일 실시예에 따른 MPEG DASH MPD의 구조를 나타낸 도면이다.
도 39는 본 발명의 일 실시예에 따른 HDR 서비스 제공을 위한 EssentialProperty 디스크립터의 @shemeIdUri 값을 나타낸 도면이다.
도 40은 본 발명의 일 실시예에 따른 ATSC 1.0 시스템 또는 MPEG 2 시스템에서 서비스 초기화 과정을 나타낸 도면이다.
도 41은 본 발명의 일 실시예에 따른 HEVC descriptor의 구성을 나타낸 도면이다.
도 42는 본 발명의 일 실시예에 따른 HDR_WCG_idc 필드에 대한 설명을 나타낸 도면이다.
도 43은 본 발명의 일 실시예에 따른 방송 신호 송신 방법을 나타낸 도면이다.
도 44는 본 발명의 다른 일 실시예에 따른 방송 신호 송신 방법을 나타낸 도면이다.
도 45는 본 발명의 일 실시예에 따른 방송 신호 수신 방법을 나타낸 도면이다.
도 46은 본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구성을 나타낸 도면이다.
도 47은 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구성을 나타낸 도면이다.
본 발명은 차세대 방송 서비스에 대한 방송 신호 송신 및 수신 장치 및 방법을 제공한다. 본 발명의 일 실시예에 따른 차세대 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 포함한다. 본 발명은 일 실시예에 따라 비MIMO (nonMultiple Input Multiple Output) 또는 MIMO 방식을 통해 차세대 방송 서비스에 대한 방송 신호를 처리할 수 있다. 본 발명의 일 실시예에 따른 비MIMO 방식은 MISO (Multiple Input Single Output) 방식, SISO (Single Input Single Output) 방식 등을 포함할 수 있다. 본 발명은 특정 용도에 요구되는 성능을 달성하면서 수신기 복잡도를 최소화하기 위해 최적화된 피지컬 프로파일 (또는 시스템)을 제안한다.
도 1 은 본 발명의 일 실시예에 따른 프로토콜 스택을 도시한 도면이다.
서비스는 복수개의 레이어를 거쳐 수신기로 전달될 수 있다. 먼저 송신측에서는 서비스 데이터를 생성할 수 있다. 송신측의 딜리버리 레이어에서는 서비스 데이터에 전송을 위한 처리를 수행하고, 피지컬 레이어에서는 이를 방송 신호로 인코딩하여 방송망 또는 브로드밴드를 통해 전송할 수 있다.
여기서 서비스 데이터들은 ISO BMFF (base media file format) 에 따른 포맷으로 생성될 수 있다. ISO BMFF 미디어 파일은 방송망/브로드밴드 딜리버리, 미디어 인캡슐레이션(media encapsulation) 및/또는 동기화 포맷(synchronization format) 으로 사용될 수 있다. 여기서 서비스 데이터는 서비스와 관련된 모든 데이터로서, 리니어 서비스를 이루는 서비스 컴포넌트들, 그에 대한 시그널링 정보, NRT (Non Real Time) 데이터, 기타 파일들 등을 포함하는 개념일 수 있다.
딜리버리 레이어에 대해 설명한다. 딜리버리 레이어는 서비스 데이터에 대한 전송 기능을 제공할 수 있다. 서비스 데이터는 방송망및/또는 브로드밴드를 통해 전달될 수 있다.
방송망을 통한 서비스 딜리버리(broadcast service delivery)에 있어 두가지 방법이 있을 수 있다.
첫번째 방법은 MMT (MPEG Media Transport) 에 근거하여, 서비스 데이터들을 MPU (Media Processing Units) 들로 처리하고, 이를 MMTP (MMT protocol) 를 이용하여 전송하는 것일 수 있다. 이 경우, MMTP 를 통해 전달되는 서비스 데이터에는, 리니어 서비스를 위한 서비스 컴포넌트들 및/또는 그에 대한 서비스 시그널링 정보 등이 있을 수 있다.
두번째 방법은 MPEG DASH 에 근거하여, 서비스 데이터들을 DASH 세그먼트들로 처리하고, 이를 ROUTE (Real time Object delivery over Unidirectional Transport) 를 이용하여 전송하는 것일 수 있다. 이 경우, ROUTE 프로토콜을 통해 전달되는 서비스 데이터에는, 리니어 서비스를 위한 서비스 컴포넌트들, 그에 대한 서비스 시그널링 정보 및/또는 NRT 데이터 등이 있을 수 있다. 즉, NRT 데이터 및 파일 등의 논 타임드(non timed) 데이터는 ROUTE 를 통해서 전달될 수 있다.
MMTP 또는 ROUTE 프로토콜에 따라 처리된 데이터는 UDP / IP 레이어를 거쳐 IP 패킷들로 처리될 수 있다. 방송망을 통한 서비스 데이터 전달에 있어서, SLT (Service List Table) 역시 UDP / IP 레이어를 거쳐 방송망을 통해 전달될 수 있다. SLT 는 LLS (Low Level Signaling) 테이블에 포함되어 전달될 수 있는데, SLT, LLS 테이블에 대해서는 후술한다.
IP 패킷들은 링크 레이어에서 링크 레이어 패킷들로 처리될 수 있다. 링크 레이어는 상위 레이어에서 전달되는 다양한 포맷의 데이터를, 링크 레이어 패킷으로 인캡슐레이션한 후, 피지컬 레이어에 전달할 수 있다. 링크 레이어에 대해서는 후술한다.
하이브리드 서비스 딜리버리(hybrid service delivery) 에 있어서는, 적어도 하나 이상의 서비스 엘레멘트가 브로드밴드 패쓰(path) 를 통해 전달될 수 있다. 하이브리드 서비스 딜리버리의 경우, 브로드밴드로 전달되는 데이터에는, DASH 포맷의 서비스 컴포넌트들, 그에 대한 서비스 시그널링 정보 및/또는 NRT 데이터 등이 있을 수 있다. 이 데이터들은 HTTP/TCP/IP 를 거쳐 처리되고, 브로드밴드 전송을 위한 링크 레이어를 거쳐, 브로드밴드 전송을 위한 피지컬 레이어로 전달될 수 있다.
피지컬 레이어는 딜리버리 레이어(상위 레이어 및/또는 링크 레이어)로부터 전달받은 데이터를 처리하여, 방송망 또는 브로드밴드를 통하여 전송할 수 있다. 피지컬 레이어에 대한 자세한 사항은 후술한다.
서비스에 대해 설명한다. 서비스는 전체적으로 사용자에게 보여주는 서비스 컴포넌트의 컬렉션일 수 있고, 컴포넌트는 여러 미디어 타입의 것일 수 있고, 서비스는 연속적이거나 간헐적일 수 있으며, 서비스는 실시간이거나 비실시간일 수 있고, 실시간 서비스는 TV 프로그램의 시퀀스로 구성될 수 있다.
서비스는 여러 타입을 가질 수 있다. 첫 번째로 서비스는 앱 기반 인헨스먼트를 가질 수 있는 리니어 오디오/비디오 또는 오디오만의 서비스일 수 있다. 두 번째로 서비스는 다운로드된 어플리케이션에 의해 그 재생/구성 등이 제어되는 앱 기반 서비스일 수 있다. 세 번째로 서비스는 ESG (Electronic Service Guide) 를 제공하는 ESG 서비스일 수 있다. 네 번째로 긴급 경보 정보를 제공하는 EA (Emergency Alert) 서비스일 수 있다.
앱 기반 인헨스먼트가 없는 리니어 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 (1) 하나 이상의 ROUTE 세션 또는 (2) 하나 이상의 MMTP 세션에 의해 전달될 수 있다.
앱 기반 인헨스먼트가 있는 리니어 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 (1) 하나 이상의 ROUTE 세션 및 (2) 0개 이상의 MMTP 세션에 의해 전달될 수 있다. 이 경우 앱 기반 인핸스먼트에 사용되는 데이터는 NRT 데이터 또는 기타 파일 등의 형태로 ROUTE 세션을 통해 전달될 수 있다. 본 발명의 일 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트(스트리밍 미디어 컴포넌트)들이 두 프로토콜을 동시에 사용해 전달되는 것이 허용되지 않을 수 있다.
앱 기반 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 하나 이상의 ROUTE 세션에 의해 전달될 수 있다. 이 경우, 앱 기반 서비스에 사용되는 서비스 데이터는 NRT 데이터 또는 기타 파일 등의 형태로 ROUTE 세션을 통해 전달될 수 있다.
또한, 이러한 서비스의 일부 서비스 컴포넌트 또는 일부 NRT 데이터, 파일 등은 브로드밴드를 통해 전달될 수 있다(하이브리드 서비스 딜리버리).
즉, 본 발명의 일 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 MMT 프로토콜을 통해 전달될 수 있다. 본 발명의 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 ROUTE 프로토콜을 통해 전달될 수 있다. 본 발명의 또 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트 및 NRT 데이터(NRT 서비스 컴포넌트)들은 ROUTE 프로토콜을 통해 전달될 수 있다. 본 발명의 또 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 MMT 프로토콜을 통해 전달되고, NRT 데이터(NRT 서비스 컴포넌트)들은 ROUTE 프로토콜을 통해 전달될 수 있다. 전술한 실시예들에서, 서비스의 일부 서비스 컴포넌트 또는 일부 NRT 데이터들은 브로드밴드를 통해 전달될 수 있다. 여기서 앱 기반 서비스 내지 앱 기반 인핸스먼트에 관한 데이터들은 NRT 데이터 형태로, ROUTE 에 따른 방송망을 통해 전달되거나 브로드밴드를 통해 전달될 수 있다. NRT 데이터는 로컬리 캐쉬드 데이터(Locally cashed data) 등으로 불릴 수도 있다.
각각의 ROUTE 세션은 서비스를 구성하는 컨텐츠 컴포넌트를 전체적으로 또는 부분적으로 전달하는 하나 이상의 LCT 세션을 포함한다. 스트리밍 서비스 딜리버리에서, LCT 세션은 오디오, 비디오, 또는 클로즈드 캡션 스트림과 같은 사용자 서비스의 개별 컴포넌트를 전달할 수 있다. 스트리밍 미디어는 DASH 세그먼트로 포맷된다.
각각의 MMTP 세션은 MMT 시그널링 메시지 또는 전체 또는 일부 컨텐츠 컴포넌트를 전달하는 하나 이상의 MMTP 패킷 플로우를 포함한다. MMTP 패킷 플로우는 MMT 시그널링 메시지 또는 MPU 로 포맷된 컴포넌트를 전달할 수 있다.
NRT 사용자 서비스 또는 시스템 메타데이터의 딜리버리를 위해, LCT 세션은 파일 기반의 컨텐츠 아이템을 전달한다. 이들 컨텐츠 파일은 NRT 서비스의 연속적 (타임드) 또는 이산적 (논 타임드) 미디어 컴포넌트, 또는 서비스 시그널링이나 ESG 프레그먼트와 같은 메타데이터로 구성될 수 있다. 서비스 시그널링이나 ESG 프레그먼트와 같은 시스템 메타데이터의 딜리버리 또한 MMTP의 시그널링 메시지 모드를 통해 이루어질 수 있다.
수신기에서는 튜너가 주파수들을 스캐닝하다가, 특정 주파수에서 방송 시그널을 감지할 수 있다. 수신기는 SLT 를 추출해 이를 처리하는 모듈로 보낼 수 있다. SLT 파서는 SLT 를 파싱하고 데이터를 획득해 채널 맵에 저장할 수 있다. 수신기는 SLT 의 부트스트랩 정보를 획득하고 ROUTE 또는 MMT 클라이언트에 전달해줄 수 있다. 수신기는 이를 통해 SLS 를 획득할 수 있고, 저장할 수 있다. USBD 등이 획득될 수 있고, 이는 시그널링 파서에 의해 파싱될 수 있다.
도 2 는 본 발명의 일 실시예에 따른 서비스 디스커버리 과정을 도시한 도면이다.
피지컬 레이어의 방송 신호 프레임이 전달하는 브로드캐스트 스트림은 LLS (Low Level Signaling) 을 운반할 수 있다. LLS 데이터는 웰 노운(well known) IP 어드레스/포트 로 전달되는 IP 패킷의 페이로드를 통해서 운반될 수 있다. 이 LLS 는 그 타입에 따라 SLT 를 포함할 수 있다. LLS 데이터는 LLS 테이블의 형태로 포맷될 수 있다. LLS 데이터를 운반하는 매 UDP/IP 패킷의 첫번째 바이트는 LLS 테이블의 시작일 수 있다. 도시된 실시예와 달리 LLS 데이터를 전달하는 IP 스트림은, 다른 서비스 데이터들과 함께 같은 PLP 로 전달될 수도 있다.
SLT 는 빠른 채널 스캔을 통하여 수신기가 서비스 리스트를 생성할 수 있게 하고, SLS 를 로케이팅(locating) 하기 위한 액세스 정보를 제공한다. SLT 는 부트스트랩 정보를 포함하는데, 이 부트스트랩 정보는 수신기가 각각의 서비스에 대한 SLS (Service Layer Signaling) 을 획득할 수 있도록 한다. SLS, 즉 서비스 시그널링 정보가 ROUTE 를 통해 전달되는 경우, 부트스트랩 정보는 SLS 를 운반하는 LCT 채널 내지 그 LCT 채널을 포함하는 ROUTE 세션의 데스티네이션 IP 어드레스 및 데스티네이션 포트 정보를 포함할 수 있다. SLS 가 MMT 를 통해 전달되는 경우, 부트스트랩 정보는 SLS 를 운반하는 MMTP 세션의 데스티네이션 IP 어드레스 및 데스티네이션 포트 정보를 포함할 수 있다.
도시된 실시예에서, SLT 가 기술하는 서비스 #1 의 SLS 는 ROUTE 를 통해 전달되고, SLT 는 해당 SLS 가 전달되는 LCT 채널을 포함하는 ROUTE 세션에 대한 부트스트랩 정보(sIP1, dIP1, dPort1) 를 포함할 수 있다. SLT 가 기술하는 서비스 #2 의 SLS 는 MMT 를 통해 전달되고, SLT 는 해당 SLS 가 전달되는 MMTP 패킷 플로우를 포함하는 MMTP 세션에 대한 부트스트랩 정보(sIP2, dIP2, dPort2) 를 포함할 수 있다.
SLS 는 해당 서비스에 대한 특성을 기술하는 시그널링 정보로서, 해당 서비스 및 해당 서비스의 서비스 컴포넌트를 획득하기 위한 정보를 제공하거나, 해당 서비스를 유의미하게 재생하기 위한 수신기 캐패빌리티 정보 등을 포함할 수 있다. 각 서비스에 대해 별개의 서비스 시그널링을 가지면 수신기는 브로드캐스트 스트림 내에서 전달되는 전체 SLS을 파싱할 필요 없이 원하는 서비스에 대한 적절한 SLS를 획득하면 된다.
SLS 가 ROUTE 프로토콜을 통해 전달되는 경우, SLS 는 SLT 가 지시하는 ROUTE 세션의 특정(dedicated) LCT 채널을 통해 전달될 수 있다. 실시예에 따라 이 LCT 채널은 tsi = 0 로 식별되는 LCT 채널일 수 있다. 이 경우 SLS 는 USBD/USD (User Service Bundle Description / User Service Description), STSID (Servicebased Transport Session Instance Description) 및/또는 MPD (Media Presentation Description) 를 포함할 수 있다.
여기서 USBD 내지 USD 는 SLS 프래그먼트 중 하나로서, 서비스의 구체적 기술적 정보들을 기술하는 시그널링 허브로서 역할할 수 있다. USBD 는 서비스 식별 정보, 디바이스 캐패빌리티 정보 등을 포함할 수 있다. USBD 는 다른 SLS 프래그먼트(STSID, MPD 등) 에의 레퍼런스 정보(URI 레퍼런스)를 포함할 수 있다. 즉, USBD/USD 는 STSID 와 MPD 를 각각 레퍼런싱할 수 있다. 또한 USBD 는 수신기가 전송 모드(방송망/브로드밴드)를 결정할 수 있게 해주는 메타데이터 정보를 더 포함할 수 있다. USBD/USD 의 구체적 내용들에 대해서는 후술한다.
STSID 는 SLS 프래그먼트 중 하나로서, 해당 서비스의 서비스 컴포넌트를 운반하는 전송 세션에 대한 전체적인 세션 디스크립션 정보를 제공할 수 있다. STSID 는 해당 서비스의 서비스 컴포넌트가 전달되는 ROUTE 세션 및/또는 그 ROUTE 세션들의 LCT 채널에 대한 전송 세션 디스크립션 정보를 제공할 수 있다. STSID 는 하나의 서비스와 관련된 서비스 컴포넌트들의 컴포넌트 획득(acquisition) 정보를 제공할 수 있다. STSID 는, MPD 의 DASH 레프리젠테이션(Representation) 과 해당 서비스 컴포넌트의 tsi 간의 매핑을 제공할 수 있다. STSID 의 컴포넌트 획득 정보는 tsi, 관련 DASH 레프리젠테이션의 식별자의 형태로 제공될 수 있으며, 실시예에 따라 PLP ID 를 포함하거나 포함하지 않을 수 있다. 컴포넌트 획득 정보를 통해 수신기는 한 서비스의 오디오/비디오 컴포넌트들을 수집하고 DASH 미디어 세그먼트들의 버퍼링, 디코딩 등을 수행할 수 있다. STSID 는 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다. STSID 의 구체적 내용들에 대해서는 후술한다.
MPD 는 SLS 프래그먼트 중 하나로서, 해당 서비스의 DASH 미디어 프리젠테이션에 관한 디스크립션을 제공할 수 있다. MPD 는 미디어 세그먼트들에 대한 리소스 식별자(resource identifier) 를 제공하고, 식별된 리소스들에 대한 미디어 프리젠테이션 내에서의 컨텍스트 정보를 제공할 수 있다. MPD 는 방송망을 통해 전달되는 DASH 레프리젠테이션(서비스 컴포넌트)를 기술하고, 또한 브로드밴드를 통해 전달되는 추가적인 DASH 레프리젠테이션을 기술할 수 있다(하이브리드 딜리버리). MPD 는 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다.
SLS 가 MMT 프로토콜을 통해 전달되는 경우, SLS 는 SLT 가 지시하는 MMTP 세션의 특정(dedicated) MMTP 패킷 플로우을 통해 전달될 수 있다. 실시예에 따라 SLS 를 전달하는 MMTP 패킷들의 packet_id 는 00 의 값을 가질 수 있다. 이 경우 SLS 는 USBD/USD 및/또는 MMT Package (MP) 테이블을 포함할 수 있다.
여기서 USBD 는 SLS 프래그먼트의 하나로서, ROUTE 에서의 그것과 같이 서비스의 구체적 기술적 정보들을 기술할 수 있다. 여기서의 USBD 역시 다른 SLS 프래그먼트에의 레퍼런스 정보(URI 레퍼런스)를 포함할 수 있다. MMT 의 USBD 는 MMT 시그널링의 MP 테이블을 레퍼런싱할 수 있다. 실시예에 따라 MMT 의 USBD 는 STSID 및/또는 MPD 에의 레퍼런스 정보 또한 포함할 수 있다. 여기서의 STSID 는 ROUTE 프로토콜을 통해 전달되는 NRT 데이터를 위함일 수 있다. MMT 프로토콜을 통해 리니어 서비스 컴포넌트가 전달되는 경우에도 NRT 데이터는 ROUTE 프로토콜을 통해 전달될 수 있기 때문이다. MPD 는 하이브리드 서비스 딜리버리에 있어서, 브로드밴드로 전달되는 서비스 컴포넌트를 위함일 수 있다. MMT 의 USBD 의 구체적 내용들에 대해서는 후술한다.
MP 테이블은 MPU 컴포넌트들을 위한 MMT 의 시그널링 메시지로서, 해당 서비스의 서비스 컴포넌트를 운반하는 MMTP 세션에 대한 전체적인 세션 디스크립션 정보를 제공할 수 있다. 또한 MP 테이블은 이 MMTP 세션을 통해 전달되는 에셋(Asset) 에 대한 디스크립션을 포함할 수 있다. MP 테이블은 MPU 컴포넌트들을 위한 스트리밍 시그널링 정보로서, 하나의 서비스에 해당하는 에셋들의 리스트와 이 컴포넌트들의 로케이션 정보(컴포넌트 획득 정보)를 제공할 수 있다. MP 테이블의 구체적인 내용은 MMT 에서 정의된 형태이거나, 변형이 이루어진 형태일 수 있다. 여기서 Asset 이란, 멀티미디어 데이터 엔티티로서, 하나의 유니크 ID 로 연합되고 하나의 멀티미디어 프리젠테이션을 생성하는데 사용되는 데이터 엔티티를 의미할 수 있다. Asset 은 하나의 서비스를 구성하는 서비스 컴포넌트에 해당할 수 있다. MP 테이블을 이용하여 원하는 서비스에 해당하는 스트리밍 서비스 컴포넌트(MPU) 에 접근할 수 있다. MP 테이블은 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다.
기타 다른 MMT 시그널링 메시지가 정의될 수 있다. 이러한 MMT 시그널링 메시지들에 의해 MMTP 세션 내지 서비스에 관련된 추가적인 정보들이 기술될 수 있다.
ROUTE 세션은 소스 IP 어드레스, 데스티네이션 IP 어드레스, 데스티네이션 포트 넘버에 의해 식별된다. LCT 세션은 페어런트 ROUTE 세션의 범위 내에서 유일한 TSI (transport session identifier)에 의해 식별된다. MMTP 세션은 데스티네이션 IP 어드레스 및 데스티네이션 포트 넘버에 의해 식별된다. MMTP 패킷 플로우는 페어런트 MMTP 세션의 범위 내에서 유일한 packet_id에 의해 식별된다.
ROUTE 의 경우 STSID, USBD/USD, MPD 또는 이 들을 전달하는 LCT 세션을 서비스 시그널링 채널이라 부를 수도 있다. MMTP 의 경우, USBD/UD, MMT 시그널링 메시지들 또는 이들을 전달하는 패킷 플로우를 서비스 시그널링 채널이라 부를 수도 있다.
도시된 실시예와는 달리, 하나의 ROUTE 또는 MMTP 세션은 복수개의 PLP 를 통해 전달될 수 있다. 즉, 하나의 서비스는 하나 이상의 PLP 를 통해 전달될 수도 있다. 도시된 것과 달리 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 서로 다른 ROUTE 세션들을 통해 전달될 수도 있다. 또한, 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 서로 다른 MMTP 세션들을 통해 전달될 수도 있다. 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 ROUTE 세션과 MMTP 세션에 나뉘어 전달될 수도 있다. 도시되지 않았으나, 하나의 서비스를 구성하는 컴포넌트가 브로드밴드를 통해 전달(하이브리드 딜리버리)되는 경우도 있을 수 있다.
도 3 은 본 발명의 일 실시예에 따른 LLS (Low Level Signaling) 테이블 및 SLT (Service List Table)를 도시한 도면이다.
도시된 LLS 테이블의 일 실시예(t3010) 은, LLS_table_id 필드, provider_id 필드, LLS_table_version 필드 및/또는 LLS_table_id 필드에 따른 정보들을 포함할 수 있다.
LLS_table_id 필드는 해당 LLS 테이블의 타입을 식별하고, provider_id 필드는 해당 LLS 테이블에 의해 시그널링되는 서비스들과 관련된 서비스 프로바이더를 식별할 수 있다. 여기서 서비스 프로바이더는 해당 브로드캐스트 스트림의 전부 또는 일부를 사용하는 브로드캐스터로서, provider_id 필드는 해당 브로드캐스트 스트림을 사용중인 복수의 브로드캐스터들 중 하나를 식별할 수 있다. LLS_table_version 필드는 해당 LLS 테이블의 버전 정보를 제공할 수 있다.
LLS_table_id 필드의 값에 따라, 해당 LLS 테이블은 전술한 SLT, 컨텐트 어드바이저리 레이팅(Content advisory rating) 에 관련된 정보를 포함하는 RRT(Rating Region Table), 시스템 타임과 관련된 정보를 제공하는 SystemTime 정보, 긴급 경보와 관련된 정보를 제공하는 CAP (Common Alert Protocol) 메시지 중 하나를 포함할 수 있다. 실시예에 따라 이들 외에 다른 정보가 LLS 테이블에 포함될 수도 있다.
도시된 SLT 의 일 실시예(t3020) 는, @bsid 속성, @sltCapabilities 속성, sltInetUrl 엘레멘트 및/또는 Service 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.
@bsid 속성은 브로드캐스트 스트림의 식별자일 수 있다. @sltCapabilities 속성은 해당 SLT 가 기술하는 모든 서비스들을 디코딩하고 유의미하게 재생하는데 요구되는 캐패빌리티 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 해당 SLT 의 서비스들을 위한 ESG 내지 서비스 시그널링 정보를 브로드밴드를 통해 얻기 위해 사용되는 베이스 URL 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 @urlType 속성을 더 포함할 수 있는데, 이는 해당 URL 을 통해 얻을 수 있는 데이터의 타입을 지시할 수 있다.
Service 엘레멘트는 해당 SLT 가 기술하는 서비스들에 대한 정보를 포함하는 엘레멘트일 수 있으며, 각각의 서비스들에 대해 Service 엘레멘트가 존재할 수 있다. Service 엘레멘트는 @serviceId 속성, @sltSvcSeqNum 속성, @protected 속성, @majorChannelNo 속성, @minorChannelNo 속성, @serviceCategory 속성, @shortServiceName 속성, @hidden 속성, @broadbandAccessRequired 속성, @svcCapabilities 속성, BroadcastSvcSignaling 엘레멘트 및/또는 svcInetUrl 엘레멘트를 포함할 수 있다.
@serviceId 속성은 해당 서비스의 식별자이고, @sltSvcSeqNum 속성은 해당 서비스에 대한 SLT 정보의 시퀀스 넘버를 나타낼 수 있다. @protected 속성은 해당 서비스의 유의미한 재생을 위해 필요한 적어도 하나의 서비스 컴포넌트가 보호(protected)되고 있는지 여부를 지시할 수 있다. @majorChannelNo 속성과 @minorChannelNo 속성은 각각 해당 서비스의 메이저 채널 넘버와 마이너 채널 넘버를 지시할 수 있다.
@serviceCategory 속성은 해당 서비스의 카테고리를 지시할 수 있다. 서비스의 카테고리로는 리니어 A/V 서비스, 리니어 오디오 서비스, 앱 기반 서비스, ESG 서비스, EAS 서비스 등이 있을 수 있다. @shortServiceName 속성은 해당 서비스의 짧은 이름(Short name)을 제공할 수 있다. @hidden 속성은 해당 서비스가 테스팅 또는 독점적(proprietary) 사용을 위한 서비스인지 여부를 지시할 수 있다. @broadbandAccessRequired 속성은 해당 서비스의 유의미한 재생을 위하여 브로드밴드 억세스가 필요한지 여부를 지시할 수 있다. @svcCapabilities 속성은 해당 서비스의 디코딩과 유의미한 재생을 위하여 필요한 캐패빌리티 정보를 제공할 수 있다.
BroadcastSvcSignaling 엘레멘트는 해당 서비스의 브로드캐스트 시그널링에 관련된 정보들을 제공할 수 있다. 이 엘레멘트는 해당 서비스의 방송망을 통한 시그널링에 대하여, 로케이션, 프로토콜, 어드레스 등의 정보를 제공할 수 있다. 자세한 사항은 후술한다.
svcInetUrl 엘레멘트는 해당 서비스를 위한 시그널링 정보를 브로드밴드를 통해 액세스하기 위한 URL 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 @urlType 속성을 더 포함할 수 있는데, 이는 해당 URL 을 통해 얻을 수 있는 데이터의 타입을 지시할 수 있다.
전술한 BroadcastSvcSignaling 엘레멘트는 @slsProtocol 속성, @slsMajorProtocolVersion 속성, @slsMinorProtocolVersion 속성, @slsPlpId 속성, @slsDestinationIpAddress 속성, @slsDestinationUdpPort 속성 및/또는 @slsSourceIpAddress 속성을 포함할 수 있다.
@slsProtocol 속성은 해당 서비스의 SLS 를 전달하는데 사용되는 프로토콜을 지시할 수 있다(ROUTE, MMT 등). @slsMajorProtocolVersion 속성 및 @slsMinorProtocolVersion 속성은 각각 해당 서비스의 SLS 를 전달하는데 사용되는 프로토콜의 메이저 버전 넘버 및 마이너 버전 넘버를 지시할 수 있다.
@slsPlpId 속성은 해당 서비스의 SLS 를 전달하는 PLP 를 식별하는 PLP 식별자를 제공할 수 있다. 실시예에 따라 이 필드는 생략될 수 있으며, SLS 가 전달되는 PLP 정보는 후술할 LMT 내의 정보와, SLT 의 부트스트랩 정보를 조합하여 확인될 수도 있다.
@slsDestinationIpAddress 속성, @slsDestinationUdpPort 속성 및 @slsSourceIpAddress 속성은 각각 해당 서비스의 SLS 를 전달하는 전송 패킷의 데스티네이션 IP 어드레스, 데스티네이션 UDP 포트 및 소스 IP 어드레스 를 지시할 수 있다. 이들은 SLS 가 전달되는 전송세션(ROUTE 세션 또는 MMTP 세션)을 식별할 수 있다. 이들은 부트스트랩 정보에 포함될 수 있다.
도 4 는 본 발명의 일 실시예에 따른, ROUTE 로 전달되는 USBD 및 STSID 를 도시한 도면이다.
도시된 USBD 의 일 실시예(t4010) 은, bundleDescription 루트 엘레멘트를 가질 수 있다. bundleDescription 루트 엘레멘트는 userServiceDescription 엘레멘트를 가질 수 있다. userServiceDescription 엘레멘트는 하나의 서비스에 대한 인스턴스일 수 있다.
userServiceDescription 엘레멘트는 @globalServiceID 속성, @serviceId 속성, @serviceStatus 속성, @fullMPDUri 속성, @sTSIDUri 속성, name 엘레멘트, serviceLanguage 엘레멘트, capabilityCode 엘레멘트 및/또는 deliveryMethod 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.
@globalServiceID 속성은 해당 서비스의 글로벌하게 유니크한(globally unique) 식별자로서, ESG 데이터와 링크되는데 사용될 수 있다(Service@globalServiceID). @serviceId 속성은 SLT 의 해당 서비스 엔트리와 대응되는 레퍼런스로서, SLT 의 서비스 ID 정보와 동일할 수 있다. @serviceStatus 속성은 해당 서비스의 상태를 지시할 수 있다. 이 필드는 해당 서비스가 액티브인지 인액티브(inactive) 상태인지 여부를 지시할 수 있다.
@fullMPDUri 속성은 해당 서비스의 MPD 프래그먼트를 레퍼런싱할 수 있다. MPD 는 전술한 바와 같이 방송망 또는 브로드밴드를 통해 전달되는 서비스 컴포넌트에 대한 재생 디스크립션을 제공할 수 있다. @sTSIDUri 속성은 해당 서비스의 STSID 프래그먼트를 레퍼런싱할 수 있다. STSID 는 전술한 바와 같이 해당 서비스를 운반하는 전송 세션에의 액세스와 관련된 파라미터들을 제공할 수 있다.
name 엘레멘트는 해당 서비스의 이름을 제공할 수 있다. 이 엘레멘트는 @lang 속성을 더 포함할 수 있는데, 이 필드는 name 엘레멘트가 제공하는 이름의 언어를 지시할 수 있다. serviceLanguage 엘레멘트는 해당 서비스의 이용 가능한(available) 언어들을 지시할 수 있다. 즉, 이 엘레멘트는 해당 서비스가 제공될 수 있는 언어들을 나열할 수 있다.
capabilityCode 엘레멘트는 해당 서비스를 유의미하게 재생하기 위해 필요한 수신기 측의 캐패빌리티 또는 캐패빌리티 그룹 정보를 지시할 수 있다. 이 정보들은 서비스 아나운스먼트(announccement) 에서 제공되는 캐패빌리티 정보 포맷과 호환될 수 있다.
deliveryMethod 엘레멘트는 해당 서비스의 방송망 또는 브로드밴드를 통해 액세스되는 컨텐츠들에 대하여, 전송 관련 정보들을 제공할 수 있다. deliveryMethod 엘레멘트는 broadcastAppService 엘레멘트 및/또는 unicastAppService 엘레멘트를 포함할 수 있다. 이 엘레멘트들은 각각 basePattern 엘레멘트를 하위 엘레멘트로 가질 수 있다.
broadcastAppService 엘레멘트는 방송망을 통해 전달되는 DASH 레프리젠테이션에 대한 전송 관련 정보를 포함할 수 있다. 이 DASH 레프리젠테이션들은 해당 서비스 미디어 프리젠테이션의 모든 피리오드(Period)에 걸친 미디어 컴포넌트들을 포함할 수 있다.
이 엘레멘트의 basePattern 엘레멘트는 수신기가 세그먼트 URL 과 매칭하는데 사용되는 캐릭터 패턴을 나타낼 수 있다. 이는 DASH 클라이언트가 해당 레프리젠테이션의 세그먼트들을 요청하는데 사용될 수 있다. 매칭된다는 것은 해당 미디어 세그먼트가 방송망을 통해 전달된다는 것을 암시할 수 있다.
unicastAppService 엘레멘트는 브로드밴드를 통해 전달되는 DASH 레프리젠테이션에 대한 전송 관련 정보를 포함할 수 있다. 이 DASH 레프리젠테이션들은 해당 서비스 미디어 프리젠테이션의 모든 피리오드(Period)에 걸친 미디어 컴포넌트들을 포함할 수 있다.
이 엘레멘트의 basePattern 엘레멘트는 수신기가 세그먼트 URL 과 매칭하는데 사용되는 캐릭터 패턴을 나타낼 수 있다. 이는 DASH 클라이언트가 해당 레프리젠테이션의 세그먼트들을 요청하는데 사용될 수 있다. 매칭된다는 것은 해당 미디어 세그먼트가 브로드밴드를 통해 전달된다는 것을 암시할 수 있다.
도시된 STSID 의 일 실시예(t4020) 은, STSID 루트 엘레멘트를 가질 수 있다. STSID 루트 엘레멘트는 @serviceId 속성 및/또는 RS 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.
@serviceId 속성은 해당 서비스의 식별자로서, USBD/USD 의 해당 서비스를 레퍼런싱할 수 있다. RS 엘레멘트는 해당 서비스의 서비스 컴포넌트들이 전달되는 ROUTE 세션들에 대한 정보를 기술할 수 있다. 이러한 ROUTE 세션의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. RS 엘레멘트는 @bsid 속성, @sIpAddr 속성, @dIpAddr 속성, @dport 속성, @PLPID 속성 및/또는 LS 엘레멘트를 더 포함할 수 있다.
@bsid 속성은 해당 서비스의 서비스 컴포넌트들이 전달되는 브로드캐스트 스트림의 식별자일 수 있다. 이 필드가 생략된 경우, 디폴트 브로드캐스트 스트림은 해당 서비스의 SLS 를 전달하는 PLP 를 포함하는 브로드캐스트 스트림일 수 있다. 이 필드의 값은 SLT 의 @bsid 속성과 같은 값일 수 있다.
@sIpAddr 속성, @dIpAddr 속성 및 @dport 속성은 각각 해당 ROUTE 세션의 소스 IP 어드레스, 데스티네이션 IP 어드레스 및 데스티네이션 UDP 포트를 나타낼 수 있다. 이 필드들이 생략되는 경우, 디폴트 값들은 해당 SLS 를 전달하는, 즉 해당 STSID 를 전달하고 있는 현재의, ROUTE 세션의 소스 IP 어드레스, 데스티네이션 IP 어드레스 및 데스티네이션 UDP 포트값들일 수 있다. 현재 ROUTE 세션이 아닌, 해당 서비스의 서비스 컴포넌트들을 전달하는 다른 ROUTE 세션에 대해서는, 본 필드들이 생략되지 않을 수 있다.
@PLPID 속성은 해당 ROUTE 세션의 PLP ID 정보를 나타낼 수 있다. 이 필드가 생략되는 경우, 디폴트 값은 해당 STSID 가 전달되고 있는 현재 PLP 의 PLP ID 값일 수 있다. 실시예에 따라 이 필드는 생략되고, 해당 ROUTE 세션의 PLP ID 정보는 후술할 LMT 내의 정보와, RS 엘레멘트의 IP 어드레스 / UDP 포트 정보들을 조합하여 확인될 수도 있다.
LS 엘레멘트는 해당 서비스의 서비스 컴포넌트들이 전달되는 LCT 채널들에 대한 정보를 기술할 수 있다. 이러한 LCT 채널의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. LS 엘레멘트는 @tsi 속성, @PLPID 속성, @bw 속성, @startTime 속성, @endTime 속성, SrcFlow 엘레멘트 및/또는 RepairFlow 엘레멘트를 포함할 수 있다.
@tsi 속성은 해당 LCT 채널의 tsi 정보를 나타낼 수 있다. 이를 통해 해당 서비스의 서비스 컴포넌트가 전달되는 LCT 채널들이 식별될 수 있다. @PLPID 속성은 해당 LCT 채널의 PLP ID 정보를 나타낼 수 있다. 실시예에 따라 이 필드는 생략될 수 있다. @bw 속성은 해당 LCT 채널의 최대 대역폭를 나타낼 수 있다. @startTime 속성은 해당 LCT 세션의 스타트 타임을 지시하고, @endTime 속성은 해당 LCT 채널의 엔드 타임을 지시할 수 있다.
SrcFlow 엘레멘트는 ROUTE 의 소스 플로우에 대해 기술할 수 있다. ROUTE 의 소스 프로토콜은 딜리버리 오브젝트를 전송하기 위해 사용되며, 한 ROUTE 세션 내에서 적어도 하나 이상의 소스 플로우를 설정(establish)할 수 있다. 이 소스 플로우들은 관련된 오브젝트들을 오브젝트 플로우로서 전달할 수 있다.
RepairFlow 엘레멘트는 ROUTE 의 리페어 플로우에 대해 기술할 수 있다. 소스 프로토콜에 따라 전달되는 딜리버리 오브젝트들은 FEC (Forward Error Correction) 에 따라 보호될 수 있는데, 리페어 프로토콜은 이러한 FEC 프로텍션을 가능케 하는 FEC 프레임워크(framework)를 정의할 수 있다.
도 5 는 본 발명의 일 실시예에 따른, MMT 로 전달되는 USBD 를 도시한 도면이다.
도시된 USBD 의 일 실시예는, bundleDescription 루트 엘레멘트를 가질 수 있다. bundleDescription 루트 엘레멘트는 userServiceDescription 엘레멘트를 가질 수 있다. userServiceDescription 엘레멘트는 하나의 서비스에 대한 인스턴스일 수 있다.
userServiceDescription 엘레멘트는 @globalServiceID 속성, @serviceId 속성, Name 엘레멘트, serviceLanguage 엘레멘트, contentAdvisoryRating 엘레멘트, Channel 엘레멘트, mpuComponent 엘레멘트, routeComponent 엘레멘트, broadbandComponent 엘레멘트 및/또는 ComponentInfo 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.
@globalServiceID 속성, @serviceId 속성, Name 엘레멘트 및/또는 serviceLanguage 엘레멘트는 전술한 ROUTE 로 전달되는 USBD 의 해당 필드들과 같을 수 있다. contentAdvisoryRating 엘레멘트는 해당 서비스의 컨텐트 어드바이저리(advisory) 레이팅을 나타낼 수 있다. 이 정보들은 서비스 아나운스먼트(announccement) 에서 제공되는 컨텐트 어드바이저리 레이팅 정보 포맷과 호환될 수 있다. Channel 엘레멘트는 해당 서비스와 관련된 정보들을 포함할 수 있다. 이 엘레멘트의 자세한 내용에 대해서는 후술한다.
mpuComponent 엘레멘트는 해당 서비스의 MPU 로서 전달되는 서비스 컴포넌트들에 대한 디스크립션을 제공할 수 있다. 이 엘레멘트는 @mmtPackageId 속성 및/또는 @nextMmtPackageId 속성을 더 포함할 수 있다. @mmtPackageId 속성은 해당 서비스의 MPU 로서 전달되는 서비스 컴포넌트들의 MMT 패키지(Package) 를 레퍼런싱할 수 있다. @nextMmtPackageId 속성은 시간상 @mmtPackageId 속성이 레퍼런싱하는 MMT 패키지 다음으로 사용될 MMT 패키지를 레퍼런싱할 수 있다. 이 엘레멘트의 정보들을 통해 MP 테이블이 레퍼런싱될 수 있다.
routeComponent 엘레멘트는 ROUTE 로 전달되는 해당 서비스의 서비스 컴포넌트들에 대한 디스크립션을 포함할 수 있다. 리니어 서비스 컴포넌트들이 MMT 프로토콜로 전달되는 경우라 하더라도, NRT 데이터들은 전술한 바와 같이 ROUTE 프로토콜에 따라 전달될 수 있다. 이 엘레멘트는 이러한 NRT 데이터들에 대한 정보들을 기술할 수 있다. 이 엘레멘트의 자세한 내용에 대해서는 후술한다.
broadbandComponent 엘레멘트는 브로드밴드로 전달되는 해당 서비스의 서비스 컴포넌트들에 대한 디스크립션을 포함할 수 있다. 하이브리드 서비스 딜리버리에 있어서, 한 서비스의 일부 서비스 컴포넌트 또는 기타 파일들은 브로드밴드를 통해 전달될 수 있다. 이 엘레멘트는 이러한 데이터들에 대한 정보들을 기술할 수 있다. 이 엘레멘트는 @fullMPDUri 속성을 더 포함할 수 있다. 이 속성은 브로드밴드로 전달되는 서비스 컴포넌트들에 대해 기술하는 MPD 를 레퍼런싱할 수 있다. 하이브리드 서비스 딜리버리 이외에도, 터널 내의 주행 등으로 인해 방송 신호가 약화되는 경우에 있어, 방송망브로드밴드 간의 핸드오프(handoff) 를 지원하기 위해 본 엘레멘트가 필요할 수 있다. 방송 신호가 약해지는 경우, 브로드밴드를 통해 서비스 컴포넌트를 획득하다가, 다시 방송 신호가 강해지면 방송망을 통해 서비스 컴포넌트를 획득하여 서비스의 연속성이 보장될 수 있다.
ComponentInfo 엘레멘트는 해당 서비스의 서비스 컴포넌트들에 대한 정보를 포함할 수 있다. 서비스의 서비스 컴포넌트들의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. 이 엘레멘트는 각 서비스 컴포넌트의 타입, 롤(role), 이름, 식별자, 프로텍션 여부 등의 정보들을 기술할 수 있다. 이 엘레멘트의 자세한 정보에 대해서는 후술한다.
전술한 Channel 엘레멘트는 @serviceGenre 속성, @serviceIcon 속성 및/또는 ServiceDescription 엘레멘트를 더 포함할 수 있다. @serviceGenre 속성은 해당 서비스의 장르를 지시하고, @serviceIcon 속성은 해당 서비스를 대표하는 아이콘(icon) 의 URL 정보를 포함할 수 있다. ServiceDescription 엘레멘트는 해당 서비스의 서비스 디스크립션을 제공하는데, 이 엘레멘트는 @serviceDescrText 속성 및/또는 @serviceDescrLang 속성을 더 포함할 수 있다. 이 속성들은 각각 해당 서비스 디스크립션의 텍스트 및 그 텍스트에 사용되는 언어를 지시할 수 있다.
전술한 routeComponent 엘레멘트는 @sTSIDUri 속성, @sTSIDDestinationIpAddress 속성, @sTSIDDestinationUdpPort 속성, @sTSIDSourceIpAddress 속성, @sTSIDMajorProtocolVersion 속성 및/또는 @sTSIDMinorProtocolVersion 속성을 더 포함할 수 있다.
@sTSIDUri 속성은 STSID 프래그먼트를 레퍼런싱할 수 있다. 이 필드는 전술한 ROUTE 로 전달되는USBD 의 해당 필드와 같을 수 있다. 이 STSID 는 ROUTE 로 전달되는 서비스 컴포넌트들에 대한 액세스 관련 정보를 제공할 수 있다. 이 STSID 는 MMT 프로토콜에 따라 리니어 서비스 컴포넌트들이 전달되는 상황에서, ROUTE 프로토콜에 따라 전달되는 NRT 데이터들을 위해 존재할 수 있다.
@sTSIDDestinationIpAddress 속성, @sTSIDDestinationUdpPort 속성 및 @sTSIDSourceIpAddress 속성은 각각 전술한 STSID 를 운반하는 전송 패킷의 데스티네이션 IP 어드레스, 데스티네이션 UDP 포트, 소스 IP 어드레스를 나타낼 수 있다. 즉, 이 필드들은 전술한 STSID 를 운반하는 전송 세션(MMTP 세션 또는 ROUTE 세션)을 식별할 수 있다.
@sTSIDMajorProtocolVersion 속성 및 @sTSIDMinorProtocolVersion 속성은 전술한 STSID 를 전달하는데 사용되는 전송 프로토콜의 메이저 버전 넘버 및 마이너 버전 넘버를 지시할 수 있다.
전술한 ComponentInfo 엘레멘트는 @componentType 속성, @componentRole 속성, @componentProtectedFlag 속성, @componentId 속성 및/또는 @componentName 속성을 더 포함할 수 있다.
@componentType 속성은 해당 컴포넌트의 타입을 지시할 수 있다. 예를 들어 이 속성은 해당 컴포넌트가 오디오, 비디오, 클로즈드캡션 컴포넌트인지를 지시할 수 있다. @componentRole 속성은 해당 컴포넌트의 롤(역할)을 지시할 수 있다. 예를 들어 이 속성은 해당 컴포넌트가 오디오 컴포넌트인 경우 메인 오디오, 뮤직, 코멘터리 등인지를 지시할 수 있다. 해당 컴포넌트가 비디오 컴포넌트인 경우 프라이머리 비디오인지 등을 지시할 수 있다. 해당 컴포넌트가 클로즈드 캡션 컴포넌트인 경우 노말 캡션인지 이지리더(easy reader) 타입인지 등을 지시할 수 있다.
@componentProtectedFlag 속성은 해당 서비스 컴포넌트가 프로텍티드되었는지, 예를 들어 암호화되었는지를 지시할 수 있다. @componentId 속성은 해당 서비스 컴포넌트의 식별자를 나타낼 수 있다. 이 속성의 값은 이 서비스 컴포넌트에 해당하는 MP 테이블의 asset_id (에셋 ID) 와 같은 값일 수 있다. @componentName 속성은 해당 서비스 컴포넌트의 이름을 나타낼 수 있다.
도 6 은 본 발명의 일 실시예에 따른 링크 레이어(Link Layer) 동작을 도시한 도면이다.
링크 레이어는 피지컬 레이어와 네트워크 레이어 사이의 레이어일 수 있다. 송신 측에서는 네트워크 레이어에서 피지컬 레이어로 데이터를 전송하고, 수신 측에서는 피지컬 레이어에서 네트워크 레이어로 데이터를 전송할 수 있다(t6010). 링크 레이어의 목적은 피지컬 레이어에 의한 처리를 위해 모든 입력 패킷 타입을 하나의 포맷으로 압축(abstracting)하는 것, 아직 정의되지 않은 입력 패킷 타입에 대한 유연성(flexibility) 및 추후 확장 가능성을 보장하는 것일 수 있다. 또한 링크 레이어는 입력 패킷의 헤더의 불필요한 정보를 압축하는 옵션을 제공함으로써, 입력 데이터가 효율적으로 전송될 수 있도록 할 수 있다. 링크 레이어의 오버헤드 리덕션, 인캡슐레이션 등의 동작은 링크 레이어 프로토콜이라 불리고, 해당 프로토콜을 이용하여 생성된 패킷은 링크 레이어 패킷이라 불릴 수 있다. 링크 레이어는 패킷 인캡슐레이션(packet encapsulation), 오버헤드 리덕션(Overhead Reduction) 및/또는 시그널링 전송(Signaling Transmission) 등의 기능을 수행할 수 있다.
송신측 기준으로, 링크 레이어(ALP)는 입력 패킷에 대하여 오버헤드 리덕션 과정을 수행한 후 이들을 링크 레이어 패킷으로 인캡슐레이션할 수 있다. 또한 실시예에 따라 링크 레이어는 오버헤드 리덕션 과정을 수행하지 아니하고, 링크 레이어 패킷으로 인캡슐레이션할 수도 있다. 링크 레이어 프로토콜의 사용으로 인해 피지컬 레이어 상에서 데이터의 전송에 대한 오버헤드가 크게 감소할 수 있으며, 본 발명에 따른 링크 레이어 프로토콜은 IP 오버헤드 리덕션 및/또는 MPEG2 TS 오버헤드 리덕션을 제공할 수 있다.
도시된, IP 패킷이 입력패킷으로 입력되는 경우에 있어서(t6010), 링크 레이어는 IP 헤더 압축, 어댑테이션 및/또는 인캡슐레이션 과정을 차례로 수행할 수 있다. 실시예에 따라 일부 과정은 생략될 수 있다. 먼저, RoHC 모듈이 IP 패킷 헤더 압축을 수행하여 불필요한 오버헤드를 줄이고, 어댑테이션 과정을 통해 컨텍스트 정보가 추출되고 대역 외로 전송될 수 있다. IP 헤더 압축과 어댑테이션 과정을 통칭하여 IP 헤더 압축이라 부를 수도 있다. 이 후 인캡슐레이션 과정을 통해 IP 패킷들이 링크 레이어 패킷들로 인캡슐레이션될 수 있다.
MPEG 2 TS 패킷이 입력패킷으로 입력되는 경우에 있어서, 링크 레이어는 TS 패킷에 대한 오버헤드 리덕션 및/또는 인캡슐레이션 과정을 차례로 수행할 수 있다. 실시예에 따라 일부 과정은 생략될 수 있다. 오버헤드 리덕션에 있어, 링크 레이어는 싱크 바이트 제거, 널 패킷 삭제 및/또는 공통(common) 헤더 제거 (압축)을 제공할 수 있다. 싱크 바이트 제거를 통해 TS 패킷당 1 바이트의 오버헤드 리덕션이 제공될 수 있다. 수신측에서 재삽입될 수 있는 방식으로 널 패킷 삭제가 수행될 수 있다. 또한 연속된 헤더들 간의 공통되는 정보들이 수신측에서 복구될 수 있는 방식으로 삭제(압축)될 수 있다. 각 오버헤드 리덕션 과정 중 일부는 생략될 수 있다. 이 후 인캡슐레이션 과정을 통해 TS 패킷들이 링크 레이어 패킷들로 인캡슐레이션될 수 있다. TS 패킷의 인캡슐레이션에 대한 링크 레이어 패킷 구조는 다른 타입의 패킷들과는 다를 수 있다.
먼저 IP 헤더 압축(IP Header Compression) 에 대해서 설명한다.
IP 패킷은 고정된 헤더 포맷을 가지고 있으나, 통신 환경에서 필요한 일부 정보는 브로드캐스트 환경에서 불필요할 수 있다. 링크 레이어 프로토콜은 IP 패킷의 헤더를 압축함으로써 브로드캐스트 오버헤드를 줄이는 메커니즘을 제공할 수 있다.
IP 헤더 압축은 헤더 컴프레서/디컴프레서 및/또는 어댑테이션 모듈을 포함할 수 있다. IP 헤더 컴프레서(RoHC 컴프레서)는 RoHC 방식에 기초하여 각 IP 패킷 헤더의 크기를 감소시킬 수 있다. 이 후 어댑테이션 모듈은 컨텍스트 정보를 추출하고 각 패킷 스트림으로부터 시그널링 정보를 생성할 수 있다. 수신기는 해당 패킷 스트림에 관련된 시그널링 정보를 파싱하고 컨텍스트 정보를 그 패킷 스트림에 붙일(attach) 수 있다. RoHC 디컴프레서는 패킷 헤더를 복구하여 원래의 IP 패킷을 재구성할 수 있다. 이하, IP 헤더 압축이란, 헤더 컴프레서에 의한 IP 헤더 압축만을 의미할 수도 있고, IP 헤더 압축과 어댑테이션 모듈에 의한 어댑테이션 과정을 합한 개념을 의미할 수도 있다. 디컴프레싱(decompressing) 에 대해서도 마찬가지이다.
이하, 어댑테이션(Adaptation) 에 대해서 설명한다.
단방향 링크를 통한 전송의 경우, 수신기가 컨텍스트의 정보를 갖고 있지 않으면, 디컴프레서는 완전한 컨텍스트를 수신할 때까지 수신된 패킷 헤더를 복구할 수 없다. 이는 채널 변경 지연 및 턴 온 딜레이 (turnon delay)를 초래할 수 있다. 따라서 어댑테이션 기능을 통해, 컴프레서/디컴프레서 간의 컨피규레이션 파라미터와 컨텍스트 정보가 대역 외로 전송될 수 있다. 어댑테이션 펑션(function)은 컨텍스트 정보 및/또는 컨피규레이션 파라미터들을 이용하여 링크 레이어 시그널링을 생성(construction) 할 수 있다. 어댑테이션 펑션은 예전(previous) 컨피규레이션 파라미터 및/또는 컨텍스트 정보를 이용하여 각각의 피지컬 프레임을 통해 주기적으로 링크 레이어 시그널링을 전송할 수 있다.
압축된 IP 패킷들로부터 컨텍스트 정보가 추출되는데, 어댑테이션 모드에 따라 다양한 방법이 사용될 수 있다.
모드 #1 은 압축된 패킷 스트림에 대해 어떠한 동작도 수행하지 않는 모드로서, 어댑테이션 모듈이 버퍼로서 동작하는 모드일 수 있다.
모드 #2 는 압축된 패킷 스트림 중, IR 패킷을 검출하여 컨텍스트 정보(스태틱 체인)을 추출하는 모드일 수 있다. 추출후 IR 패킷은 IRDYN 패킷으로 전환되고, IRDYN 패킷은 원래의 IR 패킷을 대체하여 패킷 스트림 내에서 같은 순서로 전송될 수 있다.
모드 #3 (t6020) 는 압축된 패킷 스트림 중, IR 및 IRDYN 패킷을 검출하고 컨텍스트 정보를 추출하는 모드일 수 있다. IR 패킷으로부터 스태틱 체인 및 다이나믹 체인이, IRDYN 패킷으로부터 다이나믹 체인이 추출될 수 있다. 추출후 IR 및 IRDYN 패킷은 일반 압축 패킷으로 전환될 수 있다. 전환된 패킷은 원래의 IR 및 IRDYN 패킷을 대체하여 패킷 스트림 내에서 같은 순서로 전송될 수 있다.
각 모드에서, 컨텍스트 정보가 추출되고 남은 패킷들은, 압축된 IP 패킷을 위한 링크 레이어 패킷 구조에 따라 인캡슐레이션 되어 전송될 수 있다. 컨텍스트 정보들은, 링크 레이어 시그널링으로서, 시그널링 정보를 위한 링크 레이어 패킷 구조에 따라 인캡슐레이션 되어 전송될 수 있다.
추출된 컨텍스트 정보는 RDT (RoHCU Description Table) 에 포함되어 RoHC 패킷 플로우와 별도로 전송될 수 있다. 컨텍스트 정보는 다른 시그널링 정보와 함께 특정(specific) 피지컬 데이터 경로를 통해 전송될 수 있다. 특정 피지컬 데이터 경로란, 실시예에 따라, 일반적인 PLP 중 하나를 의미할 수도 있고, LLS (Low Level Signaling) 이 전달되는 PLP 를 의미할 수도 있고, 지정된(dedicated) PLP 일 수도 있고, L1 시그널링 패쓰(path)를 의미할 수도 있다. 여기서 RDT 는 컨텍스트 정보(스태틱 체인 및/또는 다이나믹 체인) 및/또는 헤더 컴프레션과 관련된 정보를 포함하는 시그널링 정보일 수 있다. 실시예에 따라 RDT 는 컨텍스트 정보가 바뀔 때마다 전송될 수 있다. 또한 실시예에 따라 RDT 는 매 피지컬 프레임에서 전송될 수 있다. 매 피지컬 프레임에서 RDT 를 전송하기 위해서, 예전(previous) RDT 가 재사용(reuse)될 수 있다.
수신기는 패킷 스트림을 획득하기 앞서, 최초 PLP 를 선택해 SLT, RDT, LMT 등의 시그널링 정보를 먼저 획득할 수 있다. 수신기는 이 시그널링 정보들이 획득되면, 이 들을 조합하여 서비스 IP 정보 컨텍스트 정보 PLP 간의 매핑을 획득할 수 있다. 즉, 수신기는 어떤 서비스가 어느 IP 스트림들로 전송되는지, 어떤 PLP 로 어떤 IP 스트림들이 전달되는지 등을 알 수 있고, 또한 PLP 들의 해당 컨텍스트 정보들을 획득할 수 있다. 수신기는 특정 패킷 스트림을 운반하는 PLP 를 선택하여 디코딩 할 수 있다. 어댑테이션 모듈은 컨텍스트 정보를 파싱하고 이를 압축된 패킷들과 합칠 수 있다. 이를 통해 패킷 스트림이 복구될 수 있고, 이는 RoHC 디컴프레서로 전달될 수 있다. 이후 디컴프레션이 시작될 수 있다. 이 때 수신기는 어댑테이션 모드에 따라, IR 패킷을 디텍팅하여 최초 수신된 IR 패킷으로부터 디컴프레션을 시작하거나(모드 1), IRDYN 패킷을 디텍팅하여 최초 수신된 IRDYN 패킷으로부터 디컴프레션을 시작하거나(모드 2), 아무 일반 압축 패킷(compressed packet)으로부터 디컴프레션을 시작할 수 있다(모드 3).
이하, 패킷 인캡슐레이션에 대해서 설명한다.
링크 레이어 프로토콜은 IP 패킷, TS 패킷 등의 모든 타입의 인풋 패킷들을 링크 레이어 패킷으로인캡슐레이션할 수 있다. 이를 통해 피지컬 레이어는 네트워크 레이어의 프로토콜 타입과는 독립적으로 하나의 패킷 포맷만 처리하면 된다(여기서 네트워크 레이어 패킷의 일종으로 MPEG2 TS 패킷을 고려). 각 네트워크 레이어 패킷 또는 입력 패킷은 제네릭 링크 레이어 패킷의 페이로드로 변형된다.
패킷 인캡슐레이션 과정에서 분할(segmentation) 이 활용될 수 있다. 네트워크 레이어 패킷이 지나치게 커서 피지컬 레이어에서 처리하지 못하는 경우, 네트워크 레이어 패킷은 두 개 이상의 세그먼트들로 나누어질 수 있다. 링크 레이어 패킷 헤더는 송신 측에서 분할을 실행하고 수신 측에서 재결합을 실행하기 위한 필드들을 포함할 수 있다. 각 세그먼트들은 원래 위치와 같은 순서로 링크 레이어 패킷으로 인캡슐레이션될 수 있다.
패킷 인캡슐레이션 과정에서 연쇄(concatenation) 또한 활용될 수 있다. 링크 레이어 패킷의 페이로드가 여러 네트워크 레이어 패킷을 포함할 정도로 네트워크 레이어 패킷이 충분히 작은 경우, 연쇄가 수행될 수 있다. 링크 레이어 패킷 헤더는 연쇄를 실행하기 위한 필드들을 포함할 수 있다. 연쇄의 경우 각 입력 패킷들은 원래의 입력 순서와 같은 순서로 링크 레이어 패킷의 페이로드로 인캡슐레이션될 수 있다.
링크 레이어 패킷은 헤더와 페이로드를 포함할 수 있고, 헤더는 베이스 헤더, 추가(additional) 헤더 및/또는 옵셔널 헤더가 포함될 수 있다. 추가 헤더는 연쇄나 분할 등의 상황에 따라 더 추가될 수 있는데, 추가헤더에는 상황에 맞춘 필요한 필드들이 포함될 수 있다. 또한 추가적인 정보의 전달을 위해 옵셔널 헤더가 더 추가될 수도 있다. 각각의 헤더 구조는 기 정의되어 있을 수 있다. 전술한 바와 같이 입력 패킷이 TS 패킷인 경우에는, 다른 패킷들과는 다른 링크 레이어 헤더 구조가 사용될 수 있다.
이하, 링크 레이어 시그널링에 대해서 설명한다.
링크 레이어 시그널링은 IP 레이어보다 하위 레벨에서 동작할 수 있다. 수신측에서는 LLS, SLT, SLS 등의 IP 레벨 시그널링보다, 링크 레이어 시그널링을 더 빠르게 획득할 수 있다. 따라서 링크 레이어 시그널링은 세션 설정(establishment) 이전에 획득될 수 있다.
링크 레이어 시그널링에는 인터널 링크 레이어 시그널링과 익스터널 링크 레이어 시그널링이 있을 수 있다. 인터널 링크 레이어 시그널링은 링크 레이어에서 생성된 시그널링 정보일 수 있다. 전술한 RDT 나 후술할 LMT 등이 여기에 해당할 수 있다. 익스터널 링크 레이어 시그널링은 외부 모듈 또는 외부 프로토콜, 상위 레이어로부터 전달받은 시그널링 정보일 수 있다. 링크 레이어는 링크 레이어 시그널링을 링크 레이어 패킷으로 인캡슐레이션하여 전달할 수 있다. 링크 레이어 시그널링을 위한 링크 레이어 패킷 구조(헤더 구조)가 정의될 수 있는데, 이 구조에 따라 링크 레이어 시그널링 정보가 인캡슐레이션될 수 있다.
도 7 은 본 발명의 일 실시예에 따른 LMT (Link Mapping Table) 를 도시한 도면이다.
LMT 는 PLP 로 운반되는 상위 레이어 세션들의 리스트를 제공할 수 있다. 또한 LMT 는 상위 레이어 세션들을 전달하는 링크 레이어 패킷들을 프로세싱하기 위한 추가적인 정보들을 제공할 수 있다. 여기서 상위 레이어 세션은 멀티캐스트(multicast) 라고 불릴 수도 있다. LMT 를 통해 특정 PLP 를 통해 어떠한 IP 스트림들, 어떠한 전송 세션들이 전송되고 있는지에 대한정보가 획득될 수 있다. 반대로 특정 전송 세션이 어느 PLP 로 전달되는지에 대한 정보를 획득할 수 있다.
LMT 는 LLS 를 운반하는 것으로 식별된 어떤 PLP 로도 전달될 수 있다. 여기서 LLS 가 전달되는 PLP 는 피지컬 레이어의 L1 디테일 시그널링 정보의 LLS 플래그에 의해 식별될 수 있다. LLS 플래그는 각각의 PLP 에 대하여, 해당 PLP 로 LLS 가 전달되는지 여부를 지시하는 플래그 필드일 수 있다. 여기서 L1 디테일 시그널링 정보는 후술할 PLS2 데이터에 해당할 수 있다.
즉, LMT 는 LLS 와 함께, 같은 PLP 로 전달될 수 있다. 각각의 LMT 들은 전술한 바와 같이 PLP 들과 IP 어드레스/포트간의 매핑을 기술할 수 있다. 전술한 바와 같이 LLS 는 SLT 를 포함할 수 있는데, LMT 가 기술하는 이 IP 어드레스/포트들은, 해당 LMT 와 같은 PLP 로 전달되는 SLT 가 기술하는, 모든(any) 서비스와 관련된 모든(any) IP 어드레스/포트들일 수 있다.
실시예에 따라 전술한 SLT, SLS 등에서의 PLP 식별자 정보가 활용되어, SLT, SLS 가 지시하는 특정전송 세션이 어느 PLP 로 전송되고 있는지에 대한 정보가 확인될 수 있다.
다른 실시예에 따라 전술한 SLT, SLS 등에서의 PLP 식별자 정보는 생략되고, SLT, SLS 가 지시하는 특정 전송 세션에 대한 PLP 정보는 LMT 내의 정보를 참조함으로써 확인될 수 있다. 이 경우 수신기는 LMT 와 다른 IP 레벨 시그널링 정보들을 조합하여, 알고자 하는 PLP 를 식별할 수 있다. 이 실시예에 있어서도 SLT, SLS 등에서의 PLP 정보는 생략되지 않고, SLT, SLS 등에 남아있을 수 있다.
도시된 실시예에 따른 LMT 는, signaling_type 필드, PLP_ID 필드, num_session 필드 및/또는 각각의 세션들에 대한 정보들을 포함할 수 있다. 도시된 실시예의 LMT 는 하나의 PLP 에 대해서, 그 PLP 로 전송되는 IP 스트림들을 기술하고 있지만, 실시예에 따라 LMT 에 PLP 루프가 추가되어, 복수개의 PLP 에 대한 정보가 기술될 수도 있다. 이 경우 LMT 는, 전술한 바와 같이, 함께 전달되는 SLT 가 기술하는 모든 서비스와 관련된 모든 IP 어드레스/포트들에 대한 PLP 들을, PLP 루프로 기술할 수 있다.
signaling_type 필드는 해당 테이블에 의해 전달되는 시그널링 정보의 타입을 지시할 수 있다. LMT 에 대한 signaling_type 필드의 값은 0x01로 설정될 수 있다. signaling_type 필드는 생략될 수 있다. PLP_ID 필드는 기술하고자 하는 대상 PLP 를 식별할 수 있다. PLP 루프가 사용되는 경우, 각각의 PLP_ID 필드는 각각의 대상 PLP 를 식별할 수 있다. PLP_ID 필드부터는 PLP 루프 내에 포함될 수 있다. 이하 언급되는 PLP_ID 필드는 PLP 루프 중의 PLP 하나에 대한 식별자이며, 이하 설명되는 필드들은 그 해당 PLP 에 대한 필드들일 수 있다.
num_session 필드는 해당 PLP_ID 필드에 의해 식별되는 PLP 로 전달되는 상위 레이어 세션들의 개수를 나타낼 수 있다. num_session 필드가 나타내는 개수에 따라, 각각의 세션들에 대한 정보들이 포함될 수 있다. 이정보에는 src_IP_add 필드, dst_IP_add 필드, src_UDP_port 필드, dst_UDP_port 필드, SID_flag 필드, compressed_flag 필드, SID 필드 및/또는 context_id 필드가 있을 수 있다.
src_IP_add 필드, dst_IP_add 필드, src_UDP_port 필드 및 dst_UDP_port 필드는 해당 PLP_ID 필드에 의해 식별되는 PLP 로 전달되는 상위 레이어 세션들 중, 해당 전송 세션에 대한 소스 IP 어드레스, 데스티네이션 IP 어드레스, 소스 UDP 포트, 데스티네이션 UDP 포트를 나타낼 수 있다.
SID_flag 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷이 그 옵셔널 헤더에 SID 필드를 갖는지 여부를 지시할 수 있다. 상위 레이어 세션을 전달하는 링크 레이어 패킷은 그 옵셔널 헤더에 SID 필드를 가질 수 있고, 그 SID 필드 값은 후술할 LMT 내의 SID 필드와 동일할 수 있다.
compressed_flag 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷의 데이터들에 헤더 컴프레션이 적용되었는지 여부를 지시할 수 있다. 또한 본 필드의 값에 따라 후술할 context_id 필드의 존부가 결정될 수 있다. 헤더 컴프레션이 적용된 경우(compressed_flag = 1), RDT 가 존재할 수 있고, 그 RDT 의 PLP ID 필드는 본 compressed_flag 필드와 관련된 해당 PLP_ID 필드와 같은 값을 가질 수 있다.
SID 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷들에 대한 SID (sub stream ID) 를 지시할 수 있다. 이 링크 레이어 패킷들은, 그 옵셔널 헤더에 본 SID 필드와 같은 값을 가지는 SID 를 포함하고 있을 수 있다. 이를 통해 수신기는 링크 레이어 패킷을 전부 파싱할 필요 없이, LMT 의 정보와 링크 레이어 패킷 헤더의 SID 정보를 이용하여, 링크 레이어 패킷들을 필터링할 수 있다.
context_id 필드는 RDT 내의 CID(context id) 에 대한 레퍼런스를 제공할 수 있다. RDT 의 CID 정보는 해당되는 압축 IP 패킷 스트림에 대한 컨텍스트 ID 를 나타낼 수 있다. RDT 는 해당 압축 IP 패킷 스트림에 대한 컨텍스트 정보들을 제공할 수 있다. 본 필드를 통해 RDT 와 LMT 가 연관될 수 있다.
전술한, 본 발명의 시그널링 정보/테이블의 실시예들에 있어서, 각각의 필드, 엘레멘트, 속성들은 생략되거나 다른 필드로 대체될 수 있으며, 실시예에 따라 추가적인 필드, 엘레멘트, 속성들이 추가될 수도 있다.
본 발명의 일 실시예에서, 한 서비스의 서비스 컴포넌트들이 복수개의 ROUTE 세션을 통해 전달될 수 있다. 이 경우, SLT 의 부트스트랩 정보를 통하여 SLS 가 획득될 수 있다. 이 SLS 의 USBD 를 통해 STSID 와 MPD 가 레퍼런싱될 수 있다. STSID 는 SLS 가 전달되고 있는 ROUTE 세션 뿐 아니라, 서비스 컴포넌트들이 전달되고 있는 다른 ROUTE 세션에 대한 전송 세션 디스크립션 정보 또한 기술할 수 있다. 이를 통해 복수개의 ROUTE 세션을 통해 전달되는 서비스 컴포넌트들이 모두 수집될 수 있다. 이러한 사항은 한 서비스의 서비스 컴포넌트들이 복수개의 MMTP 세션을 통해 전달되는 경우에도 유사하게 적용될 수 있다. 참고로, 하나의 서비스 컴포넌트는 복수개의 서비스에 의해 동시에 사용될 수도 있다.
본 발명의 또 다른 실시예에서, ESG 서비스에 대한 부트스트래핑은 방송망 또는 브로드밴드에 의해 수행될 수 있다. 브로드밴드를 통한 ESG 획득을 통해, SLT 의 URL 정보가 활용될 수 있다. 이 URL 로 ESG 정보 등이 요청될 수 있다.
본 발명의 또 다른 실시예에서, 한 서비스의 서비스 컴포넌트가 하나는 방송망으로 하나는 브로드밴드로 전달될 수 있다(하이브리드). STSID 는 방송망으로 전달되는 컴포넌트들에 대해 기술해, ROUTE 클라이언트가 원하는 서비스 컴포넌트들을 획득케 할 수 있다. 또한 USBD 는 베이스 패턴 정보를 가지고 있어, 어느 세그먼트들이(어느 컴포넌트들이) 어느 경로로 전달되는지 기술할 수 있다. 따라서 수신기는 이를 이용해, 브로드밴드 서버로 요청해야될 세그먼트는 무엇인지, 방송 스트림에서 찾아야될 세그먼트는 무엇인지 알 수 있다.
본 발명의 또 다른 실시예에서, 서비스에 대한 스케일러블(scalable) 코딩이 수행될 수 있다. USBD 는 해당 서비스를 렌더링하기 위해 필요한 모든 캐패빌리티 정보를 가질 수 있다. 예를 들어 한 서비스가 HD 또는 UHD 로 제공되는 경우, USBD 의 캐패빌리티 정보는 "HD 또는 UHD" 값을 가질 수 있다. 수신기는 MPD 를 이용하여 UHD 또는 HD 서비스를 렌더링하기 위하여 어느 컴포넌트가 재생되어야 하는지 알 수 있다.
본 발명의 또 다른 실시예에서, SLS 를 전달하는 LCT 채널로 전달되는 LCT 패킷들의 TOI 필드를 통해, 해당 LCT 패킷들이 어느 SLS 프래그먼트를 전달하고 있는지(USBD, STSID, MPD 등..) 가 식별될 수 있다.
본 발명의 또 다른 실시예에서, 앱 기반 인핸스먼트/ 앱 기반 서비스에 사용될 앱 컴포넌트들은 NRT 컴포넌트로서 방송망을 통해 전달되거나 브로드밴드를 통해 전달될 수 있다. 또한 앱 기반 인핸스먼트에 대한 앱 시그널링은 SLS 와 함께 전달되는 AST (Application Signaling Table) 에 의해 수행될 수 있다. 또한 앱이 수행할 동작에 대한 시그널링인 이벤트는 SLS 와 함께 EMT (Event Message Table) 형태로 전달되거나, MPD 내에 시그널링되거나, DASH 레프리젠테이션 내에 box 형태로 인밴드(inband) 시그널링될 수 있다. AST, EMT 등은 브로드밴드를 통해 전달될 수도 있다. 수집된 앱 컴포넌트들과 이러한 시그널링 정보들을 이용해 앱 기반 인핸스먼트 등이 제공될 수 있다.
본 발명의 또 다른 실시예에서, 긴급 경보를 위해 CAP 메시지가 전술한 LLS 테이블에 포함되어 제공될 수 있다. 긴급 경보를 위한 리치 미디어(Rich Media) 컨텐츠 역시 제공될 수 있다. 리치 미디어는 CAP 메시지에 의해 시그널링될 수 있으며, 리치 미디어가 존재하는 경우 이는 SLT 에 의해 시그널링되는 EAS 서비스로서 제공될 수 있다.
본 발명의 또 다른 실시예에서, MMT 프로토콜에 따라 리니어 서비스 컴포넌트들이 방송망을 통해 전달될 수 있다. 이 경우 해당 서비스에 대한 NRT 데이터(예를 들어 앱 컴포넌트)들은 ROUTE 프로토콜에 따라 방송망을 통해 전달될 수 있다. 또한 해당 서비스에 대한 데이터가 브로드밴드를 통해 전달될 수도 있다. 수신기는 SLT 의 부트스트랩 정보를 이용해 SLS 를 전달하는 MMTP 세션에 접근할 수 있다. MMT 에 따른 SLS 의 USBD 는 MP 테이블을 레퍼런싱하여, 수신기가 MMT 프로토콜에 따라 전달되는 MPU 로 포맷된 리니어 서비스 컴포넌트들을 획득케 할 수 있다. 또한, USBD 는 STSID 를 더 레퍼런싱하여, 수신기가 ROUTE 프로토콜에 따라 전달되는 NRT 데이터를 획득케 할 수 있다. 또한, USBD 는 MPD 를 더 레퍼런싱하여, 브로드밴드를 통해 전달되는 데이터에 대한 재생 디스크립션을 제공할 수 있다.
본 발명의 또 다른 실시예에서, 수신기는 그 컴패니언 디바이스에 스트리밍 컴포넌트 및/또는 파일 컨텐트 아이템(파일 등)을 획득할 수 있는 로케이션 URL 정보를, 웹소켓 등의 방법을 통해 전달할 수 있다. 컴패니언 디바이스의 어플리케이션은 이 URL 로 HTTP GET 등을 통해 요청하여 해당 컴포넌트, 데이터 등을 획득할 수 있다. 그 밖에 수신기는 시스템 타임 정보, 긴급 경보 정보 등의 정보를 컴패니언 디바이스 측에 전달할 수 있다.
도 8은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치의 구조를 나타낸다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 인풋 포맷 블록 (Input Format block) (1000), BICM (bit interleaved coding & modulation) 블록(1010), 프레임 빌딩 블록 (Frame building block) (1020), OFDM (orthogonal frequency division multiplexing) 제너레이션 블록 (OFDM generation block)(1030), 및 시그널링 생성 블록(1040)을 포함할 수 있다. 방송 신호 송신 장치의 각 블록의 동작에 대해 설명한다.
본 발명의 일 실시예에 따른 입력 데이터는 IP 스트림/패킷 및 MPEG2TS이 주요 입력 포맷이 될 수 있으며, 다른 스트림 타입은 일반 스트림으로 다루어진다.
인풋 포맷 블록(1000)은 각각의 입력 스트림을 독립적인 코딩 및 변조가 적용되는 하나 또는 다수의 데이터 파이프로 디멀티플렉싱 할 수 있다. 데이터 파이프는 견고성(robustness) 제어를 위한 기본 단위이며, 이는 QoS (Quality of Service)에 영향을 미친다. 하나 또는 다수의 서비스 또는 서비스 컴포넌트가 하나의 데이터 파이프에 의해 전달될 수 있다. 데이터 파이프는 하나 또는 다수의 서비스 또는 서비스 컴포넌트를 전달할 수 있는 서비스 데이터 또는 관련 메타데이터를 전달하는 물리 계층(physical layer)에서의 로지컬 채널이다.
QoS가 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치에 의해 제공되는 서비스의 특성에 의존하므로, 각각의 서비스에 해당하는 데이터는 서로 다른 방식을 통해 처리되어야 한다.
BICM 블록(1010)은 MIMO가 적용되지 않는 프로파일 (또는 시스템)에 적용되는 처리 블록 및/또는 MIMO가 적용되는 프로파일(또는 시스템)의 처리 블록을 포함할 수 있으며, 각각의 데이터 파이프를 처리하기 위한 복수의 처리 블록을 포함할 수 있다.
MIMO가 적용되지 않는 BICM 블록의 처리 블록은 데이터 FEC 인코더, 비트 인터리버, 컨스텔레이션 매퍼(mapper), SSD (signal space diversity) 인코딩 블록, 타임 인터리버를 포함할 수 있다. MIMO가 적용되는 BICM 블록의 처리 블록은 셀 워드 디멀티플렉서 및 MIMO 인코딩 블록을 더 포함한다는 점에서 MIMO가 적용되지 않는 BICM의 처리 블록과 구별된다.
데이터 FEC 인코더는 외부 코딩(BCH) 및 내부 코딩(LDPC)을 이용하여 FECBLOCK 절차를 생성하기 위해 입력 BBF에 FEC 인코딩을 실행한다. 외부 코딩(BCH)은 선택적인 코딩 방법이다. 비트 인터리버는 데이터 FEC 인코더의 출력을 인터리빙하여 LDPC 코드 및 변조 방식의 조합으로 최적화된 성능을 달성할 수 있다. 컨스텔레이션 매퍼는 QPSK, QAM16, 불균일 QAM (NUQ64, NUQ256, NUQ1024) 또는 불균일 컨스텔레이션 (NUC16, NUC64, NUC256, NUC1024)을 이용해서 비트 인터리버 또는 셀 워드 디멀티플렉서로부터의 셀 워드를 변조하여 파워가 정규화된 컨스텔레이션 포인트를 제공할 수 있다. NUQ가 임의의 형태를 갖는 반면, QAM16 및 NUQ는 정사각형 모양을 갖는 것이 관찰된다. NUQ 및 NUC는 모두 각 코드 레이트(code rate)에 대해 특별히 정의되고, PLS2 데이터의 파라미터 DP_MOD에 의해 시그널링 된다. 타임 인터리버는 데이터 파이프 레벨에서 동작할 수 있다. 타임 인터리빙의 파라미터는 각각의 데이터 파이프에 대해 다르게 설정될 수 있다.
본 발명의 타임 인터리버는 BICM 체인(BICM chain) 블록과 프레임 빌더(Frame Builder) 사이에 위치할 수 있다. 이 경우, 본 발명의 타임 인터리버는 PLP (Physical Layer Pipe) 모드에 따라 컨볼루션 인터리버(Convolution Interleaver, CI)와 블록 인터리버(Block Interleaver, BI)를 선택적으로 사용하거나, 모두 사용할 수 있다. 본 발명의 일 실시예에 따른 PLP는 상술한 DP와 동일한 개념으로 사용되는 피지컬 패스(physical path)로서, 호칭은 설계자의 의도에 따라 변경 가능하다. 본 발명의 일 실시예에 따른 PLP 모드는 방송 신호 송신기 또는 방송 신호 송신 장치에서 처리하는 PLP 개수에 따라 싱글 PLP(single PLP) 모드 또는 멀티플 PLP(multiple PLP)모드를 포함할 수 있다. 본 발명에서는 PLP 모드에 따라 서로 다른 타임 인터리빙 방법을 적용하는 타임 인터리빙을 하이브리드 타임 인터리빙(Hybrid Time Interleaving)이라 호칭할 수 있다.
하이브리드 타임 인터리버는 블록 인터리버(BI)와 컨볼루션 인터리버(CI)를 포함할 수 있다. PLP_NUM=1인 경우, 블록 인터리버는 적용되지 않고(블록인터리버 오프(off)), 컨볼루션 인터리버만 적용된다. PLP_NUM>1인 경우, 블록 인터리버와 컨볼루션 인터리버가 모두 적용(블록 인터리버 온(on))될 수 있다. PLP_NUM>1인 경우 적용되는 컨볼루션 인터리버의 구조 및 동작은 PLP_NUM=1인 경우 적용되는 컨볼루션 인터리버의 구조 및 동작과 다를 수 있다. 하이브리드 타임 디인터리버는 상술한 하이브리드 타임 인터리버의 역동작에 상응하는 동작을 수행할 수 있다.
셀 워드 디멀티플렉서는 MIMO 처리를 위해 단일 셀 워드 스트림을 이중 셀 워드 스트림으로 분리하는 데 사용된다. MIMO 인코딩 블록은 MIMO 인코딩 방식을 이용해서 셀 워드 디멀티플렉서의 출력을 처리할 수 있다. 본 발명의 MIMO 인코딩 방식은 수신기 측에서의 비교적 작은 복잡도 증가로 용량 증가를 제공하기 위한 FRSM (fullrate spatial multiplexing)으로 정의 될 수 있다. MIMO 처리는 데이터 파이프 레벨에서 적용된다. 컨스텔레이션 매퍼 출력의 페어(pair, 쌍)인 NUQ (e1,i 및 e2,i)는 MIMO 인코더의 입력으로 공급되면 MIMO 인코더 출력 페어(pair, 쌍)(g1,i 및 g2,i)은 각각의 송신 안테나의 동일한 캐리어 k 및 OFDM 심볼 l에 의해 전송된다.
프레임 빌딩 블록(1020)은 하나의 프레임 내에서 입력 데이터 파이프의 데이터 셀을 OFDM 심볼로 매핑하고 주파수 영역 다이버시티를 위해 주파수 인터리빙을 수행할 수 있다.
본 발명의 일 실시예에 따른 프레임은 프리앰블, 하나 이상의 FSS (frame signaling symbol), 노멀 데이터 심볼로 분리된다. 프리앰블은 신호의 효율적인 송신 및 수신을 위한 기본 전송 파라미터의 집합을 제공하는 특별한 심볼이다. 프리앰블은 프레임의 기본 전송 파라미터 및 전송 타입을 시그널링 할 수 있다. 특히 프리앰블은 EAS (emergency alert service)이 현재 프레임에 제공되는지 여부를 지시할 수 있다. FSS의 주된 목적은 PLS 데이터를 전달하는 것이다. 고속 동기화 및 채널 추정, PLS 데이터의 고속 디코딩을 위해, FSS는 노멀 데이터 심볼보다 고밀도의 파일럿 패턴을 갖는다.
프레임 빌딩 블록은 데이터 파이프와 해당하는 PLS 데이터 사이의 타이밍을 조절하여 송신기 측에서 데이터 파이프와 해당하는 PLS 데이터 간의 동시성(cotime)을 보장하기 위한 딜레이 컴펜세이션(delay compensation, 지연보상) 블록, PLS, 데이터 파이프, 보조 스트림, 및 더미 셀 등을 프레임 내에서 OFDM 심볼의 액티브(active) 캐리어에 매핑하기 위한 셀 매퍼 (cell mapper) 및 프리퀀시 인터리버 (frequency interleaver)를 포함할 수 있다.
프리퀀시 인터리버는 셀 매퍼로부터 의해 수신된 데이터 셀을 랜덤하게 인터리빙하여 주파수 다이버시티를 제공할 수 있다. 또한, 프리퀀시 인터리버는 단일 프레임에서 최대의 인터리빙 이득을 얻기 위해 다른 인터리빙 시드(seed) 순서를 이용하여 두 개의 순차적인 OFDM 심볼로 구성된 OFDM 심볼 페어(pair, 쌍)에 대응하는 데이터 또는 OFDM 심볼 하나에 대응하는 데이터에 대해 동작할 수 있다.
OFDM 제너레이션 블록(1030)은 프레임 빌딩 블록에 의해 생성된 셀에 의해 OFDM 캐리어를 변조하고, 파일럿을 삽입하고, 전송을 위한 시간 영역 신호를 생성한다. 또한, 해당 블록은 순차적으로 가드 인터벌을 삽입하고, PAPR 감소 처리를 적용하여 최종 RF 신호를 생성한다.
시그널링 생성 블록(1040)은 각 기능 블록의 동작에 사용되는 물리 계층(physical layer) 시그널링 정보를 생성할 수 있다. 본 발명의 일 실시예에 따른 시그널링 정보는 PLS 데이터를 포함할 수 있다. PLS는 수신기에서 피지컬 레이어(physical layer) 데이터 파이프에 접속할 수 있는 수단을 제공한다. PLS 데이터는 PLS1 데이터 및 PLS2 데이터로 구성된다.
PLS1 데이터는 PLS2 데이터를 디코딩하는 데 필요한 파라미터뿐만 아니라 시스템에 관한 기본 정보를 전달하는 고정된 사이즈, 코딩, 변조를 갖는 프레임에서 FSS로 전달되는 PLS 데이터의 첫 번째 집합이다. PLS1 데이터는 PLS2 데이터의 수신 및 디코딩을 가능하게 하는 데 요구되는 파라미터를 포함하는 기본 송신 파라미터를 제공한다. PLS2 데이터는 데이터 파이프 및 시스템에 관한 더욱 상세한 PLS 데이터를 전달하며 FSS로 전송되는 PLS 데이터의 두 번째 집합이다. PLS2 시그널링은 PLS2 스태틱(static, 정적) 데이터(PLS2STAT 데이터) 및 PLS2 다이나믹(dynamic, 동적) 데이터(PLS2DYN 데이터)의 두 종류의 파라미터로 더 구성된다. PLS2 스태틱(static, 정적) 데이터는 프레임 그룹의 듀레이션 동안 스태틱(static, 정적)인 PLS2 데이터이고, PLS2 다이나믹(dynamic, 동적) 데이터는 프레임마다 다이나믹(dynamic, 동적)으로 변화하는 PLS2 데이터이다.
PLS2 데이터는 FIC_FLAG 정보를 포함할 수 있다. FIC (Fast Information Channel)은 빠른 서비스 획득 및 채널 스캔(fast service acquisition and channel scanning)을 가능하게 하는 크로스레이어 (crosslayer) 정보를 전송하기 위한 데디케이티드 채널(dedicated channel)이다. FIC_FLAG 정보는 1비트의 필드로서, FIC((fast information channel, 고속 정보 채널)가 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, FIC는 현 프레임에서 제공된다. 해당 필드의 값이 0으로 설정되면, FIC는 현 프레임에서 전달되지 않는다. BICM 블록(1010)은 PLS 데이터의 보호를 위한 BICM 블록을 포함할 수 있다. PLS 데이터의 보호를 위한 BICM 블록은 PLS FEC 인코더, 비트 인터리버, 및 컨스텔레이션 매퍼를 포함할 수 있다.
PLS FEC 인코더는 PLS1 데이터 및 PLS2 데이터를 스크램블링하기 위한 스크램블러, PLS 보호를 위한 쇼트닝된 BCH 코드를 이용하여 스크램블링된 PLS 1,2 데이터에 외부 인코딩을 수행하고, BCH 인코딩 후에 제로 비트를 삽입하기 위한 BCH 인코딩/제로 삽입 블록, LDPC 코드를 이용하여 인코딩을 수행하기 위한 LDPC 인코딩 블록, 및 LDPC 패리티 펑처링(puncturing) 블록을 포함할 수 있다. PLS1 데이터에 대해서만, 제로 삽입의 출력 비트가 LDPC 인코딩 전에 퍼뮤테이션(permutation) 될 수 있다.. 비트 인터리버는 각각의 쇼트닝 및 펑처링된 PLS1 데이터 및 PLS2 데이터를 인터리빙하고, 컨스텔레이션 매퍼는 비트 인터리빙된 PLS1 데이터 및 PLS2 데이터를 컨스텔레이션에 매핑할 수 있다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치는 도 8을 참조하여 설명한 차세대 방송 서비스에 대한 방송 신호 송신 장치의 역과정을 수행할 수 있다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치는 방송 신호 송신 장치에 의해 실행되는 절차의 역과정에 해당하는 복조를 실행하는 동기 및 복조 모듈 (synchronization & demodulation module), 입력 신호 프레임을 파싱하고, 사용자에 의해 선택된 서비스가 전송되는 데이터를 추출하는 프레임 파싱 모듈 (frame parsing module), 입력 신호를 비트 영역 데이터로 변환한 후, 필요에 따라 비트 영역 데이터들을 디인터리빙하고, 전송 효율을 위해 적용된 매핑에 대한 디매핑을 실행하고, 디코딩을 통해 전송 채널에서 발생한 에러를 정정하는 디매핑 및 디코딩 모듈 (demapping & decoding module), 방송 신호 송신 장치에 의해 적용되는 다양한 압축/신호 처리 절차의 역과정을 실행하는 출력 프로세서 (output processor) 및 동기 및 복조 모듈에 의해 복조된 신호로부터 PLS 정보를 획득, 처리하는 시그널링 디코딩 모듈 (signaling decoding module)을 포함할 수 있다. 프레임 파싱 모듈, 디매핑 및 디코딩 모듈, 출력 프로세서는 시그널링 디코딩 모듈로부터 출력된 PLS 데이터를 이용하여 그 기능을 실행할 수 있다.
이하 타임 인터리버를 설명한다. 본 발명의 일 실시예에 따른 타임 인터리빙 그룹은 하나의 프레임에 직접 매핑되거나 PI개의 프레임에 걸쳐 확산된다. 또한 각각의 타임 인터리빙 그룹은 하나 이상(NTI개)의 타임 인터리빙 블록으로 분리된다. 여기서 각각의 타임 인터리빙 블록은 타임 인터리버 메모리의 하나의 사용에 해당한다. 타임 인터리빙 그룹 내의 타임 인터리빙 블록은 서로 다른 개수의 XFECBLOCK을 포함할 수 있다. 일반적으로, 타임 인터리버는 프레임 생성 과정 이전에 데이터 파이프 데이터에 대한 버퍼로도 작용될 수 있다.
본 발명의 일 실시예에 따른 타임 인터리버는 트위스트된 행열 블록 인터리버이다. 본 발명의 일 실시예에 따른 트위스트된 행열 블록 인터리버는 첫 번째 XFECBLOCK을 타임 인터리빙 메모리의 첫 번째 열에 열 방향으로 기입하고, 두 번째 XFECBLOCK은 다음 열에 기입하고 동일한 방식으로 타임 인터리빙 블록 내의 나머지 XFECBLOCK들을 기입할 수 있다. 그리고 인터리빙 어레이에서, 셀은 첫 번째 행으로부터 (가장 왼쪽 열을 시작으로 행을 따라 오른쪽으로) 마지막 행까지 대각선 방향 판독될 수 있다. 이 경우, 타임 인터리빙 블록 내의 XFECBLOCK 개수에 상관없이 수신기 측에서 단일 메모리 디인터리빙을 달성하기 위해, 트위스트된 행열 블록 인터리버용 인터리빙 어레이는 버츄얼 XFECBLOCK을 타임 인터리빙 메모리에 삽입할 수 있다. 이 경우, 수신기 측에서 단일 메모리 디인터리빙을 달성하기 위해 버츄얼 XFECBLOCK은 다른 XFECBLOCK 가장 앞에 삽입되어야 한다.
도 9는 본 발명의 일 실시예에 따른 타임 인터리버의 라이팅 (writing) 오퍼레이션을 나타낸다.
도면의 왼쪽에 도시된 블록은 TI 메모리 어드레스 어레이(memory address array)를 나타내며, 도면의 오른쪽에 도시된 블록은 연속한 두 개의 TI 그룹들에 대해 각각 버츄얼(virtual) FEC 블록들이 TI 그룹의 가장 앞에 각각 2개 및 1개가 삽입된 경우의 라이팅 (writing) 오퍼레이션을 나타낸다.
본 발명의 일 실시예에 따른 프리퀀시 인터리버는 심볼 페어에 대응하는 데이터들에 적용하기 위한 인터리빙 어드레스를 생성하기 위한 인터리빙 어드레스 제너레이터를 포함할 수 있다.
도 10은 본 발명의 일 실시예에 따른 프리퀀시 인터리버에 포함된 각 FFT 모드에 따른 메인PRBS 제너레이터와 서브PRBS 제너레이터로 구성된 인터리빙 어드레스 제너레이터의 블록 다이아그램을 나타낸 도면이다.
(a)는 8K FFT 모드에 대한 인터리빙 어드레스 제너레이터의 블록 다이아그램을 나타내고, (b)는 16K FFT 모드에 대한 인터리빙 어드레스 제너레이터의 블록 다이아그램을 나타내고, (c)는 32K FFT 모드에 대한 인터리빙 어드레스 제너레이터의 블록 다이아그램을 나타낸다.
OFDM 심볼 페어에 대한 인터리빙 과정은 하나의 인터리빙 시퀀스를 이용하며 다음과 같이 설명된다. 우선, 하나의 OFDM 심볼 Om,l 에서 인터리빙 될 사용 가능한 데이터 셀(셀 매퍼로부터의 출력 셀)은 l = 0, …, Nsym 1 에 대해 Om,l =[xm,l,0,…,xm,l,p,…,xm,l,Ndata 1] 로 정의된다. 이때 xm,l,pm번째 프레임에서 l 번째 OFDM 심볼의 p 번째 셀이고, Ndata 는 데이터 셀의 개수이다. 프레임 시그널링 심볼에 대해 Ndata = CFSS 이고, 노멀 데이터에 대해 Ndata = Cdata 이며, 프레임 엣지 심볼에 대해 Ndata = CFES 이다. 또한, 인터리빙된 데이터 셀은 l = 0, …, Nsym 1 에 대해 Pm,l =[vm,l,0,…,vm,l,Ndata 1] 로 정의된다.
OFDM 심볼 페어에 대해, 인터리빙 된 OFDM 심볼 페어는 각 페어의 첫 번째 OFDM 심볼에 대해 vm,l,Hi(p) = xm,l,p, p=0,…,Ndata 1 로 주어지고, 각 페어의 두 번째 OFDM 심볼에 대해 vm,l,p = xm,l,Hi(p), p=0,…,Ndata 1 로 주어진다. 이때 Hl(p) 는 PRBS 제너레이터 및 서브PRBS 제너레이터의 사이클릭 시프트 값(심볼 오프셋)을 기반으로 생성된 인터리빙 어드레스이다.
도 11은 본 발명의 일 실시예에 따른 MPD (media presentation description)의 구조를 나타낸 도면이다.
본 발명의 일 실시예는 MPEGDASH (Dynamic Adaptive Streaming over HTTP) 기반 시스템에서 고품질 미디어를 제공하기 위한 방송 신호 송수신 방법 및 장치를 제안한다. 본 발명의 일 실시예는 MPEG DASH(Dynamic Adaptive Streaming over HTTP) 환경에서 HDR (High Dynamic Range) 서비스를 지원하기 위한 다양한 전송 시나리오에서의 Media presentation description 실시 예들을 제안한다. 본 발명의 일 실시예에 따른 방송 시스템은 HDR 서비스를 구성하는 복수의 스트림을 전송하기 위한 MPEG DASH의 MPD를 정의한다. 그리고, 본 발명의 일 실시예에 따른 수신 장치는 MPD를 이용하여 원하는 URL을 전송하는 세그먼트 (segment)를 선택하여 (selection) HDR 서비스를 제공할 수 있다.
본 발명의 일 실시예는 MPEG DASH 기반에서 역호환성을 지원하는 HDR 서비스를 제공하기 위하여 두 개의 레이어를 전송할 수 있다. 본 발명의 일 실시예는 각 레이어가 서로 다른 코덱을 사용함에 따라 각 레이어가 각기 다른 레프리젠테이션으로 분리되는 경우, 두 레프리젠테이션들 사이의 디펜던시 및 레퍼런스 관계 등을 정의함으로써 역호환성을 지원하는 HDR 서비스를 제공할 수 있다. 예를 들어, 각기 다른 코덱으로 인코딩된 Dolby vision의 베이스 레이어 및 인핸스먼트 레이어를 DASH 프로토콜을 통해 전송할 때 상술한 본 발명의 일 실시예를 이용함으로써 수신기는 IP 스트리밍시 HDR 서비스를 문제없이 수신할 수 있다. 본 발명의 일 실시예는 MPEG뿐만 아니라, DASH를 활용한 multicast (DVB ABR), broadcast (ATSC 3.0)와 같은 역호환성의 지원이 필요한 모든 시스템에 적용될 수 있다.
이 도면은 MPEG DASH 시스템을 지원하기 위한 계층적 Media Presentation Description 모델을 나타낸 도면이다. 본 발명의 일 실시예에 따르면, MPEG DASH의 코덱 (codec)을 정의하는 최소 단위는 representation 또는 sub representation인데, 수신기의 역호환성을 지원하기 위해 이종 코덱을 사용하는 스트림을 전송하는 경우, 최소 representation 또는 sub representation 사이에서 분리가 이뤄져야 한다. 즉, 각기 다른 코덱을 사용하는 스트림인 base layer 및 enhacement layer는 각각의 representation을 가져야 한다. 이 때, MPD는 두 representation 사이의 dependency 및 enhancement layer를 나타내는 representation의 역할에 대한 내용을 정의해야 한다. 참고로, SHVC에서 사용되는 복수의 레이어들은 동일한 코덱에 의해 생성된 것으로서, 본 발명의 일 실시예가 제안하는 HDR 서비스 제공을 위해 이종 코덱에 의해 생성된 복수의 레이어들과는 다르다.
본 발명의 일 실시예는 MPEG DASH (Dynamic Adaptive Streaming over HTTP) 환경에서 HDR (High Dynamic Range) 서비스를 지원하기 위한 듀얼 스트림의 전송 시, 듀얼 스트림 간의 참조 관계를 나타내는 정보 및 HDR 서비스를 구성하기 위한 정보를 시스템 레벨에서 정의한다.
본 발명의 일 실시예는 MPEG DASH 송수신 모델, MPEG DASH MPD의 계층적 구조 및 듀얼 레이어를 전송하기 위한 방법, 듀얼 레이어를 전송하기 위한 MPEG DASH MPD 구조, HDR 서비스를 위한 듀얼 레이어 간 참조 관계를 나타내는 정보의 정의하는 방법 및/또는 HDR 서비스를 구성하기 위한 정보를 정의하는 방법을 제안한다.
본 발명의 일 실시예는 각기 다른 코덱이 사용된 컴포넌트 (component)를 어댑테이션셋 (adaptationset)으로 구분하고, 디펜던시 (dependency) 스트림 및 인핸스먼트 레이어 (enhancement layer)의 롤 (role)을 새롭게 정의할 수 있다. (시나리오 1)
본 발명의 다른 일 실시예는 AssociationID로 dependency를 정의하고, Association type으로 reference type을 정의할 수 있다. (시나리오 2)
본 발명의 다른 일 실시예는 각기 다른 코덱이 사용된 컴포넌트를 레프리젠테이션 (representation)으로 구분하고, essential descriptor 또는 supplementary descriptor를 이용하여 dependencyID로 레프리젠테이션들 사이의 참조 관계를 정의하고 profiles로 HDR 서비스의 구성에 대한 정보를 정의할 수 있다. (시나리오 3)
도 12는 본 발명의 일 실시예에 따른 MPEG DASH 기반 신호 송수신 시스템 모델을 나타낸 도면이다.
MPEG DASH는 미디어 데이터의 IP delivery 시 적응형 스트리밍 전송 방안에 관한 포맷을 규정하는 기술이다. 이 도면은 DASH에서 정의된 포맷을 사용할 수 있는 가능한 전개 구조를 나타낸다. 이 도면에 도시된 박스은 DASH에서 정의된 프로세스를 수행하는 모듈을 의미한다. DASH는 스트리밍 서비스 제공을 목적으로 미디어에 관한 부가 정보를 제공하는 MPD (Media Presentation Description)와 MPD를 통해 미디어 데이터를 표현할 수 있도록 계층적 논리적 단위 (어뎁테이션셋, 레프리젠테이션 등)를 규정하고 있다.
도 13은 본 발명의 일 실시예에 따른 역호환성을 지원하는 HDR 서비스를 제공하기 위한 어뎁테이션셋의 배열을 나타낸 도면이다.
본 발명의 일 실시예는 HDR 기술 별로 adaptationset을 구분할 수 있다. 이 도면의 Adaptationset1은 SDR 서비스를, Adaptationset2는 HDR 10으로 인코딩된 HDR 서비스, Adaptationset3은 BBC가 제안한 HLG (Hybrid Log Gamma)기술을 이용해 인코딩된 HDR 서비스를 나타낸다. 본 발명의 일 실시예는 HLG 기술 적용시 BT.709 단말에서 hue shift가 일어나는 문제점을 해결하기 위하여, HLG 기술에 의핸 HDR 서비스를 나타내는 Adaptationset에 SDR 서비스를 나타내는 representation을 포함할 수 있다. 이 도면의 Adaptationset4는 역호환성 지원을 위한 HDR 서비스를 나타낸 것으로서 AVC로 인코딩된 베이스 레이어 및 HEVC로 인코딩된 인핸스먼트 레이어가 Adaptationset4 내의 서로 다른 representation에 정의된다. 이 때, 본 발명의 일 실시예에 따르면, 두 representation 사이의 참조 관계 및 HDR 서비스를 구성하기 위한 정보가 추가로 정의될 수 있다. 나아가, 본 발명의 일 실시예는 다양한 시나리오에 따른 듀얼 레이어를 전송하는 환경에서 HDR 서비스 제공을 위하여 어뎁테이션셋들 또는 레프리젠테이션들 사이의 디펜던시 및 롤을 새롭게 정의할 수 있다.
도 14는 본 발명의 일 실시예에 따른 MPEG DASH 기반의 수신기 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따른 수신기는 미디어 데이터를 기술하는 MPD를 수신한 후, 수신기가 수신할 수 있는 capability 및 네트워크 상황을 고려하여 세그먼트를 요청한다. 수신기는 MPD에 기술된 서비스 리스트 정보 및 세그먼트 셀렉션 (segment selection)을 위한 정보를 파싱하고 해석하여 적절한 서비스의 적절한 세그먼트를 요청하고 수신한다. 수신기 내의 DASH 클라이언트는 세그먼트의 URL 정보를 획득하고 획득한 URL 정보를 이용하여 원하는 세그먼트 파일을 요청함으로써 서버로부터 원하는 세그먼트 파일을 수신한다. 멀티캐스트 및 브로드캐스트를 통해 세그먼트 파일을 수신하는 경우, 수신기는 수신된 스트림 중 렌더링이 가능한 스트림을 선택하여 버퍼링을 진행한다. 수신기로 전송된 세그먼트 파일은 세그먼트 파서를 통하여 파싱되고, 파싱된 비디오 스트림이 디코더를 거쳐 랜더링된다.
본 발명의 일 실시예에 따른 수신기는 MPD에 포함된 디펜던시 정보 (dependency info)를 이용하여 원하는 세그먼트 파일을 선택 및 획득하고, MPD에 포함된 HDR 구성 정보 (HDR composition info)를 이용하여 세그먼트 파일에 포함된 미디어 데이터를 디코딩하고 디코딩된 미디어 데이터를 렌더링한다.
도 15는 본 발명의 일 실시예에 따른 MPD 구조 및 세그먼트 파일의 구조를 나타낸 도면이다.
이 도면은 본 발명의 일 실시예에 따라 서로 다른 코덱에 의해 인코딩된 베이스 레이어 및 인핸스먼트 레이어를 DASH 기반으로 전송하는 경우 사용되는 MPD 구조 및 세그먼트 파일의 구조를 나타낸 것이다.
본 발명의 일 실시예에 따르면, MPD의 상위 레벨에서 어트리뷰트 또는 엘레먼트를 정의하면 하위 레벨에서 상기 정의된 어트리뷰트 또는 엘레먼트를 변경할 수가 없으므로, 본 발명의 일 실시예에 따른 각 레이어에 적용되는 코덱의 속성은 각 레이어를 기술하는 레프리젠테이션 레벨에서 정의될 수 있다.
본 발명의 일 실시예에 따르면, 역호환성을 지원하는 HDR 서비스를 구성하는 각 레이어는 서로 다른 코덱을 사용하기 때문에 각각의 어댑테이션셋 또는 레프리젠테이션으로 표현될 수 있다. 그리고, 현재 MPD에는 상기 두 어댑테이션셋 또는 두 레프리젠테이션 사이에는 디펜던시가 존재하지만, 이를 나타내는 어트리뷰트가 존재하지 않으므로, 본 발명의 일 실시예는 상기 두 어댑테이션셋 또는 두 레프리젠테이션 사이의 디펜던시를 나타내는 정보 및 HDR 서비스의 구성을 위한 정보를 MPD 내에 정의할 수 있다. 참고로, 현재 3D나 SHVC 같은 듀얼 스트림의 전송 시, 두 스트림 사이의 관계를 정의하는 방법은 있으나, HDR을 위한 호환 스트림, 비 호환 스트림은 스케일러빌리티와는 다른 Application 이므로 따로 정의가 필요하다. 구체적으로, SHVC의 경우 SHVC codec이라는 @codec에 두 스트림 사이의 관계를 정의할 수 있는 CICP string value가 정해져 있는 반면, HDR의 듀얼 레이어의 경우 각 비트 스트림의 codec정보를 통해서는 HDR의 composition의 관계를 나태내기 어렵다. 또한, 3D의 경우 stereoscopic view 또는 multiview의 속성이 기정의되어 있어, codec과 더불어 상기정보를 통해 3D composition 이 가능하다. 본 발명의 일 실시예에 따른, HDR copmposition을 위한 듀얼 스트림의 경우, 각 정보의 참조관계를 정의함으로써, HDR decoding 동작의 초기화를 가능하게 할 수 있다.
도 16은 본 발명의 일 실시예에 따른 MPD 내의 common attributes 및 common elements를 나타낸 도면이다.
본 발명의 일 실시예에 따른 common attributes는 관련 어댑테이션셋, 레프리젠테이션 및/또는 서브레프리젠테이션의 프로파일 (profile)을 나타내는 @profile 및/또는 관련 어댑테이션셋, 레프리젠테이션 및/또는 서브레프리젠테이션의 코덱을 나타내는 @codecs를 포함한다.
본 발명의 일 실시예에 따른 common elements는 미디어 프레젠테이션을 위해 필수적인 정보를 기술하는 EssentialProperty element 및/또는 미디어 프레젠테이션을 위하 부가적인 정보를 기술하는 SupplementalProperty element를 포함한다.
본 발명의 일 실시예에 따른 common attributes 또는 common elements는 MPD 내의 어댑테이션셋 엘레먼트, 레프리젠테이션 엘레먼트 및/또는 서브레프리젠테이션 엘레먼트에 포함될 수 있다.
본 발명의 일 실시예에 따르면, 역호환성을 지원하는 HDR 서비스를 구성하는 듀얼 스트림이 존재하고, 듀얼 스트림 사이에 디펜던시가 존재하는 경우, common attributes 또는 common elements를 이용하여 듀얼 스트림 사이의 보완적 역할에 대한 정보를 정의할 수 있다.
도 17은 본 발명의 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 시그널링하는 MPD의 구조를 나타낸 도면이다.
본 발명의 일 실시예는 AVC (Adaptationset3: base video) 스트림 및 HEVC (Adaptationset4: enhance video) 스트림을 포함하는 HDR 서비스를 구성하기 위하여, 각기 다른 코덱이 사용된 컴포넌트 (component)를 어댑테이션셋 (adaptationset)으로 구분하고, 디펜던시 (dependency) 스트림 및 인핸스먼트 레이어 (enhancement layer)의 롤 (role)을 새롭게 정의할 수 있다. (시나리오 1)
본 발명의 다른 일 실시예는 AssociationID로 dependency를 정의하고, Association type으로 reference type을 정의할 수 있다. (시나리오 2)
도 18은 본 발명의 다른 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 시그널링하는 MPD의 구조를 나타낸 도면이다.
본 발명의 다른 일 실시예는 AVC (Adaptationset3: base video) 스트림 및 HEVC (Adaptationset4: enhance video) 스트림을 포함하는 HDR 서비스를 구성하기 위하여, 각기 다른 코덱이 사용된 컴포넌트를 레프리젠테이션 (representation)으로 구분하고, essential descriptor 또는 supplementary descriptor를 이용하여 dependencyID로 레프리젠테이션들 사이의 참조 관계를 정의하고 profiles로 HDR 서비스의 구성에 대한 정보를 정의할 수 있다. (시나리오 3)
도 19는 본 발명의 일 실시예에 따른 representation element의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 MPD의 레프리젠테이션 엘레먼트 (representation element)는 @dependencyID 및/또는 Contentcomponent 엘레먼트를 포함한다. 본 발명의 일 실시예에 따르면, 서로 다른 레프리젠테이션을 참고하기 위하여 @dependencyID가 사용된다. 즉, @dependencyID를 이용하여 두 레프리젠테이션 사이의 참조 관계를 나타낼 수 있다. Contentcomponent 엘레먼트에 대한 상세한 설명은 다음 도면에서 후술한다.
도 20은 본 발명의 일 실시예에 따른 Contentcomponent 엘레먼트의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 Contentcomponent 엘레먼트는 콘텐트 컴퍼넌트에 대한 설명을 기술한 엘레먼트이다. Contentcomponent 엘레먼트는 본 엘레먼트가 기술하는 미디어 컴포넌트를 식별하는 @id 및/또는 미디어 콘텐트 컴포넌트 (미디어 컴포넌트)의 구조적 기능과 특성을 나타내는 Role 엘레먼트를 포함한다. Role 엘레먼트에 대한 상세한 설명은 다음 도면에서 후술한다.
도 21은 본 발명의 일 실시예에 따른 Role 엘레먼트의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 Role 엘레먼트는 HDRConfiguration 엘레먼트로도 명명될 수 있다.
Role 엘레먼트는 @schemeIdUri, @value 및/또는 @id를 포함한다. @schemeIdUri는 본 엘레먼트의 시멘틱 (semantic)에 해당하는 스키마를 식별한다. 본 발명의 일 실시예에 따르면, Role 엘레먼트는 @schemeIdUri 값으로 "urn:mpeg:dash:role:2011"을 가질 수 있고, @value값에 따라 해당 미디어 컴포넌트의 기능을 나타낸다.
도 22는 본 발명의 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 MPD를 이용해 시그널링하는 방법을 나타낸 도면이다. (시나리오 1)
본 발명의 일 실시예는 각기 다른 코덱이 사용된 컴포넌트를 어뎁테이션셋으로 구분하고, MPD의 어댑테이션셋 엘레먼트 내 레프리젠테이션 엘레먼트의 @dependencyId를 이용하여 컴포넌트 사이에 디펜던시 (dependency) 관계가 있음을 시그널링할 수 있고, Contentcomponent 엘레먼트 내 Role 엘레먼트를 이용하여 컴포넌트 사이에 어떤 디펜던시 관계가 있는지 시그널링할 수 있다. (시나리오 1)
본 발명의 일 실시예는 MPD의 레프리젠테이션 엘레먼트 내에 @dependencyId를 정의함으로써 레프리젠테이션 엘레먼트가 기술하는 레프리젠테이션과 디펜던시 관계가 있는 레프리젠테이션을 식별할 수 있다.
본 발명의 일 실시예는 MPD의 레프리젠테이션 엘레먼트 내의 Contentcomponent 엘레먼트 내에 Role 엘레먼트를 정의함으로써 해당 어댑테이션셋 또는 레프리젠테이션이 HDR 인핸스먼트 레이어에 관한 것임을 시그널링할 수 있고 Role 엘레먼트 내의 @value 값을 이용하여 해당 HDR 인핸스먼트 레이어의 레이어 관련 기술을 시그널링할 수 있다.
이 도면의 상단을 참조하면, HDR 인핸스먼트 레이어에 해당하는 레프리젠테이션에 대한 Role 엘레먼트는 @schemeIdUri로서 "urn:mpeg:dash:hdr_eh:201x" 값을 가질 수 있고, @value로서 "en1" 값을 가짐으로써 해당 레프리젠테이션이 HDR 인핸스먼트 레이어에 관한 것임을 시그널링할 수 있다.
이 도면의 하단은 시나리오 1에 따른 어댑테이션셋 스키마를 나타낸다. 이 도면의 하단을 참조하면, "avc1.640828" 코덱으로 인코딩된 베이스 비디오와 "hevc.760028" 코덱으로 인코딩된 인핸스먼트 비디오는 서로 다른 어댑테이션셋으로 분류된다.
"avc1.640828" 코덱으로 인코딩된 베이스 비디오에 해당하는 어댑테이션셋을 기술하는 어댑테이션셋 엘레먼트는 레프리젠테이션 엘레먼트를 포함한다. 그리고, 상기 레프리젠테이션 엘레먼트는 @id 값으로 "C2" 값을 갖고, 이 레프리젠테이션에 해당하는 "avc1.640828" 코덱으로 인코딩된 베이스 비디오 를 전송하는 세그먼트는 "segm1HDRbase.mp4"에서 획득할 수 있다.
"hevc.760028" 코덱으로 인코딩된 인핸스먼트 비디오에 해당하는 어댑테이션셋을 기술하는 어댑테이션셋 엘레먼트는 Role 엘레먼트를 포함한다. 이 때, Role 엘레먼트는 @schemeIdUri 값으로 "urn:mpeg:dash:hdr_enhance:2011" 값을 갖고 @value 값으로 "eh1" 값을 가짐으로써 해당 어댑테이션셋이 인핸스먼트 비디오 컴포넌트에 해당함을 시그널링할 수 있다. 상기 어댑테이션셋 엘레먼트는 레프리젠테이션 엘레먼트를 포함하고, 상기 레프리젠테이션 엘레먼트는 @id 값으로 "C1"을 갖고, @dependencyId 값으로 "C2"를 가짐으로써 이 레프리젠테이션 엘레먼트가 기술하는 레프리젠테이션이 @id 값으로 "C2"를 갖는 레프리젠테이션과 디펜던시 관계에 있음을 시그널링할 수 있다. 나아가, 상기 레프리젠테이션에 해당하는 "hevc.760028" 코덱으로 인코딩된 인핸스먼트 비디오를 전송하는 세그먼트는 "segm1HDRenhance.mp4"에서 획득할 수 있다.
본 발명의 다른 일 실시예에 따르면, 상술한 Role 엘레먼트는 어댑테이션셋 엘레먼트의 하위에 포함될 수 있고, 레프리젠테이션 엘레먼트의 하위에 포함될 수 있다.
도 23은 본 발명의 다른 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 MPD를 이용해 시그널링하는 방법을 나타낸 도면이다. (시나리오 2)
본 발명의 일 실시예는 각기 다른 코덱이 사용된 컴포넌트를 어뎁테이션셋으로 구분하고, MPD의 어댑테이션셋 엘레먼트 내 레프리젠테이션 엘레먼트의 @associationId를 이용하여 컴포넌트 사이에 참조 관계가 있음을 시그널링할 수 있고, @associationoType를 이용하여 컴포넌트 사이에 어떤 디펜던시 관계가 있는지 시그널링할 수 있다. (시나리오 2)
이 도면의 상단을 참조하면, 본 발명의 일 실시예에 따른 레프리젠테이션 엘레먼트는 @id, @dependencyId, @associationId 및/또는 @associationType을 포함한다. @id는 해당 레프리젠테이션을 식별하고, @dependencyId는 해당 레프리젠테이션과 디펜던시 관계 (상호 보완적인 관계)에 있는 레프리젠테이션의 식별자를 나타낸다. @associationId는 해당 레프리젠테이션과 단순히 상호 보완적인 관계가 아닌 디코딩 및/또는 프리젠테이션을 위한 다른 옵션의 참조 관계에 있는 레프리젠테이션의 식별자를 나타낸다. 나아가, @associationId는 해당 레프리젠테이션과 참조 관계에 있는 다른 Adaptationset의 representation의 식별자를 나타낼 수 있다. @associationType은 해당 레프리젠테이션이 @associationId가 식별하는 레프리젠테이션과 어떤 종류의 참조 관계에 있는지를 나타낸다. 본 발명의 일 실시예에 따르면, @associationType이 나타내는 참조 관계의 종류는 4자리 character code로 나타낼 수 있다.
이 도면의 하단을 참조하면, 본 발명의 일 실시예는 레프리젠테이션 엘레먼트는 @associationtype 값으로 "hdre" 값을 가짐으로써 해당 레프리젠테이션과 참조 관계에 있는 레프리젠테이션이 HDR 서비스를 위한 인핸스먼트 레이어에 해당하는 레프리젠테이션임을 나타낼 수 있다.
이 도면의 하단은 시나리오 2에 따른 어댑테이션셋 스키마를 나타낸다. 이 도면의 하단을 참조하면, "avc1.640828" 코덱으로 인코딩된 베이스 비디오와 "hevc.760028" 코덱으로 인코딩된 인핸스먼트 비디오는 서로 다른 어댑테이션셋으로 분류된다.
"avc1.640828" 코덱으로 인코딩된 베이스 비디오에 해당하는 어댑테이션셋을 기술하는 어댑테이션셋 엘레먼트는 레프리젠테이션 엘레먼트를 포함한다. 그리고, 상기 레프리젠테이션 엘레먼트는 @id 값으로 "C2" 값을 갖고, 이 레프리젠테이션에 해당하는 "avc1.640828" 코덱으로 인코딩된 베이스 비디오 를 전송하는 세그먼트는 "segm1HDRbase.mp4"에서 획득할 수 있다.
"hevc.760028" 코덱으로 인코딩된 인핸스먼트 비디오에 해당하는 어댑테이션셋을 기술하는 어댑테이션셋 엘레먼트는 레프리젠테이션 엘레먼트를 포함한다. 그리고, 상기 레프리젠테이션 엘레먼트는 @id 값으로 "C1"을 갖고, @associationId 값으로 "C2"를 가짐으로써 이 레프리젠테이션 엘레먼트가 기술하는 레프리젠테이션이 @id 값으로 "C2"를 갖는 레프리젠테이션과 참조 관계에 있음을 시그널링할 수 있다. 그리고, 상기 레프리젠테이션 엘레먼트는 @associationType 값으로 "hdre" 값을 가짐으로써 이 레프리젠테이션 엘레먼트가 기술하는 레프리젠테이션이 @id 값으로 "C2"를 갖는 레프리젠테이션과의 관계에서 HDR 인핸스먼트 레이어에 해당함을 나타낼 수 있다. 나아가, 상기 레프리젠테이션에 해당하는 "hevc.760028" 코덱으로 인코딩된 인핸스먼트 비디오를 전송하는 세그먼트는 "segm1HDRenhance.mp4"에서 획득할 수 있다.
도 24는 본 발명의 다른 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 MPD를 이용해 시그널링하는 방법을 나타낸 도면이다. (시나리오 31)
본 발명의 다른 일 실시예는 각기 다른 코덱이 사용된 컴포넌트를 레프리젠테이션 (representation)으로 구분하고, MPD의 레프리젠테이션 엘레먼트의 @dependencyId를 이용하여 컴포넌트 사이에 디펜던시 (dependency) 관계가 있음을 시그널링할 수 있고, 레프리젠테이션 엘레먼트 내 @EssentialProperty 또는 @SupplementalProperty를 이용하여 컴포넌트 사이에 어떤 디펜던시 관계가 있는지 시그널링할 수 있다. (시나리오 31)
이 도면의 상단을 참조하면, 본 발명의 일 실시예에 따른 레프리젠테이션 엘레먼트는 @dependencyId 값으로 "tag5" 값을 가짐으로써 해당 레프리젠테이션이 @id 값으로 "tag5"를 갖는 레프리젠테이션과 디펜던시 관계에 있음을 나타낼 수 있다. 또한, 본 발명의 일 실시예는 레프리젠테이션 엘레먼트 내의 @EssentialProperty 또는 @SupplementalProperty 내의 @schemeIdUri 값으로서 "urn:mpeg:dash:hdr_eh:201x" 값을 갖도록 하고, @value 값으로서 "eh1" 값을 갖도록 함으로써 해당 레프리젠테이션이 @id 값으로 "tag5"를 갖는 레프리젠테이션과의 디펜던시 관계에서 HDR 인핸스먼트 레이어에 해당함을 나타낼 수 있다.
이 도면의 하단은 시나리오 31에 따른 레프리젠테이션 엘레먼트 스키마를 나타낸다. 이 도면의 하단을 참조하면, "avc1.4D401E,mp4a.40" 코덱으로 인코딩된 베이스 비디오와 "hevc.56401E" 코덱으로 인코딩된 인핸스먼트 비디오는 서로 다른 레프리젠테이션으로 분류된다.
"avc1.4D401E,mp4a.40" 코덱으로 인코딩된 베이스 비디오에 해당하는 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트는 @id 값으로 "tag5" 값을 갖고, 이 레프리젠테이션에 해당하는 베이스 비디오를 전송하는 세그먼트는 "videoHDR_base.mp4"에서 획득할 수 있다.
"hevc.56401E" 코덱으로 인코딩된 인핸스먼트 비디오에 해당하는 레프리젠테이션 엘레먼트는 @id 값으로 "tag6" 값을 갖고, @dependencyId 값으로 "tag5"를 가짐으로써 이 레프리젠테이션 엘레먼트가 기술하는 레프리젠테이션이 @id 값으로 "tag5"를 갖는 레프리젠테이션과 디펜던시 관계에 있음을 시그널링할 수 있다. 그리고, 상기 레프리젠테이션 엘레먼트 내의 @EssentialProperty 또는 @SupplementalProperty는 @schemeIdUri 값으로서 "urn:mpeg:dash:hdr_eh:201x" 값을 갖고, @value 값으로서 "eh1" 값을 가짐으로써 해당 레프리젠테이션이 @id 값으로 "tag5"를 갖는 레프리젠테이션과의 디펜던시 관계에서 HDR 인핸스먼트 레이어에 해당함을 나타낼 수 있다. 나아가, 상기 레프리젠테이션에 해당하는 인핸스먼트 비디오를 전송하는 세그먼트는 "videopHDR_enhance.mp4"에서 획득할 수 있다.
본 발명의 다른 일 실시예에 따르면, 상술한 @EssentialProperty 또는 @SupplementalProperty는 어트리뷰트에 해당할 수 있고, 엘레먼트에 해당할 수 있다.
도 25는 본 발명의 다른 일 실시예에 따른 역호환성 지원을 위한 HDR 서비스를 MPD를 이용해 시그널링하는 방법을 나타낸 도면이다. (시나리오 32)
본 발명의 다른 일 실시예는 각기 다른 코덱이 사용된 컴포넌트를 레프리젠테이션 (representation)으로 구분하고, MPD의 레프리젠테이션 엘레먼트의 @dependencyId를 이용하여 컴포넌트 사이에 디펜던시 (dependency) 관계가 있음을 시그널링할 수 있고, 레프리젠테이션 엘레먼트 내 @profiles를 이용하여 컴포넌트 사이에 어떤 디펜던시 관계가 있는지 시그널링할 수 있다. (시나리오 32)
이 도면의 상단을 참조하면, 본 발명의 일 실시예에 따른 레프리젠테이션 엘레먼트는 @dependencyId 값으로 "tag5" 값을 가짐으로써 해당 레프리젠테이션이 @id 값으로 "tag5"를 갖는 레프리젠테이션과 디펜던시 관계에 있음을 나타낼 수 있다. 또한, 본 발명의 일 실시예는 레프리젠테이션 엘레먼트 내의 @profiles 값으로서 "urn:mpeg:dash:hdr_eh:201x" 값을 갖도록 함으로써 해당 레프리젠테이션이 @id 값으로 "tag5"를 갖는 레프리젠테이션과의 디펜던시 관계에서 HDR 인핸스먼트 레이어에 해당함을 나타낼 수 있다.
이 도면의 하단은 시나리오 32에 따른 레프리젠테이션 엘레먼트 스키마를 나타낸다. 이 도면의 하단을 참조하면, "avc1.4D401E,mp4a.40" 코덱으로 인코딩된 베이스 비디오와 "hevc.56401E" 코덱으로 인코딩된 인핸스먼트 비디오는 서로 다른 레프리젠테이션으로 분류된다.
"avc1.4D401E,mp4a.40" 코덱으로 인코딩된 베이스 비디오에 해당하는 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트는 @id 값으로 "tag5" 값을 갖고, 이 레프리젠테이션에 해당하는 베이스 비디오를 전송하는 세그먼트는 "videoHDR_base.mp4"에서 획득할 수 있다.
"hevc.56401E" 코덱으로 인코딩된 인핸스먼트 비디오에 해당하는 레프리젠테이션 엘레먼트는 @id 값으로 "tag6" 값을 갖고, @dependencyId 값으로 "tag5"를 가짐으로써 이 레프리젠테이션 엘레먼트가 기술하는 레프리젠테이션이 @id 값으로 "tag5"를 갖는 레프리젠테이션과 디펜던시 관계에 있음을 시그널링할 수 있다. 그리고, 상기 레프리젠테이션 엘레먼트 내의 @profiles는 "urn:mpeg:dash:hdr_eh:201x" 값을 가짐으로써 해당 레프리젠테이션이 @id 값으로 "tag5"를 갖는 레프리젠테이션과의 디펜던시 관계에서 HDR 인핸스먼트 레이어에 해당함을 나타낼 수 있다. 추가적으로, 상기 레프리젠테이션 엘레먼트는 @EssentialProperty 또는 @SupplementalProperty를 포함할 수 있고 이에 대한 설명은 전술하였다.
도 26은 본 발명의 다른 일 실시예에 따른 MPEG DASH 기반의 수신기 구조를 나타낸 도면이다.
본 발명의 일 실시예는 WCG (wide color gamut) 구현을 위하여 DASH MPD 내에 컬러 변환 (color conversion) 정보를 정의한다. 상기 컬러 변환 정보는 매트릭스 계수 (Matrix_coefficient) 정보 및 컬러 리맵핑 (Color remapping) 정보를 포함한다. 본 발명의 일 실시예는 common attribute 및/또는 common elements 내에 컬러 변환 정보를 정의한다. 상기 컬러 리맵핑 정보는 색 공간 변환을 위해 사용될 수 있다. 본 발명의 일 실시예는 컬러 변환 정보를 이용하여 개선된 색 재현이 가능하도록 할 수 있으며, 컬러 변환 정보를 이용하여 개선된 색 재현이 가능한지 여부에 대한 서비스 어나운스먼트 (service announcement)를 사용자에게 제공할 수 있고, 컬러 변환 정보를 통해 디코더 (decoder) 및 렌더러 (renderer)의 버퍼 및 프레임워크 (framework)를 초기화 시킬 수 있다.
본 발명의 일 실시예는 DVB ABR (Adaptive Bit Rate) unicast/multicast 서비스 제공을 위한 DASH MPD 제약 사항 (constraints)을 정의한다. 상기 DASH MPD 제약 사항은 MPD labeling, adaptationset profiling 등을 포함할 수 있다.
이 도면을 참조하면, 본 발명의 일 실시예에 따른 수신기는 MPD를 요청하여 수신하고 수신한 MPD의 디스크립션 (description)을 기초로 디바이스의 수신 능력, 네트워크 컨디션 (condition) 및/또는 사용자 선택을 고려하여 세그먼트 URL을 선택하여 획득한다. unicast 환경에서, 수신기는 선택된 세그먼트 URL을 CDN (Contents Delivery Network) 서버에 요청하여 수신할 수 있고, multicast 또는 broadcast 환경에서, 수신기는 수신가능한 세그먼트 URL을 수신할 수 있다. 수신기는 수신한 세그먼트를 MPD에 기술된 계층적 단위에 따라 분류하고 버퍼에 저장한다. 수신기는 MPD의 컬러 변환 정보에 따라 미디어 데이터를 디코딩하고 렌더링한다. MPD 파서로부터 파싱된 컬러 변환 정보는 미디어 디코더 및/또는 렌더러에 전달되어 디코더 및/또는 렌더러를 초기화할 수 있다.
본 발명의 일 실시예는 향상된 실감형 서비스 기술인 HDR 및/또는 WCG를 위한 profile을 MPD 내에 기술함으로써 decoding 이후 post processing시 버퍼 및 모듈의 초기화가 가능하도록 하고, 실감형 콘텐츠 제공 가능 여부에 대한 service announce를 제공할 수 있다.
본 발명의 일 실시예에 따른 매트릭스 계수 (matrix_coefficient) 정보는 특정 계수 행렬을 통해 RGB로부터 변환된 루마 (luma) 신호 및 크로마 (chroma) 신호를 primary X,Y 또는 X,Y,Z의 배열로 변환하는 정보를 나타내고, 매트릭스 계수 정보는 후술할 특정 테이블을 통해 수신기로 제공된다.
본 발명의 일 실시예에 따른 컬러 리맵핑 정보 (Color remapping Information)는 인풋 비디오의 컬러 개멋 (color gamut)을 디스플레이의 성능에 적합한 컬러 개멋으로 재구성하기 위해 필요한 정보를 나타내고, 컬러 리맵핑 정보는 보다 최적화된 컬러 변환을 가능하도록 할 수 있고 보다 최적화된 컬러 변환이 가능한지 여부를 알려줄 수 있다. 본 발명의 일 실시예에 따른 수신기는 컬러 리맵핑 정보를 이용하여 리니어 (linear) 데이터에 대하여 pre 1D LUT (Look Up Table), matrix 및/또는 post 1D LUT 과정을 수행하여 데이터의 chroma 성분 및 luma 성분을 디스플레이에 최적화된 값을 갖도록 변환할 수 있다. (예를 들어, BT.2020 ■BT.709)
본 발명의 일 실시예에 따른 DVB DASH 제약 사항 (constraints)은 MPEGDASH의 MPD attribute에서 DVB DASH가 정의한 제약 사항으로서, UHD1 phase 2기술을 제공하기 위해 필요한 제약 사항이다.
도 27은 본 발명의 일 실시예에 따른 컬러 변환 과정을 나타낸 도면이다.
본 발명의 일 실시예에 따른 수신기는 MPD 내의 컬러 변환 정보를 이용하여 디코더 및 렌더러를 초기화한 다음, 컬러 변환 과정을 수행한다.
본 발명의 일 실시예에 따른 수신기는 매트릭스 계수 정보를 이용하여 렌더링 과정을 거친 리니어 데이터의 크로마 성분 및 루마 성분을 X,Y (2차원) 또는 X,Y,Z (3차원) 좌표로 변환하고, 매트릭스 정보를 통해 색 공간을 정의하기 위한 기본 컬러 개멋을 지정할 수 있다.
본 발명의 일 실시예는 매트릭스 계수 정보를 포함하는 컬러 변환 정보를 시스템 레벨에서 정의함으로써 컬러 변환을 위한 수신기 동작의 초기화와 컬러의 표현 범위를 시스템레벨에서 어나운스할 수 있다.
도 28은 본 발명의 일 실시예에 따른 매트릭스 계수 정보를 나타낸 도면이다.
본 발명의 일 실시예에 따른 매트릭스 계수 정보는 이 도면에 도시된 바와 같이 0 내지 13의 값을 가질 수 있다.
도 29는 본 발명의 일 실시예에 따른 MPD 내에 정의된 매트릭스 계수 정보를 나타낸다.
본 발명의 일 실시예에 따른 매트릭스 계수 정보는 EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터를 통해 시그널링될 수 있다. 이 때, EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터는 XML의 엘레먼트 또는 어트리뷰트에 해당할 수 있다.
본 발명의 일 실시예에 따르면, 매트릭스 계수 정보를 포함하는 EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터는 어댑테이션셋 내의 모든 레프리젠테이션이 매트릭스 계수 정보를 제공하는 경우 어댑테이션셋 엘레먼트에 포함될 수 있다. 어댑테이션셋 내의 모든 레프리젠테이션이 매트릭스 계수 정보를 제공하지 않는 경우 매트릭스 계수 정보를 포함하는 EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터는 각 레프리젠테이션 엘레먼트 또는 각 서브 레프리젠테이션 엘레먼트에 포함될 수 있다.
본 발명의 일 실시예에 따르면, 매트릭스 계수 정보를 포함하는 EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터는 @schemeIdUri 값으로 "urn:mpeg:dvb_dash:MatrixCoefficients :201x" 값을 갖고, @value 값으로 이전 도면에서 전술한 매트릭스 계수 정보를 나타내는 0 내지 13의 값을 가질 수 있다.
이 도면의 상단을 참조하면, 매트릭스 계수 정보를 포함하는 EssentialProperty 디스크립터는 @schemeIdUri 값으로 "urn:mpeg:dvb_dash:MatrixCoefficients :201x" 값을 갖고, @value 값으로 "1" 값을 가질 수 있다.
이 도면의 하단을 참조하면, ssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터의 @value 값으로 표현되는 매트릭스 계수 정보는 RGB 또는 XYZ pramaries (3원색)으로부터 루마 신호 및 크로마 신호를 얻기 위해 사용된 매트릭스 계수를 기술한다.
도 30은 본 발명의 일 실시예에 따른 컬러 리맵핑 과정을 나타낸 도면이다.
본 발명의 일 실시예에 따른 수신기는 MPD의 컬러 변환 정보를 이용하여 디코더 및 렌더러를 초기화한 후 컬러 리맵핑 정보를 포함하는 컬러 변환 정보를 이용하여 컬러 리맵핑 과정을 수행할 수 있다.
본 발명의 일 실시예에 따른 수신기는 멀티캐스트 또는 브로드캐스트 서비스가 제공될 때, 컨테이너 컬러 개멋을 수신기가 지원하지 못하는 경우 컬러 리맵핑 과정을 수행함으로써 비디오의 컬러 개멋을 수신기에 적합한 컬러 개멋으로 변환하고 변환된 비디오를 디스플레이할 수 있다.
이 도면을 참조하면, 본 발명의 일 실시예에 따르면, 컨테이너 컬러 개멋을 디스플레이 디바이스가 지원할 수 있는 컬러 개멋으로 변환하는 과정인 컬러 리맵핑 과정은 3가지 과정을 포함한다. 컨테이너 컬러 개멋은 콘텐츠를 전송하는 컨테이너의 컬러 개멋을 나타낸다. 즉, 콘텐츠를 전송하기 위해서는 콘텐츠의 컬러 개멋을 전송 포맷의 컬러 개멋으로 변환해야하는데, 이 때 전송 포맷의 컬러 개멋이 컨테이너의 컬러 개멋을 나타낸다. 본 발명의 일 실시예에 따른 컬러 리맵핑 과정은 프리 매트릭스 톤 맵핑 과정 (prematrix tone mapping), 컬러 리맵핑 매트릭스 과정 (color remapping matix) 및/또는 포스트 매트릭스 톤 맵핑 과정 (postmatrix tone mapping)을 포함한다. 프리 매트릭스 톤 맵핑 과정은 표준 (예를 들어, ST20941)에 정의된 3가지 샘플링된 함수들을 이용하여 수행된다. 이 때, 이 함수들은 컬러 컴포넌트 값을 입력 받아 컬러 컴포넌트 값을 출력한다. 프리 매트릭스 톤 맵핑 과정은 1D LUT (1 dimension look up table)를 사용할 수 있다. 컬러 리맵핑 매트릭스 과정은 표준 (예를 들어, ST20941)에 정의된 매트릭스를 이용하여 수행된다. 이 때, 이 매트릭스에 사용되는 엘레먼트는 4부터 4까지의 값을 가질 수 있다. 포스트 매트릭스 톤 맵핑 과정은 표준 (예를 들어, ST20941)에 정의된 3가지 샘플링된 함수들을 이용하여 수행된다. 이 때, 이 함수들은 컬러 컴포넌트 값을 입력 받아 컬러 컴포넌트 값을 출력한다. 프리 매트릭스 톤 맵핑 과정은 1D LUT (1 dimension look up table)를 사용할 수 있다.
본 발명의 일 실시예는 상기 3가지 과정을 통하여 보다 효율적이고, 손실을 최소화하는 컬러 변환 과정을 수행할 수 있다. 본 발명의 일 실시예에 따른 방송 시스템은 컬러 리맵핑 과정에 사용되는 컬러 리맵핑 정보를 시스템 레벨에 정의함으로써 컬러 리맵핑 과정에 대한 설명, 컬러 리맵핑 과정의 적용 여부, Full range인지 legal range인지 여부 (TV가 가지는 dynamic range를 표현하기 위한 bit수가 할당된다. 이 때 상기 비트에 따른 luma range를 Full로 사용할 것인 것 legal로 사용하여, TV 자체 내에서 saturation이 생겨 색이 번지지 않도록 할 지 TV 자체 내의 선택 또는 스트림의 특성을 타고 결정될 수 있다.), 컬러 리맵핑 과정을 위한 매트릭스, 변환 특성 (transfer characteristic), color primaries 등을 시그널링할 수 있다. 본 발명의 일 실시예에 따른 수신기는 상술한 정보들을 포함하는 컬러 리맵핑 정보를 이용하여 컬러 리맵핑이 필요한 디바이스가 보다 개선된 컬러를 표현하도록 하기 위하여 컬러 변환 과정을 수행할 수 있다. 본 발명의 일 실시예에 따른 방송 시스템은 컬러 리맵핑 정보를 MPD 내에 정의함으로써 디스플레이 디바이스의 컬러 표현 범위를 시스템 어나운스할 수 있고, 디코더 및 렌더러의 동작을 초기화할 수 있다. 구체적으로, CRI (colour remapping information)가 있다면, SDR TV는 비디오 SEI 에 있는 CRI 정보를 통해 SDR로 볼 수 있는 디코더 및 랜더러 초기화를 진행하고, HDR TV의 경우 HDR의 스트림의 정보에 따라 디코딩, 랜더링 초기화를 진행할 수 있다.
도 31은 본 발명의 일 실시예에 따른 MPD 내에 정의된 컬러 리맵핑 정보를 나타낸다.
본 발명의 일 실시예에 따른 컬러 리맵핑 정보는 EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터를 통해 시그널링될 수 있다. 이 때, EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터는 XML의 엘레먼트 또는 어트리뷰트에 해당할 수 있다.
본 발명의 일 실시예에 따르면, 컬러 리맵핑 정보를 포함하는 EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터는 어댑테이션셋 내의 모든 레프리젠테이션이 매트릭스 계수 정보를 제공하는 경우 어댑테이션셋 엘레먼트에 포함될 수 있다. 어댑테이션셋 내의 모든 레프리젠테이션이 컬러 리맵핑 정보를 제공하지 않는 경우 컬러 리맵핑 정보를 포함하는 EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터는 각 레프리젠테이션 엘레먼트 또는 각 서브 레프리젠테이션 엘레먼트에 포함될 수 있다.
본 발명의 일 실시예에 따르면, 컬러 리맵핑 정보를 포함하는 EssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터는 @schemeIdUri 값으로 "urn:mpeg:dvb_dash:Matrixcolor remapping info :201x" 값을 갖고, @value 값을 이용해 컬러 리맵핑 식별 정보 및 컬러 리맵핑 플래그 정보를 나타낼 수 있다.
이 도면의 상단을 참조하면, 컬러 리맵핑 정보를 포함하는 EssentialProperty 디스크립터는 @schemeIdUri 값으로 "urn:mpeg:dvb_dash:color_remapping_informaiton :201x" 값을 갖고, @value 값으로 "1,1" 값을 가질 수 있다.
이 도면의 하단을 참조하면, ssentialProperty 디스크립터 또는 SupplementaryProperty 디스크립터의 @value 값으로 표현되는 컬러 리맵핑 정보는 컬러 리맵핑 식별 정보 (colour_remap_id) 및/또는 컬러 리맵핑 플래그 정보 (colour_remap_cancel)를 포함한다. 컬러 리맵핑 식별 정보는 컬러 리맵핑 정보를 확인하는 목적으로 사용된다. 컬러 리맵핑 식별 정보는 컬러 리맵핑 과정을 식별하는 정보로 사용될 수 있고, 수신기는 컬러 리맵핑 식별 정보를 이용하여 수신기에서 해당 컬러 리맵핑 과정을 수행할 수 있는지 여부를 확인할 수 있다. 컬러 리맵핑 식별 정보는 수신기에서 지원 가능한 컬러 리맵핑 과정을 식별한다. 컬러 리맵핑 식별 정보는 수신기에서 지원할 수 있는 컬러 리맵핑 과정에 필요한 컬러 리맵핑 정보를 식별한다. 본 발명의 일 실시예에 따른 방송 시스템은 컬러 리맵핑 식별 정보를 통하여 컬러 리맵핑 과정이 제공될 수 있음을 어나운스할 수 있다. 컬러 리맵핑 식별 정보는 시스템 레벨인 MPD 내에 정의되므로 수신기는 지원 가능한 컬러 리맵핑 정보를 시스템 레벨에서 확인할 수 있다. 본 발명의 일 실시예에 따르면, 컬러 리맵핑 식별 정보가 나타내는 값 0은 수신기에서 컬러 리맵핑 과정이 적용되지 않음을 나타내고, 1은 수신기에서 BT.2020 또는 BT.709에 따른 컬러 리맵핑 정보를 지원함을 나타내고, 2는 수신기에서 BT.2020 또는 p3에 따른 컬러 리맵핑 정보를 지원함을 나타낸다. 본 발명의 일 실시예에 따르면, 컬러 리맵핑 플래그 정보는 colour_remap_cancel_flag 정보를 통해 현재 랜더링에 사용할 color conversion에서 적용할 remapping 과정에 적용, 미적용여부를 확인 할 수 있다. 본 정보를 통해 remapping 추가 정보의 유무를 sequence 단에 확인 할 수 있다. 즉, 본 발명의 일 실시예는 컬러 리맵핑 정보를 MPD의 레프리젠테이션 엘레먼트 내에 정의할 수 있다. 이로써, SDR/HDR 모든 단말에 컬러 리맵핑 정보를 적용할 수 있다.
도 32는 DASH MPD 내 CRI (color remapping information) 기반 HDR signaling 을 구성하는 실시예이다.
현재 HLG는 BT2020(DVB UHD phase1)에 대한 역호환성을 가능하게 하는 반면, CRI는 709 color 범위까지 표현이 가능하다. 즉, HLG가 더 넓은 컬러 범위를 커버하고 있다.
본 발명의 일 실시예는 비트스트림 내 HDR을 구성할 수 있는 metadata를 포함하는 CRI를 통해 SDR의 비트 스트림을 HDR의 스트림으로 변환할 수 있다. 따라서, CRI가 포함된 비트 스트림은 모든 수신기 디코더에 호환이 될 수 있다.
이 도면을 참조하면, Case 1과 같이 2017의 profile을 갖는 HDR 수신기는 Essential property를 통해 HDR 시그널링을 하여 HDR의 디코딩을 가능하게 하고, Case 2와 같이 2014의 profile을 갖는 SDR (709) 수신기는 Supplemental propery를 통해 역호환성을 보장받을 수 있다. 2014의 profile을 갖는 수신기는 Essential property의 HDR 시그널링을 수신 할 수 없으므로, Supplemental property를 통하여 CRI의 포함 여부에 대한 정보를 획득할 수 있다.
도 33은 본 발명의 일 실시예에 따른 DVB DASH 제약 사항을 설명한 도면이다.
본 발명의 일 실시예에 따른 MPD는 @profile, 어댑테이션셋 엘레먼트 및/또는 common attributes and elements를 포함한다. 본 발명의 일 실시예는 MPD의 라벨링 (labeling)을 통해서 SD, HD, DVB Phase1, DVB Phase2 등의 서비스를 시그널링할 수 있고 이를 이용하여 해당 서비스를 획득할 수 있다. 본 발명의 일 실시예는 MPD 내의 @profile 값을 "urn:dvb:dash:profile:dvbdash"으로 정함으로써 기존 DASH 서비스를 시그널링할 수 있고, "urn:dvb:dash:profile:dvbphase1"으로 정함으로써 DVB Phase1 서비스를 시그널링할 수 있고, "urn:dvb:dash:profile:dvbphase2"으로 정함으로써 DVB Phase2 서비스를 시그널링할 수 있다.
본 발명의 일 실시예에 따른 어댑테이션셋 엘레먼트는 common attrubutes and elements를 포함하고, common attrubutes and elements는 EssentialProperty 디스크립터 및/또는 SuplementalProperty 디스크립터를 포함한다. 여기서, 디스크립터는 XML의 엘레먼트 또는 어트리뷰트에 해당할 수 있다. MPD의 어댑테이션셋 엘레먼트 내에 포함되는 common attrubutes and elements는 @profile, @framerate 및/또는 @codec을 포함한다. 본 발명의 일 실시예는 common attrubutes and elements를 이용하여 HDR의 기술 카테고리, 코덱, 프레임레이트, 마임 타입 등을 정의할 수 있고 이를 이용하여 해당 서비스를 획득할 수 있다. 본 발명의 일 실시예는 어댑테이션셋 엘레먼트 내에 정의되는 @profile 값을 "urn:dvb:dash:profile:dvbdash#HDR_tech"으로 정함으로써 해당 어댑테이션셋이 HDR 기술에 해당함을 시그널링할 수 있고, @framerate 값을 정의함으로써 해당 어댑테이션셋이 나타내는 비디오의 최대 프레임레이트 (HFR)를 시그널링할 수 있고, @codec 값을 정의함으로써 해당 어댑테이션셋이 나타내는 비디오가 지원하는 코덱을 시그널링할 수 있다.
도 34는 본 발명의 일 실시예에 따른 하이브리드 방송 수신 장치를 나타낸 도면이다.
하이브리드 방송 시스템은 지상파 방송망 및 인터넷 망을 연동하여 방송 신호를 송신할 수 있다. 하이브리드 방송 수신 장치는 지상파 방송망 (브로드캐스트) 및 인터넷 망 (브로드밴드)을 통해 방송 신호를 수신할 수 있다. 하이브리드 방송 수신 장치는 피지컬 레이어 모듈, 피지컬 레이어 I/F 모듈, 서비스/컨텐트 획득 컨트롤러, 인터넷 억세스 제어 모듈, 시그널링 디코더, 서비스 시그널링 매니저, 서비스 가이드 매니저, 어플리케이션 시그널링 매니저, 경보 신호 매니저, 경보 신호 파서, 타겟팅 신호 파서, 스트리밍 미디어 엔진, 비실시간 파일 프로세서, 컴포넌트 싱크로나이저, 타겟팅 프로세서, 어플리케이션 프로세서, A/V 프로세서, 디바이스 매니저, 데이터 셰어링 및 커뮤니케이션 유닛, 재분배 모듈, 컴패니언 디바이스 및/또는 외부 모듈들을 포함할 수 있다.
피지컬 레이어 모듈 (Physical Layer Module(s))은 지상파 방송 채널을 통하여 방송 관련 신호를 수신 및 처리하고 이를 적절한 형태로 변환하여 피지컬 레이어 I/F 모듈로 전달할 수 있다.
피지컬 레이어 I/F 모듈 (Physical Layer I/F Module(s))은 Physical layer Module로 부터 획득된 정보로부터 IP 데이터 그램을 획득할 수 있다. 또한, 피지컬 레이어 I/F 모듈은 획득된 IP 데이터그램 등을 특정 프레임(예를 들어 RS Frame, GSE 등) 으로 변환할 수 있다.
서비스/컨텐트 획득 컨트롤러 (Service/Content Acquisition Controller)는 broadcast 및/또는 broadband 채널을 통한 서비스, 콘텐츠 및 이와 관련된 시그널링 데이터 획득을 위한 제어 동작을 수행할 수 있다.
인터넷 억세스 제어 모듈(Internet Access Control Module(s))은 Broadband 채널을 통하여 서비스, 콘텐츠 등을 획득하기 위한 수신기 동작을 제어할 수 있다.
시그널링 디코더 (Signaling Decoder)는 broadcast 채널 등을 통하여 획득한 시그널링 정보를 디코딩할 수 있다.
서비스 시그널링 매니저 (Service Signaling Manager)는 IP 데이터 그램 등으로부터 서비스 스캔 및 서비스/콘텐츠 등과 관련된 시그널링 정보 추출, 파싱 및 관리할 수 있다.
서비스 가이드 매니저 (Service Guide Manager)는 IP 데이터 그램 등으로 부터 announcement 정보를 추출하고 SG(Service Guide) database 관리하며, service guide를 제공할 수 있다.
어플리케이션 시그널링 매니저 (App Signaling Manager)는 IP 데이터 그램 등으로 부터 애플리케이션 획득 등과 관련된 시그널링 정보 추출, 파싱 및 관리할 수 있다.
경보 신호 파서 (Alert Signaling Parser)는 IP 데이터 그램 등으로 부터 alerting 관련된 시그널링 정보 추출 및 파싱, 관리할 수 있다.
타겟팅 신호 파서 (Targeting Signaling Parser)는 IP 데이터 그램 등으로 부터 서비스/콘텐츠 개인화 혹은 타겟팅 관련된 시그널링 정보 추출 및 파싱, 관리할 수 있다. 또한 타겟팅 신호 파서는 파싱된 시그널링 정보를 타겟팅 프로세서로 전달할 수 있다.
스트리밍 미디어 엔진 (Streaming Media Engine)은 IP 데이터그램 등으로 부터 A/V 스트리밍을 위한 오디오/비디오 데이터 추출 및 디코딩할 수 있다.
비실시간 파일 프로세서 (Nonreal time File Processor)는 IP 데이터그램 등으로 부터 NRT 데이터 및 application 등 파일 형태 데이터 추출 및 디코딩, 관리할 수 있다.
컴포넌트 싱크로나이저 (Component Synchronizer)는 스트리밍 오디오/비디오 데이터 및 NRT 데이터 등의 콘텐츠 및 서비스를 동기화할 수 있다.
타겟팅 프로세서 (Targeting Processor)는 타겟팅 신호 파서로부터 수신한 타겟팅 시그널링 데이터에 기초하여 서비스/콘텐츠의 개인화 관련 연산을 처리할 수 있다.
어플리케이션 프로세서 (App Processor)는 application 관련 정보 및 다운로드 된 application 상태 및 디스플레이 파라미터 처리할 수 있다.
A/V 프로세서 (A/V Processor)는 디코딩된 audio 및 video data, application 데이터 등을 기반으로 오디오/비디오 랜더링 관련 동작을 수행할 수 있다.
디바이스 매니저 (Device Manager)는 외부 장치와의 연결 및 데이터 교환 동작을 수행할 수 있다. 또한 디바이스 매니저는 연동 가능한 외부 장치의 추가/삭제/갱신 등 외부 장치에 대한 관리 동작을 수행할 수 있다.
데이터 셰어링 및 커뮤니케이션 유닛 (Data Sharing & Comm.)은 하이브리드 방송 수신기와 외부 장치 간의 데이터 전송 및 교환에 관련된 정보를 처리할 수 있다. 여기서, 전송 및 교환 가능한 데이터는 시그널링, A/V 데이터 등이 될 수 있다.
재분배 모듈 (Redistribution Module(s))은 방송 수신기가 지상파 방송 신호를 직접 수신 하지 못하는 경우 차세대 방송 서비스 및 콘텐츠에 대한 관련 정보를 획득할 수 있다. 또한 재분배 모듈은 방송 수신기가 지상파 방송 신호를 직접 수신 하지 못하는 경우 차세대 방송 시스템에 의한 방송 서비스 및 콘텐츠 획득을 지원할 수 있다.
컴패니언 디바이스 (Companion device(s))는 본 발명의 방송 수신기에 연결되어 오디오, 비디오, 또는 시그널링 포함데이터를 공유할 수 있다. 컴패니언 디바이스는 방송 수신기와 연결된 외부 장치를 지칭할 수 있다.
외부 모듈 (External Management)는 방송 서비스/콘텐츠 제공을 위한 모듈을 지칭할 수 있으며 예를들어 차세대 방송 서비스/컨텐츠 서버가 될 수 있다. 외부 모듈은 방송 수신기와 연결된 외부 장치를 지칭할 수 있다.
도 35는 본 발명의 일 실시예에 따른 수신기의 블락 다이어그램을 도시한 도면이다.
도시된 실시예에 따른 수신기는 튜너 (Tuner), 피지컬 레이어 컨트롤러 (Physical Layer Controller), 피지컬 프레임 파서 (Physical Frame Parser), 링크 레이어 프레임 프로세서 (Link Layer Frame Processor), IP/UDP 데이터그램 필터 (IP/UDP Datagram Filter), DTV 컨트롤 엔진 (DTV Control Engine), ROUTE 클라이언트 (Route Client), 세그먼트 버퍼 컨트롤 (Segment Buffer Control), MMT 클라이언트 (MMT Client), MPU 리컨트스럭션 (MPU reconstruction), 미디어 프로세서 (Media Processor), 시그널링 파서 (Signaling Parser), DASH 클라이언트 (DASH Client), ISO BMFF 파서 (ISO BMFF Parser), 미디어 디코더 (Media Decoder) 및/또는 HTTP 억세스 클라이언트 (HTTP Access Client) 를 포함할 수 있다. 수신기의 각 세부 블락(block)들은 하드웨어인 프로세서일 수 있다.
Tuner는 지상파 방송 채널을 통하여 방송 신호를 수신 및 처리하고 이를 적절한 형태 (Physical Frame 등)로 변환할 수 있다. Physical Layer Controller는 수신하고자 하는 방송 채널의 RF 정보 등을 이용하여 Tuner, Physical Frame Parser 등의 동작을 제어할 수 있다. Physical Frame Parser는 수신된 Physical Frame을 파싱하고 이와 관련된 프로세싱을 통하여 Link Layer Frame 등을 획득할 수 있다.
Link Layer Frame Processor는 Link Layer Frame으로 부터 Link Layer signaling 등을 획득하거나 IP/UDP 데이터그램 획득하고 관련된 연산을 수행할 수 있다. IP/UDP Datagram Filter는 수신된 IP/UDP 데이터 그램들로부터 특정 IP/UDP 데이터 그램을 필터링할 수 있다. DTV Control Engine은 각 구성 간의 인터페이스를 담당하며 파라미터 등의 전달을 통해 각 구성의 동작을 제어할 수 있다.
Route Client는 실시간 오브젝트 전송을 지원하는 ROUTE (RealTime Object Delivery over Unidirectional Transport) 패킷을 처리하고 여러 패킷들을 수집 및 처리하여 하나 이상의 ISOBMFF (ISO Base Media File Format) 오브젝트를 생성할 수 있다. Segment Buffer Control는 Route Client와 Dash Client 간의 세그먼트 (segment) 전송 관련한 버퍼를 제어할 수 있다.
MMT Client는 실시간 오브젝트 전송을 지원하는 MMT (MPEG Media Transport) 전송 프로토콜 패킷을 처리하고 여러 패킷을 수집 및 처리할 수 있다. MPU reconstruction는 MMTP 패킷으로부터 MPU (Media Processing Unit)을 재구성할 수 있다. Media Processor는 재구성된 MPU를 수집하고 처리할 수 있다.
Signaling Parser는 DTV 방송 서비스 관련 시그널링 (Link Layer/ Service Layer Signaling) 획득 및 파싱하고 이를 기반으로 채널 맵 등을 생성 및/또는 관리할 수 있다. 이 구성은 로우 레벨 시그널링, 서비스 레벨 시그널링을 처리할 수 있다.
DASH Client는 실시간 스트리밍 혹은 적응적 스트리밍 관련 연산 및 획득된 DASH Segment 등을 처리할 수 있다. ISO BMFF Parser는 ISO BMFF 오브젝트로부터 오디오/비디오의 데이터 및 관련 파라미터 등을 추출할 수 있다. Media Decoder는 수신된 audio 및 video data를 decoding 및/또는 presentation 처리할 수 있다. HTTP Access Client는 HTTP 서버로부터 특정 정보를 요청하고 요청에 대한 응답을 처리할 수 있다.
도 36은 본 발명의 일 실시예에 따른 방송 송수신 시스템의 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 콘텐츠 제작과 콘텐츠 전송이 분리되어 있고, 지상파 방송국은 각 지역의 broadcast 기지국을 통해 방송 서비스를 전송하고, 유료 방송의 경우 MVPD가 방송 서비스를 전송한다. 현재 MVPD 사업자는 성장을 거듭하여 지상파 콘텐츠 재전송에 국한 되지 않고, OTT, IPTV 등으로 확대되어 방송 서비스의 대부분을 차지하는 전송 사업자로 자리잡고 있다. MVPD는 콘텐츠 사업자를 통해 받은 콘텐츠에 watermark 삽입, ad inserting, apppackaging 등의 repackaging 또는 transcoding 을 수행하여 target 되는 device에 전송하는 형태로 콘텐츠를 전달한다.
MVPD를 통해, ATSC 3.0 서비스를 제공하는 경우, 콘텐츠는 특정 processing을 통해 수신 가능한 스트림으로 변환된 후 전송된다. ATSC 3.0 스트림은 역호환성을 고려하지 않은 스트림이므로 ATSC 3.0 수신기는 문제없이 ATSC 3.0 스트림을 수신할 수 있지만, 기존의 legacy TV (ATSC 1.0)는 ATSC 3.0 스트림를 수신할 수 없다. MVPD는 기존 TV가 ATSC 3.0 스트림을 수신할 수 있도록 ATSC 3.0 스트림을 변환할 수 있다.
현재 ATSC 3.0 MVPD 관련 표준화 그룹에서는 역호환성을 지원하지 않는 ATSC 3.0 스트림을 legacy TV에서 수신이 가능한 스트림으로 변환하기 위한 기술을 논의하고 있다. 본 발명의 일 실시예는 ATSC 3.0 스트림의 UHD 콘텐츠를 위한 attribute들을 ATSC 1.0 스트림 내의 정보들로 변환함으로써, 기존의 수신기가 UHD 콘텐츠를 렌더링하도록 할 수 있다. 본 발명의 일 실시예는 ATSC 3.0 스트림을 ATSC 1.0 스트림으로 변환하는 과정에서 필수적인 필드 또는 attribute를 지정함으로써 변환을 용이하도록 할 수 있다. 본 발명의 일 실시예에 따르면, MVPD도 ATSC 3.0 스트림을 ATSC 1.0 스트림으로 변환하는 방법을 사용함으로써 표준으로 정해진 정확한 트랜스코딩을 통해 스트림을 변환하여 ATSC 3.0 방송 서비스를 제공할 수 있다. 나아가, 상기 트랜스코딩을 수행하는 장치를 제공할 수 있다.
도 37은 ATSC 3.0 스트림을 ATSC 1.0 스트림으로 변환하는 실시예를 나타낸 도면이다.
이 도면을 참조하면, 본 발명의 일 실시예에 따른 MVPD는 ATSC 3.0 스트림을 수신하여 이를 ATSC 1.0 스트림으로 변환할 수 있다.
본 발명의 일 실시예에 따르면, Physical Frame Parser는 ATSC 3.0 스트림을 수신하여 ATSC 3.0 스트림에 포함된 피지컬 프레임을 처리하고 링크 레이어 프레임을 파싱한다. Link Layer Frame Processor는 링크 레이어 프레임을 처리하여 IP/UDP 데이터그램을 파싱한다. IP/UDP Diagram Filter는 IP/UDP 데이터 그램을 처리하여 원하는 데이터를 포함하는 ALC/LCT 패킷을 파싱한다. ALC/LCT Client는 ALC/LCT 패킷을 처리하여 오브젝트 및/또는 시그널링 정보를 파싱한다. Signaling decoder는 시그널링 정보로부터 ATSC 3.0 서비스를 식별하는 정보를 포함하는 USBD, ATSC 3.0 서비스의 전송 정보를 기술하는 STSID 및/또는 ATSC 3.0 서비스의 콘텐트 컴포넌트를 정의하는 DASH MPD를 파싱한다. Object buffer는 파싱된 오브젝트를 저장하였다고 ISOBMFF 파서로 전달한다. ISOBMFF 파서는 오브젝트로부터 비디오 ES 및 오디오 ES를 파싱하여 ES 버퍼로 전달한다.
본 발명의 다른 일 실시예에 따르면 콘텐츠는 파일 형태로도 수신하여 처리가 가능하고, 파일 형태의 콘텐츠가 수신되면 ISOMBFF Parser 및 Signaling decoder에서 파일 형태의 콘텐츠 및 시그널링 정보를 처리한다.
본 발명의 일 실시예에 따른 MVPD는 스트림 변환 프로세서 (L36010)를 포함하고, 스트림 변환 프로세서는 video format converter, audio format converter, service signaling transcoder 및/또는 delivery protocol generator를 포함한다. 본 발명의 일 실시예에 따른 service signaling transcoder는 서비스 정보 및/또는 콘텐츠 정보를 기술하는 필수 시그널링 정보 (서비스 정보)를 참조하여 signaling decoder로부터 수신한 시그널링 정보를 변환 (transcoding)한다. video format converter는 비디오의 포맷을 변환하고, audio format converter는 오디오의 포맷을 변환한다. 변환된 비디오, 오디오 및/또는 시그널링 정보는 delivery protocol genenrator에 입력된다. delivery protocol generator는 입력된 비디오, 오디오 및/또는 시그널링 정보를 목표로 하는 전송 형태에 따라 IPTV, OTT, DTT 등의 형태로 전송 프로토콜을 변환하여 전송한다.
도 38은 본 발명의 일 실시예에 따른 MPEG DASH MPD의 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, UHD HDR 콘텐츠를 이상적으로 디스플레이하기 위해서는 콘텐츠의 RGB를 처리하여 최적의 크로마 성분과 루미넌스 (루마) 성분의 조합으로 콘텐츠를 렌더링해야 한다. 이를 위하여, 전송측은 콘텐츠의 대한 색도 (Chromaticity) 정보를 정의할 수 있고, 색도 정보는 colour_primaries, transfer_characteristics 및/또는 matrix_coefficients를 포함한다. 여기서, 색도는 색상과 채도를 포함하는 개념이다.
이 도면을 참조하면, ATSC 3.0 시스템에서는 MPD (Media Presentation Description)의 manifest 파일 내 어텝테이션셋 엘레먼트에서 콘텐츠 컨포넌트의 속성을 정의할 수 있다.
본 발명의 일 실시예에 따르면, 영상의 밝기 레벨을 현재 SDR (strandard dynamic range) TV보다 높은 HDR (high dynamic range)을 구성할 수 있는 HDR 기술을 정의하고 있고, 이러한 HDR 기술은 PQ (perceptual quantizer) 기술과 HLG (hybrid log gamma) 기술을 포함한다. 본 발명의 일 실시예는 PQ 기술 및/또는 HLG 기술의 속성을 MPD 내의 어댑테이션셋 엘레먼트에 기술함으로써 HDR 콘텐츠를 수신 및 디스플레이할 수 있는 수신기가 HDR 콘텐츠의 비디오 컴포넌트를 전송하는 DASH 세그먼트를 수신할 수 있다.
본 발명의 일 실시예에 따르면, EssentialProperty 디스크립터 및 SupplementalProperty 디스크립터는 @schemeUri 및 @value 값으로 정의된다. @schemeUri 및 @value는 식별 문자열 (string) 및 CICP (Codec Independent Code Points) 형태로 기술될 수 있다.
본 발명의 일 실시예는 colour_primaries 정보를 통해 UHD HDR 비디오의 색 재현 범위 (color primaries)를 기술할 수 있다. 여기서, 색 재현 범위는 컬러 개멋 (color gamut)과 동일한 의미를 나타낸다. 본 발명의 일 실시예는 matrix_coefficients 정보를 통해 UHD HDR 비디오의 색상 (컬러)을 표현할 매트릭스 계수를 기술할 수 있다. 본 발명의 일 실시예는 transfer_characteristics 정보를 통해 UHD HDR 비디오에 적용된 OETF 또는 EOTF를 기술할 수 있고, 이를 통해 수신단은 송신단의 렌더링 목적을 반영한 디코딩 및 렌더링을 수행할 수 있다. 본 발명의 일 실시예에 따르면, colour_primaries 정보, transfer_characteristics 정보 및/또는 matrix_coefficients 정보는 MPD의 어댑테이션 엘레먼트 내에 정의될 수 있고, 수신기는 이 정보들을 이용하여 수신기가 이 정보들이 기술하는 콘텐츠를 디코딩 및/또는 렌더링할 수 있는지 식별할 수 있고, 디코딩 및/또는 렌더링이 가능한 경우 콘텐츠를 소비할 수 있다.
도 39는 본 발명의 일 실시예에 따른 HDR 서비스 제공을 위한 EssentialProperty 디스크립터의 @shemeIdUri 값을 나타낸 도면이다.
본 발명의 일 실시예에 따르면, HDR 비디오의 색 재현 범위는 @schemeIdUri 값으로 "urn:mpeg:mpegB:cicp:ColourPrimaries" 값을 갖는 EssentialProperty 디스크럽터를 통해 시그널링될 수 있고, 이 디스크립터는 플레이어 (player)가 해당 어댑테이션셋 내의 레프리젠테이션을 올바로 표출 (present)하기 위해서는 이 디스크립터에 기술된 색 재현 범위를 지원해야 함을 나타낸다. HDR 비디오의 색상을 표현하는 매트릭스 계수 정보는 @schemeIdUri 값으로 "urn:mpeg:mpegB:cicp:MatrixCoefficients" 값을 갖는 EssentialProperty 디스크립터를 통해 시그널링될 수 있고, 이 디스크립터는 플레이어 (player)가 해당 어댑테이션셋 내의 레프리젠테이션을 올바로 표출 (present)하기 위해서는 이 디스크립터에 기술된 매트릭스 계수를 지원해야 함을 나타낸다. HDR 비디오에 적용된 OETF 또는 EOTF에 대한 정보는 @schemeIdUri 값으로 "urn:mpeg:mpegB:cicp:TransferCharacteristics" 값을 갖는 EssentialProperty 디스크립터를 통해 시그널링될 수 있고, 이 디스크립터는 플레이어 (player)가 해당 어댑테이션셋 내의 레프리젠테이션을 올바로 표출 (present)하기 위해서는 이 디스크립터에 기술된 EOTF 또는 OETF에 대한 정보를 지원해야 함을 나타낸다.
본 발명의 일 실시예에 따르면, MPD의 어댑테이션셋 엘레먼트 내에 @schemeUri 값으로 "urn:mpeg:mpegB:cicp:ColourPrimaries" 값을 갖고 @value="9" (BT.2020 컬러 개멋을 의미함)를 갖는 EssentialProperty 디스크립터, @schemeUri 값으로 "urn:mpeg:mpegB:cicp:MatrixCoefficients" 값을 갖고 @value="9"를 갖는 EssentialProperty 디스크립터 및 @schemeUri 값으로 "urn:mpeg:mpegB:cicp:TransferCharacteristics" 값을 갖고 @value="16" (PQ EOTF를 의미함)을 갖는 EssentialProperty 디스크립터를 정의함으로써 방송 시스템은 PQ 기술을 적용한 HDR 비디오를 식별할 수 있다.
본 발명의 다른 일 실시예에 따르면, MPD의 어댑테이션셋 엘레먼트 내에 @schemeUri 값으로 "urn:mpeg:mpegB:cicp:ColourPrimaries" 값을 갖고 @value="9" (BT.2020 컬러 개멋을 의미함)를 갖는 EssentialProperty 디스크립터, @schemeUri 값으로 "urn:mpeg:mpegB:cicp:MatrixCoefficients" 값을 갖고 @value="9"를 갖는 EssentialProperty 디스크립터, @schemeUri 값으로 "urn:mpeg:mpegB:cicp:TransferCharacteristics" 값을 갖고 @value="14" (BT.2020 OETF를 의미함)을 갖는 EssentialProperty 디스크립터 및 @schemUri 값으로 "urn:mpeg:mpegB:cicp:TransferCharacteristics" 값을 갖고 @value="18" (preferred transfer characteristics, BT.2100 HLG system을 의미함, alternative SEI와 동일)을 갖는 SupplementalProperty 디스크립터를 정의함으로써 방송 시스템은 HLG 기술을 적용한 HDR 비디오를 식별할 수 있다. HLG 기술은 OETF를 새롭게 정의하여 SDR (100nits) 단말에도 역호환성을 유지할 수 있는 기술을 나타낸다. HLG 기술이 적용된 HDR 비디오는 SDR 범위까지 그대로 표현이 가능하므로 역호환성을 유지하는 기술을 통해 BT.2020 color gamut 범위를 가진 SDR TV에서도 시청이 가능하다. 본 발명의 일 실시예는 SDR 호환이 가능한 스트림은 EssentialProperty 디스크립터를 통해 시그널링하고, HDR 렌더링을 위한 스트림은 SupplementalProperty 디스크립터를 통해 시그널링할 수 있다. 즉, SDR 수신기는 EssentialProperty 디스크립터를 이용하여 HDR 비디오를 SDR 디스플레이로 디스플레이할 수 있고, HDR 수신기는 EssentialProperty 디스크립터뿐만 아니라 SupplementalProperty 디스크립터를 함께 이용하여 HDR 비디오를 디스플레이할 수 있다.
도 40은 본 발명의 일 실시예에 따른 ATSC 1.0 시스템 또는 MPEG 2 시스템에서 서비스 초기화 과정을 나타낸 도면이다.
본 발명의 일 실시예에 따르면, ATSC 1.0 수신기는 MPEG2 system 기반의 PSIP 정보를 기반으로 서비스를 초기화하고 EPG를 구성한다.
이 도면의 (1)을 참조하면, 수신기는 ATSC PSIP TVCT 내에 정의되어 있는 channel의 TSID 및 service type을 통해 서비스와 스트림 ID를 식별하고, TVCT 내의 service location 디스크립터 (service_location_desc)를 통해 해당 채널 내에서 전송되는 스트림의 stream_type과 PID를 이용하여 비디오 스트림 및 오디오 스트림을 식별할 수 있다. 이 때, 본 발명의 일 실시예에 따르면, UHD SDR과 HLG에 해당하는 stream_type은 0x24 (HEVC)로 정의될 수 있고, UHD HDR의 경우 (PQ) 기존 SDR TV에서는 호환성을 지원할 수 없으므로 새로운 Stream_type 값이 정의될 수 있다. 본 발명의 일 실시예에 따른 방송 시스템은 HEVC descriptor를 통해 HDR 기술을 시그널링할 수 있다.
이 도면의 (2) 및 (3)을 참조하면, 수신기는 MPEG 2 system의 PAT 및 PMT의 초기화를 거친 후, stream_type과 PID를 통해 비디오 및 오디오를 식별할 수 있다. 수신기는 PMT의 elementary info를 통해 ES의 속성을 식별할 수 있다. PMT의 elementary info 내에서, UHD SDR과 HLG의 stream_type은 0x24 (HEVC)로 정의될 수 있고, UHD HDR의 경우 (PQ) 기존 SDR TV에서는 호환성을 지원할 수 없으므로 새로운 Stream_type 값이 정의될 수 있다. 예를 들어, 방송 시스템은 UHD HDR (PQ) 비디오 스트림의 stream_type 값을 0x25 값으로 정의하여 해당 스트림을 식별할 수 있다. 본 발명의 일 실시예에 따른 방송 시스템은 HEVC descriptor를 통해 HDR 기술을 시그널링할 수 있다.
본 발명의 일 실시예에 따른 HEVC descritpor는 TVCT, PMT 등에 포함될 수 있다.
도 41은 본 발명의 일 실시예에 따른 HEVC descriptor의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 HEVC descriptor는 HEVC video의 속성을 전달 하기 위한 기술자를 나타낸다. HEVC는 비디오 레벨에서 구성하는 layer로 temporal layer 재생을 통해 scalable fps를 제공할 수 있다.
본 발명의 일 실시예에 따른 HEVC descriptor는 profile_idc와 profile_compatibility_indication을 해석하기 profile_space 필드, Main tier와 High tier를 구분하기 위한 tier_flag 필드, HEVC 비디오 규격에 정의된 프로파일 (e.g. main profile, main10 profile)을 나타내는 profile_idc 필드, HEVC 비디오 스트림의 비디오 프로파일과 호환성 여부를 나타내는 profile_compatibility_indication 필드, 화면의 주사 방식을 나타내는 progressive_source_flag 필드 및 interlaced_source_flag필드, CVS 내의 arrangement SEI messages를 가지는지의 여부를 나타내는 non_packed_constraint_flag 필드, field_seq_flag의 존재 여부를 나타내는 frame_only_constraint_flag 필드, HEVC 규격에 정의된 비디오 레벨 (level 5. level 5.1)을 나타내는 level_idc 필드, Temporal Layer 재생이 가능한 스트림이 포함되는지 여부를 나타내는 temporal_layer_subset_flag 필드, HEVC 비디오 내에 정지영상이 존재하는지 여부를 나타내는 HEVC_still_present_flag 필드, HEVC 비디오 스트림내 24hour picture가 포함되는지 여부를 나타내는 HEVC_24hr_picture_present_flag 필드, temporal id 값의 min값 정의하는 temporal_id_min 필드 및/또는 temporal id 값의 max값 정의하는 temporal_id_max 필드를 포함한다.
본 발명의 일 실시예에 따른 HEVC descriptor는 HDR_WCG_idc 필드, transfer_characteristic 필드, ColourPrimaries 필드 및/또는 MatrixCoefficients 필드를 더 포함한다. 상술한 필드들에 대한 설명은 다음 도면에서 후술한다.
도 42는 본 발명의 일 실시예에 따른 HDR_WCG_idc 필드에 대한 설명을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 시스템은 HEVC descriptor 내에 HDR_WCG_idc 필드, transfer_characteristic 필드, ColourPrimaries 필드 및/또는 MatrixCoefficients 필드를 정의함으로써 UHD HDR 스트림에 대한 구체적인 인코딩 정보를 시그널링할 수 있다. 수신기는 시스템 레벨에 정의된 상기 필드들이 기술하는 정보들을 미리 파악한 후, 해당 스트림을 재생할 수 있는지 여부를 식별할 수 있다. 수신기는 scalable HEVC 또는 Layered HEVC를 수신하는 경우에 상기 디스크립터를 이용하여 HDR/WCG의 실감형 콘텐츠를 식별할 수 있다. 수신기는 HDR/WCG 서비스를 역호환성이 지원되는 MPEG2 video 또는 AVC 스트림의 PID와 함께 전송하는 경우 (사이멀캐스트 기반), 상기 디스크립터를 이용하여 HDR/WCG 스트림을 식별하여 랜더링할 수 있다. 사이멀캐스트는 동일한 프로그램을 각각의 스트림을 통해 방송하는 것을 의미한다.
본 발명의 일 실시예에 따른 HDR_WCG_idc 필드는 해당 비디오의 HDR 특성 및/또는 WCG 특성을 기술한다. 이 필드의 값 0은 해당 비디오가 BT.1886에 따른 SDR 비디오이고 BT.709에 따른 컬러 개멋 컨테이너를 갖는 비디오임을 나타내고, 1은 해당 비디오가 HDR 비디오이고 BT.709에 따른 컬러 개멋 컨테이너를 갖는 비디오임을 나타내고, 2는 해당 비디오가 WCG 비디오이고 BT.2020/2100에 따른 컬러 개멋 컨테이너를 갖는 비디오임을 나타내고, 3은 해당 비디오가 HDR 비디오이고 WCG 비디오임을 나타내고, 46은 reserved, 7은 해당 비디오가 HDR 비디오가 아니고 WCG 비디오도 아니거나 SDR 비디오임을 나타낸다.
본 발명의 일 실시예에 따르면, HLG 기술을 시그널링하기 위하여, HDR_WCG_idc 필드값은 2를 가지고, transfer_characteristic 필드값은 18을 가질 수 있다. 이 경우, 본 발명의 일 실시예에 따르면, BT. 2020에 따른 컨테이너 컬러 개멋 및 SDR 범위를 가지는 콘텐츠는 HDR_WCG_idc 필드 및 transfer_characteristic 필드의 조합을 통해 SDR 범위에서 렌더링되고, HLG를 지원하는 콘텐츠는 HDR 콘텐츠의 밝기에 따라 재생될 수 있다. 나아가, 본 발명의 일 실시예에 따르면, ColourPrimaries 필드 및 MatrixCoefficients 필드도 BT. 2020에 따른 컨테이너 컬러 개멋을 나타내는 값 (=9)을 가질 수 있다.
본 발명의 다른 일 실시예에 따르면, PQ 기술을 시그널링하기 위하여, HDR_WCG_idc 필드값은 3을 가지고, transfer characteristic 필드값은 16을 가질 수 있다.
본 발명의 일 실시예에 따른 MVPD는 ATSC 3.0 스트림을 수신하여 ATSC 3.0 스트림 내의 DASH MPD 정보, segment init 정보 및/또는 비디오 하이레벨 정보를 이용하여 UHD HDR 스트림을 식별한 후, ATSC 3.0 스트림을 ATSC 1.0 스트림으로 변환하여 수신단으로 전송할 수 있다.
본 발명의 일 실시예에 따르면, HDR_WCG_idc 필드의 semantics는 SDR, HDR, WCG의 관계만을 bit 값으로 할당하여 구분할 수 있다. 그리고, 이 필드 이후에 뒤따르는 3개의 HDR metadata를 통해 HDR/SDR의 구체적인 기술 code value 들을 시그널링할 수 있다. 본 발명의 일 실시예는, 이 필드 및 이 필드 이후에 뒤따르는 HDR 메타데이터를 통해 PQ10, HLG10 등과 같은 기술군을 구별하여 시스템 단에서 수신가능한 스트림인지 구별하도록 할 수 있다.
도 43은 본 발명의 일 실시예에 따른 방송 신호 송신 방법을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 송신 방법은 HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 생성하는 단계 (SL43010), 상기 MPD 및 상기 복수의 세그먼트를 포함하는 복수의 LCT (Layered Coding Transport) 패킷을 생성하는 단계 (SL43020), 상기 복수의 LCT 패킷을 포함하는 복수의 IP (Internet Protocol) 패킷을 생성하는 단계 (SL43030), 상기 복수의 IP 패킷을 포함하는 복수의 링크 레이어 패킷을 생성하는 단계 (SL43040) 및/또는 상기 복수의 링크 레이어 패킷을 전송하는 단계 (SL43050)를 포함할 수 있다. 상기 MPD는 상기 HDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 어댑테이션 셋을 기술하는 어댑테이션 셋 엘레먼트를 포함할 수 있고, 상기 어댑테이션 셋 엘레먼트는 상기 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트 및 상기 어댑테이션 셋을 처리하기 위해 필수적인 정보를 기술하는 에센셜 프로퍼티 엘레먼트를 포함할 수 있고, 상기 에센셜 프로퍼티 엘레먼트는 상기 HDR 비디오 컴포넌트의 RGB 컬러 개멋 또는 XYZ 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보를 포함할 수 있다.
본 발명의 다른 일 실시예에 따르면, 상기 어댑테이션 셋 엘레먼트는 상기 HDR 비디오 컴포넌트의 컬러 샘플을 상기 HDR 비디오 컴포넌트의 컬러 개멋과 다른 컬러 개멋에 다시 매핑하기 위해 필요한 컬러 리매핑 정보를 포함하는 또 다른 에센셜 프로퍼티 엘레먼트를 포함할 수 있다.
본 발명의 다른 일 실시예에 따르면, 상기 컬러 리매핑 정보는 상기 HDR 비디오 컴포넌트에 적용될 상기 컬러 리매핑 정보를 식별하는 정보 및 상기 컬러 리매핑 정보를 상기 HDR 비디오 컴포넌트에 적용할지 여부를 나타내는 정보를 포함할 수 있다.
본 발명의 다른 일 실시예에 따르면, 방송 신호 송신 방법은 SDR (Standard Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 SDR 레프리젠테이션을 구성하는 복수의 SDR 세그먼트를 생성하는 단계를 더 포함할 수 있고, 상기 MPD는 상기 복수의 SDR 세그먼트에 접근하기 위한 정보를 포함하고, 상기 MPD는 상기 SDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 SDR 어댑테이션 셋을 기술하는 SDR 어댑테이션 셋 엘레먼트를 포함할 수 있고, 상기 어댑테이션 셋 엘레먼트는 상기 어댑테이션 셋은 HDR 서비스를 제공하기 위한 인핸스먼트 레이어임을 나타내는 롤 (Role) 엘레먼트를 포함할 수 있고, 상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션이 상기 SDR 레프리젠테이션과 종속 관계에 있음을 나타내는 정보를 포함할 수 있고, 상기 복수의 LCT 패킷은 상기 복수의 SDR 세그먼트를 포함할 수 있다.
본 발명의 다른 일 실시예에 따르면, 방송 신호 송신 방법은 SDR (Standard Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 SDR 레프리젠테이션을 구성하는 복수의 SDR 세그먼트를 생성하는 단계를 더 포함할 수 있고, 상기 MPD는 상기 복수의 SDR 세그먼트에 접근하기 위한 정보를 포함하고, 상기 MPD는 상기 SDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 SDR 어댑테이션 셋을 기술하는 SDR 어댑테이션 셋 엘레먼트를 포함할 수 있고, 상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션이 상기 SDR 레프리젠테이션과 참조 관계에 있음을 나타내는 정보 및 상기 참조 관계는 상기 레프리젠테이션은 HDR 서비스를 제공하기 위한 인핸스먼트 레이어로서 상기 SDR 레프리젠테이션을 참조하는 관계임을 나타내는 정보를 포함할 수 있고, 상기 복수의 LCT 패킷은 상기 복수의 SDR 세그먼트를 포함할 수 있다.
본 발명의 다른 일 실시예에 따르면, 상기 방송 신호 송신 방법은 SDR (Standard Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 SDR 레프리젠테이션을 구성하는 복수의 SDR 세그먼트를 생성하는 단계를 더 포함할 수 있고, 상기 MPD는 상기 복수의 SDR 세그먼트에 접근하기 위한 정보를 포함하고, 상기 어댑테이션 셋 엘레먼트는 상기 SDR 레프리젠테이션을 기술하는 SDR 레프리젠테이션 엘레먼트를 포함할 수 있고, 상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션이 상기 SDR 레프리젠테이션과 종속 관계에 있음을 나타내는 정보를 포함할 수 있고, 상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션은 HDR 서비스를 제공하기 위한 인핸스먼트 레이어임을 나타내는 또 다른 에센셜 프로퍼티 엘레먼트를 포함할 수 있고, 상기 복수의 LCT 패킷은 상기 복수의 SDR 세그먼트를 포함할 수 있다.
도 44는 본 발명의 다른 일 실시예에 따른 방송 신호 송신 방법을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 송신 방법은 HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 포함하는 제 1 방송 스트림을 수신하는 단계 (SL44010), 상기 제 1 방송 스트림으로부터 상기 HDR 비디오 컴포넌트 및 상기 MPD를 파싱하는 단계 (SL44020), 상기 파싱된 HDR 비디오 컴포넌트의 포맷을 변환하는 단계 (SL44030), 상기 파싱된 MPD에 포함된 상기 컬러 개멋 정보, 상기 매트릭스 계수 정보 및 상기 EOTF 특성 정보를 포함하는 PSIP (Program and System Information Protocol) 테이블을 생성하는 단계 (SL44040), 상기 생성된 PSIP 테이블 및 상기 변환된 포맷을 갖는 HDR 비디오 컴포넌트를 포함하는 제 2 방송 스트림을 생성하는 단계 (SL44050) 및/또는 상기 생성된 제 2 방송 스트림을 전송하는 단계 (SL44060)를 포함할 수 있다. 상기 MPD는 상기 HDR 비디오 컴포넌트의 컬러 개멋을 나타내는 컬러 개멋 정보, 상기 HDR 비디오 컴포넌트의 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보 및 상기 HDR 비디오 컴포넌트에 적용된 EOTF (Electo Optical Transfer Function) 특성 정보를 포함할 수 있고, 상기 제 2 방송 스트림은 상기 제 1 방송 스트림과 다른 전송 프로토콜에 따라 생성될 수 있다.
도 45는 본 발명의 일 실시예에 따른 방송 신호 수신 방법을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 수신 방법은 복수의 링크 레이어 패킷을 수신하는 단계 (SL45010), 상기 복수의 링크 레이어 패킷으로부터 복수의 IP 패킷을 파싱하는 단계 (SL45020), 상기 복수의 IP 패킷으로부터 복수의 LCT 패킷을 파싱하는 단계 (SL45030) 및/또는 상기 복수의 LCT 패킷으로부터 HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 파싱하는 단계 (SL45040)를 포함할 수 있다. 상기 MPD는 상기 HDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 어댑테이션 셋을 기술하는 어댑테이션 셋 엘레먼트를 포함할 수 있고, 상기 어댑테이션 셋 엘레먼트는 상기 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트 및 상기 어댑테이션 셋을 처리하기 위해 필수적인 정보를 기술하는 에센셜 프로퍼티 엘레먼트를 포함할 수 있고, 상기 에센셜 프로퍼티 엘레먼트는 상기 HDR 비디오 컴포넌트의 RGB 컬러 개멋 또는 XYZ 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보를 포함할 수 있다.
도 46은 본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 송신 장치 (L46010)는 HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 생성하는 데이터 생성부 (L46020), 상기 MPD 및 상기 복수의 세그먼트를 포함하는 복수의 LCT (Layered Coding Transport) 패킷을 생성하는 LCT 패킷 생성부 (L46030), 상기 복수의 LCT 패킷을 포함하는 복수의 IP (Internet Protocol) 패킷을 생성하는 IP 패킷 생성부 (L46040), 상기 복수의 IP 패킷을 포함하는 복수의 링크 레이어 패킷을 생성하는 링크 레이어 패킷 생성부 (L46050) 및/또는 상기 복수의 링크 레이어 패킷을 전송하는 전송부 (L46060)를 포함할 수 있다. 상기 MPD는 상기 HDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 어댑테이션 셋을 기술하는 어댑테이션 셋 엘레먼트를 포함할 수 있고, 상기 어댑테이션 셋 엘레먼트는 상기 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트 및 상기 어댑테이션 셋을 처리하기 위해 필수적인 정보를 기술하는 에센셜 프로퍼티 엘레먼트를 포함할 수 있고, 상기 에센셜 프로퍼티 엘레먼트는 상기 HDR 비디오 컴포넌트의 RGB 컬러 개멋 또는 XYZ 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보를 포함할 수 있다.
도 47은 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 수신 장치 (L47010)는 복수의 링크 레이어 패킷을 수신하는 수신부 (L47020), 상기 복수의 링크 레이어 패킷으로부터 복수의 IP 패킷을 파싱하는 IP 패킷 처리부 (L47030), 상기 복수의 IP 패킷으로부터 복수의 LCT 패킷을 파싱하는 LCT 패킷 처리부 (L47040) 및/또는 상기 복수의 LCT 패킷으로부터 HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 파싱하는 데이터 파싱부 (L47050)를 포함할 수 있다. 상기 MPD는 상기 HDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 어댑테이션 셋을 기술하는 어댑테이션 셋 엘레먼트를 포함할 수 있고, 상기 어댑테이션 셋 엘레먼트는 상기 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트 및 상기 어댑테이션 셋을 처리하기 위해 필수적인 정보를 기술하는 에센셜 프로퍼티 엘레먼트를 포함할 수 있고, 상기 에센셜 프로퍼티 엘레먼트는 상기 HDR 비디오 컴포넌트의 RGB 컬러 개멋 또는 XYZ 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보를 포함할 수 있다.
모듈 또는 유닛은 메모리(또는 저장 유닛)에 저장된 연속된 수행과정들을 실행하는 프로세서들일 수 있다. 전술한 실시예에 기술된 각 단계들은 하드웨어/프로세서들에 의해 수행될 수 있다. 전술한 실시예에 기술된 각 모듈/블락/유닛들은 하드웨어/프로세서로서 동작할 수 있다. 또한, 본 발명이 제시하는 방법들은 코드로서 실행될 수 있다. 이 코드는 프로세서가 읽을 수 있는 저장매체에 쓰여질 수 있고, 따라서 장치(apparatus)가 제공하는 프로세서에 의해 읽혀질 수 있다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 통상의 기술자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명이 제안하는 방법을 네트워크 디바이스에 구비된, 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CDROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수가 있다.
본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 이해된다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.
본 명세서에서 장치 및 방법 발명이 모두 언급되고, 장치 및 방법 발명 모두의 설명은 서로 보완하여 적용될 수 있다.
다양한 실시예가 본 발명을 실시하기 위한 최선의 형태에서 설명되었다.
본 발명은 일련의 방송 신호 제공 분야에서 이용된다.
본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 자명하다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.

Claims (15)

  1. HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 생성하는 단계로서,
    상기 MPD는 상기 HDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 어댑테이션 셋을 기술하는 어댑테이션 셋 엘레먼트를 포함하고,
    상기 어댑테이션 셋 엘레먼트는 상기 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트 및 상기 어댑테이션 셋을 처리하기 위해 필수적인 정보를 기술하는 에센셜 프로퍼티 엘레먼트를 포함하고,
    상기 에센셜 프로퍼티 엘레먼트는 상기 HDR 비디오 컴포넌트의 RGB 컬러 개멋 또는 XYZ 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보를 포함하고;
    상기 MPD 및 상기 복수의 세그먼트를 포함하는 복수의 LCT (Layered Coding Transport) 패킷을 생성하는 단계;
    상기 복수의 LCT 패킷을 포함하는 복수의 IP (Internet Protocol) 패킷을 생성하는 단계;
    상기 복수의 IP 패킷을 포함하는 복수의 링크 레이어 패킷을 생성하는 단계; 및
    상기 복수의 링크 레이어 패킷을 전송하는 단계;
    를 포함하는 방송 신호 송신 방법.
  2. 제 1 항에 있어서,
    상기 어댑테이션 셋 엘레먼트는 상기 HDR 비디오 컴포넌트의 컬러 샘플을 상기 HDR 비디오 컴포넌트의 컬러 개멋과 다른 컬러 개멋에 다시 매핑하기 위해 필요한 컬러 리매핑 정보를 포함하는 또 다른 에센셜 프로퍼티 엘레먼트를 포함하는 방송 신호 송신 방법.
  3. 제 2 항에 있어서,
    상기 컬러 리매핑 정보는 상기 HDR 비디오 컴포넌트에 적용될 상기 컬러 리매핑 정보를 식별하는 정보 및 상기 컬러 리매핑 정보를 상기 HDR 비디오 컴포넌트에 적용할지 여부를 나타내는 정보를 포함하는 방송 신호 송신 방법.
  4. 제 1 항에 있어서, 상기 방송 신호 송신 방법은
    SDR (Standard Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 SDR 레프리젠테이션을 구성하는 복수의 SDR 세그먼트를 생성하는 단계를 더 포함하고,
    상기 MPD는 상기 복수의 SDR 세그먼트에 접근하기 위한 정보를 포함하고, 상기 MPD는 상기 SDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 SDR 어댑테이션 셋을 기술하는 SDR 어댑테이션 셋 엘레먼트를 포함하고,
    상기 어댑테이션 셋 엘레먼트는 상기 어댑테이션 셋은 HDR 서비스를 제공하기 위한 인핸스먼트 레이어임을 나타내는 롤 (Role) 엘레먼트를 포함하고,
    상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션이 상기 SDR 레프리젠테이션과 종속 관계에 있음을 나타내는 정보를 포함하고,
    상기 복수의 LCT 패킷은 상기 복수의 SDR 세그먼트를 포함하는 방송 신호 송신 방법.
  5. 제 1 항에 있어서, 상기 방송 신호 송신 방법은
    SDR (Standard Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 SDR 레프리젠테이션을 구성하는 복수의 SDR 세그먼트를 생성하는 단계를 더 포함하고,
    상기 MPD는 상기 복수의 SDR 세그먼트에 접근하기 위한 정보를 포함하고, 상기 MPD는 상기 SDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 SDR 어댑테이션 셋을 기술하는 SDR 어댑테이션 셋 엘레먼트를 포함하고,
    상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션이 상기 SDR 레프리젠테이션과 참조 관계에 있음을 나타내는 정보 및 상기 참조 관계는 상기 레프리젠테이션은 HDR 서비스를 제공하기 위한 인핸스먼트 레이어로서 상기 SDR 레프리젠테이션을 참조하는 관계임을 나타내는 정보를 포함하고,
    상기 복수의 LCT 패킷은 상기 복수의 SDR 세그먼트를 포함하는 방송 신호 송신 방법.
  6. 제 1 항에 있어서, 상기 방송 신호 송신 방법은
    SDR (Standard Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 SDR 레프리젠테이션을 구성하는 복수의 SDR 세그먼트를 생성하는 단계를 더 포함하고,
    상기 MPD는 상기 복수의 SDR 세그먼트에 접근하기 위한 정보를 포함하고, 상기 어댑테이션 셋 엘레먼트는 상기 SDR 레프리젠테이션을 기술하는 SDR 레프리젠테이션 엘레먼트를 포함하고,
    상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션이 상기 SDR 레프리젠테이션과 종속 관계에 있음을 나타내는 정보를 포함하고,
    상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션은 HDR 서비스를 제공하기 위한 인핸스먼트 레이어임을 나타내는 또 다른 에센셜 프로퍼티 엘레먼트를 포함하고,
    상기 복수의 LCT 패킷은 상기 복수의 SDR 세그먼트를 포함하는 방송 신호 송신 방법.
  7. HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 포함하는 제 1 방송 스트림을 수신하는 단계로서,
    상기 MPD는 상기 HDR 비디오 컴포넌트의 컬러 개멋을 나타내는 컬러 개멋 정보, 상기 HDR 비디오 컴포넌트의 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보 및 상기 HDR 비디오 컴포넌트에 적용된 EOTF (Electo Optical Transfer Function) 특성 정보를 포함하고;
    상기 제 1 방송 스트림으로부터 상기 HDR 비디오 컴포넌트 및 상기 MPD를 파싱하는 단계;
    상기 파싱된 HDR 비디오 컴포넌트의 포맷을 변환하는 단계;
    상기 파싱된 MPD에 포함된 상기 컬러 개멋 정보, 상기 매트릭스 계수 정보 및 상기 EOTF 특성 정보를 포함하는 PSIP (Program and System Information Protocol) 테이블을 생성하는 단계;
    상기 생성된 PSIP 테이블 및 상기 변환된 포맷을 갖는 HDR 비디오 컴포넌트를 포함하는 제 2 방송 스트림을 생성하는 단계로서,
    상기 제 2 방송 스트림은 상기 제 1 방송 스트림과 다른 전송 프로토콜에 따라 생성되고; 및
    상기 생성된 제 2 방송 스트림을 전송하는 단계;
    를 포함하는 방송 신호 송신 방법.
  8. 복수의 링크 레이어 패킷을 수신하는 단계;
    상기 복수의 링크 레이어 패킷으로부터 복수의 IP 패킷을 파싱하는 단계;
    상기 복수의 IP 패킷으로부터 복수의 LCT 패킷을 파싱하는 단계; 및
    상기 복수의 LCT 패킷으로부터 HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 파싱하는 단계로서,
    상기 MPD는 상기 HDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 어댑테이션 셋을 기술하는 어댑테이션 셋 엘레먼트를 포함하고,
    상기 어댑테이션 셋 엘레먼트는 상기 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트 및 상기 어댑테이션 셋을 처리하기 위해 필수적인 정보를 기술하는 에센셜 프로퍼티 엘레먼트를 포함하고,
    상기 에센셜 프로퍼티 엘레먼트는 상기 HDR 비디오 컴포넌트의 RGB 컬러 개멋 또는 XYZ 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보를 포함하고;
    를 포함하는 방송 신호 수신 방법.
  9. 제 8 항에 있어서,
    상기 어댑테이션 셋 엘레먼트는 상기 HDR 비디오 컴포넌트의 컬러 샘플을 상기 HDR 비디오 컴포넌트의 컬러 개멋과 다른 컬러 개멋에 다시 매핑하기 위해 필요한 컬러 리매핑 정보를 포함하는 또 다른 에센셜 프로퍼티 엘레먼트를 포함하는 방송 신호 수신 방법.
  10. 제 9 항에 있어서,
    상기 컬러 리매핑 정보는 상기 HDR 비디오 컴포넌트에 적용될 상기 컬러 리매핑 정보를 식별하는 정보 및 상기 컬러 리매핑 정보를 상기 HDR 비디오 컴포넌트에 적용할지 여부를 나타내는 정보를 포함하는 방송 신호 수신 방법.
  11. 제 8 항에 있어서,
    상기 복수의 LCT 패킷은 SDR (Standard Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 SDR 레프리젠테이션을 구성하는 복수의 SDR 세그먼트를 포함하고,
    상기 MPD는 상기 복수의 SDR 세그먼트에 접근하기 위한 정보를 포함하고, 상기 MPD는 상기 SDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 SDR 어댑테이션 셋을 기술하는 SDR 어댑테이션 셋 엘레먼트를 포함하고,
    상기 어댑테이션 셋 엘레먼트는 상기 어댑테이션 셋은 HDR 서비스를 제공하기 위한 인핸스먼트 레이어임을 나타내는 롤 (Role) 엘레먼트를 포함하고,
    상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션이 상기 SDR 레프리젠테이션과 종속 관계에 있음을 나타내는 정보를 포함하는 방송 신호 수신 방법.
  12. 제 8 항에 있어서,
    상기 복수의 LCT 패킷은 SDR (Standard Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 SDR 레프리젠테이션을 구성하는 복수의 SDR 세그먼트를 포함하고,
    상기 MPD는 상기 복수의 SDR 세그먼트에 접근하기 위한 정보를 포함하고, 상기 MPD는 상기 SDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 SDR 어댑테이션 셋을 기술하는 SDR 어댑테이션 셋 엘레먼트를 포함하고,
    상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션이 상기 SDR 레프리젠테이션과 참조 관계에 있음을 나타내는 정보 및 상기 참조 관계는 상기 레프리젠테이션은 HDR 서비스를 제공하기 위한 인핸스먼트 레이어로서 상기 SDR 레프리젠테이션을 참조하는 관계임을 나타내는 정보를 포함하는 방송 신호 수신 방법.
  13. 제 8 항에 있어서,
    상기 복수의 LCT 패킷은 SDR (Standard Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 SDR 레프리젠테이션을 구성하는 복수의 SDR 세그먼트를 포함하고,
    상기 MPD는 상기 복수의 SDR 세그먼트에 접근하기 위한 정보를 포함하고, 상기 어댑테이션 셋 엘레먼트는 상기 SDR 레프리젠테이션을 기술하는 SDR 레프리젠테이션 엘레먼트를 포함하고,
    상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션이 상기 SDR 레프리젠테이션과 종속 관계에 있음을 나타내는 정보를 포함하고,
    상기 레프리젠테이션 엘레먼트는 상기 레프리젠테이션은 HDR 서비스를 제공하기 위한 인핸스먼트 레이어임을 나타내는 또 다른 에센셜 프로퍼티 엘레먼트를 포함하는 방송 신호 수신 방법.
  14. HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 생성하는 데이터 생성부로서,
    상기 MPD는 상기 HDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 어댑테이션 셋을 기술하는 어댑테이션 셋 엘레먼트를 포함하고,
    상기 어댑테이션 셋 엘레먼트는 상기 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트 및 상기 어댑테이션 셋을 처리하기 위해 필수적인 정보를 기술하는 에센셜 프로퍼티 엘레먼트를 포함하고,
    상기 에센셜 프로퍼티 엘레먼트는 상기 HDR 비디오 컴포넌트의 RGB 컬러 개멋 또는 XYZ 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보를 포함하고;
    상기 MPD 및 상기 복수의 세그먼트를 포함하는 복수의 LCT (Layered Coding Transport) 패킷을 생성하는 LCT 패킷 생성부;
    상기 복수의 LCT 패킷을 포함하는 복수의 IP (Internet Protocol) 패킷을 생성하는 IP 패킷 생성부;
    상기 복수의 IP 패킷을 포함하는 복수의 링크 레이어 패킷을 생성하는 링크 레이어 패킷 생성부; 및
    상기 복수의 링크 레이어 패킷을 전송하는 전송부;
    를 포함하는 방송 신호 송신 장치.
  15. 복수의 링크 레이어 패킷을 수신하는 수신부;
    상기 복수의 링크 레이어 패킷으로부터 복수의 IP 패킷을 파싱하는 IP 패킷 처리부;
    상기 복수의 IP 패킷으로부터 복수의 LCT 패킷을 파싱하는 LCT 패킷 처리부; 및
    상기 복수의 LCT 패킷으로부터 HDR (High Dynamic Range) 비디오 컴포넌트의 인코딩된 버전을 나타내는 레프리젠테이션을 구성하는 복수의 세그먼트 및 상기 복수의 세그먼트에 접근하기 위한 정보를 포함하는 MPD (Media Presentation Description)를 파싱하는 데이터 파싱부로서,
    상기 MPD는 상기 HDR 비디오 컴포넌트의 서로 변경 가능한 인코딩된 버전들의 집합을 나타내는 어댑테이션 셋을 기술하는 어댑테이션 셋 엘레먼트를 포함하고,
    상기 어댑테이션 셋 엘레먼트는 상기 레프리젠테이션을 기술하는 레프리젠테이션 엘레먼트 및 상기 어댑테이션 셋을 처리하기 위해 필수적인 정보를 기술하는 에센셜 프로퍼티 엘레먼트를 포함하고,
    상기 에센셜 프로퍼티 엘레먼트는 상기 HDR 비디오 컴포넌트의 RGB 컬러 개멋 또는 XYZ 컬러 개멋으로부터 루마 신호 및 크로마 신호를 도출하는데 사용되는 매트릭스 계수 정보를 포함하고;
    를 포함하는 방송 신호 수신 장치.
PCT/KR2017/004282 2016-04-22 2017-04-21 Dash 기반 시스템에서 고품질 미디어 제공을 위한 방송 신호 송수신 방법 및 장치 WO2017183939A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP17786207.5A EP3448043B1 (en) 2016-04-22 2017-04-21 Broadcast signal transmission/reception method and apparatus for providing high-quality media in dash-based system

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201662326022P 2016-04-22 2016-04-22
US62/326,022 2016-04-22
US201662327429P 2016-04-25 2016-04-25
US62/327,429 2016-04-25
US201762455604P 2017-02-07 2017-02-07
US62/455,604 2017-02-07

Publications (1)

Publication Number Publication Date
WO2017183939A1 true WO2017183939A1 (ko) 2017-10-26

Family

ID=60117044

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/004282 WO2017183939A1 (ko) 2016-04-22 2017-04-21 Dash 기반 시스템에서 고품질 미디어 제공을 위한 방송 신호 송수신 방법 및 장치

Country Status (2)

Country Link
EP (1) EP3448043B1 (ko)
WO (1) WO2017183939A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240121123A1 (en) * 2021-03-16 2024-04-11 Lg Electronics Inc. Multicast signal processing method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100034990A (ko) * 2008-09-25 2010-04-02 삼성전자주식회사 통합 메타데이터 생성 방법 및 그 장치
US20120038782A1 (en) * 2010-08-16 2012-02-16 Dolby Laboratories Licensing Corporation Vdr metadata timestamp to enhance data coherency and potential of metadata
WO2013025035A2 (ko) * 2011-08-12 2013-02-21 삼성전자 주식회사 송신 장치, 수신 장치 및 그 송수신 방법
WO2014107255A1 (en) * 2013-01-02 2014-07-10 Dolby Laboratories Licensing Corporation Backward-compatible coding for ultra high definition video signals with enhanced dynamic range
WO2015072754A1 (ko) * 2013-11-13 2015-05-21 엘지전자 주식회사 Hdr 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100034990A (ko) * 2008-09-25 2010-04-02 삼성전자주식회사 통합 메타데이터 생성 방법 및 그 장치
US20120038782A1 (en) * 2010-08-16 2012-02-16 Dolby Laboratories Licensing Corporation Vdr metadata timestamp to enhance data coherency and potential of metadata
WO2013025035A2 (ko) * 2011-08-12 2013-02-21 삼성전자 주식회사 송신 장치, 수신 장치 및 그 송수신 방법
WO2014107255A1 (en) * 2013-01-02 2014-07-10 Dolby Laboratories Licensing Corporation Backward-compatible coding for ultra high definition video signals with enhanced dynamic range
WO2015072754A1 (ko) * 2013-11-13 2015-05-21 엘지전자 주식회사 Hdr 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치

Also Published As

Publication number Publication date
EP3448043B1 (en) 2020-12-30
EP3448043A1 (en) 2019-02-27
EP3448043A4 (en) 2019-11-13

Similar Documents

Publication Publication Date Title
WO2017030425A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2018004291A1 (ko) 방송 신호 송신 방법, 방송 신호 수신 방법, 방송 신호 송신 장치 및 방송 신호 수신 장치
WO2017007192A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016204481A1 (ko) 미디어 데이터 전송 장치, 미디어 데이터 수신 장치, 미디어 데이터 전송 방법, 및 미디어 데이터 수신 방법
WO2017043863A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016093586A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016076569A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016060422A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2017014586A1 (ko) 방송 신호 송수신 장치 및 방법
WO2016186407A1 (ko) 방송 신호 송수신 장치 및 방법
WO2016126116A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016089095A1 (ko) 방송 신호 송신 방법, 방송 신호 송신 장치, 방송 신호 수신 방법 및 방송 신호 수신 장치
WO2016093576A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2017007224A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016178549A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016060416A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016122269A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016171518A2 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016108606A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016064150A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2017209514A1 (ko) 방송 신호 송수신 장치 및 방법
WO2018101566A1 (ko) 방송 신호 송수신 장치 및 방법
WO2017061792A1 (ko) 방송 신호 송수신 장치 및 방법
WO2016129904A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2017026714A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017786207

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017786207

Country of ref document: EP

Effective date: 20181122

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17786207

Country of ref document: EP

Kind code of ref document: A1