WO2015167189A1 - 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 - Google Patents

방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 Download PDF

Info

Publication number
WO2015167189A1
WO2015167189A1 PCT/KR2015/004179 KR2015004179W WO2015167189A1 WO 2015167189 A1 WO2015167189 A1 WO 2015167189A1 KR 2015004179 W KR2015004179 W KR 2015004179W WO 2015167189 A1 WO2015167189 A1 WO 2015167189A1
Authority
WO
WIPO (PCT)
Prior art keywords
component
fragment
service
information
content
Prior art date
Application number
PCT/KR2015/004179
Other languages
English (en)
French (fr)
Inventor
곽민성
양승률
문경수
고우석
홍성룡
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to EP15786077.6A priority Critical patent/EP3139526A4/en
Priority to CN201580016718.2A priority patent/CN106134112B/zh
Priority to CA2941597A priority patent/CA2941597C/en
Priority to KR1020167020594A priority patent/KR101801594B1/ko
Priority to US15/115,875 priority patent/US10306278B2/en
Publication of WO2015167189A1 publication Critical patent/WO2015167189A1/ko
Priority to US16/385,803 priority patent/US10743044B2/en
Priority to US16/916,870 priority patent/US11070859B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26283Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for associating distribution time parameters to content, e.g. to generate electronic program guide data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4335Housekeeping operations, e.g. prioritizing content for deletion because of storage space restrictions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47211End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting pay-per-view content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Definitions

  • the present invention relates to a broadcast signal transmission apparatus, a broadcast signal reception apparatus, and a broadcast signal transmission and reception method.
  • the digital broadcast signal may include a larger amount of video / audio data than the analog broadcast signal, and may further include various types of additional data as well as the video / audio data.
  • the digital broadcasting system may provide high definition (HD) images, multichannel audio, and various additional services.
  • HD high definition
  • data transmission efficiency for a large amount of data transmission, robustness of a transmission / reception network, and network flexibility in consideration of a mobile receiving device should be improved.
  • the broadcast signal transmission method includes generating service guide information and content data including access information of a broadcast service, wherein the service guide information includes a service fragment indicating information on the broadcast service, A content fragment indicating information on the content data and a component fragment indicating information on a component included in the broadcast service, encoding the generated service guide information and content data, the encoded service guide information, and And transmitting the content data.
  • the service guide information includes a service fragment indicating information on the broadcast service, A content fragment indicating information on the content data and a component fragment indicating information on a component included in the broadcast service, encoding the generated service guide information and content data, the encoded service guide information, and And transmitting the content data.
  • the component fragment is a service reference element representing a service fragment referenced by the component fragment, a content reference element representing a content fragment referenced by the component fragment, and a component reference element representing another component fragment referenced by the component fragment.
  • the content fragment may include at least one of the above, and the content fragment may include a service reference element indicating a service fragment referred to by the content fragment.
  • the service reference element included in the content fragment may include information indicating a relationship between the content fragment and a service fragment referenced by the content fragment.
  • the service fragment includes at least one of a content reference element representing a content fragment referenced by the service fragment and a component reference element representing a component fragment referenced by the service fragment, wherein the content fragment is included in the content fragment.
  • the component fragment may include a component reference element representing a component fragment referenced by the component fragment, and the component fragment may include a component reference element representing another component fragment referred to by the component fragment.
  • the service guide information includes a schedule fragment indicating schedule information of the broadcast service, wherein the schedule fragment includes a service reference element indicating a service fragment referenced by the schedule fragment, and a content fragment referenced by the schedule fragment. It may include a content reference element indicating and a component fragment referenced by the schedule fragment.
  • the component fragment includes a component data element representing a component included in the component fragment
  • the component data element includes content type information indicating a type of a component included in the component fragment
  • the component data may include a video component element including information about a video component according to the content type information, an audio component element including information about an audio component, or a caption component element including information about a closed caption component.
  • the audio component element may include information indicating a video component associated with the audio component
  • the caption component element may include information indicating a video component associated with the caption component
  • the video component element may include at least one of information indicating an audio component associated with the video component and information indicating a caption component associated with the video component.
  • a broadcast signal receiving apparatus includes a receiver for receiving service guide information and content data including access information of a broadcast service, wherein the service guide information is a service fragment indicating information on the broadcast service. And a component fragment indicating information about a component included in the broadcast service and a content fragment indicating information on the content data, and a decoder for decoding the generated service guide information and content data.
  • the component fragment is a service reference element representing a service fragment referenced by the component fragment, a content reference element representing a content fragment referenced by the component fragment, and a component reference element representing another component fragment referenced by the component fragment.
  • the content fragment may include at least one of the above, and the content fragment may include a service reference element indicating a service fragment referred to by the content fragment.
  • the service reference element included in the content fragment may include information indicating a relationship between the content fragment and a service fragment referenced by the content fragment.
  • the service fragment includes at least one of a content reference element representing a content fragment referenced by the service fragment and a component reference element representing a component fragment referenced by the service fragment, wherein the content fragment is included in the content fragment.
  • the component fragment may include a component reference element representing a component fragment referenced by the component fragment, and the component fragment may include a component reference element representing another component fragment referred to by the component fragment.
  • the service guide information includes a schedule fragment indicating schedule information of the broadcast service, wherein the schedule fragment includes a service reference element indicating a service fragment referenced by the schedule fragment, and a content fragment referenced by the schedule fragment. It may include a content reference element indicating and a component fragment referenced by the schedule fragment.
  • the component fragment includes a component data element representing a component included in the component fragment
  • the component data element includes content type information indicating a type of a component included in the component fragment
  • the component data may include a video component element including information about a video component according to the content type information, an audio component element including information about an audio component, or a caption component element including information about a closed caption component.
  • the audio component element may include information indicating a video component associated with the audio component
  • the caption component element may include information indicating a video component associated with the caption component
  • the video component element may include at least one of information indicating an audio component associated with the video component and information indicating a caption component associated with the video component.
  • An apparatus for transmitting broadcast signals includes a generator configured to generate service guide information and content data including access information of a broadcast service, wherein the service guide information indicates information on the broadcast service.
  • a service fragment, a content fragment indicating information on the content data, and a component fragment indicating information on a component included in the broadcast service an encoder encoding the generated service guide information and content data, the encoded service It may include a transmission unit for transmitting the guide information and the content data.
  • receiving service guide information and content data including access information of a broadcast service
  • the service guide information is a service indicating information on the broadcast service.
  • a fragment, a content fragment indicating information on the content data, and a component fragment indicating information on a component included in the broadcast service and decoding the generated service guide information and content data.
  • the present invention can provide various broadcast services by processing data according to service characteristics to control a quality of service (QoS) for each service or service component.
  • QoS quality of service
  • the present invention can achieve transmission flexibility by transmitting various broadcast services through the same radio frequency (RF) signal bandwidth.
  • RF radio frequency
  • the present invention can improve data transmission efficiency and robustness of transmission and reception of broadcast signals using a multiple-input multiple-output (MIMO) system.
  • MIMO multiple-input multiple-output
  • the present invention it is possible to provide a broadcast signal transmission and reception method and apparatus capable of receiving a digital broadcast signal without errors even when using a mobile reception device or in an indoor environment.
  • FIG. 1 shows a structure of a broadcast signal transmission apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • FIG 2 illustrates an input formatting block according to an embodiment of the present invention.
  • FIG 3 illustrates an input formatting block according to another embodiment of the present invention.
  • BICM bit interleaved coding & modulation
  • FIG. 5 illustrates a BICM block according to another embodiment of the present invention.
  • FIG. 6 illustrates a frame building block according to an embodiment of the present invention.
  • FIG 7 illustrates an orthogonal frequency division multiplexing (OFDM) generation block according to an embodiment of the present invention.
  • OFDM orthogonal frequency division multiplexing
  • FIG. 8 illustrates a structure of a broadcast signal receiving apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • FIG. 9 shows a frame structure according to an embodiment of the present invention.
  • FIG. 10 illustrates a signaling hierarchy structure of a frame according to an embodiment of the present invention.
  • FIG 11 illustrates preamble signaling data according to an embodiment of the present invention.
  • FIG 13 illustrates PLS2 data according to an embodiment of the present invention.
  • FIG 14 illustrates PLS2 data according to another embodiment of the present invention.
  • FIG. 15 illustrates a logical structure of a frame according to an embodiment of the present invention.
  • PLS 16 illustrates physical layer signaling (PLS) mapping according to an embodiment of the present invention.
  • EAC emergency alert channel
  • FEC forward error correction
  • 21 illustrates the basic operation of a twisted row-column block interleaver according to an embodiment of the present invention.
  • FIG. 22 illustrates an operation of a twisted row-column block interleaver according to another embodiment of the present invention.
  • FIG. 23 illustrates a diagonal read pattern of a twisted row-column block interleaver according to an embodiment of the present invention.
  • FIG. 24 illustrates XFECBLOCKs interleaved from each interleaving array according to an embodiment of the present invention.
  • FIG. 25 is a diagram illustrating a configuration of a main physical device and a companion physical device according to an embodiment of the present invention.
  • 26 illustrates a protocol stack for supporting hybrid broadcast service according to an embodiment of the present invention.
  • FIG. 27 illustrates an XML schema of a Service Type element according to an embodiment of the present invention.
  • FIG. 28 is a diagram illustrating an XML schema and a display display example of a service having a service type value of 14 according to an embodiment of the present invention.
  • FIG. 29 is a diagram illustrating an example of displaying an XML schema and a display for a service having 14 and 15 as service type values according to an embodiment of the present invention.
  • FIG. 29 is a diagram illustrating an example of displaying an XML schema and a display for a service having 14 and 15 as service type values according to an embodiment of the present invention.
  • FIG. 30 is a diagram illustrating an example of displaying an XML schema and a display for a service having 14 and 16 as service type values according to an embodiment of the present invention.
  • FIG. 31 illustrates an XML schema of a component fragment according to an embodiment of the present invention.
  • FIG. 32 is a diagram illustrating an xml schema of a ComponentType element according to an embodiment of the present invention.
  • FIG. 33 is a diagram showing an xml schema of a ComponentData element according to an embodiment of the present invention.
  • FIG. 34 is a diagram illustrating an xml schema of a VideoComponent element and a VideoRole element according to an embodiment of the present invention.
  • 35 is a diagram illustrating an xml schema of an AudioComponent element and an AudioRole element according to an embodiment of the present invention.
  • 36 is a diagram illustrating an xml schema of a CCComponent element and a CCRole element according to an embodiment of the present invention.
  • FIG. 37 illustrates an XML schema of component fragments for a Composite Video Component including one base layer and two enhancement layers in scalable video coding according to an embodiment of the present invention. to be.
  • FIG. 38 illustrates an XML schema of component fragments for a Composite Component including a 3D video left view and a 3D video right view according to an embodiment of the present invention.
  • FIG. 39 illustrates an XML schema of component fragments describing a Comple Audio Component according to an embodiment of the present invention.
  • FIG. 40 is a diagram illustrating an xml schema of a component element in a content fragment according to an embodiment of the present invention.
  • FIG. 41 is a diagram illustrating an XML schema of a content fragment for a linear service including a video, audio, and cc component according to an embodiment of the present invention.
  • FIG. 42 is a diagram illustrating an xml schema of a component element when a component element is defined in a content fragment in order to describe an association between video, audio, and CC components.
  • FIG. 43 is a diagram illustrating an embodiment of using an AssociatedTo attribute to describe an association between video, audio, and CC components.
  • FIG. 44 is a diagram illustrating an embodiment of using associatedAudio and associatedCC attributes to describe an association between Video, Audio, and CC components.
  • FIG. 45 illustrates an embodiment for describing an association between Video, Audio, and CC components using the AssociatedTo attribute.
  • FIG. 46 is a diagram illustrating an embodiment for explaining association between Video, Audio, and CC components using the associatedAudio and / or associatedCC attributes.
  • 47 is a diagram illustrating a reference relationship between fragments according to an embodiment of the present invention.
  • FIG. 48 is a diagram illustrating an XML schema of a Component fragment including an element representing a reference relationship with fragments, according to an embodiment of the present invention.
  • FIG. 49 is a diagram illustrating an XML shema of a Schedule fragment including an element indicating a reference relationship with fragments according to an embodiment of the present invention.
  • 50 is a diagram illustrating an embodiment for explaining a reference relationship between a Service, Content, and Component fragment.
  • FIG. 51 is a diagram illustrating an embodiment for describing a reference relationship between component fragments describing a continuous component.
  • FIG. 52 is a view illustrating an embodiment for describing a reference relationship between component fragments describing a component related to app-based enhancement.
  • 53 is a view showing a function that can be provided when referring to a related service fragment in a content fragment according to an embodiment of the present invention.
  • 54 is a diagram illustrating an embodiment of referring to a related service fragment in a content fragment by using a relationship attribute according to an embodiment of the present invention.
  • 55 is a diagram illustrating a reference relationship between fragments according to another embodiment of the present invention.
  • FIG. 56 illustrates an XML schema of a service fragment, a content fragment, and a component fragment including an element indicating a reference relationship with fragments according to another embodiment of the present invention.
  • FIG. 57 is a diagram illustrating another embodiment illustrating a reference relationship between a Service, Content, and Component fragment.
  • FIG. 58 illustrates another embodiment for explaining a reference relationship between component fragments describing a continuous component.
  • FIG. 59 is a diagram illustrating another embodiment for explaining a reference relationship between component fragments describing a component related to app-based enhancement.
  • 60 and 61 illustrate a configuration of a Component fragment according to an embodiment of the present invention.
  • FIG. 62 is a diagram illustrating an xml schema of a component fragment according to another embodiment of the present invention.
  • FIG. 63 is a diagram illustrating an xml schema of a ComponentType element according to another embodiment of the present invention.
  • 64 is a diagram illustrating an xml schema of a ComponentRole element according to an embodiment of the present invention.
  • FIG. 65 illustrates an XML schema of component fragments for a Composite Video Component including one base layer and two enhancement layers in scalable video coding according to another embodiment of the present invention. Drawing.
  • FIG. 66 illustrates an XML schema of component fragments for a Composite Component including a 3D video left view and a 3D video right view according to another embodiment of the present invention.
  • FIG. 67 is a diagram illustrating an XML schema of component fragments describing a Comple Audio Component according to another embodiment of the present invention.
  • FIG. 68 is a diagram showing the configuration of a Content fragment according to an embodiment of the present invention.
  • 69, 70, 71, and 72 are views showing the configuration of a component element according to an embodiment of the present invention.
  • 73 is a diagram illustrating xml shema of a component element according to an embodiment of the present invention.
  • 74 is a diagram illustrating xml shema of a Language element and a ComponentType element according to an embodiment of the present invention.
  • 75 is a diagram illustrating xml shema of a ComponentRole element according to an embodiment of the present invention.
  • FIG. 76 is a diagram illustrating an xml schema of a DeviceCapability element and a TargetDevice element according to an embodiment of the present invention.
  • FIG. 77 is a diagram illustrating an embodiment of an xml schema structure of a component element when transmitting a presentable video component (2D / HD) and a presentable audio component (5.1 channels).
  • FIG. 78 is a diagram illustrating an embodiment of an xml schema structure of a component element when transmitting a presentable video component (UHD) and a presentable ENG audio component by broadcasting and transmitting a presentable SPA audio component by broadband.
  • UHD presentable video component
  • UMA presentable ENG audio component
  • FIG. 79 is a diagram illustrating an embodiment of an xml schema structure of a component element when transmitting a presentable video component (UHD / wide color gamut) and a presentable audio component (5.1 channels).
  • a presentable video component UHD / wide color gamut
  • a presentable audio component 5.1 channels
  • FIG. 80 is a view illustrating a component element according to another embodiment of the present invention.
  • 81 is a view showing a ComponentRol element according to an embodiment of the present invention.
  • FIG. 82 is in accordance with another embodiment of the present invention.
  • FIG. 83 illustrates a component element according to another embodiment of the present invention.
  • FIG. 84 is a view showing PresentableCCComponent element and PresentableAppComponent element according to another embodiment of the present invention.
  • 85 is a diagram showing component elements in XML form according to another embodiment of the present invention.
  • 86 is a view illustrating an Essential Capabilities element according to an embodiment of the present invention.
  • 87 is a view showing meaning of a capability according to a value of a CapabilityCode element according to an embodiment of the present invention.
  • 88 is a diagram illustrating a capability category according to the value of category attribute information according to an embodiment of the present invention.
  • 89 is a diagram illustrating a process of providing Pay Per View (PPV) for each component according to an embodiment of the present invention.
  • 90 is a diagram illustrating an order in which media is provided for each component of a broadcast program according to an embodiment of the present invention.
  • 91 is a diagram illustrating a screen on which media is provided for each component of a broadcast program according to an embodiment of the present invention.
  • FIG. 92 illustrates a case in which a role for a video component is displayed on an ESG according to an embodiment of the present invention.
  • 93 is a diagram illustrating a case in which a role for a video component is displayed on an ESG according to another embodiment of the present invention.
  • FIG. 94 is a diagram illustrating a case in which a role for a video component is displayed on an ESG according to another embodiment of the present invention.
  • FIG. 95 is a diagram illustrating a case in which a role for an audio component is displayed on an ESG according to an embodiment of the present invention.
  • FIG. 96 illustrates a case in which a role for an audio component is displayed on an ESG according to another embodiment of the present invention.
  • FIG. 97 illustrates a case in which a role for an audio component is displayed on an ESG according to another embodiment of the present invention.
  • FIG. 98 illustrates a case in which a role for a Closed Caption (CC) component is displayed on an ESG according to an embodiment of the present invention.
  • CC Closed Caption
  • 99 is a view showing a broadcast signal transmission method according to an embodiment of the present invention.
  • 100 is a diagram illustrating a configuration of a broadcast signal receiving apparatus according to an embodiment of the present invention.
  • 101 is a diagram illustrating a configuration of a broadcast signal transmission apparatus according to an embodiment of the present invention.
  • 102 is a view showing a broadcast signal receiving method according to an embodiment of the present invention.
  • 'signaling' refers to transmitting / receiving service information (SI) provided by a broadcasting system, an internet broadcasting system, and / or a broadcasting / internet convergence system.
  • the service information includes broadcast service information (eg, ATSC-SI and / or DVB-SI) provided in each broadcast system that currently exists.
  • the term 'broadcast signal' refers to bidirectional communication such as internet broadcasting, broadband broadcasting, communication broadcasting, data broadcasting, and / or video on demand, in addition to terrestrial broadcasting, cable broadcasting, satellite broadcasting, and / or mobile broadcasting. This is defined as a concept including a signal and / or data provided in a broadcast.
  • 'PLP' means a certain unit for transmitting data belonging to a physical layer. Accordingly, the content named 'PLP' in this specification may be referred to as 'data unit' or 'data pipe'.
  • DTV digital broadcasting
  • the hybrid broadcasting service allows a user to transmit enhancement data related to broadcasting A / V (Audio / Video) content or a portion of broadcasting A / V content transmitted through a terrestrial broadcasting network in real time through an internet network. Lets you experience various contents.
  • the present invention provides an apparatus and method for transmitting and receiving broadcast signals for next generation broadcast services.
  • the next generation broadcast service includes a terrestrial broadcast service, a mobile broadcast service, a UHDTV service, and the like.
  • a broadcast signal for a next generation broadcast service may be processed through a non-multiple input multiple output (MIMO) or MIMO scheme.
  • MIMO multiple input multiple output
  • the non-MIMO scheme may include a multiple input single output (MISO) scheme, a single input single output (SISO) scheme, and the like.
  • the MISO or MIMO scheme uses two antennas, but the present invention can be applied to a system using two or more antennas.
  • the present invention can define three physical profiles (base, handheld, advanced) that are optimized to minimize receiver complexity while achieving the performance required for a particular application. have.
  • the physical profile is a subset of all the structures that the corresponding receiver must implement.
  • the three physical profiles share most of the functional blocks, but differ slightly in certain blocks and / or parameters. Further physical profiles can be defined later.
  • a future profile may be multiplexed with a profile present in a single radio frequency (RF) channel through a future extension frame (FEF). Details of each physical profile will be described later.
  • RF radio frequency
  • FEF future extension frame
  • the base profile mainly indicates the main use of a fixed receiving device in connection with a roof-top antenna.
  • the base profile can be moved to any place but can also include portable devices that fall into a relatively stationary reception category.
  • the use of the base profile can be extended for handheld devices or vehicles with some improved implementation, but such use is not expected in base profile receiver operation.
  • the target signal-to-noise ratio range of reception is approximately 10-20 dB, which includes the 15 dB signal-to-noise ratio receiving capability of existing broadcast systems (eg, ATSC A / 53). Receiver complexity and power consumption are not as important as in battery powered handheld devices that will use the handheld profile. Key system parameters for the base profile are listed in Table 1 below.
  • the handheld profile is designed for use in battery powered handheld and in-vehicle devices.
  • the device may move at pedestrian or vehicle speed.
  • the power consumption as well as the receiver complexity is very important for the implementation of the device of the handheld profile.
  • the target signal-to-noise ratio range of the handheld profile is approximately 0-10 dB, but can be set to reach below 0 dB if intended for lower indoor reception.
  • the advance profile provides higher channel capability in exchange for greater execution complexity.
  • the profile requires the use of MIMO transmission and reception, and the UHDTV service is a target use, for which the profile is specifically designed.
  • the enhanced capability may also be used to allow for an increase in the number of services at a given bandwidth, for example multiple SDTV or HDTV services.
  • the target signal to noise ratio range of the advanced profile is approximately 20 to 30 dB.
  • MIMO transmissions initially use existing elliptic polarization transmission equipment and can later be extended to full power cross polarization transmissions. Key system parameters for the advance profile are listed in Table 3 below.
  • the base profile may be used as a profile for both terrestrial broadcast service and mobile broadcast service. That is, the base profile can be used to define the concept of a profile that includes a mobile profile. Also, the advanced profile can be divided into an advanced profile for the base profile with MIMO and an advanced profile for the handheld profile with MIMO. The three profiles can be changed according to the designer's intention.
  • Auxiliary stream A sequence of cells carrying data of an undefined modulation and coding that can be used as a future extension or as required by a broadcaster or network operator.
  • Base data pipe a data pipe that carries service signaling data
  • Baseband Frame (or BBFRAME): A set of Kbch bits that form the input for one FEC encoding process (BCH and LDPC encoding).
  • Coded block one of an LDPC encoded block of PLS1 data or an LDPC encoded block of PLS2 data
  • Data pipe a logical channel in the physical layer that carries service data or related metadata that can carry one or more services or service components
  • Data pipe unit A basic unit that can allocate data cells to data pipes in a frame
  • Data symbol OFDM symbol in a frame that is not a preamble symbol (frame signaling symbols and frame edge symbols are included in the data symbols)
  • DP_ID This 8-bit field uniquely identifies a data pipe within the system identified by SYSTEM_ID.
  • Dummy cell A cell that carries a pseudo-random value used to fill the remaining unused capacity for physical layer signaling (PLS) signaling, data pipes, or auxiliary streams.
  • PLS physical layer signaling
  • FAC Emergency alert channel
  • Frame A physical layer time slot starting with a preamble and ending with a frame edge symbol.
  • Frame repetition unit A set of frames belonging to the same or different physical profile that contains an FEF that is repeated eight times in a super-frame.
  • FEC Fast information channel
  • FECBLOCK set of LDPC encoded bits of data pipe data
  • FFT size The nominal FFT size used for a particular mode equal to the active symbol period Ts expressed in cycles of the fundamental period T.
  • Frame signaling symbol The higher pilot density used at the start of a frame in a particular combination of FFT size, guard interval, and scattered pilot pattern, which carries a portion of the PLS data. Having OFDM symbol
  • Frame edge symbol An OFDM symbol with a higher pilot density used at the end of the frame in a particular combination of FFT size, guard interval, and scatter pilot pattern.
  • Frame-group set of all frames with the same physical profile type in a superframe
  • Future extention frame A physical layer time slot within a super frame that can be used for future expansion, starting with a preamble.
  • Futurecast UTB system A proposed physical layer broadcast system whose input is one or more MPEG2-TS or IP (Internet protocol) or generic streams and the output is an RF signal.
  • Input stream A stream of data for the coordination of services delivered to the end user by the system.
  • Normal data symbols data symbols except frame signaling symbols and frame edge symbols
  • PHY profile A subset of all structures that the corresponding receiver must implement
  • PLS physical layer signaling data consisting of PLS1 and PLS2
  • PLS1 The first set of PLS data carried in a frame signaling symbol (FSS) with fixed size, coding, and modulation that conveys basic information about the system as well as the parameters needed to decode PLS2.
  • FSS frame signaling symbol
  • PLS2 The second set of PLS data sent to the FSS carrying more detailed PLS data about data pipes and systems.
  • PLS2 dynamic data PLS2 data that changes dynamically from frame to frame
  • PLS2 static data PLS2 data that is static during the duration of a frame group
  • Preamble signaling data signaling data carried by the preamble symbol and used to identify the basic mode of the system
  • Preamble symbol a fixed length pilot symbol carrying basic PLS data and positioned at the beginning of a frame
  • Preamble symbols are primarily used for fast initial band scans to detect system signals, their timings, frequency offsets, and FFT sizes.
  • Superframe set of eight frame repeat units
  • Time interleaving block A set of cells in which time interleaving is performed, corresponding to one use of time interleaver memory.
  • Time interleaving group A unit in which dynamic capacity allocation is performed for a particular data pipe, consisting of an integer, the number of XFECBLOCKs that change dynamically.
  • a time interleaving group can be directly mapped to one frame or mapped to multiple frames.
  • the time interleaving group may include one or more time interleaving blocks.
  • Type 1 DP A data pipe in a frame where all data pipes are mapped to frames in a time division multiplexing (TDM) manner
  • Type 2 DPs Types of data pipes in a frame where all data pipes are mapped to frames in an FDM fashion.
  • XFECBLOCK set of N cells cells carrying all the bits of one LDPC FECBLOCK
  • FIG. 1 shows a structure of a broadcast signal transmission apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • a broadcast signal transmission apparatus for a next generation broadcast service includes an input format block 1000, a bit interleaved coding & modulation (BICM) block 1010, and a frame building block 1020, orthogonal frequency division multiplexing (OFDM) generation block (OFDM generation block) 1030, and signaling generation block 1040. The operation of each block of the broadcast signal transmission apparatus will be described.
  • BICM bit interleaved coding & modulation
  • OFDM generation block orthogonal frequency division multiplexing
  • signaling generation block 1040 The operation of each block of the broadcast signal transmission apparatus will be described.
  • IP streams / packets and MPEG2-TS are the main input formats and other stream types are treated as general streams.
  • management information is input to control the scheduling and allocation of the corresponding bandwidth for each input stream.
  • One or multiple TS streams, IP streams and / or general stream inputs are allowed at the same time.
  • the input format block 1000 can demultiplex each input stream into one or multiple data pipes to which independent coding and modulation is applied.
  • the data pipe is the basic unit for controlling robustness, which affects the quality of service (QoS).
  • QoS quality of service
  • One or multiple services or service components may be delivered by one data pipe. Detailed operations of the input format block 1000 will be described later.
  • a data pipe is a logical channel at the physical layer that carries service data or related metadata that can carry one or multiple services or service components.
  • the data pipe unit is a basic unit for allocating data cells to data pipes in one frame.
  • parity data is added for error correction and the encoded bit stream is mapped to a complex value constellation symbol.
  • the symbols are interleaved over the specific interleaving depth used for that data pipe.
  • MIMO encoding is performed at BICM block 1010 and additional data paths are added to the output for MIMO transmission. Detailed operations of the BICM block 1010 will be described later.
  • the frame building block 1020 may map data cells of an input data pipe to OFDM solid balls within one frame. After mapping, frequency interleaving is used for frequency domain diversity, in particular to prevent frequency selective fading channels. Detailed operations of the frame building block 1020 will be described later.
  • the OFDM generation block 1030 can apply existing OFDM modulation having a cyclic prefix as the guard interval.
  • a distributed MISO scheme is applied across the transmitter.
  • a peak-to-average power ratio (PAPR) scheme is implemented in the time domain.
  • PAPR peak-to-average power ratio
  • the proposal provides a variety of FFT sizes, guard interval lengths, and sets of corresponding pilot patterns. Detailed operations of the OFDM generation block 1030 will be described later.
  • the signaling generation block 1040 may generate physical layer signaling information used for the operation of each functional block.
  • the signaling information is also transmitted such that the service of interest is properly recovered at the receiver side. Detailed operations of the signaling generation block 1040 will be described later.
  • 2 illustrates an input format block according to an embodiment of the present invention. 2 shows an input format block when the input signal is a single input stream.
  • the input format block illustrated in FIG. 2 corresponds to an embodiment of the input format block 1000 described with reference to FIG. 1.
  • Input to the physical layer may consist of one or multiple data streams. Each data stream is carried by one data pipe.
  • the mode adaptation module slices the input data stream into a data field of a baseband frame (BBF).
  • BBF baseband frame
  • the system supports three types of input data streams: MPEG2-TS, IP, and GS (generic stream).
  • MPEG2-TS features a fixed length (188 bytes) packet where the first byte is a sync byte (0x47).
  • An IP stream consists of variable length IP datagram packets signaled in IP packet headers.
  • the system supports both IPv4 and IPv6 for IP streams.
  • the GS may consist of variable length packets or constant length packets signaled in the encapsulation packet header.
  • (a) shows a mode adaptation block 2000 and a stream adaptation (stream adaptation) 2010 for a signal data pipe
  • PLS generation block 2020 and PLS scrambler 2030 are shown. The operation of each block will be described.
  • the input stream splitter splits the input TS, IP, GS streams into multiple service or service component (audio, video, etc.) streams.
  • the mode adaptation module 2010 is composed of a CRC encoder, a baseband (BB) frame slicer, and a BB frame header insertion block.
  • the CRC encoder provides three types of CRC encoding, CRC-8, CRC-16, and CRC-32, for error detection at the user packet (UP) level.
  • the calculated CRC byte is appended after the UP.
  • CRC-8 is used for the TS stream
  • CRC-32 is used for the IP stream. If the GS stream does not provide CRC encoding, then the proposed CRC encoding should be applied.
  • the BB Frame Slicer maps the input to an internal logical bit format.
  • the first receive bit is defined as MSB.
  • the BB frame slicer allocates the same number of input bits as the available data field capacity. In order to allocate the same number of input bits as the BBF payload, the UP stream is sliced to fit the data field of the BBF.
  • the BB frame header insertion block can insert a 2 bytes fixed length BBF header before the BB frame.
  • the BBF header consists of STUFFI (1 bit), SYNCD (13 bit), and RFU (2 bit).
  • the BBF may have an extension field (1 or 3 bytes) at the end of the 2-byte BBF header.
  • Stream adaptation 2010 consists of a stuffing insertion block and a BB scrambler.
  • the stuffing insertion block may insert the stuffing field into the payload of the BB frame. If the input data for the stream adaptation is sufficient to fill the BB frame, STUFFI is set to 0, and the BBF has no stuffing field. Otherwise, STUFFI is set to 1 and the stuffing field is inserted immediately after the BBF header.
  • the stuffing field includes a 2-byte stuffing field header and variable sized stuffing data.
  • the BB scrambler scrambles the complete BBF for energy dissipation.
  • the scrambling sequence is synchronized with the BBF.
  • the scrambling sequence is generated by the feedback shift register.
  • the PLS generation block 2020 may generate PLS data.
  • PLS provides a means by which a receiver can connect to a physical layer data pipe.
  • PLS data consists of PLS1 data and PLS2 data.
  • PLS1 data is the first set of PLS data delivered to the FSS in frames with fixed size, coding, and modulation that convey basic information about the system as well as the parameters needed to decode the PLS2 data.
  • PLS1 data provides basic transmission parameters including the parameters required to enable reception and decoding of PLS2 data.
  • the PLS1 data is constant during the duration of the frame group.
  • PLS2 data is the second set of PLS data sent to the FSS that carries more detailed PLS data about the data pipes and systems.
  • PLS2 contains parameters that provide enough information for the receiver to decode the desired data pipe.
  • PLS2 signaling further consists of two types of parameters: PLS2 static data (PLS2-STAT data) and PLS2 dynamic data (PLS2-DYN data).
  • PLS2 static data is PLS2 data that is static during the duration of a frame group
  • PLS2 dynamic data is PLS2 data that changes dynamically from frame to frame.
  • the PLS scrambler 2030 may scramble PLS data generated for energy distribution.
  • the aforementioned blocks may be omitted or may be replaced by blocks having similar or identical functions.
  • FIG 3 illustrates an input format block according to another embodiment of the present invention.
  • the input format block illustrated in FIG. 3 corresponds to an embodiment of the input format block 1000 described with reference to FIG. 1.
  • FIG. 3 illustrates a mode adaptation block of an input format block when the input signal corresponds to a multi input stream.
  • a mode adaptation block of an input format block for processing multi input streams may independently process multiple input streams.
  • a mode adaptation block for processing a multi input stream may be an input stream splitter 3000 or an input stream synchro.
  • Each block of the mode adaptation block will be described.
  • Operations of the CRC encoder 3050, the BB frame slicer 3060, and the BB header insertion block 3070 correspond to the operations of the CRC encoder, the BB frame slicer, and the BB header insertion block described with reference to FIG. Is omitted.
  • the input stream splitter 3000 splits the input TS, IP, and GS streams into a plurality of service or service component (audio, video, etc.) streams.
  • the input stream synchronizer 3010 may be called ISSY.
  • ISSY can provide suitable means to ensure constant bit rate (CBR) and constant end-to-end transmission delay for any input data format.
  • CBR constant bit rate
  • ISSY is always used in the case of multiple data pipes carrying TS, and optionally in multiple data pipes carrying GS streams.
  • Compensating delay block 3020 may delay the split TS packet stream following the insertion of ISSY information to allow TS packet recombination mechanisms without requiring additional memory at the receiver. have.
  • the null packet deletion block 3030 is used only for the TS input stream. Some TS input streams or split TS streams may have a large number of null packets present to accommodate variable bit-rate (VBR) services in the CBR TS stream. In this case, to avoid unnecessary transmission overhead, null packets may be acknowledged and not transmitted. At the receiver, the discarded null packet can be reinserted in the exact place it originally existed with reference to the deleted null-packet (DNP) counter inserted in the transmission, ensuring CBR and time stamp (PCR) updates. There is no need.
  • VBR variable bit-rate
  • the header compression block 3040 can provide packet header compression to increase transmission efficiency for the TS or IP input stream. Since the receiver may have a priori information for a particular portion of the header, this known information may be deleted at the transmitter.
  • the receiver may have a priori information about the sync byte configuration (0x47) and the packet length (188 bytes). If the input TS delivers content with only one PID, that is, one service component (video, audio, etc.) or service subcomponent (SVC base layer, SVC enhancement layer, MVC base view, or MVC dependent view) Only, TS packet header compression may (optionally) be applied to the TS. TS packet header compression is optionally used when the input stream is an IP stream. The block may be omitted or replaced with a block having similar or identical functions.
  • FIG. 4 illustrates a BICM block according to an embodiment of the present invention.
  • the BICM block illustrated in FIG. 4 corresponds to an embodiment of the BICM block 1010 described with reference to FIG. 1.
  • the broadcast signal transmission apparatus for the next generation broadcast service may provide a terrestrial broadcast service, a mobile broadcast service, a UHDTV service, and the like.
  • the BICM block according to an embodiment of the present invention can independently process each data pipe by independently applying the SISO, MISO, and MIMO schemes to the data pipes corresponding to the respective data paths.
  • the apparatus for transmitting broadcast signals for the next generation broadcast service according to an embodiment of the present invention may adjust QoS for each service or service component transmitted through each data pipe.
  • the BICM block shared by the base profile and the handheld profile and the BICM block of the advanced profile may include a plurality of processing blocks for processing each data pipe.
  • the processing block 5000 of the BICM block for the base profile and the handheld profile includes a data FEC encoder 5010, a bit interleaver 5020, a constellation mapper 5030, a signal space diversity (SSD) encoding block ( 5040, and a time interleaver 5050.
  • a data FEC encoder 5010 a bit interleaver 5020
  • a constellation mapper 5030 a signal space diversity (SSD) encoding block ( 5040, and a time interleaver 5050.
  • SSD signal space diversity
  • the data FEC encoder 5010 performs FEC encoding on the input BBF to generate the FECBLOCK procedure using outer coding (BCH) and inner coding (LDPC).
  • Outer coding (BCH) is an optional coding method. The detailed operation of the data FEC encoder 5010 will be described later.
  • the bit interleaver 5020 may interleave the output of the data FEC encoder 5010 while providing a structure that can be efficiently realized to achieve optimized performance by a combination of LDPC codes and modulation schemes. The detailed operation of the bit interleaver 5020 will be described later.
  • Constellation mapper 5030 can be QPSK, QAM-16, non-uniform QAM (NUQ-64, NUQ-256, NUQ-1024) or non-uniform constellation (NUC-16, NUC-64, NUC-256, NUC-1024)
  • NUQ-64, NUQ-256, NUQ-1024 non-uniform QAM
  • NUC-16, NUC-64, NUC-256, NUC-1024 A constellation point whose power is normalized by modulating each cell word from the bit interleaver 5020 in the base and handheld profiles or the cell word from the cell word demultiplexer 5010-1 in the advanced profile. e l can be provided.
  • the constellation mapping applies only to data pipes. It is observed that NUQ has any shape, while QAM-16 and NUQ have a square shape. If each constellation is rotated by a multiple of 90 degrees, the rotated constellation overlaps exactly with the original. Due to the rotational symmetry characteristic, the real and imaginary components have the same capacity and average power. Both NUQ and N
  • the time interleaver 5050 may operate at the data pipe level.
  • the parameters of time interleaving can be set differently for each data pipe. The specific operation of the time interleaver 5050 will be described later.
  • the processing block 5000-1 of the BICM block for the advanced profile may include a data FEC encoder, a bit interleaver, a constellation mapper, and a time interleaver.
  • the processing block 5000-1 is distinguished from the processing block 5000 in that it further includes a cell word demultiplexer 5010-1 and a MIMO encoding block 5020-1.
  • operations of the data FEC encoder, the bit interleaver, the constellation mapper, and the time interleaver in the processing block 5000-1 may be performed by the data FEC encoder 5010, the bit interleaver 5020, and the constellation mapper 5030. Since this corresponds to the operation of the time interleaver 5050, the description thereof will be omitted.
  • Cell word demultiplexer 5010-1 is used by an advanced profile data pipe to separate a single cell word stream into a dual cell word stream for MIMO processing. A detailed operation of the cell word demultiplexer 5010-1 will be described later.
  • the MIMO encoding block 5020-1 may process the output of the cell word demultiplexer 5010-1 using the MIMO encoding scheme.
  • MIMO encoding scheme is optimized for broadcast signal transmission. MIMO technology is a promising way to gain capacity, but depends on the channel characteristics. Especially for broadcast, the difference in received signal power between two antennas due to different signal propagation characteristics or the strong LOS component of the channel makes it difficult to obtain capacity gains from MIMO.
  • the proposed MIMO encoding scheme overcomes this problem by using phase randomization and rotation based precoding of one of the MIMO output signals.
  • MIMO encoding is intended for a 2x2 MIMO system that requires at least two antennas at both the transmitter and the receiver.
  • Two MIMO encoding modes are defined in this proposal, full-rate spatial multiplexing (FR-SM) and full-rate full-diversity spatial multiplexing (FRFD-SM).
  • FR-SM encoding provides increased capacity with a relatively small complexity increase at the receiver side, while FRFD-SM encoding provides increased capacity and additional diversity gain with a larger complexity increase at the receiver side.
  • the proposed MIMO encoding scheme does not limit the antenna polarity arrangement.
  • MIMO processing is required for the advanced profile frame, which means that all data pipes in the advanced profile frame are processed by the MIMO encoder. MIMO processing is applied at the data pipe level.
  • the pair of constellation mapper outputs, NUQ (e 1, i and e 2, i ), are fed to the input of the MIMO encoder.
  • MIMO encoder output pairs g1, i and g2, i are transmitted by the same carrier k and OFDM symbol l of each transmit antenna.
  • FIG. 5 illustrates a BICM block according to another embodiment of the present invention.
  • the BICM block illustrated in FIG. 5 corresponds to an embodiment of the BICM block 1010 described with reference to FIG. 1.
  • the EAC is part of a frame carrying EAS information data
  • the FIC is a logical channel in a frame carrying mapping information between a service and a corresponding base data pipe. Detailed description of the EAC and FIC will be described later.
  • a BICM block for protecting PLS, EAC, and FIC may include a PLS FEC encoder 6000, a bit interleaver 6010, and a constellation mapper 6020.
  • the PLS FEC encoder 6000 may include a scrambler, a BCH encoding / zero insertion block, an LDPC encoding block, and an LDPC parity puncturing block. Each block of the BICM block will be described.
  • the PLS FEC encoder 6000 may encode scrambled PLS 1/2 data, EAC and FIC sections.
  • the scrambler may scramble PLS1 data and PLS2 data before BCH encoding and shortening and punctured LDPC encoding.
  • the BCH encoding / zero insertion block may perform outer encoding on the scrambled PLS 1/2 data using the shortened BCH code for PLS protection, and insert zero bits after BCH encoding. For PLS1 data only, the output bits of zero insertion can be permutated before LDPC encoding.
  • the LDPC encoding block may encode the output of the BCH encoding / zero insertion block using the LDPC code.
  • C ldpc and parity bits P ldpc are encoded systematically from each zero-inserted PLS information block I ldpc and appended after it.
  • LDPC code parameters for PLS1 and PLS2 are shown in Table 4 below.
  • the LDPC parity puncturing block may perform puncturing on the PLS1 data and the PLS2 data.
  • LDPC parity bits are punctured after LDPC encoding.
  • the LDPC parity bits of PLS2 are punctured after LDPC encoding. These punctured bits are not transmitted.
  • the bit interleaver 6010 may interleave each shortened and punctured PLS1 data and PLS2 data.
  • the constellation mapper 6020 may map bit interleaved PLS1 data and PLS2 data to constellations.
  • FIG. 6 illustrates a frame building block according to an embodiment of the present invention.
  • the frame building block illustrated in FIG. 7 corresponds to an embodiment of the frame building block 1020 described with reference to FIG. 1.
  • the frame building block may include a delay compensation block 7000, a cell mapper 7010, and a frequency interleaver 7020. have. Each block of the frame building block will be described.
  • the delay compensation block 7000 adjusts the timing between the data pipes and the corresponding PLS data to ensure co-time between the data pipes and the corresponding PLS data at the transmitter. have.
  • PLS data is delayed by the data pipe.
  • the delay of the BICM block is mainly due to the time interleaver 5050.
  • In-band signaling data may cause information of the next time interleaving group to be delivered one frame ahead of the data pipe to be signaled.
  • the delay compensation block delays the in-band signaling data accordingly.
  • the cell mapper 7010 may map a PLS, an EAC, an FIC, a data pipe, an auxiliary stream, and a dummy cell to an active carrier of an OFDM symbol in a frame.
  • the basic function of the cell mapper 7010 is to activate the data cells generated by time interleaving for each data pipe, PLS cell, and EAC / FIC cell, if any, corresponding to each OFDM symbol in one frame. (active) mapping to an array of OFDM cells.
  • Service signaling data (such as program specific information (PSI) / SI) may be collected separately and sent by a data pipe.
  • PSI program specific information
  • SI program specific information
  • the frequency interleaver 7020 may randomly interleave data cells received by the cell mapper 7010 to provide frequency diversity.
  • the frequency interleaver 7020 may operate in an OFDM symbol pair consisting of two sequential OFDM symbols using different interleaving seed order to obtain the maximum interleaving gain in a single frame.
  • FIG 7 illustrates an OFDM generation block according to an embodiment of the present invention.
  • the OFDM generation block illustrated in FIG. 7 corresponds to an embodiment of the OFDM generation block 1030 described with reference to FIG. 1.
  • the OFDM generation block modulates the OFDM carrier by inserting a pilot by the cell generated by the frame building block, inserts a pilot, and generates a time domain signal for transmission.
  • the block sequentially inserts a guard interval and applies a PAPR reduction process to generate a final RF signal.
  • the OFDM generation block includes a pilot and reserved tone insertion block (8000), a 2D-single frequency network (eSFN) encoding block 8010, an inverse fast fourier transform (IFFT).
  • Block 8020 PAPR reduction block 8030, guard interval insertion block 8040, preamble insertion block 8050, other system insertion block 8060, and DAC block ( 8070).
  • the other system insertion block 8060 may multiplex signals of a plurality of broadcast transmission / reception systems in a time domain so that data of two or more different broadcast transmission / reception systems providing a broadcast service may be simultaneously transmitted in the same RF signal band.
  • two or more different broadcast transmission / reception systems refer to a system that provides different broadcast services.
  • Different broadcast services may refer to terrestrial broadcast services or mobile broadcast services.
  • FIG. 8 illustrates a structure of a broadcast signal receiving apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • the broadcast signal receiving apparatus for the next generation broadcast service may correspond to the broadcast signal transmitting apparatus for the next generation broadcast service described with reference to FIG. 1.
  • An apparatus for receiving broadcast signals for a next generation broadcast service includes a synchronization & demodulation module 9000, a frame parsing module 9010, a demapping and decoding module a demapping & decoding module 9020, an output processor 9030, and a signaling decoding module 9040. The operation of each module of the broadcast signal receiving apparatus will be described.
  • the synchronization and demodulation module 9000 receives an input signal through m reception antennas, performs signal detection and synchronization on a system corresponding to the broadcast signal receiving apparatus, and performs a reverse process of the procedure performed by the broadcast signal transmitting apparatus. Demodulation can be performed.
  • the frame parsing module 9010 may parse an input signal frame and extract data in which a service selected by a user is transmitted.
  • the frame parsing module 9010 may execute deinterleaving corresponding to the reverse process of interleaving. In this case, positions of signals and data to be extracted are obtained by decoding the data output from the signaling decoding module 9040, so that the scheduling information generated by the broadcast signal transmission apparatus may be restored.
  • the demapping and decoding module 9020 may convert the input signal into bit region data and then deinterleave the bit region data as necessary.
  • the demapping and decoding module 9020 can perform demapping on the mapping applied for transmission efficiency, and correct an error generated in the transmission channel through decoding. In this case, the demapping and decoding module 9020 can obtain transmission parameters necessary for demapping and decoding by decoding the data output from the signaling decoding module 9040.
  • the output processor 9030 may perform a reverse process of various compression / signal processing procedures applied by the broadcast signal transmission apparatus to improve transmission efficiency.
  • the output processor 9030 may obtain necessary control information from the data output from the signaling decoding module 9040.
  • the output of the output processor 8300 corresponds to a signal input to the broadcast signal transmission apparatus and may be MPEG-TS, IP stream (v4 or v6), and GS.
  • the signaling decoding module 9040 may obtain PLS information from the signal demodulated by the synchronization and demodulation module 9000. As described above, the frame parsing module 9010, the demapping and decoding module 9200, and the output processor 9300 may execute the function using data output from the signaling decoding module 9040.
  • FIG. 9 shows a frame structure according to an embodiment of the present invention.
  • FIG. 9 shows a structural example of a frame time and a frame repetition unit (FRU) in a super frame.
  • (a) shows a super frame according to an embodiment of the present invention
  • (b) shows a FRU according to an embodiment of the present invention
  • (c) shows a frame of various physical profile (PHY profile) in the FRU
  • (D) shows the structure of the frame.
  • Super frame may consist of eight FRUs.
  • the FRU is the basic multiplexing unit for the TDM of the frame and is repeated eight times in the super frame.
  • Each frame in the FRU belongs to one of the physical profiles (base, handheld, advanced profile) or FEF.
  • the maximum allowable number of frames in a FRU is 4, and a given physical profile may appear any number of times from 0 to 4 times in the FRU (eg, base, base, handheld, advanced).
  • the physical profile definition may be extended using the reserved value of PHY_PROFILE in the preamble if necessary.
  • the FEF portion is inserted at the end of the FRU if included. If the FEF is included in the FRU, the maximum number of FEFs is 8 in a super frame. It is not recommended that the FEF parts be adjacent to each other.
  • One frame is further separated into multiple OFDM symbols and preambles. As shown in (d), the frame includes a preamble, one or more FSS, normal data symbols, and FES.
  • the preamble is a special symbol that enables fast Futurecast UTB system signal detection and provides a set of basic transmission parameters for efficient transmission and reception of the signal. Details of the preamble will be described later.
  • the main purpose of the FSS is to carry PLS data.
  • the FSS For fast synchronization and channel estimation, and hence for fast decoding of PLS data, the FSS has a higher density pilot pattern than normal data symbols.
  • the FES has a pilot that is exactly the same as the FSS, which allows frequency only interpolation and temporal interpolation within the FES without extrapolation for symbols immediately preceding the FES.
  • FIG. 10 illustrates a signaling hierarchy structure of a frame according to an embodiment of the present invention.
  • PLS 10 shows a signaling hierarchy, which is divided into three main parts: preamble signaling data 11000, PLS1 data 11010, and PLS2 data 11020.
  • the purpose of the preamble carried by the preamble signal every frame is to indicate the basic transmission parameters and transmission type of the frame.
  • PLS1 allows the receiver to access and decode PLS2 data that includes parameters for connecting to the data pipe of interest.
  • PLS2 is delivered every frame and divided into two main parts, PLS2-STAT data and PLS2-DYN data. The static and dynamic parts of the PLS2 data are followed by padding if necessary.
  • FIG 11 illustrates preamble signaling data according to an embodiment of the present invention.
  • the preamble signaling data carries 21 bits of information needed to enable the receiver to access the PLS data and track the data pipes within the frame structure. Details of the preamble signaling data are as follows.
  • PHY_PROFILE This 3-bit field indicates the physical profile type of the current frame. The mapping of different physical profile types is given in Table 5 below.
  • FFT_SIZE This 2-bit field indicates the FFT size of the current frame in the frame group as described in Table 6 below.
  • GI_FRACTION This 3-bit field indicates a guard interval fraction value in the current super frame as described in Table 7 below.
  • EAC_FLAG This 1-bit field indicates whether EAC is provided in the current frame. If this field is set to 1, EAS is provided in the current frame. If this field is set to 0, EAS is not delivered in the current frame. This field may be converted to dynamic within a super frame.
  • PILOT_MODE This 1-bit field indicates whether the pilot mode is a mobile mode or a fixed mode for the current frame in the current frame group. If this field is set to 0, mobile pilot mode is used. If the field is set to '1', fixed pilot mode is used.
  • PAPR_FLAG This 1-bit field indicates whether PAPR reduction is used for the current frame in the current frame group. If this field is set to 1, tone reservation is used for PAPR reduction. If this field is set to 0, no PAPR reduction is used.
  • This 3-bit field indicates the physical profile type configuration of the FRU present in the current super frame. In the corresponding field in all preambles in the current super frame, all profile types carried in the current super frame are identified. The 3-bit field is defined differently for each profile as shown in Table 8 below.
  • PLS1 data provides basic transmission parameters including the parameters needed to enable the reception and decoding of PLS2. As mentioned above, the PLS1 data does not change during the entire duration of one frame group. A detailed definition of the signaling field of the PLS1 data is as follows.
  • PREAMBLE_DATA This 20-bit field is a copy of the preamble signaling data excluding EAC_FLAG.
  • NUM_FRAME_FRU This 2-bit field indicates the number of frames per FRU.
  • PAYLOAD_TYPE This 3-bit field indicates the format of payload data carried in the frame group. PAYLOAD_TYPE is signaled as shown in Table 9.
  • NUM_FSS This 2-bit field indicates the number of FSS in the current frame.
  • SYSTEM_VERSION This 8-bit field indicates the version of the signal format being transmitted. SYSTEM_VERSION is separated into two 4-bit fields: major and minor.
  • the 4-bit MSB in the SYSTEM_VERSION field indicates major version information. Changes in the major version field indicate incompatible changes. The default value is 0000. For the version described in that standard, the value is set to 0000.
  • Minor Version A 4-bit LSB in the SYSTEM_VERSION field indicates minor version information. Changes in the minor version field are compatible.
  • CELL_ID This is a 16-bit field that uniquely identifies a geographic cell in an ATSC network. ATSC cell coverage may consist of one or more frequencies depending on the number of frequencies used per Futurecast UTB system. If the value of CELL_ID is unknown or not specified, this field is set to zero.
  • NETWORK_ID This is a 16-bit field that uniquely identifies the current ATSC network.
  • SYSTEM_ID This 16-bit field uniquely identifies a Futurecast UTB system within an ATSC network.
  • Futurecast UTB systems are terrestrial broadcast systems whose input is one or more input streams (TS, IP, GS) and the output is an RF signal.
  • the Futurecast UTB system conveys the FEF and one or more physical profiles, if present.
  • the same Futurecast UTB system can carry different input streams and use different RFs in different geographic regions, allowing for local service insertion.
  • Frame structure and scheduling are controlled in one place and are the same for all transmissions within a Futurecast UTB system.
  • One or more Futurecast UTB systems may have the same SYSTEM_ID meaning that they all have the same physical structure and configuration.
  • the following loop is composed of FRU_PHY_PROFILE, FRU_FRAME_LENGTH, FRU_GI_FRACTION, and RESERVED indicating the length and FRU configuration of each frame type.
  • the loop size is fixed such that four physical profiles (including FFEs) are signaled within the FRU. If NUM_FRAME_FRU is less than 4, the unused fields are filled with zeros.
  • FRU_PHY_PROFILE This 3-bit field indicates the physical profile type of the (i + 1) th frame (i is a loop index) of the associated FRU. This field uses the same signaling format as shown in Table 8.
  • FRU_FRAME_LENGTH This 2-bit field indicates the length of the (i + 1) th frame of the associated FRU. Using FRU_FRAME_LENGTH with FRU_GI_FRACTION, the exact value of frame duration can be obtained.
  • FRU_GI_FRACTION This 3-bit field indicates the guard interval partial value of the (i + 1) th frame of the associated FRU.
  • FRU_GI_FRACTION is signaled according to Table 7.
  • the following fields provide parameters for decoding PLS2 data.
  • PLS2_FEC_TYPE This 2-bit field indicates the FEC type used by the PLS2 protection.
  • the FEC type is signaled according to Table 10. Details of the LDPC code will be described later.
  • PLS2_MOD This 3-bit field indicates the modulation type used by PLS2.
  • the modulation type is signaled according to Table 11.
  • PLS2_SIZE_CELL This 15-bit field indicates C total_partial_block which is the size (specified by the number of QAM cells) of all coding blocks for PLS2 carried in the current frame group . This value is constant for the entire duration of the current frame-group.
  • PLS2_STAT_SIZE_BIT This 14-bit field indicates the size, in bits, of the PLS2-STAT for the current frame-group. This value is constant for the entire duration of the current frame-group.
  • PLS2_DYN_SIZE_BIT This 14-bit field indicates the size, in bits, of the PLS2-DYN for the current frame-group. This value is constant for the entire duration of the current frame-group.
  • PLS2_REP_FLAG This 1-bit flag indicates whether the PLS2 repeat mode is used in the current frame group. If the value of this field is set to 1, PLS2 repeat mode is activated. If the value of this field is set to 0, PLS2 repeat mode is deactivated.
  • PLS2_REP_SIZE_CELL This 15-bit field indicates C total_partial_block , which is the size (specified by the number of QAM cells) of the partial coding block for PLS2 delivered every frame of the current frame group when PLS2 repetition is used. If iteration is not used, the value of this field is equal to zero. This value is constant for the entire duration of the current frame-group.
  • PLS2_NEXT_FEC_TYPE This 2-bit field indicates the FEC type used for PLS2 delivered in every frame of the next frame-group.
  • the FEC type is signaled according to Table 10.
  • PLS2_NEXT_MOD This 3-bit field indicates the modulation type used for PLS2 delivered in every frame of the next frame-group.
  • the modulation type is signaled according to Table 11.
  • PLS2_NEXT_REP_FLAG This 1-bit flag indicates whether the PLS2 repeat mode is used in the next frame group. If the value of this field is set to 1, PLS2 repeat mode is activated. If the value of this field is set to 0, PLS2 repeat mode is deactivated.
  • PLS2_NEXT_REP_SIZE_CELL This 15-bit field indicates C total_full_block , which is the size (specified in the number of QAM cells) of the entire coding block for PLS2 delivered every frame of the next frame-group when PLS2 repetition is used. If iteration is not used in the next frame-group, the value of this field is equal to zero. This value is constant for the entire duration of the current frame-group.
  • PLS2_NEXT_REP_STAT_SIZE_BIT This 14-bit field indicates the size, in bits, of the PLS2-STAT for the next frame-group. The value is constant in the current frame group.
  • PLS2_NEXT_REP_DYN_SIZE_BIT This 14-bit field indicates the size of the PLS2-DYN for the next frame-group, in bits. The value is constant in the current frame group.
  • PLS2_AP_MODE This 2-bit field indicates whether additional parity is provided for PLS2 in the current frame group. This value is constant for the entire duration of the current frame-group. Table 12 below provides the values for this field. If the value of this field is set to 00, no additional parity is used for PLS2 in the current frame group.
  • PLS2_AP_SIZE_CELL This 15-bit field indicates the size (specified by the number of QAM cells) of additional parity bits of PLS2. This value is constant for the entire duration of the current frame-group.
  • PLS2_NEXT_AP_MODE This 2-bit field indicates whether additional parity is provided for PLS2 signaling for every frame of the next frame-group. This value is constant for the entire duration of the current frame-group. Table 12 defines the values of this field.
  • PLS2_NEXT_AP_SIZE_CELL This 15-bit field indicates the size (specified by the number of QAM cells) of additional parity bits of PLS2 for every frame of the next frame-group. This value is constant for the entire duration of the current frame-group.
  • RESERVED This 32-bit field is reserved for future use.
  • FIG 13 illustrates PLS2 data according to an embodiment of the present invention.
  • PLS2-STAT data of the PLS2 data.
  • PLS2-STAT data is the same within a frame group, while PLS2-DYN data provides specific information about the current frame.
  • FIC_FLAG This 1-bit field indicates whether the FIC is used in the current frame group. If the value of this field is set to 1, the FIC is provided in the current frame. If the value of this field is set to 0, FIC is not delivered in the current frame. This value is constant for the entire duration of the current frame-group.
  • AUX_FLAG This 1-bit field indicates whether the auxiliary stream is used in the current frame group. If the value of this field is set to 1, the auxiliary stream is provided in the current frame. If the value of this field is set to 0, the auxiliary frame is not transmitted in the current frame. This value is constant for the entire duration of the current frame-group.
  • NUM_DP This 6-bit field indicates the number of data pipes carried in the current frame. The value of this field is between 1 and 64, and the number of data pipes is NUM_DP + 1.
  • DP_ID This 6-bit field uniquely identifies within the physical profile.
  • DP_TYPE This 3-bit field indicates the type of data pipe. This is signaled according to Table 13 below.
  • DP_GROUP_ID This 8-bit field identifies the data pipe group with which the current data pipe is associated. This can be used to connect to the data pipe of the service component associated with a particular service that the receiver will have the same DP_GROUP_ID.
  • BASE_DP_ID This 6-bit field indicates a data pipe that carries service signaling data (such as PSI / SI) used in the management layer.
  • the data pipe indicated by BASE_DP_ID may be a normal data pipe for delivering service signaling data together with service data or a dedicated data pipe for delivering only service signaling data.
  • DP_FEC_TYPE This 2-bit field indicates the FEC type used by the associated data pipe.
  • the FEC type is signaled according to Table 14 below.
  • DP_COD This 4-bit field indicates the code rate used by the associated data pipe.
  • the code rate is signaled according to Table 15 below.
  • DP_MOD This 4-bit field indicates the modulation used by the associated data pipe. Modulation is signaled according to Table 16 below.
  • DP_SSD_FLAG This 1-bit field indicates whether the SSD mode is used in the associated data pipe. If the value of this field is set to 1, the SSD is used. If the value of this field is set to 0, the SSD is not used.
  • DP_MIMO This 3-bit field indicates what type of MIMO encoding processing is applied to the associated data pipe.
  • the type of MIMO encoding process is signaled according to Table 17 below.
  • DP_TI_TYPE This 1-bit field indicates the type of time interleaving. A value of 0 indicates that one time interleaving group corresponds to one frame and includes one or more time interleaving blocks. A value of 1 indicates that one time interleaving group is delivered in more than one frame and contains only one time interleaving block.
  • DP_TI_LENGTH The use of this 2-bit field (only allowed values are 1, 2, 4, 8) is determined by the value set in the DP_TI_TYPE field as follows.
  • N TI the number of time interleaving block per time interleaving group
  • This 2-bit field represents the frame interval (I JUMP ) within the frame group for the associated data pipe, and allowed values are 1, 2, 4, 8 (the corresponding 2-bit fields are 00, 01, 10, 11). For data pipes that do not appear in every frame of a frame group, the value of this field is equal to the interval between sequential frames. For example, if a data pipe appears in frames 1, 5, 9, 13, etc., the value of this field is set to 4. For data pipes that appear in every frame, the value of this field is set to 1.
  • DP_TI_BYPASS This 1-bit field determines the availability of time interleaver 5050. If time interleaving is not used for the data pipe, this field value is set to 1. On the other hand, if time interleaving is used, the corresponding field value is set to zero.
  • DP_FIRST_FRAME_IDX This 5-bit field indicates the index of the first frame of the super frame in which the current data pipe occurs.
  • the value of DP_FIRST_FRAME_IDX is between 0 and 31.
  • DP_NUM_BLOCK_MAX This 10-bit field indicates the maximum value of DP_NUM_BLOCKS for the data pipe. The value of this field has the same range as DP_NUM_BLOCKS.
  • DP_PAYLOAD_TYPE This 2-bit field indicates the type of payload data carried by a given data pipe. DP_PAYLOAD_TYPE is signaled according to Table 19 below.
  • DP_INBAND_MODE This 2-bit field indicates whether the current data pipe carries in-band signaling information. In-band signaling type is signaled according to Table 20 below.
  • DP_PROTOCOL_TYPE This 2-bit field indicates the protocol type of the payload carried by the given data pipe.
  • the protocol type of payload is signaled according to Table 21 below when the input payload type is selected.
  • DP_CRC_MODE This 2-bit field indicates whether CRC encoding is used in the input format block. CRC mode is signaled according to Table 22 below.
  • DNP_MODE This 2-bit field indicates the null packet deletion mode used by the associated data pipe when DP_PAYLOAD_TYPE is set to TS ('00'). DNP_MODE is signaled according to Table 23 below. If DP_PAYLOAD_TYPE is not TS ('00'), DNP_MODE is set to a value of 00.
  • ISSY_MODE This 2-bit field indicates the ISSY mode used by the associated data pipe when DP_PAYLOAD_TYPE is set to TS ('00'). ISSY_MODE is signaled according to Table 24 below. If DP_PAYLOAD_TYPE is not TS ('00'), ISSY_MODE is set to a value of 00.
  • HC_MODE_TS This 2-bit field indicates the TS header compression mode used by the associated data pipe when DP_PAYLOAD_TYPE is set to TS ('00'). HC_MODE_TS is signaled according to Table 25 below.
  • HC_MODE_IP This 2-bit field indicates the IP header compression mode when DP_PAYLOAD_TYPE is set to IP ('01'). HC_MODE_IP is signaled according to Table 26 below.
  • PID This 13-bit field indicates the number of PIDs for TS header compression when DP_PAYLOAD_TYPE is set to TS ('00') and HC_MODE_TS is set to 01 or 10.
  • FIC_VERSION This 8-bit field indicates the version number of the FIC.
  • FIC_LENGTH_BYTE This 13-bit field indicates the length of the FIC in bytes.
  • NUM_AUX This 4-bit field indicates the number of auxiliary streams. Zero indicates that no auxiliary stream is used.
  • AUX_CONFIG_RFU This 8-bit field is reserved for future use.
  • AUX_STREAM_TYPE This 4 bits is reserved for future use to indicate the type of the current auxiliary stream.
  • AUX_PRIVATE_CONFIG This 28-bit field is reserved for future use for signaling the secondary stream.
  • FIG 14 illustrates PLS2 data according to another embodiment of the present invention.
  • the value of the PLS2-DYN data may change during the duration of one frame group, while the size of the field is constant.
  • FRAME_INDEX This 5-bit field indicates the frame index of the current frame within the super frame. The index of the first frame of the super frame is set to zero.
  • PLS_CHANGE_COUNTER This 4-bit field indicates the number of super frames before the configuration changes. The next super frame whose configuration changes is indicated by the value signaled in that field. If the value of this field is set to 0000, this means that no scheduled change is expected. For example, a value of 1 indicates that there is a change in the next super frame.
  • FIC_CHANGE_COUNTER This 4-bit field indicates the number of super frames before the configuration (i.e., the content of the FIC) changes. The next super frame whose configuration changes is indicated by the value signaled in that field. If the value of this field is set to 0000, this means that no scheduled change is expected. For example, a value of 0001 indicates that there is a change in the next super frame.
  • NUM_DP NUM_DP that describes the parameters related to the data pipe carried in the current frame.
  • DP_ID This 6-bit field uniquely represents a data pipe within the physical profile.
  • DP_START This 15-bit (or 13-bit) field indicates the first starting position of the data pipe using the DPU addressing technique.
  • the DP_START field has a length different according to the physical profile and the FFT size as shown in Table 27 below.
  • DP_NUM_BLOCK This 10-bit field indicates the number of FEC blocks in the current time interleaving group for the current data pipe.
  • the value of DP_NUM_BLOCK is between 0 and 1023.
  • the next field indicates the FIC parameter associated with the EAC.
  • EAC_FLAG This 1-bit field indicates the presence of an EAC in the current frame. This bit is equal to EAC_FLAG in the preamble.
  • EAS_WAKE_UP_VERSION_NUM This 8-bit field indicates the version number of the automatic activation indication.
  • EAC_FLAG field If the EAC_FLAG field is equal to 1, the next 12 bits are allocated to the EAC_LENGTH_BYTE field. If the EAC_FLAG field is equal to 0, the next 12 bits are allocated to EAC_COUNTER.
  • EAC_LENGTH_BYTE This 12-bit field indicates the length of the EAC in bytes.
  • EAC_COUNTER This 12-bit field indicates the number of frames before the frame in which the EAC arrives.
  • AUX_PRIVATE_DYN This 48-bit field is reserved for future use for signaling the secondary stream. The meaning of this field depends on the value of AUX_STREAM_TYPE in configurable PLS2-STAT.
  • CRC_32 32-bit error detection code that applies to the entire PLS2.
  • FIG. 15 illustrates a logical structure of a frame according to an embodiment of the present invention.
  • the PLS, EAC, FIC, data pipe, auxiliary stream, and dummy cell are mapped to the active carrier of the OFDM symbol in the frame.
  • PLS1 and PLS2 are initially mapped to one or more FSS. Then, if there is an EAC, the EAC cell is mapped to the immediately following PLS field. If there is an FIC next, the FIC cell is mapped.
  • the data pipes are mapped after the PLS or, if present, after the EAC or FIC. Type 1 data pipes are mapped first, and type 2 data pipes are mapped next. Details of the type of data pipe will be described later. In some cases, the data pipe may carry some special data or service signaling data for the EAS.
  • auxiliary stream or stream if present, is mapped to the data pipe next, followed by a dummy cell in turn. Mapping all together in the order described above, namely PLS, EAC, FIC, data pipe, auxiliary stream, and dummy cell, will correctly fill the cell capacity in the frame.
  • FIG 16 illustrates PLS mapping according to an embodiment of the present invention.
  • the PLS cell is mapped to an active carrier of the FSS. According to the number of cells occupied by the PLS, one or more symbols are designated as FSS, and the number N FSS of the FSS is signaled by NUM_FSS in PLS1.
  • FSS is a special symbol that carries a PLS cell. Since alertness and latency are critical issues in PLS, the FSS has a high pilot density, enabling fast synchronization and interpolation only on frequencies within the FSS.
  • the PLS cell is mapped to an active carrier of the FSS from the top down as shown in the example of FIG.
  • PLS1 cells are initially mapped in ascending order of cell index from the first cell of the first FSS.
  • the PLS2 cell follows immediately after the last cell of PLS1 and the mapping continues downward until the last cell index of the first FSS. If the total number of required PLS cells exceeds the number of active carriers of one FSS, the mapping proceeds to the next FSS and continues in exactly the same way as the first FSS.
  • EAC, FIC or both are present in the current frame, EAC and FIC are placed between the PLS and the normal data pipe.
  • FIG 17 illustrates EAC mapping according to an embodiment of the present invention.
  • the EAC is a dedicated channel for delivering EAS messages and is connected to the data pipes for the EAS. EAS support is provided, but the EAC itself may or may not be present in every frame. If there is an EAC, the EAC is mapped immediately after the PLS2 cell. Except for PLS cells, none of the FIC, data pipes, auxiliary streams or dummy cells are located before the EAC. The mapping procedure of the EAC cell is exactly the same as that of the PLS.
  • EAC cells are mapped in ascending order of cell index from the next cell of PLS2 as shown in the example of FIG. Depending on the EAS message size, as shown in FIG. 17, the EAC cell may occupy few symbols.
  • the EAC cell follows immediately after the last cell of PLS2 and the mapping continues downward until the last cell index of the last FSS. If the total number of required EAC cells exceeds the number of remaining active carriers of the last FSS, the EAC mapping proceeds to the next symbol and continues in exactly the same way as the FSS. In this case, the next symbol to which the EAC is mapped is a normal data symbol, which has more active carriers than the FSS.
  • the FIC is passed next if present. If no FIC is sent (as signaling in the PLS2 field), the data pipe follows immediately after the last cell of the EAC.
  • FIC is a dedicated channel that carries cross-layer information to enable fast service acquisition and channel scan.
  • the information mainly includes channel binding information between data pipes and services of each broadcaster.
  • the receiver can decode the FIC and obtain information such as broadcaster ID, number of services, and BASE_DP_ID.
  • BASE_DP_ID For high-speed service acquisition, not only the FIC but also the base data pipe can be decoded using BASE_DP_ID. Except for the content that the base data pipe transmits, the base data pipe is encoded and mapped to the frame in exactly the same way as a normal data pipe. Thus, no further explanation of the base data pipe is needed.
  • FIC data is generated and consumed at the management layer. The content of the FIC data is as described in the management layer specification.
  • FIC data is optional and the use of FIC is signaled by the FIC_FLAG parameter in the static part of the PLS2. If FIC is used, FIC_FLAG is set to 1 and the signaling field for FIC is defined in the static part of PLS2. Signaled in this field is FIC_VERSION, FIC_LENGTH_BYTE. FIC uses the same modulation, coding, and time interleaving parameters as PLS2. The FIC shares the same signaling parameters as PLS2_MOD and PLS2_FEC. FIC data is mapped after PLS2 if present, or immediately after EAC if EAC is present. None of the normal data pipes, auxiliary streams, or dummy cells are located before the FIC. The method of mapping the FIC cells is exactly the same as the EAC, which in turn is identical to the PLS.
  • the FIC cells are mapped in ascending order of cell index from the next cell of PLS2 as shown in the example of (a).
  • FIC cells are mapped for several symbols.
  • the FIC cell follows immediately after the last cell of PLS2 and the mapping continues downward until the last cell index of the last FSS. If the total number of required FIC cells exceeds the number of remaining active carriers of the last FSS, the mapping of the remaining FIC cells proceeds to the next symbol, which continues in exactly the same way as the FSS. In this case, the next symbol to which the FIC is mapped is a normal data symbol, which has more active carriers than the FSS.
  • the EAC is mapped before the FIC and the FIC cells are mapped in ascending order of cell index from the next cell of the EAC as shown in (b).
  • one or more data pipes are mapped, followed by auxiliary streams and dummy cells if present.
  • FIG 19 shows an FEC structure according to an embodiment of the present invention.
  • the data FEC encoder may perform FEC encoding on the input BBF to generate the FECBLOCK procedure using outer coding (BCH) and inner coding (LDPC).
  • BCH outer coding
  • LDPC inner coding
  • the illustrated FEC structure corresponds to FECBLOCK.
  • the FECBLOCK and FEC structures have the same value corresponding to the length of the LDPC codeword.
  • N ldpc 64800 bits (long FECBLOCK) or 16200 bits (short FECBLOCK).
  • Tables 28 and 29 below show the FEC encoding parameters for the long FECBLOCK and the short FECBLOCK, respectively.
  • a 12-error correcting BCH code is used for the outer encoding of the BBF.
  • the BBF-generated polynomials for short FECBLOCK and long FECBLOCK are obtained by multiplying all polynomials.
  • LDPC codes are used to encode the output of the outer BCH encoding.
  • ldpc P parity bits
  • I ldpc - is systematically encoded from the (BCH encoded BBF), it is attached to the I ldpc.
  • the finished B ldpc (FECBLOCK) is expressed by the following equation.
  • N ldpc for long FECBLOCK - specific procedures for calculating the K ldpc parity bits is as follows.
  • x represents the address of the parity bit accumulator corresponding to the first bit i 0
  • Q ldpc is a code rate dependent constant specified in the address of the parity check matrix.
  • Equation 6 x represents the address of the parity bit accumulator corresponding to information bit i 360 , that is, the entry of the second row of the parity check matrix.
  • the final parity bits are obtained as follows.
  • the corresponding LDPC encoding procedure for short FECBLOCK is t LDPC for long FECBLOCK.
  • the time interleaver operates at the data pipe level.
  • the parameters of time interleaving can be set differently for each data pipe.
  • DP_TI_TYPE (allowed values: 0 or 1): Represents the time interleaving mode.
  • 0 indicates a mode with multiple time interleaving blocks (one or more time interleaving blocks) per time interleaving group. In this case, one time interleaving group is directly mapped to one frame (without interframe interleaving).
  • 1 indicates a mode having only one time interleaving block per time interleaving group. In this case, the time interleaving block is spread over one or more frames (interframe interleaving).
  • DP_NUM_BLOCK_MAX (allowed values: 0 to 1023): Represents the maximum number of XFECBLOCKs per time interleaving group.
  • DP_FRAME_INTERVAL (allowed values: 1, 2, 4, 8): Represents the number of frames I JUMP between two sequential frames carrying the same data pipe of a given physical profile.
  • DP_TI_BYPASS (allowed values: 0 or 1): If time interleaving is not used for the data frame, this parameter is set to one. If time interleaving is used, it is set to zero.
  • the parameter DP_NUM_BLOCK from the PLS2-DYN data indicates the number of XFECBLOCKs carried by one time interleaving group of the data group.
  • each time interleaving group is a set of integer number of XFECBLOCKs, and will contain a dynamically varying number of XFECBLOCKs.
  • N xBLOCK_Group (n) The number of XFECBLOCKs in the time interleaving group at index n is represented by N xBLOCK_Group (n) and signaled as DP_NUM_BLOCK in the PLS2-DYN data.
  • N xBLOCK_Group (n) may vary from the minimum value 0 to the maximum value N xBLOCK_Group_MAX (corresponding to DP_NUM_BLOCK_MAX ) having the largest value 1023.
  • Each time interleaving group is either mapped directly to one frame or spread over P I frames.
  • Each time interleaving group is further divided into one or more (N TI ) time interleaving blocks.
  • each time interleaving block corresponds to one use of the time interleaver memory.
  • the time interleaving block in the time interleaving group may include some other number of XFECBLOCKs. If the time interleaving group is divided into multiple time interleaving blocks, the time interleaving group is directly mapped to only one frame. As shown in Table 32 below, there are three options for time interleaving (except for the additional option of omitting time interleaving).
  • the time interleaver will also act as a buffer for the data pipe data before the frame generation process. This is accomplished with two memory banks for each data pipe.
  • the first time interleaving block is written to the first bank.
  • the second time interleaving block is written to the second bank while reading from the first bank.
  • Time interleaving is a twisted row-column block interleaver.
  • the number of columns N c is equal to N xBLOCK_TI (n, s)
  • 21 illustrates the basic operation of a twisted row-column block interleaver according to an embodiment of the present invention.
  • Fig. 21A shows a write operation in the time interleaver
  • Fig. 21B shows a read operation in the time interleaver.
  • the first XFECBLOCK is written in the column direction to the first column of the time interleaving memory
  • the second XFECBLOCK is written to the next column, followed by this operation.
  • the cells are read diagonally.
  • Cells are read. Specifically, Assuming that this is a time interleaving memory cell position to be read sequentially, the read operation in this interleaving array is a row index as in the equation below. Column index Related twist parameters Is executed by calculating.
  • the cell position to be read is coordinate Calculated by
  • FIG. 22 illustrates an operation of a twisted row-column block interleaver according to another embodiment of the present invention.
  • FIG. 22 Denotes an interleaving array in the time interleaving memory for each time interleaving group including the virtual XFECBLOCK.
  • the interleaving array for twisted row-column block interleaver inserts a virtual XFECBLOCK into the time interleaving memory. It is set to the size of, and the reading process is made as follows.
  • the number of time interleaving groups is set to three.
  • the maximum number of XFECBLOCKs is signaled in PLS2-STAT data by NxBLOCK_Group_MAX, which Leads to.
  • Figure 23 illustrates a diagonal read pattern of a twisted row-column block interleaver according to one embodiment of the present invention.
  • FIG. 25 is a diagram illustrating a configuration of a main physical device and a companion physical device according to an embodiment of the present invention.
  • An embodiment of the present invention may provide a service guide in a terrestrial broadcast or mobile broadcast environment.
  • an embodiment of the present invention may provide a service guide for a service that may be possible in a next generation hybrid broadcasting environment based on the interworking of the terrestrial broadcasting network and the Internet network.
  • An embodiment of the present invention may inform a user of various services that can be provided in a next generation hybrid broadcasting system and content and / or component elements configuring the same. Through this, the user may provide convenience in checking, selecting, and enjoying a corresponding service.
  • An embodiment of the present invention may structure and refer to a service and various content and / or component elements configuring the same. Through this, the broadcast receiver can easily configure and provide a corresponding service and allow a user to easily grasp the corresponding service.
  • An embodiment of the present invention extends a reference structure that associates a service with various content and / or component elements constituting the service, thereby allowing a broadcast receiver and / or user to select content and / or component elements constituting a service. You can save resources and / or time spent searching.
  • This figure shows the overall configuration of the main physical device and the companion physical device according to an embodiment of the present invention.
  • the main physical device L25010 is one of devices for an interactive service, and mainly indicates a device to be controlled by a companion physical device L25020. Can be.
  • the main physical device may be referred to as a main device, a main receiving device, a main receiver, a main display, a main screen, and the like.
  • the main physical device L25010 is a broadcast interface (L25030), a network interface (L25040), a memory unit (L25050), a control unit (L25060), a display unit (L25070), and a multimedia module (L25080). , storage (L25090), power supply (L25100), and / or user input interface (L25110).
  • the broadcast interface L25030 may represent a physical device that enables message and / or data transmission between the broadcaster and the device such as an AV stream, service guide, and notification.
  • the broadcast interface may receive broadcast signals, signaling information, data, and the like from the broadcaster.
  • the network interface L25040 refers to a physical device that enables message, advertise, and / or data transfer such as command, request, action, response, etc. between devices (eg, main physical device and companion physical device). Can be.
  • the network interface may receive a broadcast service, broadcast content, signaling information, applications, data, etc. from an internet service provider.
  • the memory unit L25050 is an optional device implemented in various types of devices and may represent a volatile physical device capable of temporarily storing various types of data.
  • the control unit L25060 is a device that controls the overall operation of the source device and / or sink device, and may be software or hardware.
  • the source device may represent a device for transmitting a message and / or data
  • the sink device may represent a device for receiving a message and / or data. Therefore, the main physical device and the companion physical device according to an embodiment of the present invention may correspond to a source device or a sink device.
  • the display unit L25070 may display data received through a network interface or data stored in a storage on a screen. At this time, the display unit may be operated by the control of the control unit.
  • the multimedia module L25080 may play various kinds of multimedia.
  • the multimedia module may be included in the control unit and may exist separately from the control unit.
  • the storage L25090 may represent a nonvolatile physical device capable of storing various kinds of data.
  • an SD card may correspond to storage.
  • the power supply L25100 may represent a device that supplies power required for the operation of other components by receiving external power and / or internal power by controlling the control unit.
  • the user input interface L25110 may represent a device capable of receiving an input such as a command from the user.
  • a companion physical device may be a device for controlling a main device as one of devices for an interactive service.
  • the companion physical device can receive input directly from the user.
  • the companion physical device may be called a companion device, a second device, an additional device, an auxiliary device, a companion receiving device, a companion receiver, a companion display, a second screen, or the like.
  • the companion physical device L25020 may include a network interface, a memory unit, a control unit, a display unit, a multimedia module, a storage, a power supply, and / or a user input interface.
  • components constituting the companion physical device may have the same function as the components constituting the main device described above. .
  • 26 illustrates a protocol stack for supporting hybrid broadcast service according to an embodiment of the present invention.
  • the physical layer may receive the terrestrial broadcast signal and convert it to an appropriate form.
  • IP Encapsulation may obtain an IP datagram using information obtained from a physical layer.
  • the obtained IP datagram may be converted into a specific frame (eg, RS Frame, GSE, etc.).
  • MPEG-2 TS Encapsulation may acquire MPEG-2 TS using information obtained from a physical layer.
  • the obtained MPEG-2 TS datagram may be converted into a specific frame (eg, RS Frame, GSE, etc.).
  • a fast information channel may carry information (eg, mapping information between a service ID and a frame) for making a service and / or content accessible.
  • Signaling may include signaling information to support effective acquisition of services and / or content.
  • the signaling information may be expressed in binary and / or XML format and may be transmitted through a terrestrial broadcasting network and / or broadband.
  • Real-time broadcast A / V (Audio / Video) content and data may be represented in an ISO Base Media File Format (ISOBMFF) and the like, and may be transmitted in real time through a terrestrial broadcasting network and / or broadband.
  • Non-real-time content may be transmitted based on IP / UDP / FLUTE.
  • the real-time broadcast A / V (Audio / Video) content, data, and / or signaling information may be transmitted in real time through an internet network using DASH.
  • real-time broadcast A / V (Audio / Video) content, data, and / or signaling information may be transmitted by request, or may be transmitted by real-time streaming.
  • various enhanced services such as an interactive service and a second screen service may be provided to a viewer by combining data transmitted through the above-described protocol stack.
  • FIG. 27 illustrates an XML schema of a Service Type element according to an embodiment of the present invention.
  • the service guide may indicate a broadcast distribution channel through which the service guide delivery descriptor transmitted in the announcement session is delivered to the terminal. (The service guide may indicate a broadcast distribution channel over which Service Guide Delivery Descriptors carried within announcement sessions, can be delivered to the terminal.)
  • Service guides may enable service providers and / or content providers to describe the services and / or content they have made available, such as mobile broadcast services transmitted over broadcast channels and / or interaction channels, and may be subscribed or purchased. Can be suggested. In addition, the service guide may explain how to access the service. From the user's point of view, the service guide may be considered as a starting point for finding currently available or upcoming services and / or content and as a starting point for filtering services and / or content based on the user's preferences. . Furthermore, service guides can provide a starting point for interactive services.
  • Service Guide may enable the service and content providers to describe the services and content they make available, or offer for subscription or purchase, as Mobile Broadcast services either over Broadcast Channel or over Interaction Channel.It may also enable the way to describe how to access the services.From the user perspective the Service Guide can be seen as an entry point to discover the currently available or scheduled services and content and to filter those based on their preferences.plus, the Service Guide may provide the entry point to interactive services .
  • the service guide may include a data model such as service, schedule, content, related purchase data, provisioning data, access data, and interactivity data from a service guide fragment point of view.
  • the Service Guide may include data model that models the services, schedules, content, related purchase and provisioning data, access and interactivity data and so on in terms of Service Guide fragments.
  • One embodiment of the present invention may provide a method for declaration of a service guide fragment and / or initial discovery of a service guide through a service guide delivery descriptor transmitted through a service guide announcement channel.
  • Transmission methods for service guide fragment transmission through a service guide delivery channel may be provided through a broadcast channel and / or an interactive channel.
  • an embodiment of the present invention may provide update and / or management methods.
  • one embodiment of the present invention may provide an associated back-end interface for a service guide.
  • An embodiment of the invention may provide methods for initial discovery of Service Guide and the declaration of Service Guide fragments through Service Guide Delivery Descriptors that are sent over Service Guide Announcement Channel.An embodiment of the invention may provide delivery methods specified for Service Guide fragment delivery over Service Guide Delivery Channel, both over the Broadcast Channel as well as over the Interactive Channel.To manage the Service Guide data, an embodiment of the invention may provide update and management methods.An embodiment of the invention may provide the relevant back- end interfaces for Service Guide.)
  • the service fragment may describe content items constituting a broadcast service in an aggregate level.
  • the 'Service' fragment may describe at an aggregate level the content items which comprise a broadcast service.
  • the service fragment may include an interactive portion and / or a broadcast portion, depending on the type of service. (Depending on the type of the service, it may have interactive part (s), broadcast-only part (s), or both.)
  • the service fragment may include components (eg, purchase information, subscription information, etc.) that are not directly related to the content but functionally related to the service.
  • the service may include components not directly related to the content but to the functionality of the service-such as purchasing or subscription information.
  • the service fragment may form a central hub referred to by other fragments.
  • the 'Service' fragment may form a central hub referenced by the other fragments.
  • the terminal may determine detailed information related to the corresponding service at any point in time using the related fragments including the service fragment together.
  • the detailed information can be summarized in a user-friendly display.
  • the summarized detailed information may indicate what the related content is, when and how the related content is consumed, and how much the related content is.
  • the terminal may determine the details associated with the service at any point of time. These details may be summarized into a user-friendly display, for example, of what, how and when the associated content may be consumed and at what cost.)
  • the service may represent a group of content items. That is, services can form logical groups that are delivered to end users.
  • a TV channel consisting of several TV shows may correspond to a service.
  • the service fragment may include metadata describing the mobile broadcast service.
  • a service may represent a bundle of content items, which forms a logical group to the end-user.An example would be a TV channel, composed of several TV shows.
  • a 'Service' fragment contains the metadata describing the Mobile Broadcast service.
  • the ServiceType element may indicate the type of service described in the corresponding service fragment. Furthermore, service types in which one or more types are mixed may be represented by the presence of multiple ServiceType instances. (The mixed service types may be indicated by the presence of multiple instances of ServiceType.)
  • This element may be processed by the terminal to render the service to the user in the form of a textual indicator, icon, or graphic represetation. (This element may be processed by the terminal strictly for rendering to the user for example as a textual indicator, an icon, or graphic representation for the service.)
  • An embodiment of the present invention may provide a method capable of indicating a service type used in a hybrid broadcasting system. Furthermore, an embodiment of the present invention may assign a range of ServiceType values to be indicated in the hybrid broadcast system to ServiceTypeRangeType values.
  • Values assigned to the Service Type are as follows. If the service type value is 0, it may indicate that it is Unspecified, if it is 1, it may indicate that the service is Basic TV, if it is 2, it may indicate that the service is Basic Radio, and if it is 3, it may indicate that the service is Rights Issuer Service. 4 may indicate Cachecast, 5 indicates File download services, 6 indicates Software management services, 7 indicates Notification, 8 indicates Service Guide, 9 indicates Terminal Provisioning services. 10 can indicate Auxiliary Data, 11 can indicate Streaming on demand, 12 can indicate File download on demand, 13 can indicate SmartCard Provisioning services, and 14 indicates Linear service. 15 means App-based service, 16 means Companion Screen service. A it can be expressed. Values other than those described above may be used to indicate services other than the services described above.
  • ServiceType element may have a type called ServiceTypeRangeType.
  • ServiceTypeRangeType may include ServiceTypeLRType, ServiceTypeOtherEnablersRangeType and / or ServiceTypeProprietaryRangeType.
  • ServiceTypeLRType may have a minimum value of 0 and a maximum value of 13, 14, 15, 16, or more.
  • FIG. 28 is a diagram illustrating an XML schema and a display display example of a service having a service type value of 14 according to an embodiment of the present invention.
  • the service fragment according to an embodiment of the present invention may have a name of Home and Shopping and 14 as a ServiceType. (L28010)
  • the ServiceType value 14 may indicate a linear service.
  • an embodiment of the present invention may provide a user with information such as a broadcast schedule by combining a corresponding service and schedule information.
  • the receiver may perform operations such as combining the above-described schedule information only for the service including the time information. Therefore, one embodiment of the present invention can improve the performance of the receiver.
  • FIG. 29 is a diagram illustrating an example of displaying an XML schema and a display for a service having 14 and 15 as service type values according to an embodiment of the present invention.
  • FIG. 29 is a diagram illustrating an example of displaying an XML schema and a display for a service having 14 and 15 as service type values according to an embodiment of the present invention.
  • the service fragment according to an embodiment of the present invention may have a name MBC and 14 and 15 as a ServiceType. (L29010)
  • the ServiceType value 15 may represent an App-based service.
  • FIG. 30 is a diagram illustrating an example of displaying an XML schema and a display for a service having 14 and 16 as service type values according to an embodiment of the present invention.
  • the service fragment according to an embodiment of the present invention may have a name MBC Companion Screen and have 14 and 16 as ServiceTypes. (L30010)
  • ServiceType Value 16dms It can indicate Companion Screen service.
  • the reception device When the Companion Screen service type is signaled in a service fragment, the reception device according to an embodiment of the present invention can recognize that the Companion Screen service is included in the corresponding service. Therefore, even if only a service fragment is obtained, an embodiment of the present invention may inform a user that a service provided in a companion screen is provided through a service type. (L30030)
  • FIG. 31 illustrates an XML schema of a component fragment according to an embodiment of the present invention.
  • a component fragment according to an embodiment of the present invention may describe a component that is part of a content or a service to which the component refers.
  • the 'Component' fragment describes a component that is a part of a service or a content that the component refers to.
  • the component fragment may include an id attribute, a version attribute, a validFrom attribute, a validTo attribute, a ComponentType element, a ComponentData element, and / or a PrivateExt element.
  • the id attribute may indicate the ID of the component fragment.
  • the value of this attribute can be globally unique.
  • the version attribute may indicate version information of a component fragment.
  • the validFrom attribute may indicate the first time the component fragment is valid.
  • the validTo attribute may indicate the last time the component fragment is valid.
  • the ComponentType element may indicate the type of content described by the component fragment. When types are mixed, one or more ComponentType elements may be used to indicate the type.
  • the ComponentData element may indicate component content included in the component fragment. This element may represent video, audio, or closed caption (CC) data.
  • CC closed caption
  • the PrivateExt element may represent a container for private or application-specific extensions. (An element serving as a container for proprietary or application-specific extensions.)
  • FIG. 32 is a diagram illustrating an xml schema of a ComponentType element according to an embodiment of the present invention.
  • a component according to an embodiment of the present invention may express all ComponentTypes that can be transmitted in a hybrid broadcast.
  • an embodiment of the present invention may represent a range of types as an integer value.
  • the receiving device may first find out the type value of the component fragment and then know the information of the component data.
  • the ComponentRangeType indicating the type of the ComponentType element may have a minimum value of 0 and a maximum value of 13.
  • the value of the ComponentType element is 0, it may represent an unspecified component, 1 may represent a continuous component, 2 may represent an elementary component, and 3 may represent a composite component.
  • 4 can represent the PickOne component
  • 5 can represent the Complex component
  • 6 can represent the Presentable component
  • 7 can represent the NRT File
  • 8 can represent the NRT Content Item
  • 9 may indicate an application
  • 10 indicates an ATSC3.0 application
  • 11 indicates an On Demand component
  • 12 indicates a Notification Stream
  • 13 indicates an App-based Enhancement.
  • the continuous component may represent a content component expressed in one continuous stream.
  • audio, video, or closed captions may correspond to this.
  • Elementary component may indicate a continuous component corresponding to a single encoding. That is, it may represent a continuous component encoded by a separate encoder. For example, a single encoding of a sound sequence, a single encoding of a picture sequence, or a single closed caption track may correspond to this.
  • Composite components may represent content components that have the same content type, represent the same scene, and constitute a set of continuous components that may be combined to create a presentation. For example, this may be music, dialog or effect music to be mixed to provide complete audio.
  • this may be music, dialog or effect music to be mixed to provide complete audio.
  • the left image or the right image to be combined to provide a 3D image may correspond to this.
  • the PickOne component may represent a content component that has the same content type, represents the same scene, and constitutes a set of continuous components that can be selected to make a presentation. For example, a set of audio components encoded with the same sound sequence and a different bitrate, a set of video components encoded with the same picture sequence and a different bitrate, or a set of common closed caption tracks and easy reader closed caption tracks for the same dialog. This may correspond to this.
  • the complex component may represent a composite component or a PickOne component.
  • the presentable component may represent a continuous component displayed to the user.
  • This component may include an elementary component or a complex component.
  • the NRT file may represent a file transmitted in non real time.
  • An NRT Content Item may represent a collection of one or more NRT files intended to be consumed as a consolidated whole.
  • An application can itself represent a collection of documents that make up a complete enhanced or interactive service.
  • the documents may include HTML, JavaScript, CSS, XML and / or multimedia files.
  • This application can access data that is not part of this application.
  • This application may correspond to a special case of an NRT content item.
  • the ATSC3.0 application may represent an application that complies with the ATSC 3.0 Application Runtime Environment Specification.
  • the on demand component may indicate a content component transmitted by on demand.
  • the notification stream may represent a stream capable of sending a notification for synchronizing application actions under a linear time base.
  • App-based Enhancement includes zero or more Notification Streams that send synchronized notifications of actions, one or more applications, zero or more other NRT Content Items used by the application, and zero or more On Demand components managed by the application. can do.
  • FIG. 33 is a diagram showing an xml schema of a ComponentData element according to an embodiment of the present invention.
  • An embodiment of the present invention may define a ComponentData element as a schema in order to service guide the characteristics of the actual Component Data.
  • the ComponentData element may represent component data according to a combination and relationship of each type when the value of the ComponentType element of the above-described component fragment is 2, 3, 4, or 6.
  • each component may have a ContentType attribute.
  • the ContentType attribute may have a video, audio, and / or closed caption (CC) value.
  • an embodiment of the present invention may provide a method for describing component data according to each ContentType attribute. That is, the ComponentData element according to an embodiment of the present invention may have a VideoComponent element as a lower element when the ContentType attribute value is Video, and may have an AudioComponent element as a lower element when the ContentType attribute value is Audio, and the ContentType attribute value In case of this CC, the CCComponent element may be included as a lower element. Each component data may be described in the lower element.
  • FIG. 34 is a diagram illustrating an xml schema of a VideoComponent element and a VideoRole element according to an embodiment of the present invention.
  • An embodiment of the present invention may provide a method for expressing a Video Component used in a hybrid broadcast.
  • the VideoComponent element may have a VideoRole element, a TargetUserProfile element, and / or a TargetDevice element as child elements. (L34010)
  • the VideoRole element may indicate what role the corresponding Video Component has. According to an embodiment of the present invention, this element may have an integer value in consideration of future expandability. In addition, an embodiment of the present invention may provide a range of this element value to indicate both a role having a video common and a role having a composite when it is presentable.
  • the TargetUserProfile element and the TargetDevice element may correspond to common elements of all presentable components. These elements may indicate attributes of the target.
  • VideoRole element If the value indicated by the VideoRole element according to an embodiment of the present invention is 0, it is unspecified, 1 is Primary (default) video, 2 is Alternative camera view, 3 is Other alternative video component, 4 is Sign language (eg, ASL) inset, Follow subject video on 5, Base layer for scalable video encoding on 6, Enhancement layer for scalable video encoding, with level on 3D video left view on 8, 3D video right view on 9 , 10 indicates 3D video depth information, 11 indicates Part of video array, ⁇ x, y> of ⁇ n, m>, 12 indicates Follow-Subject metadata, and 13 to 255 indicates Reserved.
  • the element values 0 to 5 may indicate the role of the presentable video component
  • 6 to 12 may indicate the role of the composite video component
  • 13 to 255 may indicate the role of the other video component.
  • 35 is a diagram illustrating an xml schema of an AudioComponent element and an AudioRole element according to an embodiment of the present invention.
  • An embodiment of the present invention may provide a method for representing an Audio Component used in a hybrid broadcast.
  • An AudioComponent element may have an associatedTo attribute and / or a NumberOfAudioChnnels attribute, and may have an AudioRole element, a TargetUserProfile element, and / or a TargetDevice element as subelements. (L35010)
  • the associatedTo attribute may indicate whether a corresponding audio component is associated with a presentable video component. This attribute can have the id value of a component fragment.
  • the NumberOfAudioChnnels attribute may indicate the number of channels of an audio component.
  • the AudioRole element may indicate what role the corresponding Audio Component has. According to an embodiment of the present invention, this element may have an integer value in consideration of future expandability.
  • the TargetUserProfile element and the TargetDevice element may correspond to common elements of all presentable components. These elements may indicate attributes of the target.
  • AudioRole element may have a value from 0 to 7. If the value of this element is 0, it is unspecified, 1 is Complete main, 2 is Music, 3 is Dialog, 4 is Effects, 5 is Visually impaired, 6 is Hearing impaired, 7 is Commentary, and 8 to 255 is Reserved. (L35020)
  • 36 is a diagram illustrating an xml schema of a CCComponent element and a CCRole element according to an embodiment of the present invention.
  • An embodiment of the present invention may provide a method for expressing a CC component used in hybrid broadcasting.
  • the CCComponent element may have an associatedTo attribute and may have a CCRole element, a TargetUserProfile element, and / or a TargetDevice element as child elements. (L36010)
  • the associatedTo attribute may indicate whether a corresponding CC Component is associated with a Presentable Video Component. This attribute can have the id value of a component fragment.
  • the CCRole element may indicate which role the CC component has. According to an embodiment of the present invention, this element may have an integer value in consideration of future expandability.
  • the TargetUserProfile element and the TargetDevice element may correspond to common elements of all presentable components. These elements may indicate attributes of the target.
  • CCRole element may have a value of 0 to 2. If the value of this element is 0, it may indicate unspecified, if 1, normal, and if 2, it is easy reader. (L36020)
  • FIG. 37 illustrates an XML schema of component fragments for a Composite Video Component including one base layer and two enhancement layers in scalable video coding according to an embodiment of the present invention. to be.
  • the component fragment (L37010) located at the top of the drawing has an id value of "bcast: //lge.com/Component/1", and the corresponding component is continuous using the ComponentType element. And Composite component.
  • the component fragment (L37020) located on the left side of the drawing has an id value of "bcast: //lge.com/Component/2", and may indicate that the corresponding component is a continuous and elementary component using a ComponentType element.
  • the element, the ContnetType attribute, the VideoComponent element, and the VideoRole element can be used to indicate that the component is related to Video and is a Base Layer of SVC component.
  • the component fragment (L37030) located on the right side of the drawing has an id value of "bcast: //lge.com/Component/3", and may indicate that the corresponding component is a continuous and elementary component using a ComponentType element.
  • the element, the ContnetType attribute, the VideoComponent element, and the VideoRole element can be used to indicate that the corresponding component is related to Video and is an Enhancemnet Layer of SVC component.
  • FIG. 38 illustrates an XML schema of component fragments for a Composite Component including a 3D video left view and a 3D video right view according to an embodiment of the present invention.
  • the component fragment (L38010) located at the top of the drawing has an id value of "bcast: //lge.com/Component/1", and the corresponding component is continuous using the ComponentType element. And Composite component.
  • the component fragment (L38020) located on the left side of the drawing has an id value of "bcast: //lge.com/Component/2" and can indicate that the component is a continuous and pick-one component by using a ComponentType element.
  • the ComponentData element, the ContnetType attribute, the VideoComponent element, and the VideoRole element can be used to indicate that the corresponding component is related to Video and is a 3D video left view component.
  • the component fragment (L38030) located on the right side of the drawing has an id value of "bcast: //lge.com/Component/3", and may indicate that the component is a continuous and pick-one component using a ComponentType element.
  • ComponentData element, ContnetType attribute, VideoComponent element and VideoRole element can be used to indicate that the component is related to Video and 3D video right view component.
  • FIG. 39 illustrates an XML schema of component fragments describing a Comple Audio Component according to an embodiment of the present invention.
  • the component fragment (L39010) located at the top of the drawing has an id value of "bcast: //lge.com/Component/1", and the corresponding component is continuous using the ComponentType element. And Pick-one component.
  • the component fragment (L39020) located to the left of the second column of this drawing has an id value of "bcast: //lge.com/Component/2" and indicates that the component is a continuous and pick-one component using the ComponentType element.
  • the ComponentData element, the ContnetType attribute, the AudioComponent element, and the AudioRole element may be used to indicate that the corresponding component is related to Audio and is a Completely Main component.
  • the component fragment (L39030) located on the right side of the second column of this drawing has an id value of "bcast: //lge.com/Component/3" and may indicate that the corresponding component is a continuous and composite component using the ComponentType element. .
  • the component fragment (L39040) located on the left side of the third column of this drawing has an id value of "bcast: //lge.com/Component/4" and indicates that the component is a continuous and pick-one component using the ComponentType element.
  • the ComponentData element, the ContnetType attribute, the AudioComponent element, and the AudioRole element may be used to indicate that the corresponding component is related to Audio and a Music component.
  • the component fragment (L39050) located on the right side of the third column of this drawing has an id value of "bcast: //lge.com/Component/5" and indicates that the component is a continuous and pick-one component using the ComponentType element.
  • the ComponentData element, the ContnetType attribute, the AudioComponent element, and the AudioRole element may be used to indicate that the corresponding component is related to Audio and is a Dialog component.
  • FIG. 40 is a diagram illustrating an xml schema of a component element in a content fragment according to an embodiment of the present invention.
  • An embodiment of the present invention may configure a component included in the content as a sub element. That is, the Component element may be included in the content fragment.
  • the sub element may have the same meaning as the lower element.
  • the component element according to an embodiment of the present invention may indicate component information included in content.
  • ComponentElementType The type of a component element according to an embodiment of the present invention is ComponentElementType, and ComponentElementType may define component information included in content in a sequence form. Thus, all types of components included in the content can be described.
  • a component element may have a VideoData element, an AudioData element, and / or a CCData element as sub elements.
  • the VideoData element may have a VideoRole element, a TargetUserProfile element, and / or a TargetDevice element as a subelement
  • the AudioData element may have an AudioRole element, a TargetUserProfile element and / or a TargetDevice element as a subelement
  • the CCData element may be a CCRole element. It may have a TargetUserProfile element and / or a TargetDevice element as sub elements. Detailed description of the above-described elements has been described above.
  • FIG. 41 is a diagram illustrating an XML schema of a content fragment for a linear service including a video, audio, and cc component according to an embodiment of the present invention.
  • the component element when configured in the content fragment, reference definition between components is not required, and thus may be efficient. Therefore, when a receiver according to an embodiment of the present invention receives a content fragment, the receiver can intuitively determine what component the content is composed of and what role it has.
  • the Component element may be defined in the PricateExt element included in the content fragment.
  • 2D tennis broadcast content may include Video, Audio and CC components.
  • the Video component of this content may represent Primary (default) video
  • the Audio component may represent Complete main
  • the CC component may represent normal.
  • the 3D tennis broadcast content may include two Video components, an Audio component and a CC component.
  • the first Video component of this content may represent a 3D video left view
  • the second Video component may represent a 3D video right view
  • an Audio component may represent a complete main
  • a CC component may represent normal.
  • FIG. 42 is a diagram illustrating an xml schema of a component element when a component element is defined in a content fragment in order to describe an association between video, audio, and CC components.
  • a definition of an association between components constituting one content may be required.
  • a component element when a component element is configured in a content fragment, since all components (video, audio, and / or CC components) included in the content are described within the content fragment, the association between components is separately determined. It may not need to be described.
  • FIG. 43 is a diagram illustrating an embodiment of using an AssociatedTo attribute to describe an association between video, audio, and CC components.
  • An embodiment of the present invention may describe an associatedTo attribute as an attribute of an audio component and a CC component in order to define an association relationship between presentable video, audio, and CC components.
  • an associatedTo attribute as an attribute of an audio component and a CC component in order to define an association relationship between presentable video, audio, and CC components.
  • an embodiment of the present invention may define an associatedTo attribute as an attribute of an AudioComponent element under a ComponentData element under a component fragment, and define an associatedTo attribute as an attribute of a CCComponent element.
  • FIG. 44 is a diagram illustrating an embodiment of using associatedAudio and associatedCC attributes to describe an association between Video, Audio, and CC components.
  • An embodiment of the present invention may describe associatedAudio and associatedCC attributes as attributes of a video component in order to define an association relationship between Presentable Video, Audio, and CC Component.
  • a receiver when a receiver according to an embodiment of the present invention receives a video component, it can know all audio and / or CC components associated with it.
  • an embodiment of the present invention may define an associatedAudio and / or associatedCC attribute as an attribute of a VideoComponent element below a ComponentData element below a component fragment.
  • FIG. 45 illustrates an embodiment for describing an association between Video, Audio, and CC components using the AssociatedTo attribute.
  • the component fragment describing the Presentable Audio Component by defining the associatedTo attribute in the AudioComponent element and referring to "bcast: //lge.com/Component/1", Presentable Video associated with the corresponding Presentable Audio Component
  • the component fragment describing the Component may be signaled.
  • the component fragment describing the presentable CC Component by defining the associatedTo attribute on the CCComponent element and referring to "bcast: //lge.com/Component/1", Presentable Video associated with the presentable CC Component
  • the component fragment describing the Component may be signaled.
  • FIG. 46 is a diagram illustrating an embodiment for explaining association between Video, Audio, and CC components using the associatedAudio and / or associatedCC attributes.
  • the associatedAudio and associatedCC attributes are defined in the VideoComponent element, respectively, such as "bcast: //lge.com/Component/2" and "bcast: // lge.”
  • com / Component / 3 may signal component fragments describing the Presentable Audio Component and the Presentable CC Component associated with the Presentable Video Component.
  • 47 is a diagram illustrating a reference relationship between fragments according to an embodiment of the present invention.
  • An embodiment of the present invention can provide a method in which a service guide of a next generation hybrid broadcasting system can be announced by defining a reference relationship between the above-described fragments.
  • a service fragment may refer to a service and / or a content fragment.
  • the Service fragment can refer to the Service and Content fragments
  • the Content fragment can refer to the Service fragment
  • the Schedule fragment can refer to the Service, Content and Component fragment.
  • FIG. 48 is a diagram illustrating an XML schema of a Component fragment including an element representing a reference relationship with fragments, according to an embodiment of the present invention.
  • the component fragment according to an embodiment of the present invention may include a ServiceReference element, a ContentReference element, and / or a ComponentReference element.
  • Each element described above may have an idRef attribute indicating a respective id.
  • the ServiceReference element may indicate a Service fragment referenced by the corresponding Component fragment, and may have an id value of the referenced Service fragment.
  • the ContentReference element may indicate a Content fragment referenced by the corresponding Component fragment and may have an id value of the referenced Content fragment.
  • the ComponentReference element may indicate the upper Component fragment referenced by the corresponding Component fragment, and may have an id value of the upper order Component fragment.
  • a reference relationship or a vertical relationship between Component fragments may be established according to the classification of the type value indicated by the ComponentType element described above.
  • FIG. 49 is a diagram illustrating an XML shema of a Schedule fragment including an element indicating a reference relationship with fragments according to an embodiment of the present invention.
  • the Schedule fragment may include a ServiceReference element, a ContentReference element, and / or a ComponentReference element.
  • Each element described above may have an idRef attribute indicating a respective id.
  • the ServiceReference element may indicate a service fragment to which the reference refers, and may have an id value of the referenced service fragment. As a result, the schedule fragment may provide time information of the corresponding service.
  • the ContentReference element may indicate a referenced content fragment and may have an id value of the referenced content fragment. Thus, time information of the corresponding content may be provided in the Schedule fragment.
  • the ComponentReference element may indicate a referencing Component fragment and may have an id value of the referencing Component fragment. Thus, time information of the corresponding component may be provided in the Schedule fragment.
  • 50 is a diagram illustrating an embodiment for explaining a reference relationship between a Service, Content, and Component fragment.
  • the component fragment describing the Presentable Audio Component and the component fragment describing the Presentable CC Component may refer to the component fragment describing the Presentable Video Component using the associatedTo attribute.
  • the component fragment describing the Presentable Audio Component, the component fragment describing the Presentable CC Component, and the component fragment describing the Presentable Video Component have an ID value of "bcast: //lge.com/Content/1" using the ContentReference element. You can refer to the Content fragment.
  • a Content fragment with an id value of "bcast: //lge.com/Content/1” may refer to a Service fragment with an id value of "bcast: //lge.com/Service/1" using a ServiceReference element.
  • an embodiment of the present invention can configure a service guide model that can be provided in a hybrid broadcasting system by defining reference relationships between fragments.
  • FIG. 51 is a diagram illustrating an embodiment for describing a reference relationship between component fragments describing a continuous component.
  • An embodiment of the present invention can express reference relationships of continuous components that can be provided in a hybrid broadcasting system by defining reference relationships between component fragments.
  • the components corresponding to ComponentType values 1 to 6 may correspond to Continuous Component.
  • Continuous component the components corresponding to ComponentType values 1 to 6, Continuous component, Elementary component, Composite component, PickOne component, Complex component and / or Presentable component
  • Continuous Component the above-described reference relationship between continuous components can be expressed.
  • the component fragment (id " bcast: //lge.com/Component/3 ") that describes the First Enhancement Layer.
  • FIG. 52 is a view illustrating an embodiment for describing a reference relationship between component fragments describing a component related to app-based enhancement.
  • An embodiment of the present invention may express reference relationships between components related to app-based enhancement that can be provided in a hybrid broadcasting system by defining reference relationships between component fragments.
  • NRT File, NRT Content Item, Application, ATSC3.0 Application, On Demand component, Notification Stream and / or App-based Enhancement which are components corresponding to ComponentType values 7 to 13, are App-based. It may correspond to a component related to an enhancement, and as shown in this figure, a reference relationship between components related to the above-described app-based enhancement may be expressed.
  • a component fragment (id "bcast: //lge.com/Component/2") describing an NRT Content Item.
  • 53 is a view showing a function that can be provided when referring to a related service fragment in a content fragment according to an embodiment of the present invention.
  • An embodiment of the present invention may provide a service guide method that can describe in detail a function supported by a hybrid broadcasting network when expressing a service fragment referenced in content.
  • the Content fragment according to an embodiment of the present invention may have a ServiceReference element, and the ServiceReference element may include an idRef attribute, a weighing attribute, and / or a relationship attribute.
  • the idRef attribute can indicate the id of the Service fragment referenced in the referenced Content fragment.
  • the weigh attribute can indicate its importance when referencing a Service fragment.
  • the relationship attribute can indicate the relationship between the Content and Service fragments when referring to the Service fragment. Furthermore, the value of this attribute can be expressed as an integer value for future extensibility. A value of this attribute may be unspecified if 0, ProgramOf if 1, ContentItemOf if 2, OnDemandComponentOf if 3, and reserved if 4 to 255. ProgramOf may indicate that the corresponding content corresponds to the program of the referenced service, ContentItemOf may indicate that the corresponding content corresponds to the ContentItem of the referenced service, and OnDemandComponentOf may indicate that the corresponding content corresponds to the OnDemandComponent of the referenced service .
  • 54 is a diagram illustrating an embodiment of referring to a related service fragment in a content fragment by using a relationship attribute according to an embodiment of the present invention.
  • a receiver may know a relationship between both fragments when referring to a Service fragment in a Content fragment using a relationship attribute. Accordingly, an embodiment of the present invention may express, as a service guide, what kind of content of a corresponding service is configured to a user without analyzing the component level through a relationship attribute.
  • a total of three Content fragments refer to a Service fragment having “bcast: //lge.com/Service/1” as an id value using a ServiceReference element.
  • the content fragment on the left can indicate that it is a Program of the service fragment referred to by having a relationship attribute value of 1, and the middle content fragment can indicate that it is a ContentItem of the service fragment referenced by having a relationship attribute value of 2.
  • the content fragment may indicate that it is an OnDemandComponent of a service fragment referred to by having 3 as the relationship attribute value.
  • 55 is a diagram illustrating a reference relationship between fragments according to another embodiment of the present invention.
  • An embodiment of the present invention can provide a method in which a service guide of a next generation hybrid broadcasting system can be announced by defining a reference relationship between the above-described fragments.
  • the Service fragment may refer to the Content fragment and / or the Component fragment.
  • a service fragment may refer to a content fragment and / or a component fragment
  • a content fragment may refer to a component fragment
  • a schedule fragment may refer to a service, content, and / or component fragment.
  • FIG. 56 illustrates an XML schema of a service fragment, a content fragment, and a component fragment including an element indicating a reference relationship with fragments according to another embodiment of the present invention.
  • Each fragment of the service guide according to an embodiment of the present invention may have a reference relationship.
  • the service fragment according to an embodiment of the present invention may include a ContentReference element and / or a ComponentReference element.
  • Each element described above may have an idRef attribute indicating a respective id. (L56010)
  • the ContentReference element may indicate a Content fragment referenced by the corresponding service fragment, and may have an id value of the referenced Content fragment.
  • the ComponentReference element may indicate a Component fragment referenced by the corresponding service fragment and may have an id value of the referenced Component fragment.
  • the content fragment according to an embodiment of the present invention may include a ComponentReference element.
  • This element may have an idRef attribute indicating the id of this element. (L56020)
  • the ComponentReference element may indicate a Component fragment referenced by the corresponding content fragment and may have an id value of the referenced Component fragment.
  • the component fragment according to an embodiment of the present invention may include a ComponentReference element.
  • This element may have an idRef attribute indicating the id of this element. (L56030)
  • the ComponentReference element may indicate a lower Component fragment referenced by the corresponding Component fragment and may have an id value of the lower Component fragment referenced.
  • a reference relationship or a vertical relationship between Component fragments may be established according to the classification of the type value indicated by the ComponentType element described above.
  • the Schedule fragment may include a ServiceReference element, a ContentReference element, and / or a ComponentReference element.
  • Each element described above may have an idRef attribute indicating a respective id. (Not shown)
  • the ServiceReference element may indicate a service fragment to which the reference refers, and may have an id value of the referenced service fragment. As a result, the schedule fragment may provide time information of the corresponding service.
  • the ContentReference element may indicate a referenced content fragment and may have an id value of the referenced content fragment. Thus, time information of the corresponding content may be provided in the Schedule fragment.
  • the ComponentReference element may indicate a referencing Component fragment and may have an id value of the referencing Component fragment. Thus, time information of the corresponding component may be provided in the Schedule fragment.
  • FIG. 57 is a diagram illustrating another embodiment illustrating a reference relationship between a Service, Content, and Component fragment.
  • the component fragment describing the Presentable Audio Component and the component fragment describing the Presentable CC Component may refer to the component fragment describing the Presentable Video Component using the associatedTo attribute.
  • a Service fragment having an Id value of "bcast: //lge.com/Service/1” may refer to a Content fragment having an id value of "bcast: //lge.com/Content/1" by using a ContentReference element.
  • the Content fragment with the id value of "bcast: //lge.com/Content/1" uses the ComponentReference element to select the Component fragment (Presentable Video Component) with the id value of "bcast: //lge.com/Component/1". Reference may be made.
  • an embodiment of the present invention can configure a service guide model that can be provided in a hybrid broadcasting system by defining reference relationships between fragments.
  • resources may be reduced by referring to a content fragment in a service fragment and using a direction that refers to a lower level at a higher level, such as a method of referring to a component fragment in a content fragment.
  • FIG. 58 illustrates another embodiment for explaining a reference relationship between component fragments describing a continuous component.
  • An embodiment of the present invention can express reference relationships of continuous components that can be provided in a hybrid broadcasting system by defining reference relationships between component fragments.
  • the components corresponding to ComponentType values 1 to 6 may correspond to Continuous Component.
  • Continuous component the components corresponding to ComponentType values 1 to 6, Continuous component, Elementary component, Composite component, PickOne component, Complex component and / or Presentable component
  • Continuous Component the above-described reference relationship between continuous components can be expressed.
  • a component fragment (id "bcast: //lge.com/Component/2") describing a base layer.
  • FIG. 59 is a diagram illustrating another embodiment for explaining a reference relationship between component fragments describing a component related to app-based enhancement.
  • An embodiment of the present invention may express reference relationships between components related to app-based enhancement that can be provided in a hybrid broadcasting system by defining reference relationships between component fragments.
  • NRT File, NRT Content Item, Application, ATSC3.0 Application, On Demand component, Notification Stream and / or App-based Enhancement which are components corresponding to ComponentType values 7 to 13, are App-based. It may correspond to a component related to an enhancement, and as shown in this figure, a reference relationship between components related to the above-described app-based enhancement may be expressed.
  • 60 and 61 illustrate a configuration of a Component fragment according to an embodiment of the present invention.
  • a table drawn over two drawings corresponds to one linked table.
  • Other component fragments in an embodiment of the present invention may include an id attribute, a version attribute, a validFrom attribute, a validTo attribute, a ServiceReference element, a ContentReference element, a ComopnentReference element, a ComponentType element, a ComponentRole element, a PrivateExt element, and / or a ProprietaryElements element.
  • the ServiceReference element, ContentReference element, and ComopnentReference element may each include an idRef attribute.
  • the above-described id attribute and / or idRef attribute may have a URI type, and a detailed description of the above-described attribute and / or element will be described later.
  • FIG. 62 is a diagram illustrating an xml schema of a component fragment according to another embodiment of the present invention.
  • a component fragment according to an embodiment of the present invention may describe a component that is part of a content or a service to which the component refers.
  • the 'Component' fragment describes a component that is a part of a service or a content that the component refers to.
  • the component fragment may include an id attribute, a version attribute, a validFrom attribute, a validTo attribute, a ServiceReference element, a ContentReference element, a ComopnentReference element, a ComponentType element, a ComponentRole element, a PrivateExt element, and / or a ProprietaryElements element.
  • the id attribute may indicate the ID of the component fragment.
  • the value of this attribute can be globally unique.
  • the version attribute may indicate version information of a component fragment.
  • the validFrom attribute may indicate the first time the component fragment is valid.
  • the validTo attribute may indicate the last time the component fragment is valid.
  • the ServiceReference element may refer to a service fragment to which a corresponding component fragment belongs.
  • the ContentReference element may refer to a content fragment to which the corresponding component belongs.
  • the ComopnentReference element may refer to a component fragment to which a corresponding component belongs.
  • the ComponentType element may indicate the type of content described by the component fragment. When types are mixed, one or more ComponentType elements may be used to indicate the type.
  • the ComponentRole element may indicate the role of the corresponding component. According to an embodiment of the present invention has a component role when the corresponding component is a Presentable Video, Composite Video, Presentable Audio, or Presentable CC component, a detailed description of the value for this element will be described later.
  • the PrivateExt element may represent a container for private or application-specific extensions. (An element serving as a container for proprietary or application-specific extensions.)
  • the ProprietaryElements element can represent private or application-specific elements. This element may contain one or more subelements or attributes.
  • FIG. 63 is a diagram illustrating an xml schema of a ComponentType element according to another embodiment of the present invention.
  • a component according to an embodiment of the present invention may express all ComponentTypes that can be transmitted in a hybrid broadcast.
  • an embodiment of the present invention may represent a range of types as an integer value.
  • the receiving device may first find out the type value of the component fragment and then know the information of the component data.
  • the ComponentRangeType indicating the type of a ComponentType element may have a minimum value of 0 and a maximum value of 15.
  • the value of the ComponentType element is 0, it may represent an unspecified component, 1 may represent a continuous component, 2 may represent an elementary component, and 3 may represent a composite component.
  • 4 can represent a PickOne component, 5 can represent a Complex component, 6 can represent a Presentable Video component, 7 can represent a Presentable Audio component, and 8 can represent a Presentable CC component.
  • 9 indicates NRT File, 10 indicates NRT Content Item, 11 indicates Application, 12 indicates ATSC3.0 Application, 13 indicates On Demand component and 14 indicates Notification.
  • a stream of 15 may represent an App-based Enhancement of 16 to 255 and a reserved.
  • the continuous component may represent a content component expressed in one continuous stream.
  • audio, video, or closed captions may correspond to this.
  • Elementary component may indicate a continuous component corresponding to a single encoding. That is, it may represent a continuous component encoded by a separate encoder. For example, a single encoding of a sound sequence, a single encoding of a picture sequence, or a single closed caption track may correspond to this.
  • Composite components may represent content components that have the same content type, represent the same scene, and constitute a set of continuous components that may be combined to create a presentation. For example, this may be music, dialog or effect music to be mixed to provide complete audio.
  • this may be music, dialog or effect music to be mixed to provide complete audio.
  • the left image or the right image to be combined to provide a 3D image may correspond to this.
  • the PickOne component may represent a content component that has the same content type, represents the same scene, and constitutes a set of continuous components that can be selected to make a presentation. For example, a set of audio components encoded with the same sound sequence and a different bitrate, a set of video components encoded with the same picture sequence and a different bitrate, or a set of common closed caption tracks and easy reader closed caption tracks for the same dialog. This may correspond to this.
  • the complex component may represent a composite component or a PickOne component.
  • the presentable component may represent a continuous component displayed to the user.
  • This component may include an elementary component or a complex component.
  • the presentable video component may represent a video continuous component displayed to the user.
  • the presentable audio component may represent an audio continuous component displayed to the user.
  • Presentable CC component A CC continuous component displayed to a user may be indicated.
  • the NRT file may represent a file transmitted in non real time.
  • An NRT Content Item may represent a collection of one or more NRT files intended to be consumed as a consolidated whole.
  • An application can itself represent a collection of documents that make up a complete enhanced or interactive service.
  • the documents may include HTML, JavaScript, CSS, XML and / or multimedia files.
  • This application can access data that is not part of this application.
  • This application may correspond to a special case of an NRT content item.
  • the ATSC3.0 application may represent an application that complies with the ATSC 3.0 Application Runtime Environment Specification.
  • the on demand component may indicate a content component transmitted by on demand.
  • the notification stream may represent a stream capable of sending a notification for synchronizing application actions under a linear time base.
  • App-based Enhancement includes zero or more Notification Streams that send synchronized notifications of actions, one or more applications, zero or more other NRT Content Items used by the application, and zero or more On Demand components managed by the application. can do.
  • 64 is a diagram illustrating an xml schema of a ComponentRole element according to an embodiment of the present invention.
  • An embodiment of the present invention can express the roles of all components that can be transmitted in a hybrid broadcast using a ComponentRole element.
  • the value of the ComponentRole element may be expressed as an integer value.
  • ComponentRole element may have a value from 0 to 21.
  • An embodiment of the present invention may provide a range of this element value to indicate both a role having a component when present and a role having a composite.
  • the value indicated by the ComponentRole element is 0 for unspecified, 1 for Primary (default) video, 2 for Alternative camera view, 3 for Other alternative video component, and 4 for Sign language (eg, ASL) inset, Follow subject video on 5, Base layer for scalable video encoding on 6, Enhancement layer for scalable video encoding, with level on 3D video left view on 8, 3D video right view on 9 , 10 for 3D video depth information, 11 for Part of video array, ⁇ x, y> of ⁇ n, m>, 12 for Follow-Subject metadata, 13 for Complete main, 14 for Music, 15 for Dialog, Effects for 16, Visually impaired for 17, Hearing impaired for 18, Commentary for 19, Normal for 20, Easy reader for 21, and reserved for 22 to 255.
  • Sign language eg, ASL
  • Enhancement layer for scalable video encoding with level on 3D video left view on 8, 3D video right view on 9
  • 10 for 3D video depth information 11 for Part of video array, ⁇
  • the element values 1 to 5 may indicate the role of the presentable Video Componet
  • 6 to 12 may indicate the role of the Composite Video Component
  • 13 to 19 may indicate the role of the presentable Audio Componet
  • 20 to 21 May indicate the role of the presentable CC component.
  • FIG. 65 illustrates an XML schema of component fragments for a Composite Video Component including one base layer and two enhancement layers in scalable video coding according to another embodiment of the present invention. Drawing.
  • the component fragment (L65010) located at the top of this figure has "bcast: //lge.com/Component/1" as the id value, and refers to Service1 using the ServiceReference element.
  • Service1 By referring to Content1 using the, ContentReference element, it can indicate that the corresponding component is a Continuous and Composite component using the ComponentType element.
  • the component fragment (L65020) located on the left side of the drawing has “bcast: //lge.com/Component/2” as the id value, refers to Service1 using the ServiceReference element, and refers to Content1 using the ContentReference element. And, referring to "bcast: //lge.com/Component/1" using the ComponentReference element, it can indicate that the corresponding component is a Continuous, Elementary and Base Layer of SVC component using the ComponentType element.
  • the component fragment (L65030) located on the right side of the drawing has "bcast: //lge.com/Component/3" as the id value, refers to Service1 using the ServiceReference element, and refers to Content1 using the ContentReference element. And, referring to "bcast: //lge.com/Component/1" using the ComponentReference element, it can indicate that the corresponding component is a Continuous, Elementary and Enhancement Layer of SVC component using the ComponentType element.
  • FIG. 66 illustrates an XML schema of component fragments for a Composite Component including a 3D video left view and a 3D video right view according to another embodiment of the present invention.
  • the component fragment (L66010) located at the top of this figure has "bcast: //lge.com/Component/1" as the id value and refers to Service1 using the ServiceReference element.
  • Service1 By referring to Content1 using the, ContentReference element, it can indicate that the corresponding component is a Continuous and Composite component using the ComponentType element.
  • the component fragment (L66020) located on the left side of the drawing has “bcast: //lge.com/Component/2” as the id value, refers to Service1 using the ServiceReference element, and refers to Content1 using the ContentReference element. And, referring to "bcast: //lge.com/Component/1" using the ComponentReference element, it can indicate that the component is a Continuous, Pick-one, and 3D video left view component using the ComponentType element.
  • the component fragment (L66030) located on the right side of the drawing has “bcast: //lge.com/Component/3” as the id value, refers to Service1 using the ServiceReference element, and refers to Content1 using the ContentReference element. And, referring to "bcast: //lge.com/Component/1" using the ComponentReference element, it can indicate that the component is a Continuous, Pick-one, and 3D video right view component using the ComponentType element.
  • FIG. 67 is a diagram illustrating an XML schema of component fragments describing a Comple Audio Component according to another embodiment of the present invention.
  • the component fragment (L67010) located at the top of this figure has "bcast: //lge.com/Component/1" as the id value, and refers to Service1 using the ServiceReference element.
  • the component fragment (L67020) located on the left side of the second column of this figure has "bcast: //lge.com/Component/2" as the id value, refers to Service1 using the ServiceReference element, and uses the ContentReference element to Content1.
  • Reference, "bcast: //lge.com/Component/1" using the ComponentReference element, and using the ComponentType element can indicate that the component is a Continuous, Pick-one, and Audio Component Main component.
  • the component fragment (L67030) located on the right side of the second column of this drawing has "bcast: //lge.com/Component/3" as the id value, refers to Service1 using the ServiceReference element, and uses the ContentReference element to Content1.
  • the component fragment (L67040) located to the left of the third column of this drawing has "bcast: //lge.com/Component/4" as the id value, refers to Service1 using the ServiceReference element, and uses the ContentReference element to Content1.
  • Reference, "bcast: //lge.com/Component/3" using the ComponentReference element, and using the ComponentType element may indicate that the component is a Continuous, Pick-one, and Audio Music component.
  • the component fragment (L67050) located on the right side of the third column of this drawing has "bcast: //lge.com/Component/5" as the id value, refers to Service1 using the ServiceReference element, and uses the ContentReference element to Content1.
  • Reference to "bcast: //lge.com/Component/3" using the ComponentReference element, using the ComponentType element can indicate that the component is a Continuous, Pick-one and Audio Dialog component.
  • FIG. 68 is a diagram showing the configuration of a Content fragment according to an embodiment of the present invention.
  • An embodiment of the present invention may provide a method of announcing to a device and a user by defining a component as a lower element of a content fragment.
  • the content fragment includes an id attribute, a version attribute, a validFrom attribute, a validTo attribute, a globalContentID attribute, an emergency attribute, a baseCID attribute, a ServiceReference element, a ProtectionKeyID element, a Name element, a Description element, a StartTime element, and an EndTime element. It may include an AudioLanguage element, a TextLanguage element, a Length element, a ParentalRating element, a TargetUserProfile element, a Genre element, an Extension element, a PreviewDataReference element, a BroadcastArea element, a TermsOfUse element, and / or a PrivateExt element.
  • the id attribute may indicate the ID of the content fragment.
  • the version attribute may indicate version information of the corresponding content fragment.
  • the validFrom attribute may indicate first time information on which the corresponding content fragment is valid.
  • the validTo attribute may indicate last time information of a corresponding content fragment.
  • the globalContentID attribute may indicate an identifier for identifying the content described by the corresponding content fragment.
  • the emergency attribute may indicate whether the content described by the corresponding content fragment is content of emergenct nature.
  • the baseCID attribute may indicate information about a CID of a service or a program.
  • the ServiceReference element may indicate a service referenced by the corresponding content fragment.
  • the ProtectionKeyID element may indicate a key identifier required for accessing protected content.
  • the Name element may indicate the name of the corresponding content fragment.
  • the Description element may indicate a description of the corresponding content fragment.
  • the StartTime element may indicate start time information for presentation of the corresponding content.
  • EndTime element may indicate end time information for presentation of the corresponding content.
  • the AudioLanguage element may indicate that the corresponding content is available with the audio stream and the language information of the audio used at this time.
  • the TextLanguage element may indicate that the corresponding content is available with the text component, and the language information of the text used at this time.
  • the Length element may indicate the duration of the corresponding A / V content.
  • the ParentalRating element may indicate reference information about whether the content is suitable for children.
  • the TargetUserProfile element may indicate information about a target user.
  • the Genre element may indicate genre information of the corresponding content.
  • the extension element may indicate additional information related to the corresponding content fragment.
  • the PreviewDataReference element may represent the PreviewData fragment referenced by the corresponding component fragment.
  • the BroadcastArea element may indicate broadcast area information including location information for broadcast content.
  • the TermsOfUse element may indicate Terms of Use related to the corresponding fragment.
  • the PrivateExt element may represent a container for private or application-specific extensions. (An element serving as a container for proprietary or application-specific extensions.) This element may have a ProprietaryElements element as a sub-element, and the ProprietaryElements element may represent a private or application-specific element.
  • the ProprietaryElements element may contain one or more subelements or attributes.
  • the Component element may correspond to the E2 level as a subelement of the PrivateExt element. At this time, the Component element may correspond to the above-described ProprietaryElements element.
  • 69, 70, 71, and 72 are views showing the configuration of a component element according to an embodiment of the present invention.
  • the component element according to an embodiment of the present invention may correspond to the E2 level, and since the details of the component may be described, the number of components may exist or may not exist. Therefore, it may have a cardinality of 0 to N.
  • a component element according to an embodiment of the present invention may include a ComponentType element, a ComponentRole element, a StartTime element, an EndTime element, a Language element, a Length element, a ParentalRating element, a DeviceCapability element, and / or a TargetDevice element as sub elements.
  • the ComponentType element may be an element that describes the type of the component. Since this element exists under the component element, it may correspond to the E3 level. Since this element is a mandatory element that indicates the type of the component element, the cardinality may have a value of 1. If the value of this element is 0, it may indicate that it is unspecified, 1 is presentable video component, 2 is presentable audio component, 3 is presentable CC component, 4 is App-based Enhancement, and 5 to 255 is Reserved for future use.
  • the ComponentRole element may be an element describing a role of a component. Since this element exists under the component element, it may correspond to the E3 level. Since this element is a mandatory element that indicates the type of the component element, the cardinality may have a value of 1. Each component may have a role according to the type of the above-described ComponentType element and may have a corresponding role according to the value of the ComponentRole element.
  • This element is 0 for unspecified, 1 for Primary (default) video, 2 for Alternative camera view, 3 for Other alternative video component, 4 for Sign language (eg, ASL) inset, 5 for Follow subject video, complete main for 6, Music for 7, Dialog for 8, Effects for 9, Visually impaired for 10, Hearing impaired for 11, Commentary for 12, Normal for 13, Easy reader for 14 15 may indicate an App, 16 indicates an NRT Content Item, 17 indicates an On Demand component, 18 indicates a Notification Stream, 19 indicates a Start-Over, 20 indicates a Companion Screen, and 21 through 255 indicate Reserved for future use.
  • Sign language eg, ASL
  • the StartTime element may indicate a time at which the display of the corresponding component starts.
  • the EndTime element may indicate the time when the display of the corresponding component ends.
  • the Language element may indicate an expression language of the corresponding component. This element can have a languageSDPTag attribute as an attribute.
  • the languageSDPTag attribute may indicate a value that is tagged to match the language represented in the session description.
  • the Length element may indicate the duration of the display of the corresponding component.
  • the ParentalRating element may indicate rating display information of a corresponding component.
  • the DeviceCapability element may indicate performance information of the device rendering the corresponding component.
  • An embodiment of the present invention may provide capability information of a device for rendering a component using this element.
  • Values 2 through 8 of the element indicate video rendering capability information of the device, 9 through 15 indicate audio surround sound capability information of the device, 16 indicates audio mixing / rendering capability information, and 17 through 21 indicate input capability information. Can be represented.
  • the value of this element is 0 for Unspecified, 1 for Broadband connection, 2 for SD, 3 for HD, 4 for UHD, 5 for 8K, 6 for 3D video, 7 for High Dynamic Range Imaging, 8 for Wide Color Gamut, 9 for 2.0 channels, 2.1 channels for 10, 5.1 channels for 11, 6.1 channels for 12, 7.1 channels for 13, 22.1 channels for 14, 3D audio for 15, Dialog Level adjustment for 16, magic remote control input for 17, touch screen if 18 Input may indicate 19, mouse input 20, keyboard input 20, app rendering 21 and Reserved for future use.
  • the above-described broadband connection may indicate whether a broadband connection is required to deliver the corresponding component, and the video rendering capability information may indicate resolution, 2D, 3D, and / or other rendering related information.
  • the Audio Surround Sound Capability information may indicate audio channel information, and the Dialog level adjustment of the Audio Mixing / Rendering Capability information may indicate whether the audio Dialog level can be adjusted.
  • the input capability information may represent a broadcast program produced for a specific input device.
  • app rendering can indicate whether app rendering is required.
  • the TargetDevice element may indicate information of the target device on which the component is displayed. If the value of this element is 0, it can indicate Unspecified, 1 if Primary, 2 if Companion, 3 if Inset on Primary Screen ("Picture-in-Picture”), and 4 means Reserved for future use.
  • 73 is a diagram illustrating xml shema of a component element according to an embodiment of the present invention.
  • a component element according to an embodiment of the present invention may include a ComponentType element, a ComponentRole element, a StartTime element, an EndTime element, a Language element, a Length element, a ParentalRating element, a DeviceCapability element, and / or a TargetDevice element as sub elements. Detailed description of each element described above has been described above.
  • 74 is a diagram illustrating xml shema of a Language element and a ComponentType element according to an embodiment of the present invention.
  • the Language element may represent an expression language of a corresponding component.
  • This element can have a languageSDPTag attribute as an attribute.
  • the languageSDPTag attribute may indicate a value that is tagged to match the language represented in the session description. (L74010)
  • the ComponentType element may be an element describing a type of a component. Since this element exists under the component element, it may correspond to the E3 level. Since this element is a mandatory element that indicates the type of the component element, the cardinality may have a value of 1. If the value of this element is 0, it may indicate that it is unspecified, 1 is presentable video component, 2 is presentable audio component, 3 is presentable CC component, 4 is App-based Enhancement, and 5 to 255 is Reserved for future use. (L74020)
  • 75 is a diagram illustrating xml shema of a ComponentRole element according to an embodiment of the present invention.
  • the ComponentRole element may be an element describing a role of a component. Since this element exists under the component element, it may correspond to the E3 level. Since this element is a mandatory element that indicates the type of the component element, the cardinality may have a value of 1. Each component may have a role according to the type of the above-described ComponentType element and may have a corresponding role according to the value of the ComponentRole element.
  • This element is 0 for unspecified, 1 for Primary (default) video, 2 for Alternative camera view, 3 for Other alternative video component, 4 for Sign language (eg, ASL) inset, 5 for Follow subject video, complete main for 6, Music for 7, Dialog for 8, Effects for 9, Visually impaired for 10, Hearing impaired for 11, Commentary for 12, Normal for 13, Easy reader for 14 15 may indicate an App, 16 indicates an NRT Content Item, 17 indicates an On Demand component, 18 indicates a Notification Stream, 19 indicates a Start-Over, 20 indicates a Companion Screen, and 21 through 255 indicate Reserved for future use.
  • Sign language eg, ASL
  • FIG. 76 is a diagram illustrating an xml schema of a DeviceCapability element and a TargetDevice element according to an embodiment of the present invention.
  • the DeviceCapability element may indicate performance information of the device rendering the corresponding component.
  • An embodiment of the present invention may provide capability information of a device for rendering a component using this element.
  • Values 2 through 8 of the element indicate video rendering capability information of the device, 9 through 15 indicate audio surround sound capability information of the device, 16 indicates audio mixing / rendering capability information, and 17 through 21 indicate input capability information. Can be represented.
  • the value of this element is 0 for Unspecified, 1 for Broadband connection, 2 for SD, 3 for HD, 4 for UHD, 5 for 8K, 6 for 3D video, 7 for High Dynamic Range Imaging, 8 for Wide Color Gamut, 9 for 2.0 channels, 2.1 channels for 10, 5.1 channels for 11, 6.1 channels for 12, 7.1 channels for 13, 22.1 channels for 14, 3D audio for 15, Dialog Level adjustment for 16, magic remote control input for 17, touch screen if 18 Input may indicate 19, mouse input 20, keyboard input 20, app rendering 21 and Reserved for future use.
  • the above-described broadband connection may indicate whether a broadband connection is required to deliver the corresponding component, and the video rendering capability information may indicate resolution, 2D, 3D, and / or other rendering related information.
  • the Audio Surround Sound Capability information may indicate audio channel information, and the Dialog level adjustment of the Audio Mixing / Rendering Capability information may indicate whether the audio Dialog level can be adjusted.
  • the input capability information may represent a broadcast program produced for a specific input device.
  • app rendering can indicate whether app rendering is required. (L76010)
  • the TargetDevice element may indicate information of the target device on which the component is displayed. If the value of this element is 0, it can indicate Unspecified, 1 if Primary, 2 if Companion, 3 if Inset on Primary Screen ("Picture-in-Picture”), and 4 means Reserved for future use. (L76020)
  • FIG. 77 is a diagram illustrating an embodiment of an xml schema structure of a component element when transmitting a presentable video component (2D / HD) and a presentable audio component (5.1 channels).
  • the announcement when transmitting Presentable Video Component (2D / HD) and Presentable Audio Component (5.1 channels), the announcement may include two component elements as sub-elements of the PrivateExt element in the content fragment. It is available. (L77010)
  • the component element for Presentable Video Component (2D / HD) has 1 (Video) as the value of the ComponentType element, has 1 (Primary Video) as the value of the ComponentRole element, and 3 (HD) as the value of the DeviceCapability element. It can have 1 (Primary Device) as the value of the TargetDevice element. (L77010)
  • the component element for Presentable Audio Component has 2 (Audio) as the value of the ComponentType element, 6 (Completely Main) as the value of the ComponentRole element, KOR (Korean) as the value of the Language element, and DeviceCapability It can have 11 (5.1 channels) as the value of the element and 1 (Primary Device) as the value of the TargetDevice element. (L77010)
  • the receiver (device) After obtaining a DeviceCapability element value, the receiver (device) according to an embodiment of the present invention may determine whether the corresponding function can be supported and provide the capability information to the user.
  • the figure at the top right can represent the displayed screen of a device supporting HD and 5.1 channels.
  • an embodiment of the present invention may indicate on the screen that the device can support HD and 5.1 channels.
  • the figure on the lower right can represent the displayed screen of a device that supports HD but does not support 5.1 channels.
  • gray-out processing of 5.1 channels audio information that cannot be supported may be displayed on the screen.
  • FIG. 78 is a diagram illustrating an embodiment of an xml schema structure of a component element when transmitting a presentable video component (UHD) and a presentable ENG audio component by broadcasting and transmitting a presentable SPA audio component by broadband.
  • UHD presentable video component
  • UMA presentable ENG audio component
  • the announcement when transmitting a Presentable Video component (UHD) and a Presentable ENG audio component by broadcast and transmitting the Presentable SPA audio component by broadband, the announcement is a sub of the PrivateExt element in the Content fragment.
  • the component element for presentable video component has 1 (Video) as the value of the ComponentType element, has 1 (Primary Video) as the value of the ComponentRole element, has 4 (UHD) as the value of the DeviceCapability element, and the TargetDevice element. It can have a value of 1 (Primary Device). (L78010)
  • the component element for the Presentable ENG audio component (through Broadcast) has 2 (Audio) as the value of the ComponentType element, 6 (Completely Main) as the value of the ComponentRole element, and ENG (English) as the value of the Language element. It can have 1 (Primary Device) as the value of the TargetDevice element. (L78010)
  • the component element for presentable SPA audio component (through Broadband) has 2 (Audio) as the value of the ComponentType element, 6 (Completely Main) as the value of the ComponentRole element, SPA (Spanish) as the value of the Language element,
  • the value of the DeviceCapability element may have a value of 1 (the component is transmitted in a broadband), and the value of the TargetDevice element may have a value of 1 (Primary Device). (L78010)
  • the receiver (device) After obtaining a DeviceCapability element value, the receiver (device) according to an embodiment of the present invention may determine whether the corresponding function can be supported and provide the capability information to the user.
  • the figure on the right may show a screen displayed on the receiver (device) when it does not support the Brodaband connection or when it can support but is not connected. (L78020)
  • the receiver when the value of DeviceCapability is 1, the receiver may know that the corresponding component is transmitted over broadband.
  • a device that does not support brodaband connection or a device that can support but is not connected may gray out the information of the component transmitted through the broadband and display it on the screen.
  • the SPA audio information may be grayed out and displayed on the screen.
  • FIG. 79 is a diagram illustrating an embodiment of an xml schema structure of a component element when transmitting a presentable video component (UHD / wide color gamut) and a presentable audio component (5.1 channels).
  • a presentable video component UHD / wide color gamut
  • a presentable audio component 5.1 channels
  • the announcement when transmitting Presentable Video Component (UHD / Wide Color Gamut) and Presentable Audio Component (5.1 channels), the announcement is a sub-element of the PrivateExt element in the content fragment. Dogs are available. (L79010)
  • the component element for the Presentable Video Component (UHD / Wide Color Gamut) has 1 (Video) as the value of the ComponentType element, 1 (Primary Video) as the value of the ComponentRole element, 4 (UHD) as the value of the DeviceCapability element, and 8 (WCG) and may have 1 (Primary Device) as the value of the TargetDevice element. (L79010)
  • the component element for Presentable Audio Component has 2 (Audio) as the value of the ComponentType element, 6 (Completely Main) as the value of the ComponentRole element, KOR (Korean) as the value of the Language element, and DeviceCapability It can have 11 (5.1 channels) as the value of the element and 1 (Primary Device) as the value of the TargetDevice element. (L79010)
  • the receiver (device) After obtaining a DeviceCapability element value, the receiver (device) according to an embodiment of the present invention may determine whether the corresponding function can be supported and provide the capability information to the user.
  • the figure on the upper right can represent the displayed screen of a device supporting UHD, Wide Color Gamut (WCG) and 5.1 channels.
  • WCG Wide Color Gamut
  • an embodiment of the present invention may indicate on the screen that the device can support UHD, WCG and 5.1 channels.
  • the figure at the bottom right can represent the displayed screen of a device that supports UHD and 5.1 channels but does not support WCG.
  • capability information is obtained from a receiver that does not support 5.1 channels
  • gray-out processing of WCG information that cannot be supported may be displayed on a screen.
  • FIG. 80 is a view illustrating a component element according to another embodiment of the present invention.
  • the component element is the root element of the component sub-element.
  • Component elements start at the E2 level.
  • the component element describes the details of the component and thus may be described by as many elements as the number of components. For some reviewers, it is also possible to omit the component element.
  • the component element has a cardinality of 0..N.
  • the component element may include a ComponentType attribute, a ComponentRole element, a Language element, and / or an EssentialCapabilities element.
  • the ComponentType field includes attribute information indicating the type of component. That is, the ComponentType field is an attribute representing the type of the component. Cardinality may be defined as 1 since the ComponentType field is an essential element indicating the type of component.
  • the ComponentType field may identify that a component corresponds to Presentable Video, Presentable Audio, Presentable Closed Caption (CC) and / or Presentable App according to a value.
  • the illustrated message may include one or more fields, and each field may include a respective meaning or information.
  • Type information may be allocated to each field, and the type information may have a value of 'E', 'A', 'E1', 'E2', or 'E [n]'.
  • 'E' indicates that the field corresponds to an element.
  • 'A' indicates that the field corresponds to attribute information.
  • 'E1' indicates that the corresponding field is a sub element.
  • Sub-elements correspond to sub-elements defined within the element.
  • 'E2' represents a subelement of a subelement. That is, 'E [n]' may indicate the [n-1] th lower element of the element.
  • 81 is a view showing a ComponentRol element according to an embodiment of the present invention.
  • the ComponentRole element is an element that describes the role of the component. Since the ComponentRole element is preferably defined as a lower element of the component, the ComponentRole element may start with the level of E3.
  • the ComponentRole element may have a String value.
  • the value of the ComponentRole element may be designated as any valid String value at the broadcaster when producing Announcement Data. Since the value of the ComponentRole element is an extensible String value, any Capability String of any value can be described.
  • a target device eg, a receiver
  • the ComponentRole element contains information that provides a description of the type of text that the viewer can recognize for the component.
  • ComponentRole element may represent “Primary video”, “Alternative camera view”, “Other alternative video component”, “Sign language inset” and / or “Follow subject video” for presentable video components. can do.
  • ComponentRole element can represent “Complete main”, “Music”, “Dialog”, “Effects”, “Visually impaired”, “Hearing impaired” and / or “Commentary” for presentable audio components. It may include.
  • the type of the component that can be represented by the ComponentRole element may include "Normal” and / or “Easy reader” for the presentable CC component.
  • the type of the component that can be represented by the ComponentRole element may include "On Demand”, “Start-over”, and / or “Companion-Screen” for the presentable App (application) component.
  • FIG. 82 is in accordance with another embodiment of the present invention.
  • the component element according to an embodiment of the present invention may signal a type of each component when the component is composed of a plurality of types of media, so that a receiver or receiver may identify in advance a desired type of component at a receiver side. It can be effective.
  • the role of the component can be provided in the form of a letter, so that the viewer consuming the information can easily recognize or select the desired component.
  • the component element according to an embodiment of the present invention may be included in an extended form in a service guide content fragment defined in OMA BCAST.
  • FIG. 83 illustrates a component element according to another embodiment of the present invention.
  • the component element is the root element of the component sub-element.
  • Component elements start at the E2 level.
  • the component element describes the details of the component and thus may be described by as many elements as the number of components. For some reviewers, it is also possible to omit the component element.
  • the component element has a cardinality of 0..N.
  • the component element may include a PresentableVideoComponent element, a PresentableAudioComponent element, a PresentableCCComponent element, and / or a PresentableAppComponent element.
  • the PresentableVideoComponent element is an element that describes the Presentable Video Component.
  • the PresentableVideoComponent element is a child element of the component element and can start at the E3 level.
  • the PresentableVideoComponent element has a string value and can describe the role of a video component.
  • the PresentableVideoComponent element contains information that provides a description of the component in the form of text that the viewer can recognize.
  • the role of the component that the PresentableVideoComponent element may represent may include "Primary video", "Alternative camera view”, “Other alternative video component", “Sign language inset", and / or "Follow subject video".
  • the PresentableAudioComponent element is an element that describes the Presentable Audio Component.
  • the PresentableAudioComponent element can start at the E3 level as a child element of the component element.
  • the PresentableAudioComponent element has a string value and describes the role of an audio component.
  • the PresentableAudioComponent element contains information that provides a description of the component in the form of characters that the viewer can recognize.
  • the role of the component that the PresentableAudioComponent element may represent may include "Complete main", "Music", “Dialog”, “Effects”, "Visually impaired”, “Hearing impaired”, and / or "Commentary".
  • FIG. 84 is a view showing PresentableCCComponent element and PresentableAppComponent element according to another embodiment of the present invention.
  • the element described in this drawing may be included in the component element described in FIG. 83.
  • the PresentableCCComponent element is an element that describes the Presentable CC Component.
  • the PresentableCCComponent element can start at the E3 level as a child element of the component element.
  • the PresentableCCComponent element has a string value and can describe the role of the cc component.
  • the PresentableCCComponent element includes information that provides a description of the type of text that the viewer can recognize for the component.
  • the role of the component that the PresentableCCComponent element may represent may include "Normal" and / or "Easy reader".
  • the PresentableAppComponent element is an element that describes the Presentable App Component.
  • the PresentableAppComponent element can start at the E3 level as a child element of the component element.
  • the PresentableAppComponent element has a string value and describes the role of the app component.
  • the PresentableAppComponent element contains information that provides a description of the component in the form of text that the viewer can recognize.
  • the role of the component that the PresentableAppComponent element may represent may include On Demand, Start-over, and / or Companion-Screen.
  • 85 is a diagram showing component elements in XML form according to another embodiment of the present invention.
  • the component element according to another embodiment of the present invention may signal a type of each component when the component is composed of a plurality of types of media, so that a receiver or receiver may identify in advance a desired type of component at a receiver side. It can be effective.
  • the role of the component can be provided in the form of a letter, so that the viewer consuming the information can easily recognize or select the desired component.
  • by constructing a component element for each type of component, and by describing the role of each component as a String there is an effect that the expandability can be secured.
  • the component element according to an embodiment of the present invention may be included in an extended form in a service guide content fragment defined in OMA BCAST.
  • 86 is a view illustrating an Essential Capabilities element according to an embodiment of the present invention.
  • the component element may include a Capability item.
  • the Capability item may correspond to information indicating performance of the receiver required for the receiver to properly decode the corresponding component.
  • the Capability item may consist of a combination of Capability code and String.
  • One embodiment of the present invention proposes to further define new values in the Capability code and the Capability category.
  • a Capability item may be defined as a lower element of a component element.
  • the Capability item may include an EssentialCapabilities element, a CapabilituCodes element, a CapabilityString element, and / or Category attribute information.
  • the EssentialCapabilities element describes the capabilities required for meaningful presentation of the service (media, broadcast service).
  • the EssentialCapabilities element may include a CapabilityCodes element, and / or a CapabilityString element.
  • the EssentialCapabilities element can be defined as a child element of a component element, so it can start at the E3 level.
  • the CapabilityCodes element has a value for a code that identifies the type of capability.
  • the CapabilityCodes element may refer to one or more capabilities.
  • the CapabilityString element may contain a string describing the capability.
  • the CapabilityString element may include information for expressing a description of a capability by text.
  • the CapabilityString element may include Category attribute information.
  • Category property information is information indicating a category of capabilities described by the CapabilityString element.
  • 87 is a view showing meaning of a capability according to a value of a CapabilityCode element according to an embodiment of the present invention.
  • CapabilityCode element replaces the description by referring to the drawings.
  • a new value may be defined in an item of Download Protocols, and the capability indicated by the value may be set to correspond to 'IP via Broadband'. That is, in the next generation broadcasting system, since data can be received through IP of a broadband, it can be added as a kind of capability to a download protocol corresponding to IP via Broadband.
  • the CapabilityCode element may identify Rendering Capability. Depending on the value of the CapabilityCode element, the rendering capability required by the receiver to use the component may be signaled.
  • the Rendering Capability represented by the CapabilityCode element may indicate what kind of video, audio, application, and / or CC the receiver can render.
  • 88 is a diagram illustrating a capability category according to the value of category attribute information according to an embodiment of the present invention.
  • a value of Category attribute information may be further defined to identify that a capability is included in a category of Rendering Capability. For example, when the value of the Category attribute information has 0x06, this may indicate that the capability is included in the category of Rendering Capability.
  • 89 is a diagram illustrating a process of providing Pay Per View (PPV) for each component according to an embodiment of the present invention.
  • a pay-per-view service may be provided for each component. That is, according to the present invention, within one service or content, a specific component may be serviced for a fee. For example, according to the present invention, a component may be defined in an announcement to provide a pay-per-view service according to the component.
  • Each Component may have information about Pay.
  • the broadcast program (media, broadcast service, or broadcast content) may be free, but depending on the amount and quality of additional information of each component of the broadcast program, the broadcaster may charge a fee for the component. For example, a broadcaster may set up a viewer to pay a fee to consume a Video component that transmits data for viewing UHD for high quality while free of HD. Alternatively, the broadcaster may be configured to charge a fee for an audio component for stereo sound of audio. Alternatively, while a broadcaster is watching an election program, a component necessary to use a voting app may be set so that viewers can consume the component only by paying a fee. This is a possible pay-per-view scheme by transmitting an ESG for each component, as suggested by the present invention.
  • the component element may include PPV related information for each component.
  • the ComponentRole element may include PPV related information for each component role.
  • PPV related information may include information identifying whether a PPV is applied to a component or a component role, information about a payment method for the PPV, price information for the PPV, information related to authentication after payment for the PPV, and / or After the PPV is paid, it may include period information for validly using the corresponding component.
  • an embodiment to which the present invention can be applied can be seen that there is an element that can be viewed as a PPV in a broadcast program in an electronic service guide (ESG).
  • ESG electronic service guide
  • the receiver may display the item of the component provided in the PPV through the ESG.
  • the receiver When the viewer selects a broadcast program that has an element that can be viewed in PPV, the receiver notifies that the element that can be viewed in PPV exists in the program, and displays a UI (User Interface) asking the viewer whether to watch the element in PPV.
  • the viewer can receive the selection of the viewer.
  • an additional video exists in addition to the video basically provided by the broadcast program.
  • the above-described control unit may use the PPV related information to generate a broadcast schedule including an indication identifying whether the PPV is applied to a specific component.
  • the display unit described above may display the generated broadcast schedule.
  • the receiver may end the current video or display the Alternative View screen at a specific time desired by the viewer.
  • the Alternative View screen can be viewed in real time using the Companion Device.
  • 90 is a diagram illustrating an order in which media is provided for each component of a broadcast program according to an embodiment of the present invention.
  • the receiver receives Electronic Service Guide (ESG) data through a broadcast signal (JS90010).
  • ESG data may include the aforementioned element, service fragment, content fragment, schedule fragment, and / or component fragment.
  • the receiver parses the service fragment to generate a broadcaster list to be displayed in the channel list (JS90020).
  • the receiver parses the content fragment and generates a list of programs provided for each broadcaster (JS90030).
  • the receiver parses the schedule fragment and generates a schedule of a program provided for each broadcaster (JS90040).
  • the receiver receives a command to display a broadcast schedule from the viewer / user (JS90050).
  • the receiver determines whether a role for a component included in a broadcast service or a broadcast program is displayed in the ESG (JS90060).
  • the receiver When a role for a component included in a broadcast service or a broadcast program is displayed in the ESG, the receiver displays detailed information about each program in the broadcast schedule (JS90070). The receiver may obtain information on the role of the component from the above-described component element and its sub-elements.
  • the receiver receives a selection or reserved viewing command for a specific program from the viewer / user (JS90080).
  • the receiver enters (decodes) the broadcast program selected by the viewer / user (JS90090).
  • the receiver displays Video, Audio, CC, and / or App on the screen in accordance with the characteristics of the role of each component included in the broadcast program (JS90100).
  • the receiver may receive a command from the viewer / user to select a component of the Video, Audio, CC, and / or App that the viewer / user wants to watch.
  • the PPV may be processed in the above-described manner.
  • an indication may be displayed indicating whether there is a PPV policy.
  • the viewer / user watches the media displayed by the receiver (JS90100).
  • the receiver displays the name of the program and / or time information of the program in the broadcast schedule (JS90120).
  • the receiver receives, from the viewer / user, a selection or reserved viewing command for a specific program in the broadcast schedule (JS90130).
  • the receiver enters (decodes) a broadcast program selected by the viewer / user (JS90140).
  • the receiver performs the procedure described from step JS90050.
  • 91 is a diagram illustrating a screen on which media is provided for each component of a broadcast program according to an embodiment of the present invention.
  • L91010 a diagram describing the role of each component and a diagram which do not correspond to the 'G' program provided by a broadcast service (broadcasting station) called CNTV in the ESG are shown.
  • the ESG indicates that a component providing an 'Alternative View', a 'Follow Subject', and a 'Sign Language' exists for the 'G' program.
  • the receiver may display 'Sign language', 'follow subject video' together, or display thumbnail images of these components.
  • 'sign language' may correspond to sign language
  • 'follow subject video' may correspond to an image related to a current program.
  • FIG. 92 illustrates a case in which a role for a video component is displayed on an ESG according to an embodiment of the present invention.
  • the receiver receives a request for a broadcast schedule of the viewer and displays the broadcast schedule.
  • the broadcast schedule information on a broadcast program after the current time is displayed.
  • an ESG may indicate that a component corresponding to a specific role is provided.
  • sign language content may be provided for the 'B' program. Accordingly, a viewer who wants to use sign language content may select a program in which 'sign language' is displayed, switch channels of the corresponding program, or perform viewing reservation for the corresponding program.
  • the receiver may provide the viewer with a question about whether to watch the corresponding program and display the corresponding program.
  • 93 is a diagram illustrating a case in which a role for a video component is displayed on an ESG according to another embodiment of the present invention.
  • the receiver receives a request for a broadcast schedule of the viewer and displays the broadcast schedule.
  • the broadcast schedule information on a broadcast program after the current time is displayed.
  • an ESG may indicate that a component corresponding to a specific role is provided.
  • the broadcast schedule may indicate that 'alternative view' exists for the 'G' program.
  • the receiver may provide the viewer with an inquiry about whether to watch the 'Alternative View'.
  • the receiver may display the current image by replacing the 'Alternative View'.
  • the receiver may transmit 'Alternative View' to the compainion device, so that the 'Alternative View' may be displayed on the companion device.
  • FIG. 94 is a diagram illustrating a case in which a role for a video component is displayed on an ESG according to another embodiment of the present invention.
  • the receiver receives a request for a broadcast schedule of the viewer and displays the broadcast schedule.
  • the broadcast schedule information on a broadcast program after the current time is displayed.
  • an ESG may indicate that a component corresponding to a specific role is provided.
  • the broadcast schedule may indicate that a 'Follow subject video' component for 'I' program exists.
  • the receiver may ask the viewer whether to check the 'Follow subject video'.
  • the receiver may replace the current video with 'Follow subject video' and display it.
  • the receiver may transmit 'Follow subject video' to the compainion device so that the 'Follow subject video' may be displayed on the companion device.
  • FIG. 95 is a diagram illustrating a case in which a role for an audio component is displayed on an ESG according to an embodiment of the present invention.
  • the receiver receives a request for a broadcast schedule of the viewer and displays the broadcast schedule.
  • the broadcast schedule information on a broadcast program after the current time is displayed.
  • an ESG may indicate that a component corresponding to a specific role is provided.
  • the broadcast schedule may indicate that a 'Music' component for 'I' program exists.
  • the 'Music' component may correspond to a component that provides better sound quality for the program.
  • the viewer may select an 'I' program and consume the 'Music' component together in order to receive better audio quality.
  • FIG. 96 illustrates a case in which a role for an audio component is displayed on an ESG according to another embodiment of the present invention.
  • the receiver receives a request for a broadcast schedule of the viewer and displays the broadcast schedule.
  • the broadcast schedule information on a broadcast program after the current time is displayed.
  • an ESG may indicate that a component corresponding to a specific role is provided.
  • the broadcast schedule may indicate that a 'Dialog' component for 'G' program exists.
  • the 'Dialog' component is a separate component of the dialogue or speech of a particular performer in the program.
  • the viewer may select the 'G' program that provides the 'Dialog' component, and play the Dialog of the cast of the corresponding program through a separate speaker to consume the corresponding content. If the 'Dialog' component is provided separately, the receiver can adjust the level of the Dialog separately.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Circuits Of Receivers In General (AREA)

Abstract

본 발명은 방송 신호를 전송하는 방법을 제안한다. 본 발명의 일 실시예에 따른 방송 신호 송신 방법은 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 생성하는 단계, 여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및/또는 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함하고, 상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 인코딩하는 단계 및 상기 인코딩된 서비스 가이드 정보 및 컨텐트 데이터를 전송하는 단계를 포함한다.

Description

방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
본 발명은 방송 신호 송신 장치, 방송 신호 수신 장치, 및 방송 신호 송수신 방법에 관한 것이다.
아날로그 방송 신호 송신이 종료됨에 따라, 디지털 방송 신호를 송수신하기 위한 다양한 기술이 개발되고 있다. 디지털 방송 신호는 아날로그 방송 신호에 비해 더 많은 양의 비디오/오디오 데이터를 포함할 수 있고, 비디오/오디오 데이터뿐만 아니라 다양한 종류의 부가 데이터를 더 포함할 수 있다.
즉, 디지털 방송 시스템은 HD(High Definition) 이미지, 멀티채널(multi channel, 다채널) 오디오, 및 다양한 부가 서비스를 제공할 수 있다. 그러나, 디지털 방송을 위해서는, 많은 양의 데이터 전송에 대한 데이터 전송 효율, 송수신 네트워크의 견고성(robustness), 및 모바일 수신 장치를 고려한 네트워크 유연성(flexibility)이 향상되어야 한다.
본 발명의 일 실시예에 따른 방송 신호 송신 방법은 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 생성하는 단계, 여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함하고, 상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 인코딩하는 단계, 상기 인코딩된 서비스 가이드 정보 및 컨텐트 데이터를 전송하는 단계를 포함할 수 있다.
바람직하게는, 상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 컴포넌트 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트 중 적어도 어느 하나를 포함하고, 상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트를 포함할 수 있다.
바람직하게는, 상기 컨텐트 프래그먼트에 포함되는 서비스 레퍼런스 엘레먼트는 상기 컨텐트 프래그먼트와 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트 사이의 관계를 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 서비스 프래그먼트는 상기 서비스 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 서비스 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트 중 적어도 어느 하나를 포함하고, 상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함하고, 상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다.
바람직하게는, 상기 서비스 가이드 정보는 상기 방송 서비스의 스케쥴 정보를 나타내는 스케쥴 프래그먼트를 포함하고, 상기 스케쥴 프래그먼트는 상기 스케쥴 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 스케쥴 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 스케쥴 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 포함할 수 있다.
바람직하게는, 상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트를 나타내는 컴포넌트 데이터 엘레먼트를 포함하고, 상기 컴포넌트 데이터 엘레먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트의 타입을 나타내는 컨텐트 타입 정보를 포함하고, 상기 컴포넌트 데이터 엘레먼트는 상기 컨텐트 타입 정보에 따른 비디오 컴포넌트에 대한 정보를 포함하는 비디오 컴포넌트 엘레먼트, 오디오 컴포넌트에 대한 정보를 포함하는 오디오 컴포넌트 엘레먼트 또는 클로즈드 캡션 컴포넌트에 대한 정보를 포함하는 캡션 컴포넌트 엘레먼트를 포함할 수 있다.
바람직하게는, 상기 오디오 컴포넌트 엘레먼트는 상기 오디오 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함하고, 상기 캡션 컴포넌트 엘레먼트는 상기 캡션 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 컴포넌트 엘레먼트는 상기 비디오 컴포넌트와 연관관계가 있는 오디오 컴포넌트를 나타내는 정보 및 상기 비디오 컴포넌트와 연관관계가 있는 캡션 컴포넌트를 나타내는 정보 중 적어도 어느 하나를 포함할 수 있다.
본 발명의 다른 일 실시예에 따른 방송 신호 수신 장치는 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 수신하는 수신부, 여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함하고, 상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 디코딩하는 디코더를 포함할 수 있다.
바람직하게는, 상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 컴포넌트 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트 중 적어도 어느 하나를 포함하고, 상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트를 포함할 수 있다.
바람직하게는, 상기 컨텐트 프래그먼트에 포함되는 서비스 레퍼런스 엘레먼트는 상기 컨텐트 프래그먼트와 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트 사이의 관계를 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 서비스 프래그먼트는 상기 서비스 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 서비스 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트 중 적어도 어느 하나를 포함하고, 상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함하고, 상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다.
바람직하게는, 상기 서비스 가이드 정보는 상기 방송 서비스의 스케쥴 정보를 나타내는 스케쥴 프래그먼트를 포함하고, 상기 스케쥴 프래그먼트는 상기 스케쥴 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 스케쥴 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 스케쥴 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 포함할 수 있다.
바람직하게는, 상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트를 나타내는 컴포넌트 데이터 엘레먼트를 포함하고, 상기 컴포넌트 데이터 엘레먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트의 타입을 나타내는 컨텐트 타입 정보를 포함하고, 상기 컴포넌트 데이터 엘레먼트는 상기 컨텐트 타입 정보에 따른 비디오 컴포넌트에 대한 정보를 포함하는 비디오 컴포넌트 엘레먼트, 오디오 컴포넌트에 대한 정보를 포함하는 오디오 컴포넌트 엘레먼트 또는 클로즈드 캡션 컴포넌트에 대한 정보를 포함하는 캡션 컴포넌트 엘레먼트를 포함할 수 있다.
바람직하게는, 상기 오디오 컴포넌트 엘레먼트는 상기 오디오 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함하고, 상기 캡션 컴포넌트 엘레먼트는 상기 캡션 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함할 수 있다.
바람직하게는, 상기 비디오 컴포넌트 엘레먼트는 상기 비디오 컴포넌트와 연관관계가 있는 오디오 컴포넌트를 나타내는 정보 및 상기 비디오 컴포넌트와 연관관계가 있는 캡션 컴포넌트를 나타내는 정보 중 적어도 어느 하나를 포함할 수 있다.
본 발명의 또 다른 일 실시예에 따른 방송 신호 송신 장치는 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 생성하는 생성부, 여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함하고, 상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 인코딩하는 인코더, 상기 인코딩된 서비스 가이드 정보 및 컨텐트 데이터를 전송하는 전송부를 포함할 수 있다.
본 발명의 또 다른 일 실시예에 따른 방송 신호 수신 방법은 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 수신하는 단계, 여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함하고, 상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 디코딩하는 단계를 포함할 수 있다.
본 발명은 서비스 특성에 따라 데이터를 처리하여 각 서비스 또는 서비스 컴포넌트에 대한 QoS (Quality of Service)를 제어함으로써 다양한 방송 서비스를 제공할 수 있다.
본 발명은 동일한 RF (radio frequency) 신호 대역폭을 통해 다양한 방송 서비스를 전송함으로써 전송 유연성(flexibility)을 달성할 수 있다.
본 발명은 MIMO (Multiple-Input Multiple-Output) 시스템을 이용하여 데이터 전송 효율 및 방송 신호의 송수신 견고성(Robustness)을 향상시킬 수 있다.
본 발명에 따르면, 모바일 수신 장치를 사용하거나 실내 환경에 있더라도, 에러 없이 디지털 방송 신호를 수신할 수 있는 방송 신호 송신 및 수신 방법 및 장치를 제공할 수 있다.
본 발명에 대해 더욱 이해하기 위해 포함되며 본 출원에 포함되고 그 일부를 구성하는 첨부된 도면은 본 발명의 원리를 설명하는 상세한 설명과 함께 본 발명의 실시예를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치의 구조를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 인풋 포맷팅(Input formatting, 입력 포맷) 블록을 나타낸다.
도 3은 본 발명의 다른 일 실시예에 따른 인풋 포맷팅(Input formatting, 입력 포맷) 블록을 나타낸다.
도 4는 본 발명의 일 실시예에 따른 BICM (bit interleaved coding & modulation) 블록을 나타낸다.
도 5는 본 발명의 다른 일 실시예에 따른 BICM 블록을 나타낸다.
도 6은 본 발명의 일 실시예에 따른 프레임 빌딩(Frame Building, 프레임 생성) 블록을 나타낸다.
도 7은 본 발명의 일 실시예에 따른 OFDM (orthogonal frequency division multiplexing) 제너레이션(generation, 생성) 블록을 나타낸다.
도 8은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치의 구조를 나타낸다.
도 9는 본 발명의 일 실시예에 따른 프레임 구조를 나타낸다.
도 10은 본 발명의 일 실시예에 따른 프레임의 시그널링 계층 구조를 나타낸다.
도 11은 본 발명의 일 실시예에 따른 프리앰블 시그널링 데이터를 나타낸다.
도 12는 본 발명의 일 실시예에 따른 PLS1 데이터를 나타낸다.
도 13은 본 발명의 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 14는 본 발명의 다른 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 15는 본 발명의 일 실시예에 따른 프레임의 로지컬(logical, 논리) 구조를 나타낸다.
도 16은 본 발명의 일 실시예에 따른 PLS (physical layer signalling) 매핑을 나타낸다.
도 17은 본 발명의 일 실시예에 따른 EAC (emergency alert channel) 매핑을 나타낸다.
도 18은 본 발명의 일 실시예에 따른 FIC (fast information channel) 매핑을 나타낸다.
도 19는 본 발명의 일 실시예에 따른 FEC (forward error correction) 구조를 나타낸다.
도 20은 본 발명의 일 실시예에 따른 타임 인터리빙을 나타낸다.
도 21은 본 발명의 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 기본 동작을 나타낸다.
도 22는 본 발명의 다른 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 동작을 나타낸다.
도 23은 본 발명의 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 대각선 방향 읽기 패턴을 나타낸다.
도 24는 본 발명의 일 실시예에 따른 각 인터리빙 어레이(array)로부터 인터리빙된 XFECBLOCK을 나타낸다.
도 25는 본 발명의 일 실시예에 따른 메인 피지컬 디바이스 (Main Physical Device) 및 컴페니언 피지컬 디바이스 (Companion Physical Device)의 구성을 나타낸 도면이다.
도 26은 본 발명의 일 실시예에 따른 하이브리드 방송 서비스를 지원하기 위한 프로토콜 스택을 나타낸 도면이다.
도 27은 본 발명의 일 실시예에 따른 Service Type element의 XML schema를 나타낸 도면이다.
도 28은 본 발명의 일 실시예에 따라 서비스 타입 값으로 14를 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
도 29는 본 발명의 일 실시예에 따라 서비스 타입 값으로 14 및 15를 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
도 30은 본 발명의 일 실시예에 따라 서비스 타입 값으로 14 및 16을 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
도 31은 본 발명의 일 실시예에 따른 Component fragment의 XML schema를 나타낸 도면이다.
도 32는 본 발명의 일 실시예에 따른 ComponentType 엘레먼트의 xml schema를 나타낸 도면이다.
도 33은 본 발명의 일 실시예에 따른 ComponentData 엘레먼트의 xml schema를 나타낸 도면이다.
도 34는 본 발명의 일 실시예에 따른 VideoComponent 엘레먼트 및 VideoRole 엘레먼트의 xml schema를 나타낸 도면이다.
도 35는 본 발명의 일 실시예에 따른 AudioComponent 엘레먼트 및 AudioRole 엘레먼트의 xml schema를 나타낸 도면이다.
도 36는 본 발명의 일 실시예에 따른 CCComponent 엘레먼트 및 CCRole 엘레먼트의 xml schema를 나타낸 도면이다.
도 37은 본 발명의 일 실시예에 따라 scalable video coding에서 하나의 베이스 레이어 (base layer)와 두개의 인헨스먼트 레이어 (enhancement layer)를 포함하는 Composite Video Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 38은 본 발명의 일 실시예에 따라 3D video left view와 3D video right view를 포함하는 Composite Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 39는 본 발명의 일 실시예에 따라 Comple Audio Component를 기술하는 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 40은 본 발명의 일 실시예에 따른 컨텐트 프래그먼트 (content fragment) 내의 Component 엘레먼트의 xml schema를 나타낸 도면이다.
도 41은 본 발명의 일 실시예에 따른 Video, Audio 및 CC Component를 포함하는 Linear Service에 대한 컨텐트 프래그먼트의 xml schema를 나타낸 도면이다.
도 42는 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 컨텐트 프래그먼트 내에 Component 엘레먼트를 정의하는 경우의 Component 엘레먼트의 xml schema를 나타낸 도면이다.
도 43은 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 AssociatedTo 어트리뷰트를 사용하는 실시예를 나타낸 도면이다.
도 44는 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 associatedAudio 및 associatedCC 어트리뷰트를 사용하는 실시예를 나타낸 도면이다.
도 45는 AssociatedTo 어트리뷰트를 사용하여 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하는 실시예를 나타낸 도면이다.
도 46은 associatedAudio 및/또는 associatedCC 어트리뷰트를 사용하여 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하는 실시예를 나타낸 도면이다.
도 47은 본 발명의 일 실시예에 따른 프래그먼트들 사이의 참조관계를 나타낸 도면이다.
도 48은 본 발명의 일 실시예에 따라 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 Component 프래그먼트의 xml schema를 나타낸 도면이다.
도 49는 본 발명의 일 실시예에 따라 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 Schedule 프래그먼트의 xml shema를 나타낸 도면이다.
도 50은 Service, Content 및 Component 프레그먼트 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
도 51은 Continuous Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
도 52는 App-based Enhancement와 관련한 Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
도 53은 본 발명의 일 실시예에 따라 컨텐트 프래그먼트에서 관련 서비스 프래그먼트를 참조하는 경우 제공할 수 있는 기능을 나타낸 도면이다.
도 54는 본 발명의 일 실시예에 따른 relationship 어트리뷰트를 이용하여 컨텐트 프래그먼트에서 관련 서비스 프래그먼트를 참조하는 실시예를 나타낸 도면이다.
도 55은 본 발명의 다른 일 실시예에 따른 프래그먼트들 사이의 참조관계를 나타낸 도면이다.
도 56은 본 발명의 다른 일 실시예에 따른 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 서비스 프래그먼트, 컨텐트 프래그먼트 및 컴포넌트 프래그먼트의 xml schema를 나타낸 도면이다.
도 57은 Service, Content 및 Component 프레그먼트 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
도 58은 Continuous Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
도 59는 App-based Enhancement와 관련한 Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
도 60, 61은 본 발명의 일 실시예에 따른 Component 프래그먼트의 구성을 나타낸 도면이다.
도 62는 본 발명의 다른 일 실시예에 따른 Component 프래그먼트의 xml schema를 나타낸 도면이다.
도 63은 본 발명의 다른 일 실시예에 따른 ComponentType 엘레먼트의 xml schema를 나타낸 도면이다.
도 64는 본 발명의 일 실시예에 따른 ComponentRole 엘레먼트의 xml schema를 나타낸 도면이다.
도 65는 본 발명의 다른 일 실시예에 따라 scalable video coding에서 하나의 베이스 레이어 (base layer)와 두개의 인헨스먼트 레이어 (enhancement layer)를 포함하는 Composite Video Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 66은 본 발명의 다른 일 실시예에 따라 3D video left view와 3D video right view를 포함하는 Composite Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 67은 본 발명의 다른 일 실시예에 따라 Comple Audio Component를 기술하는 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 68은 본 발명의 일 실시예에 따른 Content 프래그먼트의 구성을 나타낸 도면이다.
도 69, 70, 71, 72는 본 발명의 일 실시예에 따른 Component 엘레먼트의 구성을 나타낸 도면이다.
도 73은 본 발명의 일 실시예에 따른 Component 엘레먼트의 xml shema를 나타낸 도면이다.
도 74는 본 발명의 일 실시예에 따른 Language 엘레먼트 및 ComponentType 엘레먼트의 xml shema를 나타낸 도면이다.
도 75는 본 발명의 일 실시예에 따른 ComponentRole 엘레먼트의 xml shema를 나타낸 도면이다.
도 76은 본 발명의 일 실시예에 따른 DeviceCapability 엘레먼트 및 TargetDevice 엘레먼트의 xml schema를 나타낸 도면이다.
도 77은 Presentable Video Component (2D/HD) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
도 78은 Presentable Video component (UHD) 및 Presentable ENG audio component를 브로드캐스트로 전송하고, Presentable SPA audio component를 브로드밴드로 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
도 79는 Presentable Video Component (UHD/Wide Color Gamut) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
도 80은 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트 (component element)를 나타낸 도면이다.
도 81은 본 발명의 일 실시예에 따른, ComponentRol 엘레먼트를 나타낸 도면이다.
도 82는 본 발명의 다른 실시예에 따른. 컴포넌트 엘레먼트를 XML 형태로 나타낸 도면이다.
도 83은 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트를 나타낸 도면이다.
도 84는 본 발명의 다른 실시예에 따른, PresentableCCComponent 엘레먼트 및 PresentableAppComponent 엘레먼트를 나타낸 도면이다.
도 85는 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트를 XML 형태로 나타낸 도면이다.
도 86은 본 발명의 일 실시예에 따른, Essential Capabilities 엘레먼트를 나타낸 도면이다.
도 87은 본 발명의 일 실시예에 따른, CapabilityCode 엘레먼트의 값에 따른 capability의 의미를 나타낸 도면이다.
도 88은 본 발명의 일 실시예에 따른, Category 속성 정보의 값에 따른 Capability Category를 나타낸 도면이다.
도 89는 본 발명의 일 실시예에 따른, 컴포넌트 별로 Pay Per View (PPV) 가 제공되는 과정을 나타낸 도면이다.
도 90는 본 발명의 일 실시예에 따른, 방송 프로그램의 각 컴포넌트 별로 미디어가 제공되는 순서를 나타낸 도면이다.
도 91은 본 발명의 일 실시예에 따른, 방송 프로그램의 각 컴포넌트 별로 미디어가 제공되는 화면을 나타낸 도면이다.
도 92는 본 발명의 일 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 93은 본 발명의 다른 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 94는 본 발명의 다른 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 95는 본 발명의 일 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 96은 본 발명의 다른 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 97은 본 발명의 다른 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 98은 본 발명의 일 실시예에 따른, CC (Closed Caption) 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 99는 본 발명의 일 실시예에 따른 방송 신호 송신 방법을 나타낸 도면이다.
도 100은 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구성을 나타낸 도면이다.
도 101은 본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구성을 나타낸 도면이다.
도 102는 본 발명의 일 실시예에 따른 방송 신호 수신 방법을 나타낸 도면이다.
본 발명의 바람직한 실시예에 대해 구체적으로 설명하며, 그 예는 첨부된 도면에 나타낸다. 첨부된 도면을 참조한 아래의 상세한 설명은 본 발명의 실시예에 따라 구현될 수 있는 실시예만을 나타내기보다는 본 발명의 바람직한 실시예를 설명하기 위한 것이다. 다음의 상세한 설명은 본 발명에 대한 철저한 이해를 제공하기 위해 세부 사항을 포함한다. 그러나 본 발명이 이러한 세부 사항 없이 실행될 수 있다는 것은 당업자에게 자명하다.
본 발명에서 사용되는 대부분의 용어는 해당 분야에서 널리 사용되는 일반적인 것들에서 선택되지만, 일부 용어는 출원인에 의해 임의로 선택되며 그 의미는 필요에 따라 다음 설명에서 자세히 서술한다. 따라서 본 발명은 용어의 단순한 명칭이나 의미가 아닌 용어의 의도된 의미에 근거하여 이해되어야 한다.
본 명세서에서 '시그널링 (signaling)' 이라 함은 방송 시스템, 인터넷 방송 시스템 및/또는 방송/인터넷 융합 시스템에서 제공되는 서비스 정보 (Service Information; SI)를 전송/수신하는 것을 나타낸다. 서비스 정보는 현재 존재하는 각 방송 시스템에서 제공되는 방송 서비스 정보 (예를 들면, ATSC-SI 및/또는 DVB-SI)를 포함한다.
본 명세서에서 '방송 신호' 라 함은, 지상파 방송, 케이블 방송, 위성 방송, 및/또는 모바일 방송 이외에도, 인터넷 방송, 브로드밴드 방송, 통신 방송, 데이터 방송 및/또는 VOD (Video On Demand) 등의 양방향 방송에서 제공되는 신호 및/또는 데이터를 포함하는 개념으로 정의한다.
본 명세서에서 'PLP' 라 함은, 물리적 계층에 속하는 데이터를 전송하는 일정한 유닛을 의미한다. 따라서, 본 명세서에서 'PLP'로 명명된 내용은, '데이터 유닛' 또는 '데이터 파이프 (data pipe)' 로 바꾸어 명명될 수도 있다.
디지털 방송 (DTV) 서비스에서 활용될 유력한 어플리케이션 (application) 중의 하나로, 방송 망과 인터넷 망과의 연동을 통한 하이브리드 방송 서비스를 꼽을 수 있다. 하이브리드 방송 서비스는 지상파 방송망을 통해서 전송되는 방송 A/V (Audio/Video) 컨텐츠와 연관된 인핸스먼트 데이터 (enhancement data) 혹은 방송 A/V 컨텐츠의 일부를 인터넷 망을 통하여 실시간으로 전송함으로써, 사용자로 하여금 다양한 컨텐츠를 경험할 수 있도록 한다.
본 발명은 차세대 방송 서비스에 대한 방송 신호 송신 및 수신 장치 및 방법을 제공한다. 본 발명의 일 실시예에 따른 차세대 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 포함한다. 본 발명은 일 실시예에 따라 비-MIMO (non-Multiple Input Multiple Output) 또는 MIMO 방식을 통해 차세대 방송 서비스에 대한 방송 신호를 처리할 수 있다. 본 발명의 일 실시예에 따른 비-MIMO 방식은 MISO (Multiple Input Single Output) 방식, SISO (Single Input Single Output) 방식 등을 포함할 수 있다.
이하에서는 설명의 편의를 위해 MISO 또는 MIMO 방식은 두 개의 안테나를 사용하지만, 본 발명은 두 개 이상의 안테나를 사용하는 시스템에 적용될 수 있다. 본 발명은 특정 용도에 요구되는 성능을 달성하면서 수신기 복잡도를 최소화하기 위해 최적화된 세 개의 피지컬 프로파일(PHY profile) (베이스(base), 핸드헬드(handheld), 어드벤스(advanced) 프로파일)을 정의할 수 있다. 피지컬 프로파일은 해당하는 수신기가 구현해야 하는 모든 구조의 서브셋이다.
세 개의 피지컬 프로파일은 대부분의 기능 블록을 공유하지만, 특정 블록 및/또는 파라미터에서는 약간 다르다. 추후에 추가로 피지컬 프로파일이 정의될 수 있다. 시스템 발전을 위해, 퓨처 프로파일은 FEF (future extension frame)을 통해 단일 RF (radio frequency) 채널에 존재하는 프로파일과 멀티플렉싱 될 수도 있다. 각 피지컬 프로파일에 대한 자세한 내용은 후술한다.
1. 베이스 프로파일
베이스 프로파일은 주로 루프 톱(roof-top) 안테나와 연결되는 고정된 수신 장치의 주된 용도를 나타낸다. 베이스 프로파일은 어떤 장소로 이동될 수 있지만 비교적 정지된 수신 범주에 속하는 휴대용 장치도 포함할 수 있다. 베이스 프로파일의 용도는 약간의 개선된 실행에 의해 핸드헬드 장치 또는 차량용으로 확장될 수 있지만, 이러한 사용 용도는 베이스 프로파일 수신기 동작에서는 기대되지 않는다.
수신의 타겟 신호 대 잡음비 범위는 대략 10 내지 20 dB인데, 이는 기존 방송 시스템(예를 들면, ATSC A/53)의 15 dB 신호 대 잡음비 수신 능력을 포함한다. 수신기 복잡도 및 소비 전력은 핸드헬드 프로파일을 사용할 배터리로 구동되는 핸드헬드 장치에서만큼 중요하지 않다. 베이스 프로파일에 대한 중요 시스템 파라미터가 아래 표 1에 기재되어 있다.
표 1
Figure PCTKR2015004179-appb-T000001
2. 핸드헬드 프로파일
핸드헬드 프로파일은 배터리 전원으로 구동되는 핸드헬드 및 차량용 장치에서의 사용을 위해 설계된다. 해당 장치는 보행자 또는 차량 속도로 이동할 수 있다. 수신기 복잡도뿐만 아니라 소비 전력은 핸드헬드 프로파일의 장치의 구현을 위해 매우 중요하다. 핸드헬드 프로파일의 타겟 신호 대 잡음비 범위는 대략 0 내지 10 dB이지만, 더 낮은 실내 수신을 위해 의도된 경우 0 dB 아래에 달하도록 설정될 수 있다.
저 신호 대 잡음비 능력뿐만 아니라, 수신기 이동성에 의해 나타난 도플러 효과에 대한 복원력은 핸드헬드 프로파일의 가장 중요한 성능 속성이다. 핸드헬드 프로파일에 대한 중요 시스템 파라미터가 아래 표 2에 기재되어 있다.
표 2
Figure PCTKR2015004179-appb-T000002
3. 어드벤스 프로파일
어드벤스 프로파일은 더 큰 실행 복잡도에 대한 대가로 더 높은 채널 능력을 제공한다. 해당 프로파일은 MIMO 송신 및 수신을 사용할 것을 요구하며, UHDTV 서비스는 타겟 용도이고, 이를 위해 해당 프로파일이 특별히 설계된다. 향상된 능력은 주어진 대역폭에서 서비스 수의 증가, 예를 들면, 다수의 SDTV 또는 HDTV 서비스를 허용하는 데도 사용될 수 있다.
어드벤스 프로파일의 타겟 신호 대 잡음비 범위는 대략 20 내지 30 dB이다. MIMO 전송은 초기에는 기존의 타원 분극 전송 장비를 사용하고, 추후에 전출력 교차 분극 전송으로 확장될 수 있다. 어드벤스 프로파일에 대한 중요 시스템 파라미터가 아래 표 3에 기재되어 있다.
표 3
Figure PCTKR2015004179-appb-T000003
이 경우, 베이스 프로파일은 지상파 방송 서비스 및 모바일 방송 서비스 모두에 대한 프로파일로 사용될 수 있다. 즉, 베이스 프로파일은 모바일 프로파일을 포함하는 프로파일의 개념을 정의하기 위해 사용될 수 있다. 또한, 어드벤스 프로파일은 MIMO을 갖는 베이스 프로파일에 대한 어드벤스 프로파일 및 MIMO을 갖는 핸드헬드 프로파일에 대한 어드벤스 프로파일로 구분될 수 있다. 그리고 해당 세 프로파일은 설계자의 의도에 따라 변경될 수 있다.
다음의 용어 및 정의는 본 발명에 적용될 수 있다. 다음의 용어 및 정의는 설계에 따라 변경될 수 있다.
보조 스트림: 퓨처 익스텐션(future extension, 추후 확장) 또는 방송사나 네트워크 운영자에 의해 요구됨에 따라 사용될 수 있는 아직 정의되지 않은 변조 및 코딩의 데이터를 전달하는 셀의 시퀀스
베이스 데이터 파이프(base data pipe): 서비스 시그널링 데이터를 전달하는 데이터 파이프
베이스밴드 프레임 (또는 BBFRAME): 하나의 FEC 인코딩 과정 (BCH 및 LDPC 인코딩)에 대한 입력을 형성하는 Kbch 비트의 집합
셀(cell): OFDM 전송의 하나의 캐리어에 의해 전달되는 변조값
코딩 블록(coded block): PLS1 데이터의 LDPC 인코딩된 블록 또는 PLS2 데이터의 LDPC 인코딩된 블록들 중 하나
데이터 파이프(data pipe): 하나 또는 다수의 서비스 또는 서비스 컴포넌트를 전달할 수 있는 서비스 데이터 또는 관련된 메타데이터를 전달하는 물리 계층(physical layer)에서의 로지컬 채널
데이터 파이프 유닛(DPU, data pipe unit): 데이터 셀을 프레임에서의 데이터 파이프에 할당할 수 있는 기본 유닛
데이터 심볼(data symbol): 프리앰블 심볼이 아닌 프레임에서의 OFDM 심볼 (프레임 시그널링 심볼 및 프레임 엣지(edge) 심볼은 데이터 심볼에 포함된다.)
DP_ID: 해당 8비트 필드는 SYSTEM_ID에 의해 식별된 시스템 내에서 데이터 파이프를 유일하게 식별한다.
더미 셀(dummy cell): PLS (physical layer signalling) 시그널링, 데이터 파이프, 또는 보조 스트림을 위해 사용되지 않은 남아 있는 용량을 채우는 데 사용되는 의사 랜덤값을 전달하는 셀
FAC (emergency alert channel, 비상 경보 채널): EAS 정보 데이터를 전달하는 프레임 중 일부
프레임(frame): 프리앰블로 시작해서 프레임 엣지 심볼로 종료되는 물리 계층(physical layer) 타임 슬롯
프레임 리피티션 유닛(frame repetition unit, 프레임 반복 단위): 슈퍼 프레임(super-frame)에서 8회 반복되는 FEF를 포함하는 동일한 또는 다른 피지컬 프로파일에 속하는 프레임의 집합
FIC (fast information channel, 고속 정보 채널): 서비스와 해당 베이스 데이터 파이프 사이에서의 매핑 정보를 전달하는 프레임에서 로지컬 채널
FECBLOCK: 데이터 파이프 데이터의 LDPC 인코딩된 비트의 집합
FFT 사이즈: 기본 주기 T의 사이클로 표현된 액티브 심볼 주기 Ts와 동일한 특정 모드에 사용되는 명목상의 FFT 사이즈
프레임 시그널링 심볼(frame signaling symbol): PLS 데이터의 일부를 전달하는, FFT 사이즈, 가드 인터벌(guard interval), 및 스캐터(scattered) 파일럿 패턴의 특정 조합에서 프레임의 시작에서 사용되는 더 높은 파일럿 밀도를 갖는 OFDM 심볼
프레임 엣지 심볼(frame edge symbol): FFT 사이즈, 가드 인터벌, 및 스캐터 파일럿 패턴의 특정 조합에서 프레임의 끝에서 사용되는 더 높은 파일럿 밀도를 갖는 OFDM 심볼
프레임 그룹(frame-group): 슈퍼 프레임에서 동일한 피지컬 프로파일 타입을 갖는 모든 프레임의 집합
퓨쳐 익스텐션 프레임(future extention frame, 추후 확장 프레임): 프리앰블로 시작하는, 추후 확장에 사용될 수 있는 슈퍼 프레임 내에서 물리 계층(physical layer) 타임 슬롯
퓨처캐스트(futurecast) UTB 시스템: 입력이 하나 이상의 MPEG2-TS 또는 IP (Internet protocol) 또는 일반 스트림이고 출력이 RF 시그널인 제안된 물리 계층(physical layer) 방송 시스템
인풋 스트림(input stream, 입력 스트림): 시스템에 의해 최종 사용자에게 전달되는 서비스의 조화(ensemble)를 위한 데이터의 스트림
노멀(normal) 데이터 심볼: 프레임 시그널링 심볼 및 프레임 엣지 심볼을 제외한 데이터 심볼
피지컬 프로파일(PHY profile): 해당하는 수신기가 구현해야 하는 모든 구조의 서브셋
PLS: PLS1 및 PLS2로 구성된 물리 계층(physical layer) 시그널링 데이터
PLS1: PLS2를 디코딩하는 데 필요한 파라미터뿐만 아니라 시스템에 관한 기본 정보를 전달하는 고정된 사이즈, 코딩, 변조를 갖는 FSS (frame signalling symbol)로 전달되는 PLS 데이터의 첫 번째 집합
NOTE: PLS1 데이터는 프레임 그룹의 듀레이션(duration) 동안 일정하다.
PLS2: 데이터 파이프 및 시스템에 관한 더욱 상세한 PLS 데이터를 전달하는 FSS로 전송되는 PLS 데이터의 두 번째 집합
PLS2 다이나믹(dynamic, 동적) 데이터: 프레임마다 다이나믹(dynamic, 동적)으로 변화하는 PLS2 데이터
PLS2 스태틱(static, 정적) 데이터: 프레임 그룹의 듀레이션 동안 스태틱(static, 정적)인 PLS2 데이터
프리앰블 시그널링 데이터(preamble signaling data): 프리앰블 심볼에 의해 전달되고 시스템의 기본 모드를 확인하는 데 사용되는 시그널링 데이터
프리앰블 심볼(preamble symbol): 기본 PLS 데이터를 전달하고 프레임의 시작에 위치하는 고정된 길이의 파일럿 심볼
NOTE: 프리앰블 심볼은 시스템 신호, 그 타이밍, 주파수 오프셋, 및 FFT 사이즈를 검출하기 위해 고속 초기 밴드 스캔에 주로 사용된다.
추후 사용(future use)을 위해 리저브드(reserved): 현재 문서에서 정의되지 않지만 추후에 정의될 수 있음
슈퍼 프레임(superframe): 8개의 프레임 반복 단위의 집합
타임 인터리빙 블록(time interleaving block, TI block): 타임 인터리버 메모리의 하나의 용도에 해당하는, 타임 인터리빙이 실행되는 셀의 집합
타임 인터리빙 그룹(time interleaving group, TI group): 정수, 다이나믹(dynamic, 동적)으로 변화하는 XFECBLOCK의 수로 이루어진, 특정 데이터 파이프에 대한 다이나믹(dynamic, 동적) 용량 할당이 실행되는 단위
NOTE: 타임 인터리빙 그룹은 하나의 프레임에 직접 매핑되거나 다수의 프레임에 매핑될 수 있다. 타임 인터리빙 그룹은 하나 이상의 타임 인터리빙 블록을 포함할 수 있다.
타입 1 데이터 파이프(Type 1 DP): 모든 데이터 파이프가 프레임에 TDM (time division multiplexing) 방식으로 매핑되는 프레임의 데이터 파이프
타입 2 데이터 파이프(Type 2 DP): 모든 데이터 파이프가 프레임에 FDM 방식으로 매핑되는 프레임의 데이터 파이프
XFECBLOCK: 하나의 LDPC FECBLOCK의 모든 비트를 전달하는 Ncells 셀들의 집합
도 1은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치의 구조를 나타낸다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 인풋 포맷 블록 (Input Format block) (1000), BICM (bit interleaved coding & modulation) 블록(1010), 프레임 빌딩 블록 (Frame building block) (1020), OFDM (orthogonal frequency division multiplexing) 제너레이션 블록 (OFDM generation block)(1030), 및 시그널링 생성 블록(1040)을 포함할 수 있다. 방송 신호 송신 장치의 각 블록의 동작에 대해 설명한다.
IP 스트림/패킷 및 MPEG2-TS은 주요 입력 포맷이고, 다른 스트림 타입은 일반 스트림으로 다루어진다. 이들 데이터 입력에 추가로, 관리 정보가 입력되어 각 입력 스트림에 대한 해당 대역폭의 스케줄링 및 할당을 제어한다. 하나 또는 다수의 TS 스트림, IP 스트림 및/또는 일반 스트림 입력이 동시에 허용된다.
인풋 포맷 블록(1000)은 각각의 입력 스트림을 독립적인 코딩 및 변조가 적용되는 하나 또는 다수의 데이터 파이프로 디멀티플렉싱 할 수 있다. 데이터 파이프는 견고성(robustness) 제어를 위한 기본 단위이며, 이는 QoS (Quality of Service)에 영향을 미친다. 하나 또는 다수의 서비스 또는 서비스 컴포넌트가 하나의 데이터 파이프에 의해 전달될 수 있다. 인풋 포맷 블록(1000)의 자세한 동작은 후술한다.
데이터 파이프는 하나 또는 다수의 서비스 또는 서비스 컴포넌트를 전달할 수 있는 서비스 데이터 또는 관련 메타데이터를 전달하는 물리 계층(physical layer)에서의 로지컬 채널이다.
또한, 데이터 파이프 유닛은 하나의 프레임에서 데이터 셀을 데이터 파이프에 할당하기 위한 기본 유닛이다.
인풋 포맷 블록(1000)에서, 패리티(parity) 데이터는 에러 정정을 위해 추가되고, 인코딩된 비트 스트림은 복소수값 컨스텔레이션 심볼에 매핑된다. 해당 심볼은 해당 데이터 파이프에 사용되는 특정 인터리빙 깊이에 걸쳐 인터리빙 된다. 어드벤스 프로파일에 있어서, BICM 블록(1010)에서 MIMO 인코딩이 실행되고 추가 데이터 경로가 MIMO 전송을 위해 출력에 추가된다. BICM 블록(1010)의 자세한 동작은 후술한다.
프레임 빌딩 블록(1020)은 하나의 프레임 내에서 입력 데이터 파이프의 데이터 셀을 OFDM 실볼로 매핑할 수 있다. 매핑 후, 주파수 영역 다이버시티를 위해, 특히 주파수 선택적 페이딩 채널을 방지하기 위해 주파수 인터리빙이 이용된다. 프레임 빌딩 블록(1020)의 자세한 동작은 후술한다.
프리앰블을 각 프레임의 시작에 삽입한 후, OFDM 제너레이션 블록(1030)은 사이클릭 프리픽스(cyclic prefix)을 가드 인터벌로 갖는 기존의 OFDM 변조를 적용할 수 있다. 안테나 스페이스 다이버시티를 위해, 분산된(distributed) MISO 방식이 송신기에 걸쳐 적용된다. 또한, PAPR (peak-to-average power ratio) 방식이 시간 영역에서 실행된다. 유연한 네트워크 방식을 위해, 해당 제안은 다양한 FFT 사이즈, 가드 인터벌 길이, 해당 파일럿 패턴의 집합을 제공한다. OFDM 제너레이션 블록(1030)의 자세한 동작은 후술한다.
시그널링 생성 블록(1040)은 각 기능 블록의 동작에 사용되는 물리 계층(physical layer) 시그널링 정보를 생성할 수 있다. 해당 시그널링 정보는 또한 관심 있는 서비스가 수신기 측에서 적절히 복구되도록 전송된다. 시그널링 생성 블록(1040)의 자세한 동작은 후술한다.
도 2, 3, 4는 본 발명의 실시예에 따른 인풋 포맷 블록(1000)을 나타낸다. 각 도면에 대해 설명한다.
도 2는 본 발명의 일 실시예에 따른 인풋 포맷 블록을 나타낸다. 도 2는 입력 신호가 단일 입력 스트림(single input stream)일 때의 인풋 포맷 블록을 나타낸다.
도 2에 도시된 인풋 포맷 블록은 도 1을 참조하여 설명한 인풋 포맷 블록(1000)의 일 실시예에 해당한다.
물리 계층(physical layer)으로의 입력은 하나 또는 다수의 데이터 스트림으로 구성될 수 있다. 각각의 데이터 스트림은 하나의 데이터 파이프에 의해 전달된다. 모드 어댑테이션(mode adaptaion, 모드 적응) 모듈은 입력되는 데이터 스트림을 BBF (baseband frame)의 데이터 필드로 슬라이스한다. 해당 시스템은 세 가지 종류의 입력 데이터 스트림, 즉 MPEG2-TS, IP, GS (generic stream)을 지원한다. MPEG2-TS는 첫 번째 바이트가 동기 바이트(0x47)인 고정된 길이(188 바이트)의 패킷을 특징으로 한다. IP 스트림은 IP 패킷 헤더 내에서 시그널링 되는 가변 길이 IP 데이터그램 패킷으로 구성된다. 해당 시스템은 IP 스트림에 대해 IPv4와 IPv6을 모두 지원한다. GS는 캡슐화 패킷 헤더 내에서 시그널링되는 가변 길이 패킷 또는 일정 길이 패킷으로 구성될 수 있다.
(a)는 신호 데이터 파이프에 대한 모드 어댑테이션(mode adaptaion, 모드 적응) 블록(2000) 및 스트림 어댑테이션(stream adaptation, 스트림 적응)(2010)을 나타내고, (b)는 PLS 데이터를 생성 및 처리하기 위한 PLS 생성 블록(2020) 및 PLS 스크램블러(2030)를 나타낸다. 각 블록의 동작에 대해 설명한다.
입력 스트림 스플리터는 입력된 TS, IP, GS 스트림을 다수의 서비스 또는 서비스 컴포넌트(오디오, 비디오 등) 스트림으로 분할한다. 모드 어댑테이션(mode adaptaion, 모드 적응) 모듈(2010)은 CRC 인코더, BB (baseband) 프레임 슬라이서, 및 BB 프레임 헤더 삽입 블록으로 구성된다.
CRC 인코더는 유저 패킷 (user packet, UP)레벨에서의 에러 검출을 위한 세 종류의 CRC 인코딩, 즉 CRC-8, CRC-16, CRC-32를 제공한다. 산출된 CRC 바이트는 UP 뒤에 첨부된다. CRC-8은 TS 스트림에 사용되고, CRC-32는 IP 스트림에 사용된다. GS 스트림이 CRC 인코딩을 제공하지 않으면, 제안된 CRC 인코딩이 적용되어야 한다.
BB 프레임 슬라이서는 입력을 내부 로지컬 비트 포맷에 매핑한다. 첫 번째 수신 비트는 MSB라고 정의한다. BB 프레임 슬라이서는 가용 데이터 필드 용량과 동일한 수의 입력 비트를 할당한다. BBF 페이로드와 동일한 수의 입력 비트를 할당하기 위해, UP 스트림이 BBF의 데이터 필드에 맞게 슬라이스된다.
BB 프레임 헤더 삽입 블록은 2바이트의 고정된 길이의 BBF 헤더를 BB 프레임의 앞에 삽입할 수 있다. BBF 헤더는 STUFFI (1비트), SYNCD (13비트), 및 RFU (2비트)로 구성된다. 고정된 2바이트 BBF 헤더뿐만 아니라, BBF는 2바이트 BBF 헤더 끝에 확장 필드(1 또는 3바이트)를 가질 수 있다.
스트림 어댑테이션(stream adaptation, 스트림 적응)(2010)은 스터핑(stuffing) 삽입 블록 및 BB 스크램블러로 구성된다. 스터핑 삽입 블록은 스터핑 필드를 BB 프레임의 페이로드에 삽입할 수 있다. 스트림 어댑테이션(stream adaptation, 스트림 적응)에 대한 입력 데이터가 BB 프레임을 채우기에 충분하면, STUFFI는 0으로 설정되고, BBF는 스터핑 필드를 갖지 않는다. 그렇지 않으면, STUFFI는 1로 설정되고, 스터핑 필드는 BBF 헤더 직후에 삽입된다. 스터핑 필드는 2바이트의 스터핑 필드 헤더 및 가변 사이즈의 스터핑 데이터를 포함한다.
BB 스크램블러는 에너지 분산을 위해 완전한 BBF를 스크램블링한다. 스크램블링 시퀀스는 BBF와 동기화된다. 스크램블링 시퀀스는 피드백 시프트 레지스터에 의해 생성된다.
PLS 생성 블록(2020)은 PLS 데이터를 생성할 수 있다. PLS는 수신기에서 피지컬 레이어(physical layer) 데이터 파이프에 접속할 수 있는 수단을 제공한다. PLS 데이터는 PLS1 데이터 및 PLS2 데이터로 구성된다.
PLS1 데이터는 PLS2 데이터를 디코딩하는 데 필요한 파라미터뿐만 아니라 시스템에 관한 기본 정보를 전달하는 고정된 사이즈, 코딩, 변조를 갖는 프레임에서 FSS로 전달되는 PLS 데이터의 첫 번째 집합이다. PLS1 데이터는 PLS2 데이터의 수신 및 디코딩을 가능하게 하는 데 요구되는 파라미터를 포함하는 기본 송신 파라미터를 제공한다. 또한, PLS1 데이터는 프레임 그룹의 듀레이션 동안 일정하다.
PLS2 데이터는 데이터 파이프 및 시스템에 관한 더욱 상세한 PLS 데이터를 전달하는 FSS로 전송되는 PLS 데이터의 두 번째 집합이다. PLS2는 수신기가 원하는 데이터 파이프를 디코딩하는 데 충분한 정보를 제공하는 파라미터를 포함한다. PLS2 시그널링은 PLS2 스태틱(static, 정적) 데이터(PLS2-STAT 데이터) 및 PLS2 다이나믹(dynamic, 동적) 데이터(PLS2-DYN 데이터)의 두 종류의 파라미터로 더 구성된다. PLS2 스태틱(static, 정적) 데이터는 프레임 그룹의 듀레이션 동안 스태틱(static, 정적)인 PLS2 데이터이고, PLS2 다이나믹(dynamic, 동적) 데이터는 프레임마다 다이나믹(dynamic, 동적)으로 변화하는 PLS2 데이터이다.
PLS 데이터에 대한 자세한 내용은 후술한다.
PLS 스크램블러(2030)는 에너지 분산을 위해 생성된 PLS 데이터를 스크램블링 할 수 있다.
전술한 블록은 생략될 수도 있고 유사 또는 동일 기능을 갖는 블록에 의해 대체될 수도 있다.
도 3은 본 발명의 다른 일 실시예에 따른 인풋 포맷 블록을 나타낸다.
도 3에 도시된 인풋 포맷 블록은 도 1을 참조하여 설명한 인풋 포맷 블록(1000)의 일 실시예에 해당한다.
도 3은 입력 신호가 멀티 인풋 스트림(multi input stream, 다수의 입력 스트림)에 해당하는 경우 인풋 포맷 블록의 모드 어댑테이션(mode adaptaion, 모드 적응) 블록을 나타낸다.
멀티 인풋 스트림(multi input stream, 다수의 입력 스트림)을 처리하기 위한 인풋 포맷 블록의 모드 어댑테이션(mode adaptaion, 모드 적응) 블록은 다수 입력 스트림을 독립적으로 처리할 수 있다.
도 3을 참조하면, 멀티 인풋 스트림(multi input stream, 다수의 입력 스트림)을 각각 처리하기 위한 모드 어댑테이션(mode adaptaion, 모드 적응) 블록은 인풋 스트림 스플리터 (input stream splitter) (3000), 인풋 스트림 싱크로나이저 (input stream synchronizer) (3010), 컴펜세이팅 딜레이(compensatin delay, 보상 지연) 블록(3020), 널 패킷 딜리션 블록 (null packet deletion block) (3030), 헤더 컴프레션 블록 (header compression block) (3040), CRC 인코더 (CRC encoder) (3050), BB 프레임 슬라이서(BB frame slicer) (3060), 및 BB 헤더 삽입 블록 (BB header insertion block) (3070)을 포함할 수 있다. 모드 어댑테이션(mode adaptaion, 모드 적응) 블록의 각 블록에 대해 설명한다.
CRC 인코더(3050), BB 프레임 슬라이서(3060), 및 BB 헤더 삽입 블록(3070)의 동작은 도 2를 참조하여 설명한 CRC 인코더, BB 프레임 슬라이서, 및 BB 헤더 삽입 블록의 동작에 해당하므로, 그 설명은 생략한다.
인풋 스트림 스플리터(3000)는 입력된 TS, IP, GS 스트림을 다수의 서비스 또는 서비스 컴포넌트(오디오, 비디오 등) 스트림으로 분할한다.
인풋 스트림 싱크로나이저(3010)는 ISSY라 불릴 수 있다. ISSY는 어떠한 입력 데이터 포맷에 대해서도 CBR (constant bit rate) 및 일정한 종단간 전송(end-to-end transmission) 지연을 보장하는 적합한 수단을 제공할 수 있다. ISSY는 TS를 전달하는 다수의 데이터 파이프의 경우에 항상 이용되고, GS 스트림을 전달하는 다수의 데이터 파이프에 선택적으로 이용된다.
컴펜세이팅 딜레이(compensatin delay, 보상 지연) 블록(3020)은 수신기에서 추가로 메모리를 필요로 하지 않고 TS 패킷 재결합 메커니즘을 허용하기 위해 ISSY 정보의 삽입에 뒤따르는 분할된 TS 패킷 스트림을 지연시킬 수 있다.
널 패킷 딜리션 블록(3030)은 TS 입력 스트림 경우에만 사용된다. 일부 TS 입력 스트림 또는 분할된 TS 스트림은 VBR (variable bit-rate) 서비스를 CBR TS 스트림에 수용하기 위해 존재하는 많은 수의 널 패킷을 가질 수 있다. 이 경우, 불필요한 전송 오버헤드를 피하기 위해, 널 패킷은 확인되어 전송되지 않을 수 있다. 수신기에서, 제거된 널 패킷은 전송에 삽입된 DNP(deleted null-packet, 삭제된 널 패킷) 카운터를 참조하여 원래 존재했던 정확한 장소에 재삽입될 수 있어, CBR이 보장되고 타임 스탬프(PCR) 갱신의 필요가 없어진다.
헤더 컴프레션 블록(3040)은 TS 또는 IP 입력 스트림에 대한 전송 효율을 증가시키기 위해 패킷 헤더 압축을 제공할 수 있다. 수신기는 헤더의 특정 부분에 대한 선험적인(a priori) 정보를 가질 수 있기 때문에, 이 알려진 정보(known information)는 송신기에서 삭제될 수 있다.
TS에 대해, 수신기는 동기 바이트 구성(0x47) 및 패킷 길이(188 바이트)에 관한 선험적인 정보를 가질 수 있다. 입력된 TS가 하나의 PID만을 갖는 콘텐트를 전달하면, 즉, 하나의 서비스 컴포넌트(비디오, 오디오 등) 또는 서비스 서브 컴포넌트(SVC 베이스 레이어, SVC 인헨스먼트 레이어, MVC 베이스 뷰, 또는 MVC 의존 뷰)에 대해서만, TS 패킷 헤더 압축이 TS에 (선택적으로) 적용될 수 있다. TS 패킷 헤더 압축은 입력 스트림이 IP 스트림인 경우 선택적으로 사용된다. 상기 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 4는 본 발명의 일 실시예에 따른 BICM 블록을 나타낸다.
도 4에 도시된 BICM 블록은 도 1을 참조하여 설명한 BICM 블록(1010)의 일 실시예에 해당한다.
전술한 바와 같이, 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 제공할 수 있다.
QoS가 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치에 의해 제공되는 서비스의 특성에 의존하므로, 각각의 서비스에 해당하는 데이터는 서로 다른 방식을 통해 처리되어야 한다. 따라서, 본 발명의 일 실시예에 따른 BICM 블록은 SISO, MISO, MIMO 방식을 각각의 데이터 경로에 해당하는 데이터 파이프에 독립적으로 적용함으로써 각데이터 파이프를 독립적으로 처리할 수 있다. 결과적으로, 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 각각의 데이터 파이프를 통해 전송되는 각 서비스 또는 서비스 컴포넌트에 대한 QoS를 조절할 수 있다.
(a)는 베이스 프로파일 및 핸드헬드 프로파일에 의해 공유되는 BICM 블록을 나타내고, (b)는 어드벤스 프로파일의 BICM 블록을 나타낸다.
베이스 프로파일 및 핸드헬드 프로파일에 의해 공유되는 BICM 블록 및 어드벤스 프로파일의 BICM 블록은 각각의 데이터 파이프를 처리하기 위한 복수의 처리 블록을 포함할 수 있다.
베이스 프로파일 및 핸드헬드 프로파일에 대한 BICM 블록 및 어드벤스 프로파일에 대한 BICM 블록의 각각의 처리 블록에 대해 설명한다.
베이스 프로파일 및 핸드헬드 프로파일에 대한 BICM 블록의 처리 블록(5000)은 데이터 FEC 인코더(5010), 비트 인터리버(5020), 컨스텔레이션 매퍼(mapper)(5030), SSD (signal space diversity) 인코딩 블록(5040), 타임 인터리버(5050)를 포함할 수 있다.
데이터 FEC 인코더(5010)는 외부 코딩(BCH) 및 내부 코딩(LDPC)을 이용하여 FECBLOCK 절차를 생성하기 위해 입력 BBF에 FEC 인코딩을 실행한다. 외부 코딩(BCH)은 선택적인 코딩 방법이다. 데이터 FEC 인코더(5010)의 구체적인 동작에 대해서는 후술한다.
비트 인터리버(5020)는 효율적으로 실현 가능한 구조를 제공하면서 데이터 FEC 인코더(5010)의 출력을 인터리빙하여 LDPC 코드 및 변조 방식의 조합으로 최적화된 성능을 달성할 수 있다. 비트 인터리버(5020)의 구체적인 동작에 대해서는 후술한다.
컨스텔레이션 매퍼(5030)는 QPSK, QAM-16, 불균일 QAM (NUQ-64, NUQ-256, NUQ-1024) 또는 불균일 컨스텔레이션 (NUC-16, NUC-64, NUC-256, NUC-1024)을 이용해서 베이스 및 핸드헬드 프로파일에서 비트 인터리버(5020)로부터의 각각의 셀 워드를 변조하거나 어드벤스 프로파일에서 셀 워드 디멀티플렉서(5010-1)로부터의 셀 워드를 변조하여 파워가 정규화된 컨스텔레이션 포인트 el을 제공할 수 있다. 해당 컨스텔레이션 매핑은 데이터 파이프에 대해서만 적용된다. NUQ가 임의의 형태를 갖는 반면, QAM-16 및 NUQ는 정사각형 모양을 갖는 것이 관찰된다. 각각의 컨스텔레이션이 90도의 배수만큼 회전되면, 회전된 컨스텔레이션은 원래의 것과 정확히 겹쳐진다. 회전 대칭 특성으로 인해 실수 및 허수 컴포넌트의 용량 및 평균 파워가 서로 동일해진다. NUQ 및 NUC는 모두 각 코드 레이트(code rate)에 대해 특별히 정의되고, 사용되는 특정 하나는 PLS2 데이터에 보관된 파라미터 DP_MOD에 의해 시그널링 된다.
타임 인터리버(5050)는 데이터 파이프 레벨에서 동작할 수 있다. 타임 인터리빙의 파라미터는 각각의 데이터 파이프에 대해 다르게 설정될 수 있다. 타임 인터리버(5050)의 구체적인 동작에 관해서는 후술한다.
어드벤스 프로파일에 대한 BICM 블록의 처리 블록(5000-1)은 데이터 FEC 인코더, 비트 인터리버, 컨스텔레이션 매퍼, 및 타임 인터리버를 포함할 수 있다.
단, 처리 블록(5000-1)은 셀 워드 디멀티플렉서(5010-1) 및 MIMO 인코딩 블록(5020-1)을 더 포함한다는 점에서 처리 블록(5000)과 구별된다.
또한, 처리 블록(5000-1)에서의 데이터 FEC 인코더, 비트 인터리버, 컨스텔레이션 매퍼, 타임 인터리버의 동작은 전술한 데이터 FEC 인코더(5010), 비트 인터리버(5020), 컨스텔레이션 매퍼(5030), 타임 인터리버(5050)의 동작에 해당하므로, 그 설명은 생략한다.
셀 워드 디멀티플렉서(5010-1)는 어드벤스 프로파일의 데이터 파이프가 MIMO 처리를 위해 단일 셀 워드 스트림을 이중 셀 워드 스트림으로 분리하는 데 사용된다. 셀 워드 디멀티플렉서(5010-1)의 구체적인 동작에 관해서는 후술한다.
MIMO 인코딩 블록(5020-1)은 MIMO 인코딩 방식을 이용해서 셀 워드 디멀티플렉서(5010-1)의 출력을 처리할 수 있다. MIMO 인코딩 방식은 방송 신호 송신을 위해 최적화되었다. MIMO 기술은 용량 증가를 얻기 위한 유망한 방식이지만, 채널 특성에 의존한다. 특별히 방송에 대해서, 서로 다른 신호 전파 특성으로 인한 두 안테나 사이의 수신 신호 파워 차이 또는 채널의 강한 LOS 컴포넌트는 MIMO로부터 용량 이득을 얻는 것을 어렵게 한다. 제안된 MIMO 인코딩 방식은 MIMO 출력 신호 중 하나의 위상 랜덤화 및 회전 기반 프리코딩을 이용하여 이 문제를 극복한다.
MIMO 인코딩은 송신기 및 수신기 모두에서 적어도 두 개의 안테나를 필요로 하는 2x2 MIMO 시스템을 위해 의도된다. 두 개의 MIMO 인코딩 모드는 본 제안인 FR-SM (full-rate spatial multiplexing) 및 FRFD-SM (full-rate full-diversity spatial multiplexing)에서 정의된다. FR-SM 인코딩은 수신기 측에서의 비교적 작은 복잡도 증가로 용량 증가를 제공하는 반면, FRFD-SM 인코딩은 수신기 측에서의 큰 복잡도 증가로 용량 증가 및 추가적인 다이버시티 이득을 제공한다. 제안된 MIMO 인코딩 방식은 안테나 극성 배치를 제한하지 않는다.
MIMO 처리는 어드벤스 프로파일 프레임에 요구되는데, 이는 어드벤스 프로파일 프레임에서의 모든 데이터 파이프가 MIMO 인코더에 의해 처리된다는 것을 의미한다. MIMO 처리는 데이터 파이프 레벨에서 적용된다. 컨스텔레이션 매퍼 출력의 페어(pair, 쌍)인 NUQ (e1,i 및 e2,i)는 MIMO 인코더의 입력으로 공급된다. MIMO 인코더 출력 페어(pair, 쌍)(g1,i 및 g2,i)은 각각의 송신 안테나의 동일한 캐리어 k 및 OFDM 심볼 l에 의해 전송된다.
전술한 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 5는 본 발명의 다른 실시예에 따른 BICM 블록을 나타낸다.
도 5에 도시된 BICM 블록은 도 1을 참조하여 설명한 BICM 블록(1010)의 일 실시예에 해당한다.
도 5는 PLS, EAC, 및 FIC의 보호를 위한 BICM 블록을 나타낸다. EAC는 EAS 정보 데이터를 전달하는 프레임의 일부이고, FIC는 서비스와 해당하는 베이스 데이터 파이프 사이에서 매핑 정보를 전달하는 프레임에서의 로지컬 채널이다. EAC 및 FIC에 대한 상세한 설명은 후술한다.
도 5를 참조하면, PLS, EAC, 및 FIC의 보호를 위한 BICM 블록은 PLS FEC 인코더(6000), 비트 인터리버(6010), 및 컨스텔레이션 매퍼(6020)를 포함할 수 있다.
또한, PLS FEC 인코더(6000)는 스크램블러, BCH 인코딩/제로 삽입 블록, LDPC 인코딩 블록, 및 LDPC 패리티 펑처링(puncturing) 블록을 포함할 수 있다. BICM 블록의 각 블록에 대해 설명한다.
PLS FEC 인코더(6000)는 스크램블링된 PLS 1/2 데이터, EAC 및 FIC 섹션을 인코딩할 수 있다.
스크램블러는 BCH 인코딩 및 쇼트닝(shortening) 및 펑처링된 LDPC 인코딩 전에 PLS1 데이터 및 PLS2 데이터를 스크램블링 할 수 있다.
BCH 인코딩/제로 삽입 블록은 PLS 보호를 위한 쇼트닝된 BCH 코드를 이용하여 스크램블링된 PLS 1/2 데이터에 외부 인코딩을 수행하고, BCH 인코딩 후에 제로 비트를 삽입할 수 있다. PLS1 데이터에 대해서만, 제로 삽입의 출력 비트가 LDPC 인코딩 전에 퍼뮤테이션(permutation) 될 수 있다.
LDPC 인코딩 블록은 LDPC 코드를 이용하여 BCH 인코딩/제로 삽입 블록의 출력을 인코딩할 수 있다. 완전한 코딩 블록을 생성하기 위해, Cldpc 및 패리티 비트 Pldpc는 각각의 제로가 삽입된 PLS 정보 블록 Ildpc로부터 조직적으로 인코딩되고, 그 뒤에 첨부된다.
수학식 1
Figure PCTKR2015004179-appb-M000001
PLS1 및 PLS2에 대한 LDPC 코드 파라미터는 다음의 표 4와 같다.
표 4
Figure PCTKR2015004179-appb-T000004
LDPC 패리티 펑처링 블록은 PLS1 데이터 및 PLS2 데이터에 대해 펑처링을 수행할 수 있다.
쇼트닝이 PLS1 데이터 보호에 적용되면, 일부 LDPC 패리티 비트는 LDPC 인코딩 후에 펑처링된다. 또한, PLS2 데이터 보호를 위해, PLS2의 LDPC 패리티 비트가 LDPC 인코딩 후에 펑처링된다. 이들 펑처링된 비트는 전송되지 않는다.
비트 인터리버(6010)는 각각의 쇼트닝 및 펑처링된 PLS1 데이터 및 PLS2 데이터를 인터리빙할 수 있다.
컨스텔레이션 매퍼(6020)는 비트 인터리빙된 PLS1 데이터 및 PLS2 데이터를 컨스텔레이션에 매핑할 수 있다.
전술한 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 6은 본 발명의 일 실시예에 따른 프레임 빌딩 블록(frame building block)을 나타낸다.
도 7에 도시한 프레임 빌딩 블록은 도 1을 참조하여 설명한 프레임 빌딩 블록(1020)의 일 실시예에 해당한다.
도 6을 참조하면, 프레임 빌딩 블록은 딜레이 컴펜세이션(delay compensation, 지연보상) 블록(7000), 셀 매퍼 (cell mapper) (7010), 및 프리퀀시 인터리버 (frequency interleaver) (7020)를 포함할 수 있다. 프레임 빌딩 블록의 각 블록에 관해 설명한다.
딜레이 컴펜세이션(delay compensation, 지연보상) 블록(7000)은 데이터 파이프와 해당하는 PLS 데이터 사이의 타이밍을 조절하여 송신기 측에서 데이터 파이프와 해당하는 PLS 데이터 간의 동시성(co-time)을 보장할 수 있다. 인풋 포맷 블록 및 BICM 블록으로 인한 데이터 파이프의 지연을 다룸으로써 PLS 데이터는 데이터 파이프만큼 지연된다. BICM 블록의 지연은 주로 타임 인터리버(5050)로 인한 것이다. 인 밴드(In-band) 시그널링 데이터는 다음 타임 인터리빙 그룹의 정보를 시그널링될 데이터 파이프보다 하나의 프레임 앞서 전달되도록 할 수 있다. 딜레이 컴펜세이션(delay compensation, 지연보상) 블록은 그에 맞추어 인 밴드(In-band) 시그널링 데이터를 지연시킨다.
셀 매퍼(7010)는 PLS, EAC, FIC, 데이터 파이프, 보조 스트림, 및 더미 셀을 프레임 내에서 OFDM 심볼의 액티브(active) 캐리어에 매핑할 수 있다. 셀 매퍼(7010)의 기본 기능은 각각의 데이터 파이프, PLS 셀, 및 EAC/FIC 셀에 대한 타임 인터리빙에 의해 생성된 데이터 셀을, 존재한다면, 하나의 프레임 내에서 각각의 OFDM 심볼에 해당하는 액티브(active) OFDM 셀의 어레이에 매핑하는 것이다. (PSI(program specific information)/SI와 같은) 서비스 시그널링 데이터는 개별적으로 수집되어 데이터 파이프에 의해 보내질 수 있다. 셀 매퍼는 프레임 구조의 구성 및 스케줄러에 의해 생성된 다이나믹 인포메이션(dynamic information, 동적 정보)에 따라 동작한다. 프레임에 관한 자세한 내용은 후술한다.
주파수 인터리버(7020)는 셀 매퍼(7010)로부터 의해 수신된 데이터 셀을 랜덤하게 인터리빙하여 주파수 다이버시티를 제공할 수 있다. 또한, 주파수 인터리버(7020)는 단일 프레임에서 최대의 인터리빙 이득을 얻기 위해 다른 인터리빙 시드(seed) 순서를 이용하여 두 개의 순차적인 OFDM 심볼로 구성된 OFDM 심볼 페어(pair, 쌍)에서 동작할 수 있다.
전술한 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 7은 본 발명의 일 실시예에 따른 OFDM 제너레이션 블록을 나타낸다.
도 7에 도시된 OFDM 제너레이션 블록은 도 1을 참조하여 설명한 OFDM 제너레이션 블록(1030)의 일 실시예에 해당한다.
OFDM 제너레이션 블록은 프레임 빌딩 블록에 의해 생성된 셀에 의해 OFDM 캐리어를 변조하고, 파일럿을 삽입하고, 전송을 위한 시간 영역 신호를 생성한다. 또한, 해당 블록은 순차적으로 가드 인터벌을 삽입하고, PAPR 감소 처리를 적용하여 최종 RF 신호를 생성한다.
도 8을 참조하면, OFDM 제너레이션 블록은 파일럿 및 리저브드 톤 삽입 블록 (pilot and revserved tone insertion block) (8000), 2D-eSFN (single frequency network) 인코딩 블록(8010), IFFT (inverse fast Fourier transform) 블록(8020), PAPR 감소 블록(8030), 가드 인터벌 삽입 블록 (guard interval insertion block)(8040), 프리앰블 삽입 블록 (preamble insertion block)(8050), 기타 시스템 삽입 블록(8060), 및 DAC 블록(8070)을 포함할 수 있다.
기타 시스템 삽입 블록(8060)은 방송 서비스를 제공하는 둘 이상의 서로 다른 방송 송신/수신 시스템의 데이터가 동일한 RF 신호 대역에서 동시에 전송될 수 있도록 시간 영역에서 복수의 방송 송신/수신 시스템의 신호를 멀티플렉싱 할 수 있다. 이 경우, 둘 이상의 서로 다른 방송 송신/수신 시스템은 서로 다른 방송 서비스를 제공하는 시스템을 말한다. 서로 다른 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스 등을 의미할 수 있다.
도 8은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치의 구조를 나타낸다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치는 도 1을 참조하여 설명한 차세대 방송 서비스에 대한 방송 신호 송신 장치에 대응할 수 있다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치는 동기 및 복조 모듈 (synchronization & demodulation module) (9000), 프레임 파싱 모듈 (frame parsing module) (9010), 디매핑 및 디코딩 모듈 (demapping & decoding module) (9020), 출력 프로세서 (output processor) (9030), 및 시그널링 디코딩 모듈 (signaling decoding module) (9040)을 포함할 수 있다. 방송 신호 수신 장치의 각 모듈의 동작에 대해 설명한다.
동기 및 복조 모듈(9000)은 m개의 수신 안테나를 통해 입력 신호를 수신하고, 방송 신호 수신 장치에 해당하는 시스템에 대해 신호 검출 및 동기화를 실행하고, 방송 신호 송신 장치에 의해 실행되는 절차의 역과정에 해당하는 복조를 실행할 수 있다.
프레임 파싱 모듈(9010)은 입력 신호 프레임을 파싱하고, 사용자에 의해 선택된 서비스가 전송되는 데이터를 추출할 수 있다. 방송 신호 송신 장치가 인터리빙을 실행하면, 프레임 파싱 모듈(9010)은 인터리빙의 역과정에 해당하는 디인터리빙을 실행할 수 있다. 이 경우, 추출되어야 하는 신호 및 데이터의 위치가 시그널링 디코딩 모듈(9040)로부터 출력된 데이터를 디코딩함으로써 획득되어, 방송 신호 송신 장치에 의해 생성된 스케줄링 정보가 복원될 수 있다.
디매핑 및 디코딩 모듈(9020)은 입력 신호를 비트 영역 데이터로 변환한 후, 필요에 따라 비트 영역 데이터들을 디인터리빙할 수 있다. 디매핑 및 디코딩 모듈(9020)은 전송 효율을 위해 적용된 매핑에 대한 디매핑을 실행하고, 디코딩을 통해 전송 채널에서 발생한 에러를 정정할 수 있다. 이 경우, 디매핑 및 디코딩 모듈(9020)은 시그널링 디코딩 모듈(9040)로부터 출력된 데이터를 디코딩함으로써 디매핑 및 디코딩을 위해 필요한 전송 파라미터를 획득할 수 있다.
출력 프로세서(9030)는 전송 효율을 향상시키기 위해 방송 신호 송신 장치에 의해 적용되는 다양한 압축/신호 처리 절차의 역과정을 실행할 수 있다. 이 경우, 출력 프로세서(9030)는 시그널링 디코딩 모듈(9040)로부터 출력된 데이터에서 필요한 제어 정보를 획득할 수 있다. 출력 프로세서(8300)의 출력은 방송 신호 송신 장치에 입력되는 신호에 해당하고, MPEG-TS, IP 스트림 (v4 또는 v6) 및 GS일 수 있다.
시그널링 디코딩 모듈(9040)은 동기 및 복조 모듈(9000)에 의해 복조된 신호로부터 PLS 정보를 획득할 수 있다. 전술한 바와 같이, 프레임 파싱 모듈(9010), 디매핑 및 디코딩 모듈(9200), 출력 프로세서(9300)는 시그널링 디코딩 모듈(9040)로부터 출력된 데이터를 이용하여 그 기능을 실행할 수 있다.
도 9는 본 발명의 일 실시예에 따른 프레임 구조를 나타낸다.
도 9는 프레임 타임의 구성예 및 슈퍼 프레임에서의 FRU (frame repetition unit, 프레임 반복 단위)를 나타낸다. (a)는 본 발명의 일 실시예에 따른 슈퍼 프레임을 나타내고, (b)는 본 발명의 일 실시예에 따른 FRU를 나타내고, (c)는 FRU에서의 다양한 피지컬 프로파일(PHY profile)의 프레임을 나타내고, (d)는 프레임의 구조를 나타낸다.
슈퍼 프레임은 8개의 FRU로 구성될 수 있다. FRU는 프레임의 TDM에 대한 기본 멀티플렉싱 단위이고, 슈퍼 프레임에서 8회 반복된다.
FRU에서 각 프레임은 피지컬 프로파일(베이스, 핸드헬드, 어드벤스 프로파일) 중 하나 또는 FEF에 속한다. FRU에서 프레임의 최대 허용수는 4이고, 주어진 피지컬 프로파일은 FRU에서 0회 내지 4회 중 어느 횟수만큼 나타날 수 있다(예를 들면, 베이스, 베이스, 핸드헬드, 어드벤스). 피지컬 프로파일 정의는 필요시 프리앰블에서의 PHY_PROFILE의 리저브드 값을 이용하여 확장될 수 있다.
FEF 부분은 포함된다면 FRU의 끝에 삽입된다. FEF가 FRU에 포함되는 경우, FEF의 최대수는 슈퍼 프레임에서 8이다. FEF 부분들이 서로 인접할 것이 권장되지 않는다.
하나의 프레임은 다수의 OFDM 심볼 및 프리앰블로 더 분리된다. (d)에 도시한 바와 같이, 프레임은 프리앰블, 하나 이상의 FSS, 노멀 데이터 심볼, FES를 포함한다.
프리앰블은 고속 퓨처캐스트 UTB 시스템 신호 검출을 가능하게 하고, 신호의 효율적인 송신 및 수신을 위한 기본 전송 파라미터의 집합을 제공하는 특별한 심볼이다. 프리앰블에 대한 자세한 내용은 후술한다.
FSS의 주된 목적은 PLS 데이터를 전달하는 것이다. 고속 동기화 및 채널 추정을 위해, 이에 따른 PLS 데이터의 고속 디코딩을 위해, FSS는 노멀 데이터 심볼보다 고밀도의 파일럿 패턴을 갖는다. FES는 FSS와 완전히 동일한 파일럿을 갖는데, 이는 FES에 바로 앞서는 심볼에 대해 외삽(extrapolation) 없이 FES 내에서의 주파수만의 인터폴레이션(interpolation, 보간) 및 시간적 보간(temporal interpolation)을 가능하게 한다.
도 10은 본 발명의 일 실시예에 따른 프레임의 시그널링 계층 구조(signaling hierarchy structure) 를 나타낸다.
도 10은 시그널링 계층 구조를 나타내는데, 이는 세 개의 주요 부분인 프리앰블 시그널링 데이터(11000), PLS1 데이터(11010), 및 PLS2 데이터(11020)로 분할된다. 매 프레임마다 프리앰블 신호에 의해 전달되는 프리앰블의 목적은 프레임의 기본 전송 파라미터 및 전송 타입을 나타내는 것이다. PLS1은 수신기가 관심 있는 데이터 파이프에 접속하기 위한 파라미터를 포함하는 PLS2 데이터에 접속하여 디코딩할 수 있게 한다. PLS2는 매 프레임마다 전달되고, 두 개의 주요 부분인 PLS2-STAT 데이터와 PLS2-DYN 데이터로 분할된다. PLS2 데이터의 스태틱(static, 정적) 및 다이나믹(dynamic, 동적) 부분에는 필요시 패딩이 뒤따른다.
도 11은 본 발명의 일 실시예에 따른 프리앰블 시그널링 데이터를 나타낸다.
프리앰블 시그널링 데이터는 수신기가 프레임 구조 내에서 PLS 데이터에 접속하고 데이터 파이프를 추적할 수 있게 하기 위해 필요한 21비트의 정보를 전달한다. 프리앰블 시그널링 데이터에 대한 자세한 내용은 다음과 같다.
PHY_PROFILE: 해당 3비트 필드는 현 프레임의 피지컬 프로파일 타입을 나타낸다. 서로 다른 피지컬 프로파일 타입의 매핑은 아래 표 5에 주어진다.
표 5
Figure PCTKR2015004179-appb-T000005
FFT_SIZE: 해당 2비트 필드는 아래 표 6에서 설명한 바와 같이 프레임 그룹 내에서 현 프레임의 FFT 사이즈를 나타낸다.
표 6
Figure PCTKR2015004179-appb-T000006
GI_FRACTION: 해당 3비트 필드는 아래 표 7에서 설명한 바와 같이 현 슈퍼 프레임에서의 가드 인터벌 일부(fraction) 값을 나타낸다.
표 7
Figure PCTKR2015004179-appb-T000007
EAC_FLAG: 해당 1비트 필드는 EAC가 현 프레임에 제공되는지 여부를 나타낸다. 해당 필드가 1로 설정되면, EAS가 현 프레임에 제공된다. 해당 필드가 0으로 설정되면, EAS가 현 프레임에서 전달되지 않는다. 해당 필드는 슈퍼 프레임 내에서 다이나믹(dynamic, 동적)으로 전환될 수 있다.
PILOT_MODE: 해당 1비트 필드는 현 프레임 그룹에서 현 프레임에 대해 파일럿 모드가 모바일 모드인지 또는 고정 모드인지 여부를 나타낸다. 해당 필드가 0으로 설정되면, 모바일 파일럿 모드가 사용된다. 해당 필드가 1로 설정되면, 고정 파일럿 모드가 사용된다.
PAPR_FLAG: 해당 1비트 필드는 현 프레임 그룹에서 현 프레임에 대해 PAPR 감소가 사용되는지 여부를 나타낸다. 해당 필드가 1로 설정되면, 톤 예약(tone reservation)이 PAPR 감소를 위해 사용된다. 해당 필드가 0으로 설정되면, PAPR 감소가 사용되지 않는다.
FRU_CONFIGURE: 해당 3비트 필드는 현 슈퍼 프레임에서 존재하는 FRU의 피지컬 프로파일 타입 구성을 나타낸다. 현 슈퍼 프레임에서 모든 프리앰블에서의 해당 필드에서, 현 슈퍼 프레임에서 전달되는 모든 프로파일 타입이 식별된다. 해당 3비트 필드는 아래 표 8에 나타낸 바와 같이 각각의 프로파일에 대해 다르게 정의된다.
표 8
Figure PCTKR2015004179-appb-T000008
RESERVED: 해당 7비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
도 12는 본 발명의 일 실시예에 따른 PLS1 데이터를 나타낸다.
PLS1 데이터는 PLS2의 수신 및 디코딩을 가능하게 하기 위해 필요한 파라미터를 포함한 기본 전송 파라미터를 제공한다. 전술한 바와 같이, PLS1 데이터는 하나의 프레임 그룹의 전체 듀레이션 동안 변화하지 않는다. PLS1 데이터의 시그널링 필드의 구체적인 정의는 다음과 같다.
PREAMBLE_DATA: 해당 20비트 필드는 EAC_FLAG를 제외한 프리앰블 시그널링 데이터의 카피이다.
NUM_FRAME_FRU: 해당 2비트 필드는 FRU당 프레임 수를 나타낸다.
PAYLOAD_TYPE: 해당 3비트 필드는 프레임 그룹에서 전달되는 페이로드 데이터의 포맷을 나타낸다. PAYLOAD_TYPE은 표 9에 나타낸 바와 같이 시그널링 된다.
표 9
Figure PCTKR2015004179-appb-T000009
NUM_FSS: 해당 2비트 필드는 현 프레임에서 FSS의 수를 나타낸다.
SYSTEM_VERSION: 해당 8비트 필드는 전송되는 신호 포맷의 버전을 나타낸다. SYSTEM_VERSION은 주 버전 및 부 버전의 두 개의 4비트 필드로 분리된다.
주 버전: SYSTEM_VERSION 필드의 MSB인 4비트는 주 버전 정보를 나타낸다. 주 버전 필드에서의 변화는 호환이 불가능한 변화를 나타낸다. 디폴트 값은 0000이다. 해당 표준에서 서술된 버전에 대해, 값이 0000으로 설정된다.
부 버전: SYSTEM_VERSION 필드의 LSB인 4비트는 부 버전 정보를 나타낸다. 부 버전 필드에서의 변화는 호환이 가능하다.
CELL_ID: 이는 ATSC 네트워크에서 지리적 셀을 유일하게 식별하는 16비트 필드이다. ATSC 셀 커버리지는 퓨처캐스트 UTB 시스템당 사용되는 주파수 수에 따라 하나 이상의 주파수로 구성될 수 있다. CELL_ID의 값이 알려지지 않거나 특정되지 않으면, 해당 필드는 0으로 설정된다.
NETWORK_ID: 이는 현 ATSC 네트워크를 유일하게 식별하는 16비트 필드이다.
SYSTEM_ID: 해당 16비트 필드는 ATSC 네트워크 내에서 퓨처캐스트 UTB 시스템을 유일하게 식별한다. 퓨처캐스트 UTB 시스템은 입력이 하나 이상의 입력 스트림(TS, IP, GS)이고 출력이 RF 신호인 지상파 방송 시스템이다. 퓨처캐스트 UTB 시스템은 존재한다면 FEF 및 하나 이상의 피지컬 프로파일을 전달한다. 동일한 퓨처캐스트 UTB 시스템은 서로 다른 입력 스트림을 전달하고 서로 다른 지리적 영역에서 서로 다른 RF를 사용할 수 있어, 로컬 서비스 삽입을 허용한다. 프레임 구조 및 스케줄링은 하나의 장소에서 제어되고, 퓨처캐스트 UTB 시스템 내에서 모든 전송에 대해 동일하다. 하나 이상의 퓨처캐스트 UTB 시스템은 모두 동일한 피지컬 구조 및 구성을 갖는다는 동일한 SYSTEM_ID 의미를 가질 수 있다.
다음의 루프(loop)는 각 프레임 타입의 길이 및 FRU 구성을 나타내는 FRU_PHY_PROFILE, FRU_FRAME_LENGTH, FRU_GI_FRACTION, RESERVED로 구성된다. 루프(loop) 사이즈는 FRU 내에서 4개의 피지컬 프로파일(FEF 포함)이 시그널링되도록 고정된다. NUM_FRAME_FRU가 4보다 작으면, 사용되지 않는 필드는 제로로 채워진다.
FRU_PHY_PROFILE: 해당 3비트 필드는 관련된 FRU의 (i+1)번째 프레임(i는 루프(loop) 인덱스)의 피지컬 프로파일 타입을 나타낸다. 해당 필드는 표 8에 나타낸 것과 동일한 시그널링 포맷을 사용한다.
FRU_FRAME_LENGTH: 해당 2비트 필드는 관련된 FRU의 (i+1)번째 프레임의 길이를 나타낸다. FRU_GI_FRACTION와 함께 FRU_FRAME_LENGTH를 사용하면, 프레임 듀레이션의 정확한 값이 얻어질 수 있다.
FRU_GI_FRACTION: 해당 3비트 필드는 관련된 FRU의 (i+1)번째 프레임의 가드 인터벌 일부 값을 나타낸다. FRU_GI_FRACTION은 표 7에 따라 시그널링 된다.
RESERVED: 해당 4비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음의 필드는 PLS2 데이터를 디코딩하기 위한 파라미터를 제공한다.
PLS2_FEC_TYPE: 해당 2비트 필드는 PLS2 보호에 의해 사용되는 FEC 타입을 나타낸다. FEC 타입은 표 10에 따라 시그널링 된다. LDPC 코드에 대한 자세한 내용은 후술한다.
표 10
Figure PCTKR2015004179-appb-T000010
PLS2_MOD: 해당 3비트 필드는 PLS2에 의해 사용되는 변조 타입을 나타낸다. 변조 타입은 표 11에 따라 시그널링 된다.
표 11
Figure PCTKR2015004179-appb-T000011
PLS2_SIZE_CELL: 해당 15비트 필드는 현 프레임 그룹에서 전달되는 PLS2에 대한 모든 코딩 블록의 사이즈(QAM 셀의 수로 특정됨)인 C total_partial_block 를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_STAT_SIZE_BIT: 해당 14비트 필드는 현 프레임 그룹에 대한 PLS2-STAT의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_DYN_SIZE_BIT: 해당 14비트 필드는 현 프레임 그룹에 대한 PLS2-DYN의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_REP_FLAG: 해당 1비트 플래그는 PLS2 반복 모드가 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, PLS2 반복 모드는 활성화된다. 해당 필드의 값이 0으로 설정되면, PLS2 반복 모드는 비활성화된다.
PLS2_REP_SIZE_CELL: 해당 15비트 필드는 PLS2 반복이 사용되는 경우 현 프레임 그룹의 매 프레임마다 전달되는 PLS2에 대한 부분 코딩 블록의 사이즈(QAM 셀의 수로 특정됨)인 Ctotal_partial_block를 나타낸다. 반복이 사용되지 않는 경우, 해당 필드의 값은 0과 동일하다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_NEXT_FEC_TYPE: 해당 2비트 필드는 다음 프레임 그룹의 매 프레임에서 전달되는 PLS2에 사용되는 FEC 타입을 나타낸다. FEC 타입은 표 10에 따라 시그널링 된다.
PLS2_NEXT_MOD: 해당 3비트 필드는 다음 프레임 그룹의 매 프레임에서 전달되는 PLS2에 사용되는 변조 타입을 나타낸다. 변조 타입은 표 11에 따라 시그널링 된다.
PLS2_NEXT_REP_FLAG: 해당 1비트 플래그는 PLS2 반복 모드가 다음 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, PLS2 반복 모드는 활성화된다. 해당 필드의 값이 0으로 설정되면, PLS2 반복 모드는 비활성화된다.
PLS2_NEXT_REP_SIZE_CELL: 해당 15비트 필드는 PLS2 반복이 사용되는 경우 다음 프레임 그룹의 매 프레임마다 전달되는 PLS2에 대한 전체 코딩 블록의 사이즈(QAM 셀의 수로 특정됨)인 Ctotal_full_block를 나타낸다. 다음 프레임 그룹에서 반복이 사용되지 않는 경우, 해당 필드의 값은 0과 동일하다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_NEXT_REP_STAT_SIZE_BIT: 해당 14비트 필드는 다음 프레임 그룹에 대한 PLS2-STAT의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹에서 일정하다.
PLS2_NEXT_REP_DYN_SIZE_BIT: 해당 14비트 필드는 다음 프레임 그룹에 대한 PLS2-DYN의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹에서 일정하다.
PLS2_AP_MODE: 해당 2비트 필드는 현 프레임 그룹에서 PLS2에 대해 추가 패리티가 제공되는지 여부를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다. 아래의 표 12는 해당 필드의 값을 제공한다. 해당 필드의 값이 00으로 설정되면, 현 프레임 그룹에서 추가 패리티가 PLS2에 대해 사용되지 않는다.
표 12
Figure PCTKR2015004179-appb-T000012
PLS2_AP_SIZE_CELL: 해당 15비트 필드는 PLS2의 추가 패리티 비트의 사이즈(QAM 셀의 수로 특정됨)를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_NEXT_AP_MODE: 해당 2비트 필드는 다음 프레임 그룹의 매 프레임마다 PLS2 시그널링에 대해 추가 패리티가 제공되는지 여부를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다. 표 12는 해당 필드의 값을 정의한다.
PLS2_NEXT_AP_SIZE_CELL: 해당 15비트 필드는 다음 프레임 그룹의 매 프레임마다 PLS2의 추가 패리티 비트의 사이즈(QAM 셀의 수로 특정됨)를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
RESERVED: 해당 32비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
CRC_32: 전체 PLS1 시그널링에 적용되는 32비트 에러 검출 코드
도 13은 본 발명의 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 13은 PLS2 데이터의 PLS2-STAT 데이터를 나타낸다. PLS2-STAT 데이터는 프레임 그룹 내에서 동일한 반면, PLS2-DYN 데이터는 현 프레임에 대해 특정한 정보를 제공한다.
PLS2-STAT 데이터의 필드에 대해 다음에 구체적으로 설명한다.
FIC_FLAG: 해당 1비트 필드는 FIC가 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, FIC는 현 프레임에서 제공된다. 해당 필드의 값이 0으로 설정되면, FIC는 현 프레임에서 전달되지 않는다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
AUX_FLAG: 해당 1비트 필드는 보조 스트림이 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, 보조 스트림은 현 프레임에서 제공된다. 해당 필드의 값이 0으로 설정되면, 보조 프레임은 현 프레임에서 전달되지 않는다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
NUM_DP: 해당 6비트 필드는 현 프레임 내에서 전달되는 데이터 파이프의 수를 나타낸다. 해당 필드의 값은 1에서 64 사이이고, 데이터 파이프의 수는 NUM_DP+1이다.
DP_ID: 해당 6비트 필드는 피지컬 프로파일 내에서 유일하게 식별한다.
DP_TYPE: 해당 3비트 필드는 데이터 파이프의 타입을 나타낸다. 이는 아래의 표 13에 따라 시그널링 된다.
표 13
Figure PCTKR2015004179-appb-T000013
DP_GROUP_ID: 해당 8비트 필드는 현 데이터 파이프가 관련되어 있는 데이터 파이프 그룹을 식별한다. 이는 수신기가 동일한 DP_GROUP_ID를 갖게 되는 특정 서비스와 관련되어 있는 서비스 컴포넌트의 데이터 파이프에 접속하는 데 사용될 수 있다.
BASE_DP_ID: 해당 6비트 필드는 관리 계층에서 사용되는 (PSI/SI와 같은) 서비스 시그널링 데이터를 전달하는 데이터 파이프를 나타낸다. BASE_DP_ID에 의해 나타내는 데이터 파이프는 서비스 데이터와 함께 서비스 시그널링 데이터를 전달하는 노멀 데이터 파이프이거나, 서비스 시그널링 데이터만을 전달하는 전용 데이터 파이프일 수 있다.
DP_FEC_TYPE: 해당 2비트 필드는 관련된 데이터 파이프에 의해 사용되는 FEC 타입을 나타낸다. FEC 타입은 아래의 표 14에 따라 시그널링 된다.
표 14
Figure PCTKR2015004179-appb-T000014
DP_COD: 해당 4비트 필드는 관련된 데이터 파이프에 의해 사용되는 코드 레이트(code rate)을 나타낸다. 코드 레이트(code rate)은 아래의 표 15에 따라 시그널링 된다.
표 15
Figure PCTKR2015004179-appb-T000015
DP_MOD: 해당 4비트 필드는 관련된 데이터 파이프에 의해 사용되는 변조를 나타낸다. 변조는 아래의 표 16에 따라 시그널링 된다.
표 16
Figure PCTKR2015004179-appb-T000016
DP_SSD_FLAG: 해당 1비트 필드는 SSD 모드가 관련된 데이터 파이프에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, SSD는 사용된다. 해당 필드의 값이 0으로 설정되면, SSD는 사용되지 않는다.
다음의 필드는 PHY_PROFILE가 어드벤스 프로파일을 나타내는 010과 동일할 때에만 나타난다.
DP_MIMO: 해당 3비트 필드는 어떤 타입의 MIMO 인코딩 처리가 관련된 데이터 파이프에 적용되는지 나타낸다. MIMO 인코딩 처리의 타입은 아래의 표 17에 따라 시그널링 된다.
표 17
Figure PCTKR2015004179-appb-T000017
DP_TI_TYPE: 해당 1비트 필드는 타임 인터리빙의 타입을 나타낸다. 0의 값은 하나의 타임 인터리빙 그룹이 하나의 프레임에 해당하고 하나 이상의 타임 인터리빙 블록을 포함하는 것을 나타낸다. 1의 값은 하나의 타임 인터리빙 그룹이 하나보다 많은 프레임으로 전달되고 하나의 타임 인터리빙 블록만을 포함하는 것을 나타낸다.
DP_TI_LENGTH: 해당 2비트 필드(허용된 값은 1, 2, 4, 8뿐이다)의 사용은 다음과 같은 DP_TI_TYPE 필드 내에서 설정되는 값에 의해 결정된다.
DP_TI_TYPE의 값이 1로 설정되면, 해당 필드는 각각의 타임 인터리빙 그룹이 매핑되는 프레임의 수인 PI를 나타내고, 타임 인터리빙 그룹당 하나의 타임 인터리빙 블록이 존재한다 (NTI=1). 해당 2비트 필드로 허용되는 PI의 값은 아래의 표 18에 정의된다.
DP_TI_TYPE의 값이 0으로 설정되면, 해당 필드는 타임 인터리빙 그룹당 타임 인터리빙 블록의 수 NTI를 나타내고, 프레임당 하나의 타임 인터리빙 그룹이 존재한다 (PI=1). 해당 2비트 필드로 허용되는 PI의 값은 아래의 표 18에 정의된다.
표 18
Figure PCTKR2015004179-appb-T000018
DP_FRAME_INTERVAL: 해당 2비트 필드는 관련된 데이터 파이프에 대한 프레임 그룹 내에서 프레임 간격(IJUMP)을 나타내고, 허용된 값은 1, 2, 4, 8 (해당하는 2비트 필드는 각각 00, 01, 10, 11)이다. 프레임 그룹의 모든 프레임에 나타나지 않는 데이터 파이프에 대해, 해당 필드의 값은 순차적인 프레임 사이의 간격과 동일하다. 예를 들면, 데이터 파이프가 1, 5, 9, 13 등의 프레임에 나타나면, 해당 필드의 값은 4로 설정된다. 모든 프레임에 나타나는 데이터 파이프에 대해, 해당 필드의 값은 1로 설정된다.
DP_TI_BYPASS: 해당 1비트 필드는 타임 인터리버(5050)의 가용성을 결정한다. 데이터 파이프에 대해 타임 인터리빙이 사용되지 않으면, 해당 필드 값은 1로 설정된다. 반면, 타임 인터리빙이 사용되면, 해당 필드 값은 0으로 설정된다.
DP_FIRST_FRAME_IDX: 해당 5비트 필드는 현 데이터 파이프가 발생하는 슈퍼 프레임의 첫 번째 프레임의 인덱스를 나타낸다. DP_FIRST_FRAME_IDX의 값은 0에서 31 사이다.
DP_NUM_BLOCK_MAX: 해당 10비트 필드는 해당 데이터 파이프에 대한 DP_NUM_BLOCKS의 최대값을 나타낸다. 해당 필드의 값은 DP_NUM_BLOCKS와 동일한 범위를 갖는다.
DP_PAYLOAD_TYPE: 해당 2비트 필드는 주어진 데이터 파이프에 의해 전달되는 페이로드 데이터의 타입을 나타낸다. DP_PAYLOAD_TYPE은 아래의 표 19에 따라 시그널링 된다.
표 19
Figure PCTKR2015004179-appb-T000019
DP_INBAND_MODE: 해당 2비트 필드는 현 데이터 파이프가 인 밴드(In-band) 시그널링 정보를 전달하는지 여부를 나타낸다. 인 밴드(In-band) 시그널링 타입은 아래의 표 20에 따라 시그널링 된다.
표 20
Figure PCTKR2015004179-appb-T000020
DP_PROTOCOL_TYPE: 해당 2비트 필드는 주어진 데이터 파이프에 의해 전달되는 페이로드의 프로토콜 타입을 나타낸다. 페이로드의 프로토콜 타입은 입력 페이로드 타입이 선택되면 아래의 표 21에 따라 시그널링 된다.
표 21
Figure PCTKR2015004179-appb-T000021
DP_CRC_MODE: 해당 2비트 필드는 CRC 인코딩이 인풋 포맷 블록에서 사용되는지 여부를 나타낸다. CRC 모드는 아래의 표 22에 따라 시그널링 된다.
표 22
Figure PCTKR2015004179-appb-T000022
DNP_MODE: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되는 경우에 관련된 데이터 파이프에 의해 사용되는 널 패킷 삭제 모드를 나타낸다. DNP_MODE는 아래의 표 23에 따라 시그널링 된다. DP_PAYLOAD_TYPE이 TS ('00')가 아니면, DNP_MODE는 00의 값으로 설정된다.
표 23
Figure PCTKR2015004179-appb-T000023
ISSY_MODE: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되는 경우에 관련된 데이터 파이프에 의해 사용되는 ISSY 모드를 나타낸다. ISSY_MODE는 아래의 표 24에 따라 시그널링 된다. DP_PAYLOAD_TYPE이 TS ('00')가 아니면, ISSY_MODE는 00의 값으로 설정된다.
표 24
HC_MODE_TS: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되는 경우에 관련된 데이터 파이프에 의해 사용되는 TS 헤더 압축 모드를 나타낸다. HC_MODE_TS는 아래의 표 25에 따라 시그널링 된다.
표 25
Figure PCTKR2015004179-appb-T000025
HC_MODE_IP: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 IP ('01')로 설정되는 경우에 IP 헤더 압축 모드를 나타낸다. HC_MODE_IP는 아래의 표 26에 따라 시그널링 된다.
표 26
Figure PCTKR2015004179-appb-T000026
PID: 해당 13비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되고 HC_MODE_TS가 01 또는 10으로 설정되는 경우에 TS 헤더 압축을 위한 PID 수를 나타낸다.
RESERVED: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음 필드는 FIC_FLAG가 1과 동일할 때만 나타난다.
FIC_VERSION: 해당 8비트 필드는 FIC의 버전 넘버를 나타낸다.
FIC_LENGTH_BYTE: 해당 13비트 필드는 FIC의 길이를 바이트 단위로 나타낸다.
RESERVED: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음 필드는 AUX_FLAG가 1과 동일할 때만 나타난다.
NUM_AUX: 해당 4비트 필드는 보조 스트림의 수를 나타낸다. 제로는 보조 스트림이 사용되지 않는 것을 나타낸다.
AUX_CONFIG_RFU: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
AUX_STREAM_TYPE: 해당 4비트는 현 보조 스트림의 타입을 나타내기 위한 추후 사용을 위해 리저브드(reserved)된다.
AUX_PRIVATE_CONFIG: 해당 28비트 필드는 보조 스트림을 시그널링 하기 위한 추후 사용을 위해 리저브드(reserved)된다.
도 14는 본 발명의 다른 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 14는 PLS2 데이터의 PLS2-DYN을 나타낸다. PLS2-DYN 데이터의 값은 하나의 프레임 그룹의 듀레이션 동안 변화할 수 있는 반면, 필드의 사이즈는 일정하다.
PLS2-DYN 데이터의 필드의 구체적인 내용은 다음과 같다.
FRAME_INDEX: 해당 5비트 필드는 슈퍼 프레임 내에서 현 프레임의 프레임 인덱스를 나타낸다. 슈퍼 프레임의 첫 번째 프레임의 인덱스는 0으로 설정된다.
PLS_CHANGE_COUNTER: 해당 4비트 필드는 구성이 변화하기 전의 슈퍼 프레임의 수를 나타낸다. 구성이 변화하는 다음 슈퍼 프레임은 해당 필드 내에서 시그널링 되는 값에 의해 나타낸다. 해당 필드의 값이 0000으로 설정되면, 이는 어떠한 예정된 변화도 예측되지 않는 것을 의미한다. 예를 들면, 1의 값은 다음 슈퍼 프레임에 변화가 있다는 것을 나타낸다.
FIC_CHANGE_COUNTER: 해당 4비트 필드는 구성(즉, FIC의 콘텐츠)이 변화하기 전의 슈퍼 프레임의 수를 나타낸다. 구성이 변화하는 다음 슈퍼 프레임은 해당 필드 내에서 시그널링 되는 값에 의해 나타낸다. 해당 필드의 값이 0000으로 설정되면, 이는 어떠한 예정된 변화도 예측되지 않는 것을 의미한다. 예를 들면, 0001의 값은 다음 슈퍼 프레임에 변화가 있다는 것을 나타낸다.
RESERVED: 해당 16비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음 필드는 현 프레임에서 전달되는 데이터 파이프와 관련된 파라미터를 설명하는 NUM_DP에서의 루프(loop)에 나타난다.
DP_ID: 해당 6비트 필드는 피지컬 프로파일 내에서 데이터 파이프를 유일하게 나타낸다.
DP_START: 해당 15비트 (또는 13비트) 필드는 DPU 어드레싱(addressing) 기법을 사용하여 데이터 파이프의 첫 번째의 시작 위치를 나타낸다. DP_START 필드는 아래의 표 27에 나타낸 바와 같이 피지컬 프로파일 및 FFT 사이즈에 따라 다른 길이를 갖는다.
표 27
Figure PCTKR2015004179-appb-T000027
DP_NUM_BLOCK: 해당 10비트 필드는 현 데이터 파이프에 대한 현 타임 인터리빙 그룹에서 FEC 블록의 수를 나타낸다. DP_NUM_BLOCK의 값은 0에서 1023 사이에 있다.
RESERVED: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음의 필드는 EAC와 관련된 FIC 파라미터를 나타낸다.
EAC_FLAG: 해당 1비트 필드는 현 프레임에서 EAC의 존재를 나타낸다. 해당 비트는 프리앰블에서 EAC_FLAG와 같은 값이다.
EAS_WAKE_UP_VERSION_NUM: 해당 8비트 필드는 자동 활성화 지시의 버전 넘버를 나타낸다.
EAC_FLAG 필드가 1과 동일하면, 다음의 12비트가 EAC_LENGTH_BYTE 필드에 할당된다. EAC_FLAG 필드가 0과 동일하면, 다음의 12비트가 EAC_COUNTER에 할당된다.
EAC_LENGTH_BYTE: 해당 12비트 필드는 EAC의 길이를 바이트로 나타낸다.
EAC_COUNTER: 해당 12비트 필드는 EAC가 도달하는 프레임 전의 프레임의 수를 나타낸다.
다음 필드는 AUX_FLAG 필드가 1과 동일한 경우에만 나타난다.
AUX_PRIVATE_DYN: 해당 48비트 필드는 보조 스트림을 시그널링 하기 위한 추후 사용을 위해 리저브드(reserved)된다. 해당 필드의 의미는 설정 가능한 PLS2-STAT에서 AUX_STREAM_TYPE의 값에 의존한다.
CRC_32: 전체 PLS2에 적용되는 32비트 에러 검출 코드.
도 15는 본 발명의 일 실시예에 따른 프레임의 로지컬(logical) 구조를 나타낸다.
전술한 바와 같이, PLS, EAC, FIC, 데이터 파이프, 보조 스트림, 더미 셀은 프레임에서 OFDM 심볼의 액티브(active) 캐리어에 매핑된다. PLS1 및 PLS2는 처음에 하나 이상의 FSS에 매핑된다. 그 후, EAC가 존재한다면 EAC 셀은 바로 뒤따르는 PLS 필드에 매핑된다. 다음에 FIC가 존재한다면 FIC 셀이 매핑된다. 데이터 파이프는 PLS 다음에 매핑되거나, EAC 또는 FIC가 존재하는 경우, EAC 또는 FIC 이후에 매핑된다. 타입 1 데이터 파이프가 처음에 매핑되고, 타입 2 데이터 파이프가 다음에 매핑된다. 데이터 파이프의 타입의 구체적인 내용은 후술한다. 일부 경우, 데이터 파이프는 EAS에 대한 일부 특수 데이터 또는 서비스 시그널링 데이터를 전달할 수 있다. 보조 스트림 또는 스트림은 존재한다면 데이터 파이프를 다음에 매핑되고 여기에는 차례로 더미 셀이 뒤따른다. 전술한 순서, 즉, PLS, EAC, FIC, 데이터 파이프, 보조 스트림, 및 더미 셀의 순서로 모두 함께 매핑하면 프레임에서 셀 용량을 정확히 채운다.
도 16은 본 발명의 일 실시예에 따른 PLS 매핑을 나타낸다.
PLS 셀은 FSS의 액티브(active) 캐리어에 매핑된다. PLS가 차지하는 셀의 수에 따라, 하나 이상의 심볼이 FSS로 지정되고, FSS의 수 NFSS는 PLS1에서의 NUM_FSS에 의해 시그널링된다. FSS는 PLS 셀을 전달하는 특수한 심볼이다. 경고성 및 지연 시간(latency)은 PLS에서 중대한 사안이므로, FSS는 높은 파일럿 밀도를 가지고 있어 고속 동기화 및 FSS 내에서의 주파수만의 인터폴레이션(interpoloation, 보간)을 가능하게 한다.
PLS 셀은 도 16의 예에 나타낸 바와 같이 하향식으로 FSS의 액티브(active) 캐리어에 매핑된다. PLS1 셀은 처음에 첫 FSS의 첫 셀부터 셀 인덱스의 오름차순으로 매핑된다. PLS2 셀은 PLS1의 마지막 셀 직후에 뒤따르고, 매핑은 첫 FSS의 마지막 셀 인덱스까지 아래방향으로 계속된다. 필요한 PLS 셀의 총 수가 하나의 FSS의 액티브(active) 캐리어의 수를 초과하면, 매핑은 다음 FSS로 진행되고 첫 FSS와 완전히 동일한 방식으로 계속된다.
PLS 매핑이 완료된 후, 데이터 파이프가 다음에 전달된다. EAC, FIC 또는 둘 다 현 프레임에 존재하면, EAC 및 FIC는PLS와 노멀 데이터 파이프 사이에 배치된다.
도 17은 본 발명의 일 실시예에 따른 EAC 매핑을 나타낸다.
EAC는 EAS 메시지를 전달하는 전용 채널이고 EAS에 대한 데이터 파이프에 연결된다. EAS 지원은 제공되지만, EAC 자체는 모든 프레임에 존재할 수도 있고 존재하지 않을 수도 있다. EAC가 존재하는 경우, EAC는 PLS2 셀의 직후에 매핑된다. PLS 셀을 제외하고 FIC, 데이터 파이프, 보조 스트림 또는 더미 셀 중 어느 것도 EAC 앞에 위치하지 않는다. EAC 셀의 매핑 절차는 PLS와 완전히 동일하다.
EAC 셀은 도 17의 예에 나타낸 바와 같이 PLS2의 다음 셀부터 셀 인덱스의 오름차순으로 매핑된다. EAS 메시지 크기에 따라, 도 17에 나타낸 바와 같이 EAC 셀은 적은 심볼을 차지할 수 있다.
EAC 셀은 PLS2의 마지막 셀 직후에 뒤따르고, 매핑은 마지막 FSS의 마지막 셀 인덱스까지 아래방향으로 계속된다. 필요한 EAC 셀의 총 수가 마지막 FSS의 남아 있는 액티브(active) 캐리어의 수를 초과하면, EAC 매핑은 다음 심볼로 진행되며, FSS와 완전히 동일한 방식으로 계속된다. 이 경우 EAC의 매핑이 이루어지는 다음 심볼은 노멀 데이터 심볼이고, 이는 FSS보다 더 많은 액티브(active) 캐리어를 갖는다.
EAC 매핑이 완료된 후, 존재한다면 FIC가 다음에 전달된다. FIC가 전송되지 않으면(PLS2 필드에서 시그널링으로), 데이터 파이프가 EAC의 마지막 셀 직후에 뒤따른다.
도 18은 본 발명의 일 실시예에 따른 FIC 매핑을 나타낸다.
(a)는 EAC 없이 FIC 셀의 매핑의 예를 나타내고, (b)는 EAC와 함께 FIC 셀의 매핑의 예를 나타낸다.
FIC는 고속 서비스 획득 및 채널 스캔을 가능하게 하기 위해 계층간 정보(cross-layer information)를 전달하는 전용 채널이다. 해당 정보는 주로 데이터 파이프 사이의 채널 바인딩 (channel binding) 정보 및 각 방송사의 서비스를 포함한다. 고속 스캔을 위해, 수신기는 FIC를 디코딩하고 방송사 ID, 서비스 수, BASE_DP_ID와 같은 정보를 획득할 수 있다. 고속 서비스 획득을 위해, FIC뿐만 아니라 베이스 데이터 파이프도 BASE_DP_ID를 이용해서 디코딩 될 수 있다. 베이스 데이터 파이프가 전송하는 콘텐트를 제외하고, 베이스 데이터 파이프는 노멀 데이터 파이프와 정확히 동일한 방식으로 인코딩되어 프레임에 매핑된다. 따라서, 베이스 데이터 파이프에 대한 추가 설명이 필요하지 않다. FIC 데이터가 생성되어 관리 계층에서 소비된다. FIC 데이터의 콘텐트는 관리 계층 사양에 설명된 바와 같다.
FIC 데이터는 선택적이고, FIC의 사용은 PLS2의 스태틱(static, 정적)인 부분에서 FIC_FLAG 파라미터에 의해 시그널링 된다. FIC가 사용되면, FIC_FLAG는 1로 설정되고, FIC에 대한 시그널링 필드는 PLS2의 스태틱(static, 정적)인 부분에서 정의된다. 해당 필드에서 시그널링되는 것은 FIC_VERSION이고, FIC_LENGTH_BYTE. FIC는 PLS2와 동일한 변조, 코딩, 타임 인터리빙 파라미터를 사용한다. FIC는 PLS2_MOD 및 PLS2_FEC와 같은 동일한 시그널링 파라미터를 공유한다. FIC 데이터는 존재한다면 PLS2 후에 매핑되거나, EAC가 존재하는 경우 EAC 직후에 매핑된다. 노멀 데이터 파이프, 보조 스트림, 또는 더미 셀 중 어느 것도 FIC 앞에 위치하지 않는다. FIC 셀을 매핑하는 방법은 EAC와 완전히 동일하고, 이는 다시 PLS와 동일하다.
PLS 후의 EAC가 존재하지 않는 경우, FIC 셀은 (a)의 예에 나타낸 바와 같이 PLS2의 다음 셀부터 셀 인덱스의 오름차순으로 매핑된다. FIC 데이터 사이즈에 따라, (b)에 나타낸 바와 같이, FIC 셀은 수 개의 심볼에 대해서 매핑된다.
FIC 셀은 PLS2의 마지막 셀 직후에 뒤따르고, 매핑은 마지막 FSS의 마지막 셀 인덱스까지 아래방향으로 계속된다. 필요한 FIC 셀의 총 수가 마지막 FSS의 남아 있는 액티브(active) 캐리어의 수를 초과하면, 나머지 FIC 셀의 매핑은 다음 심볼로 진행되며 이는 FSS와 완전히 동일한 방식으로 계속된다. 이 경우, FIC가 매핑되는 다음 심볼은 노멀 데이터 심볼이며, 이는 FSS보다 더 많은 액티브(active) 캐리어를 갖는다.
EAS 메시지가 현 프레임에서 전송되면, EAC는 FIC 보다 먼저 매핑되고 (b)에 나타낸 바와 같이 EAC의 다음 셀부터 FIC 셀은 셀 인덱스의 오름차순으로 매핑된다.
FIC 매핑이 완료된 후, 하나 이상의 데이터 파이프가 매핑되고, 이후 존재한다면 보조 스트림, 더미 셀이 뒤따른다.
도 19는 본 발명의 일 실시예에 따른 FEC 구조를 나타낸다.
도 19는 비트 인터리빙 전의 본 발명의 일 실시예에 따른 FEC 구조를 나타낸다. 전술한 바와 같이, 데이터 FEC 인코더는 외부 코딩(BCH) 및 내부 코딩(LDPC)을 이용하여 FECBLOCK 절차를 생성하기 위해 입력 BBF에 FEC 인코딩을 실행할 수 있다. 도시된 FEC 구조는 FECBLOCK에 해당한다. 또한, FECBLOCK 및 FEC 구조는 LDPC 코드워드의 길이에 해당하는 동일한 값을 갖는다.
도 19에 도시된 바와 같이, BCH 인코딩이 각각의 BBF(Kbch 비트)에 적용된 후, LDPC 인코딩이 BCH - 인코딩된 BBF(Kldpc 비트 = Nbch 비트)에 적용된다.
Nldpc의 값은 64800 비트 (롱 FECBLOCK) 또는 16200 비트 (쇼트 FECBLOCK)이다.
아래의 표 28 및 표 29는 롱 FECBLOCK 및 쇼트 FECBLOCK 각각에 대한 FEC 인코딩 파라미터를 나타낸다.
표 28
Figure PCTKR2015004179-appb-T000028
표 29
Figure PCTKR2015004179-appb-T000029
BCH 인코딩 및 LDPC 인코딩의 구체적인 동작은 다음과 같다.
12-에러 정정 BCH 코드가 BBF의 외부 인코딩에 사용된다. 쇼트 FECBLOCK 및 롱 FECBLOCK에 대한 BBF 생성 다항식은 모든 다항식을 곱함으로써 얻어진다.
LDPC 코드는 외부 BCH 인코딩의 출력을 인코딩하는 데 사용된다. 완성된 Bldpc (FECBLOCK)를 생성하기 위해, Pldpc (패리티 비트)가 각각의 Ildpc (BCH - 인코딩된 BBF)로부터 조직적으로 인코딩되고, Ildpc에 첨부된다. 완성된 Bldpc (FECBLOCK)는 다음의 수학식으로 표현된다.
수학식 2
Figure PCTKR2015004179-appb-M000002
롱 FECBLOCK 및 쇼트 FECBLOCK에 대한 파라미터는 위의 표 28 및 29에 각각 주어진다.
롱 FECBLOCK에 대해 Nldpc - Kldpc 패리티 비트를 계산하는 구체적인 절차는 다음과 같다.
1) 패리티 비트 초기화
수학식 3
Figure PCTKR2015004179-appb-M000003
2) 패리티 체크 매트릭스의 어드레스의 첫 번째 행에서 특정된 패리티 비트 어드레스에서 첫 번째 정보 비트 i0 누산(accumulate). 패리티 체크 매트릭스의 어드레스의 상세한 내용은 후술한다. 예를 들면, 비율 13/15에 대해,
수학식 4
Figure PCTKR2015004179-appb-M000004
3) 다음 359개의 정보 비트 is, s=1, 2, …, 359에 대해, 다음의 수학식을 이용하여 패리티 비트 어드레스에서 is 누산(accumulate).
수학식 5
Figure PCTKR2015004179-appb-M000005
여기서, x는 첫 번째 비트 i0에 해당하는 패리티 비트 누산기의 어드레스를 나타내고, Qldpc는 패리티 체크 매트릭스의 어드레서에서 특정된 코드 레이트(code rate) 의존 상수이다. 상기 예인, 비율 13/15에 대한, 따라서 정보 비트 i1에 대한 Qldpc = 24에 계속해서, 다음 동작이 실행된다.
수학식 6
Figure PCTKR2015004179-appb-M000006
4) 361번째 정보 비트 i360에 대해, 패리티 비트 누산기의 어드레스는 패리티 체크 매트릭스의 어드레스의 두 번째 행에 주어진다. 마찬가지 방식으로, 다음 359개의 정보 비트 is, s= 361, 362, …, 719에 대한 패리티 비트 누산기의 어드레스는 수학식 6을 이용하여 얻어진다. 여기서, x는 정보 비트 i360에 해당하는 패리티 비트 누산기의 어드레스, 즉 패리티 체크 매트릭스의 두 번째 행의 엔트리를 나타낸다.
5) 마찬가지 방식으로, 360개의 새로운 정보 비트의 모든 그룹에 대해, 패리티 체크 매트릭스의 어드레스로부터의 새로운 행은 패리티 비트 누산기의 어드레스를 구하는 데 사용된다.
모든 정보 비트가 이용된 후, 최종 패리티 비트가 다음과 같이 얻어진다.
6) i=1로 시작해서 다음 동작을 순차적으로 실행
수학식 7
Figure PCTKR2015004179-appb-M000007
여기서 pi, i=0,1,...Nldpc - Kldpc - 1의 최종 콘텐트는 패리티 비트 pi와 동일하다.
표 30
Figure PCTKR2015004179-appb-T000030
표 30을 표 31로 대체하고, 롱 FECBLOCK에 대한 패리티 체크 매트릭스의 어드레스를 쇼트 FECBLOCK에 대한 패리티 체크 매트릭스의 어드레스로 대체하는 것을 제외하고, 쇼트 FECBLOCK에 대한 해당 LDPC 인코딩 절차는 롱 FECBLOCK에 대한 t LDPC 인코딩 절차에 따른다.
표 31
Figure PCTKR2015004179-appb-T000031
도 20은 본 발명의 일 실시예에 따른 타임 인터리빙을 나타낸다.
(a) 내지 (c)는 타임 인터리빙 모드의 예를 나타낸다.
타임 인터리버는 데이터 파이프 레벨에서 동작한다. 타임 인터리빙의 파라미터는 각각의 데이터 파이프에 대해 다르게 설정될 수 있다.
PLS2-STAT 데이터의 일부에 나타나는 다음의 파라미터는 타임 인터리빙을 구성한다.
DP_TI_TYPE (허용된 값: 0 또는 1): 타임 인터리빙 모드를 나타낸다. 0은 타임 인터리빙 그룹당 다수의 타임 인터리빙 블록(하나 이상의 타임 인터리빙 블록)을 갖는 모드를 나타낸다. 이 경우, 하나의 타임 인터리빙 그룹은 하나의 프레임에 (프레임간 인터리빙 없이) 직접 매핑된다. 1은 타임 인터리빙 그룹당 하나의 타임 인터리빙 블록만을 갖는 모드를 나타낸다. 이 경우, 타임 인터리빙 블록은 하나 이상의 프레임에 걸쳐 확산된다(프레임간 인터리빙).
DP_TI_LENGTH: DP_TI_TYPE = '0'이면, 해당 파라미터는 타임 인터리빙 그룹당 타임 인터리빙 블록의 수 NTI이다. DP_TI_TYPE = '1'인 경우, 해당 파라미터는 하나의 타임 인터리빙 그룹으로부터 확산되는 프레임의 수 PI이다.
DP_NUM_BLOCK_MAX (허용된 값: 0 내지 1023): 타임 인터리빙 그룹당 XFECBLOCK의 최대 수를 나타낸다.
DP_FRAME_INTERVAL (허용된 값: 1, 2, 4, 8): 주어진 피지컬 프로파일의 동일한 데이터 파이프를 전달하는 두 개의 순차적인 프레임 사이의 프레임의 수 IJUMP를 나타낸다.
DP_TI_BYPASS (허용된 값: 0 또는 1): 타임 인터리빙이 데이터 프레임에 이용되지 않으면, 해당 파라미터는 1로 설정된다. 타임 인터리빙이 이용되면, 0으로 설정된다.
추가로, PLS2-DYN 데이터로부터의 파라미터 DP_NUM_BLOCK은 데이터 그룹의 하나의 타임 인터리빙 그룹에 의해 전달되는 XFECBLOCK의 수를 나타낸다.
타임 인터리빙이 데이터 프레임에 이용되지 않으면, 다음의 타임 인터리빙 그룹, 타임 인터리빙 동작, 타임 인터리빙 모드는 고려되지 않는다. 그러나 스케줄러부터의 다이나믹(dynamic, 동적) 구성 정보를 위한 딜레이 컴펜세이션(delay compensation, 지연보상) 블록은 여전히 필요하다. 각각의 데이터 파이프에서, SSD/MIMO 인코딩으로부터 수신한 XFECBLOCK은 타임 인터리빙 그룹으로 그루핑된다. 즉, 각각의 타임 인터리빙 그룹은 정수 개의 XFECBLOCK의 집합이고, 다이나믹(dynamic, 동적)으로 변화하는 수의 XFECBLOCK을 포함할 것이다. 인덱스 n의 타임 인터리빙 그룹에 있는 XFECBLOCK의 수는 NxBLOCK_Group(n)로 나타내고, PLS2-DYN 데이터에서 DP_NUM_BLOCK으로 시그널링된다. 이때, NxBLOCK_Group(n)은 최소값 0에서 가장 큰 값이 1023인 최대값 NxBLOCK_Group_MAX (DP_NUM_BLOCK_MAX에 해당)까지 변화할 수 있다.
각각의 타임 인터리빙 그룹은 하나의 프레임에 직접 매핑되거나 PI개의 프레임에 걸쳐 확산된다. 또한 각각의 타임 인터리빙 그룹은 하나 이상(NTI개)의 타임 인터리빙 블록으로 분리된다. 여기서 각각의 타임 인터리빙 블록은 타임 인터리버 메모리의 하나의 사용에 해당한다. 타임 인터리빙 그룹 내의 타임 인터리빙 블록은 약간의 다른 수의 XFECBLOCK을 포함할 수 있다. 타임 인터리빙 그룹이 다수의 타임 인터리빙 블록으로 분리되면, 타임 인터리빙 그룹은 하나의 프레임에만 직접 매핑된다. 아래의 표 32에 나타낸 바와 같이, 타임 인터리빙에는 세 가지 옵션이 있다(타임 인터리빙을 생략하는 추가 옵션 제외).
표 32
Figure PCTKR2015004179-appb-T000032
일반적으로, 타임 인터리버는 프레임 생성 과정 이전에 데이터 파이프 데이터에 대한 버퍼로도 작용할 것이다. 이는 각각의 데이터 파이프에 대해 2개의 메모리 뱅크로 달성된다. 첫 번째 타임 인터리빙 블록은 첫 번째 뱅크에 기입된다. 첫 번째 뱅크에서 판독되는 동안 두 번째 타임 인터리빙 블록이 두 번째 뱅크에 기입된다.
타임 인터리빙은 트위스트된 행-열 블록 인터리버이다. n번째 타임 인터리빙 그룹의 s번째 타임 인터리빙 블록에 대해, 열의 수 Nc 가 NxBLOCK_TI(n,s) 와 동일한 반면, 타임 인터리빙 메모리의 행의 수 Nr 는 셀의 수 Ncells 와 동일하다 (즉, Nr = Ncells).
도 21은 본 발명의 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 기본 동작을 나타낸다.
도 21(a)는 타임 인터리버에서 기입 동작을 나타내고, 도 21(b)는 타임 인터리버에서 판독 동작을 나타낸다. (a)에 나타낸 바와 같이, 첫 번째 XFECBLOCK은 타임 인터리빙 메모리의 첫 번째 열에 열 방향으로 기입되고, 두 번째 XFECBLOCK은 다음 열에 기입되고, 이러한 동작이 이어진다. 그리고 인터리빙 어레이에서, 셀이 대각선 방향으로 판독된다. (b)에 나타낸 바와 같이 첫 번째 행으로부터 (가장 왼쪽 열을 시작으로 행을 따라 오른쪽으로) 마지막 행까지 대각선 방향 판독이 진행되는 동안,
Figure PCTKR2015004179-appb-I000001
개의 셀이 판독된다. 구체적으로,
Figure PCTKR2015004179-appb-I000002
이 순차적으로 판독될 타임 인터리빙 메모리 셀 위치라고 가정하면, 이러한 인터리빙 어레이에서의 판독 동작은 아래 식에서와 같이 행 인덱스
Figure PCTKR2015004179-appb-I000003
, 열 인덱스
Figure PCTKR2015004179-appb-I000004
, 관련된 트위스트 파라미터
Figure PCTKR2015004179-appb-I000005
를 산출함으로써 실행된다.
수학식 8
Figure PCTKR2015004179-appb-M000008
여기서,
Figure PCTKR2015004179-appb-I000006
Figure PCTKR2015004179-appb-I000007
에 상관없이 대각선 방향 판독 과정에 대한 공통 시프트 값이고, 시프트 값은 아래 식에서와 같이 PLS2-STAT에서 주어진
Figure PCTKR2015004179-appb-I000008
에 의해 결정된다.
수학식 9
Figure PCTKR2015004179-appb-M000009
결과적으로, 판독될 셀 위치는 좌표
Figure PCTKR2015004179-appb-I000009
에 의해 산출된다.
도 22는 본 발명의 다른 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 동작을 나타낸다.
더 구체적으로, 도 22는
Figure PCTKR2015004179-appb-I000010
,
Figure PCTKR2015004179-appb-I000011
,
Figure PCTKR2015004179-appb-I000012
일 때 가상 XFECBLOCK을 포함하는 각각의 타임 인터리빙 그룹에 대한 타임 인터리빙 메모리에서 인터리빙 어레이를 나타낸다.
변수
Figure PCTKR2015004179-appb-I000013
Figure PCTKR2015004179-appb-I000014
보다 작거나 같을 것이다. 따라서,
Figure PCTKR2015004179-appb-I000015
에 상관없이 수신기 측에서 단일 메모리 디인터리빙을 달성하기 위해, 트위스트된 행-열 블록 인터리버용 인터리빙 어레이는 가상 XFECBLOCK을 타임 인터리빙 메모리에 삽입함으로써
Figure PCTKR2015004179-appb-I000016
의 크기로 설정되고, 판독 과정은 다음 식과 같이 이루어진다.
수학식 10
Figure PCTKR2015004179-appb-M000010
타임 인터리빙 그룹의 수는 3으로 설정된다. 타임 인터리버의 옵션은 DP_TI_TYPE='0', DP_FRAME_INTERVAL='1', DP_TI_LENGTH='1', 즉 NTI=1, IJUMP=1, PI=1에 의해 PLS2-STAT 데이터에서 시그널링된다. 각각 Ncells = 30인 XFECBLOCK의 타임 인터리빙 그룹당 수는 각각의 NxBLOCK_TI(0,0) = 3, NxBLOCK_TI(1,0) = 6, NxBLOCK_TI(2,0) = 5에 의해 PLS2-DYN 데이터에서 시그널링된다. XFECBLOCK의 최대 수는 NxBLOCK_Group_MAX에 의해 PLS2-STAT 데이터에서 시그널링 되고, 이는
Figure PCTKR2015004179-appb-I000017
로 이어진다.
도 23은 본 발명의 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 대각선 방향 판독 패턴을 나타낸다.
더 구체적으로, 도 23은 파라미터
Figure PCTKR2015004179-appb-I000018
및 Sshift=(7-1)/2=3을 갖는 각각의 인터리빙 어레이로부터의 대각선 방향 판독 패턴을 나타낸다. 이때 위에 유사 코드로 나타낸 판독 과정에서,
Figure PCTKR2015004179-appb-I000019
이면, Vi의 값이 생략되고, Vi의 다음 계산값이 사용된다.
도 24는 본 발명의 일 실시예에 따른 각각의 인터리빙 어레이로부터의 인터리빙된 XFECBLOCK을 나타낸다.
도 24는 파라미터
Figure PCTKR2015004179-appb-I000020
및 Sshift=3을 갖는 각각의 인터리빙 어레이로부터 인터리빙된 XFECBLOCK을 나타낸다.
도 25는 본 발명의 일 실시예에 따른 메인 피지컬 디바이스 (Main Physical Device) 및 컴페니언 피지컬 디바이스 (Companion Physical Device)의 구성을 나타낸 도면이다.
본 발명의 일 실시예는 지상파 방송 또는 모바일 방송 환경에서 서비스 가이드 (service guide)를 제공할 수 있다. 또한, 본 발명의 일 실시예는 지상파 방송망과 인터넷망의 연동을 기반으로 하는 차세대 하이브리드 방송 환경에서 가능할 수 있는 서비스에 대한 서비스 가이드를 제공할 수 있다.
본 발명의 일 실시예는 차세대 하이브리드 방송 시스템에서 제공할 수 있는 다양한 서비스와 이를 구성하는 content 및/또는 component 요소들을 사용자에게 알려줄 수 있다. 이를 통하여, 사용자가 해당 서비스를 확인, 선택 및 감상하는데 편의를 제공할 수 있다.
본 발명의 일 실시예는 하나의 서비스와 이를 구성하는 다양한 content 및/또는 component 요소들을 구조화하고 상호간 연계 (reference)시켜줄 수 있다. 이를 통하여, 방송 수신기는 해당 서비스를 용이하게 구성하고 제공할 수 있고, 사용자로 하여금 해당 서비스에 대한 쉽게 파악할 수 있도록 할 수 있다.
본 발명의 일 실시예는 하나의 서비스와 이를 구성하는 다양한 content 및/또는 component 요소들을 연계시키는 reference 구조를 확장함으로써 방송 수신기 및/또는 사용자로 하여금 하나의 서비스를 구성하는 content 및/또는 component 요소들을 검색하는데 소요되는 resource 및/또느 시간을 절약하도록 할 수 있다.
이 도면은 본 발명의 일 실시예에 따른 메인 피지컬 디바이스 및 컴페니언 피지컬 디바이스의 전체적인 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 메인 피지컬 디바이스 (main physical device, L25010)은 interactive service를 위한 디바이스 중 하나로서, 주로 컴페니언 피지컬 디바이스 (companion physical device, L25020)에 의한 제어 대상이 되는 기기를 나타낼 수 있다. 메인 피지컬 디바이스는 메인 디바이스, 메인 수신 장치, 메인 수신기, 메인 디스플레이, 메인 스크린 등으로 명명될 수 있다.
본 발명의 일 실시예에 따른 메인 피지컬 디바이스 (L25010)는 broadcast interface (L25030), network interface (L25040), memory unit (L25050), control unit (L25060), display unit (L25070), multimedia module (L25080), storage (L25090), power supply (L25100) 및/또는 user input interface (L25110)를 포함할 수 있다.
broadcast interface (L25030)는 broadcaster와 디바이스 사이에 AV stream, service guide, notification 등의 message 및/또는 데이터 전송을 가능하게 해주는 물리적 장치를 나타낼 수 있다. broadcast interface는 broadcaster로부터 방송 신호, 시그널링 정보, 데이터 등을 수신할 수 있다.
network interface (L25040)는 디바이스들 (예를 들어, 메인 피지컬 디바이스와 컴페니언 피지컬 디바이스) 사이에 command, request, action, response 등의 message, advertise 및/또는 데이터 전송을 가능하게 해주는 물리적 장치를 나타낼 수 있다. network interface는 internet service provider로부터 방송 서비스, 방송 컨텐츠, 시그널링 정보, 어플리케이션, 데이터 등을 수신할 수 있다.
memory unit (L25050)는 다양한 종류의 디바이스에서 구현되는 선택적인 장치로서, 다양한 종류의 데이터를 임시적으로 저장할 수 있는 휘발성 성질의 물리적 장치를 나타낼 수 있다.
control unit (L25060)은 source device 및/또는 sink device의 전반적인 동작을 제어하는 장치로서 소프트웨어 또는 하드웨어일 수 있다. 여기서, source device는 message 및/또는 데이터를 전송하는 디바이스를 나타낼 수 있고, sink device는 message 및/또는 데이터를 수신하는 디바이스를 나타낼 수 있다. 따라서, 본 발명의 일 실시예에 따른 메인 피지컬 디바이스 및 컴페니언 피지컬 디바이스는 source device 또는 sink device에 해당할 수 있다.
display unit (L25070)은 network interface를 통해 수신된 데이터 또는 storage에 저장되어 있는 데이터를 화면상에 디스플레이할 수 있다. 이 때, display unit은 control unit의 제어에 의해 동작할 수 있다.
multimedia module (L25080)은 다양한 종류의 멀티미디어를 재생할 수 있다. multimedia module은 control unit에 포함될 수 있고, control unit과 별개로 존재할 수 있다.
storage (L25090)는 다양한 종류의 데이터를 저장할 수 있는 비휘발성 성질의 물리적 장치를 나타낼 수 있다. 예를 들어, SD 카드가 storage에 해당할 수 있다.
power supply (L25100)는 control unit의 제어에 의하여, 외부의 전원 및/또는 내부의 전원을 인가 받아 다른 구성 요소들의 동작에 필요한 전원을 공급해주는 장치를 나타낼 수 있다.
user input interface (L25110)는 user로부터 명령 등의 입력을 수신할 수 있는 장치를 나타낼 수 있다.
본 발명의 일 실시예에 따른 컴페니언 피지컬 디바이스 (companion physical device, L25020)은 interactive service를 위한 디바이스 중 하나로서, 메인 디바이스를 제어하는 기기를 나타낼 수 있다. 컴페니언 피지컬 디바이스는 주로 사용자로부터 직접 input을 입력받을 수 있다. 컴페니언 피지컬 디바이스는 컴페니언 디바이스, 세컨드 디바이스, 부가 디바이스, 보조 디바이스, 컴페니언 수신 장치, 컴페니언 수신기, 컴페니언 디스플레이, 세컨드 스크린 등으로 명명될 수 있다.
본 발명의 일 실시예에 따른 컴페니언 피지컬 디바이스 (L25020)는 network interface, memory unit, control unit, display unit, multimedia module, storage, power supply 및/또는 user input interface 를 포함할 수 있다.
본 발명의 일 실시예에 따른 컴페니언 피지컬 디바이스를 구성하는 구성 요소들 중에 메인 디바이스를 구성하는 구성 요소와 동일한 명칭의 구성요소는 전술한 메인 디바이스를 구성하는 구성 요소와 동일한 기능을 할 수 있다.
도 26은 본 발명의 일 실시예에 따른 하이브리드 방송 서비스를 지원하기 위한 프로토콜 스택을 나타낸 도면이다.
Physical layer는 지상파 방송 신호를 수신하고 이를 적절한 형태로 변환할 수 있다.
IP (Internet Protocol) Encapsulation은 Physical layer로부터 획득된 정보를 이용하여 IP 데이터그램을 획득할 수 있다. 또한, 획득된 IP 데이터그램을 특정 프레임 (예를 들어, RS Frame, GSE 등)으로 변환할 수 있다.
MPEG-2 TS Encapsulation은 Physical layer로부터 획득된 정보를 이용하여 MPEG-2 TS을 획득할 수 있다. 또한, 획득된 MPEG-2 TS 데이터그램을 특정 프레임 (예를 들어, RS Frame, GSE 등)으로 변환할 수 있다.
FIC (fast information channel)는 서비스 및/또는 컨텐츠에 접근할 수 있도록 하기 위한 정보 (예를 들어, 서비스 ID와 프레임 간의 매핑 정보 등)를 전달할 수 있다.
Signaling은 서비스 및/또는 컨텐츠의 효과적인 획득을 지원하기 위한 시그널링 정보를 포함할 수 있다. 시그널링 정보는 바이너리 및/또는 XML 형태로 표현될 수 있고 지상파 방송망 및/또는 broadband를 통하여 전송될 수 있다.
실시간 방송 A/V (Audio/Video) 컨텐츠 및 Data는 ISO Base Media File Format (ISOBMFF) 등으로 표현 될 수 있고 지상파 방송망 및/또는 브로드밴드를 통하여 실시간으로 전송될 수 있다. 비실시간 컨테츠는 IP/UDP/FLUTE를 기반으로 전송될 수 있다. 그리고, 실시간 방송 A/V (Audio/Video) 컨텐츠, Data 및/또는 시그널링 정보는 DASH 등을 이용하여 인터넷망을 통해 실시간으로 전송될 수 있다. 이 때, 실시간 방송 A/V (Audio/Video) 컨텐츠, Data 및/또는 시그널링 정보는 요청에 의해 전송될 수 있고, 아니면 실시간 스트리밍에 의해 전송될 수 있다.
본 발명의 일 실시예는 상술한 프로토콜 스택을 거쳐 전달받은 데이터를 조합하여 Interactive 서비스, second screen 서비스 등의 다양한 enhanced service를 시청자에게 제공할 수 있다.
도 27은 본 발명의 일 실시예에 따른 Service Type element의 XML schema를 나타낸 도면이다.
이 도면에 대한 설명에 앞서, 본 발명의 일 실시예에 따른 서비스 가이드 (service guide), 서비스 프래그먼트 (service fragment) 및 서비스 타입 엘레먼트 (ServiceType element)의 정의 및 구성에 대해 설명하면 아래와 같다.
서비스 가이드는 어나운스먼트 세션 내에서 전송되는 서비스 가이드 딜리버리 디스크립터가 단말로 전달되는 방송 분배 채널을 나타낼 수 있다. (The service guide may indicate a broadcast distribution channel over which Service Guide Delivery Descriptors carried within announcement sessions, can be delivered to the terminal.)
서비스 가이드는 방송 채널 및/또는 인터렉션 채널을 통해 전송되는 모바일 방송 서비스처럼, 서비스 제공자 및/또는 컨텐츠 제공자가 그들이 이용가능하도록 만든 서비스 및/또는 컨텐츠를 설명할 수 있도록 할 수 있고, 정기구독 또는 구매를 제안할 수 있도록 할 수 있다. 또한, 서비스 가이드는 서비스에 접근하는 방법을 설명하도록 할 수 있다. 사용자의 관점에서, 서비스 가이드는 현재 이용 가능한 또는 예정된 서비스 및/또는 컨텐츠를 찾기 위한 시작점으로 여겨질 수 있고, 사용자의 선호도를 기초로 하여 서비스 및/또는 컨텐츠를 필터링하기 위한 시작점으로 여겨질 수 있다. 나아가, 서비스 가이드는 인터렉티브 서비스로의 시작점을 제공할 수 있다. (Service Guide may enable the service and content providers to describe the services and content they make available, or offer for subscription or purchase, as Mobile Broadcast services either over Broadcast Channel or over Interaction Channel. It may also enable the way to describe how to access the services. From the user perspective the Service Guide can be seen as an entry point to discover the currently available or scheduled services and content and to filter those based on their preferences. Furthermore, the Service Guide may provide the entry point to interactive services.)
서비스 가이드는 서비스 가이드 프래그먼트 관점에서, service, schedule, content, related purchase data, provisioning data, acess data, interactivity data 등의 데이터 모델을 포함할 수 있다. (The Service Guide may include data model that models the services, schedules, content, related purchase and provisioning data, access and interactivity data and so on in terms of Service Guide fragments.)
본 발명의 일 실시예는 서비스 가이드 어나운스먼트 채널을 통해 전송되는 서비스 가이드 딜리버리 디스크립터를 통하여, 서비스 가이드 프레그먼트의 선언 및/또는 서비스 가이드의 최초 발견을 위한 방법을 제공할 수 있다. 방송 채널 및/또는 인터렉티브 채널을 통하여, 서비스 가이드 딜리버리 채널을 통한 서비스 가이드 프래그먼트 전송을 위한 전송 방법들이 제공될 수 있다. 서비스 가이드 데이터를 관리하기 위하여, 본 발명의 일 실시예는 업데이트 및/또는 메니지먼트 방법들을 제공할 수 있다. 또한, 본 발명의 일 실시예는 서비스 가이드를 위한 관련 백-앤드 인터페이스를 제공할 수 있다. (An embodiment of the invention may provide methods for initial discovery of Service Guide and the declaration of Service Guide fragments through Service Guide Delivery Descriptors that are sent over Service Guide Announcement Channel. An embodiment of the invention may provide delivery methods specified for Service Guide fragment delivery over Service Guide Delivery Channel, both over the Broadcast Channel as well as over the Interactive Channel. To manage the Service Guide data, an embodiment of the invention may provide update and management methods. An embodiment of the invention may provide the relevant back-end interfaces for Service Guide.)
서비스 프레그먼트는 aggregate levle에서, 방송 서비스를 구성하는 컨텐트 아이템들을 설명할 수 있다. (The 'Service' fragment may describe at an aggregate level the content items which comprise a broadcast service.)
서비스 프레그먼트는 서비스의 타입에 따라, 인터렉티브 부분 및/또는 방송 부분을 포함할 수 있다. (Depending on the type of the service, it may have interactive part(s), broadcast-only part(s), or both.)
서비스 프레그먼트는 컨텐트와 직접적으로 관련이 없지만 서비스와 기능적으로 관련이 있는 컴포넌트들 (예를 들어, 구매 정보, 정기 구독 정보 등)을 포함할 수 있다. (The service may include components not directly related to the content but to the functionality of the service - such as purchasing or subscription information.)
본 발명의 일 실시예에 따르면, 서비스 가이드의 일 부분으로서, 서비스 프래그먼트는 다른 프래그먼트들에 의해 참조되는 중앙 허브를 형성할 수 있다. (As the part of the Service Guide, the 'Service' fragment may form a central hub referenced by the other fragments.)
본 발명의 일 실시예에 따르면, 서비스 프래그먼트를 비롯한 관련 프래그먼트들를 함께 이용하여, 단말은 어느 시점에서든지 해당 서비스와 관련된 상세 정보를 결정할 수 있다. 여기서, 상기 상세 정보는 사용자에게 친숙한 디스플레이 안에서 요약될 수 있다. 예를 들어, 요약된 상세 정보는 관련 컨텐츠가 무엇인지, 관련 컨텐츠가 언제, 어떻게 소비되었는지, 관련 컨텐츠가 얼마 인지를 나타낼 수 있다. (Together with the associated fragments the terminal may determine the details associated with the service at any point of time. These details may be summarized into a user-friendly display, for example, of what, how and when the associated content may be consumed and at what cost.)
본 발명의 일 실시예에 따른 서비스는 컨텐츠 아이템들의 그룹을 나타낼 수 있다. 즉, 서비스는 최종 유저에게 전달되는 논리적 그룹을 형성할 수 있다. 예를 들어, 몇몇의 TV 쇼들로 구성되는 TV 채널이 서비스에 해당할 수 있다. 서비스 프래그먼트는 모바일 방송 서비스를 기술하는 메타데이터를 포함할 수 있다. (A service may represent a bundle of content items, which forms a logical group to the end-user. An example would be a TV channel, composed of several TV shows. A 'Service' fragment contains the metadata describing the Mobile Broadcast service.)
ServiceType element는 해당 service fragment에서 기술하고 있는 서비스의 타입을 나타낼 수 있다. 나아가, 하나 이상의 타입이 혼합된 service types는 다수의 ServiceType 인스탄스들의 존재에 의해 표현될 수 있다. (The mixed service types may be indicated by the presence of multiple instances of ServiceType.) 이 엘레먼트는 서비스를 textual indicator, icon 또는 graphic represetation의 형태로 유저에게 렌더링하기 위하여, 단말에 의해 처리될 수 있다. (This element may be processed by the terminal strictly for rendering to the user for example as a textual indicator, an icon, or graphic representation for the service.)
본 발명의 일 실시예는 하이브리드 방송 시스템에서 사용하는 서비스 타입을 나타낼 수 있는 방법을 제공할 수 있다. 나아가, 본 발명의 일 실시예는 ServiceTypeRangeType 값에 하이브리드 방송 시스템에서 나타내야 하는 ServiceType value의 범위를 할당할 수 있다.
본 발명의 일 실시예에 따른 Service Type에 할당된 값은 다음과 같다. 서비스 타입 값이 0이면, Unspecified임을 나타낼 수 있고, 1이면 해당 서비스가 Basic TV임을 나타낼 수 있고, 2이면 해당 서비스가 Basic Radio임을 나타낼 수 있고, 3이면 해당 서비스가 Rights Issuer Service임을 나타낼 수 있고, 4이면 Cachecast임을 나타낼 수 있고, 5이면 File download services임을 나타낼 수 있고, 6이면 Software management services임을 나타낼 수 있고, 7이면 Notification임을 나타낼 수 있고, 8이면 Service Guide임을 나타낼 수 있고, 9이면 Terminal Provisioning services임을 나타낼 수 있고, 10이면 Auxiliary Data임을 나타낼 수 있고, 11이면 Streaming on demand임을 나타낼 수 있고, 12이면 File download on demand임을 나타낼 수 있고, 13이면 SmartCard Provisioning services임을 나타낼 수 있고, 14이면 Linear service임을 나타낼 수 있고, 15이면 App-based service임을 나타낼 수 있고, 16이면 Companion Screen service임을 나타낼 수 있다. 상술한 값들 이외의 값들이 상술한 서비스 이외의 서비스를 나타내는 데 사용될 수 있다.
이 도면을 보면, 본 발명의 일 실시예에 따른 ServiceType element는 ServiceTypeRangeType이라는 타입을 가질 수 있다. 본 발명의 일 실시예에 따른 ServiceTypeRangeType은 ServiceTypeLRType, ServiceTypeOtherEnablersRangeType 및/또는 ServiceTypeProprietaryRangeType을 포함할 수 있다. 여기서, ServiceTypeLRType은 최소값으로 0을 갖고 최대값으로 13, 14, 15, 16 또는 그 이상의 값을 가질 수 있다.
도 28은 본 발명의 일 실시예에 따라 서비스 타입 값으로 14를 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Service fragment는 Home and Shopping이라는 이름을 갖고 ServiceType으로 14를 가질 수 있다. (L28010)
ServiceType 값 14는 Linear Service를 나타낼 수 있다. 이 경우, 본 발명의 일 실시예에 따른 수신 장치는 선택한 서비스의 타입이 Linear Service (value=14)인 경우 화면에 서비스 가이드의 스케쥴 정보가 포함되어 있음을 알 수 있다. 나아가, 본 발명의 일 실시예는 해당 서비스와 스케쥴 정보를 조합하여 사용자에게 방송 편성표와 같은 정보를 제공할 수 있다. (L28020) 또한, 서비스 타입을 Service fragment 내에서 시그널링을 하면 수신기는 시간 정보를 포함하는 서비스에 대해서만 상술한 스케쥴 정보를 조합하는 등의 작업을 수행하면 된다. 따라서, 본 발명의 일 실시예는 수신기의 성능을 향상 시킬 수 있다.
도 29는 본 발명의 일 실시예에 따라 서비스 타입 값으로 14 및 15를 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Service fragment는 MBC라는 이름을 갖고 ServiceType으로 14 및 15를 가질 수 있다. (L29010)
ServiceType 값 15는 App-based service를 나타낼 수 있다. App-based service 타입을 Service fragment 내에서 시그널링을 하면, 본 발명의 일 실시예에 따른 수신 장치는 해당 서비스에 App-based Service가 포함되어 있음을 알 수 있다. (L29020) 따라서, 본 발명의 일 실시예는 Service fragment만 획득하더라도 ServiceType을 통하여 사용자에게 관련 App을 실행할 수 있음을 알려줄 수 있다. (L29030) 나아가, 이 도면에 도시된 바와 같이, MBC라는 서비스는 ServiceType 값 14도 포함하고 있으므로 해당 서비스가 Linear Service (value=14)인 경우의 본 발명의 효과를 똑같이 가질 수 있다. 이에 대한 설명은 전술하였다.
도 30은 본 발명의 일 실시예에 따라 서비스 타입 값으로 14 및 16을 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Service fragment는 MBC Companion Screen이라는 이름을 갖고 ServiceType으로 14 및 16을 가질 수 있다. (L30010)
ServiceType 값 16dms Companion Screen service를 나타낼 수 있다. Companion Screen service 타입을 Service fragment 내에서 시그널링을 하면, 본 발명의 일 실시예에 따른 수신 장치는 해당 서비스에 Companion Screen service가 포함되어 있음을 알 수 있다. (L30020) 따라서, 본 발명의 일 실시예는 Service fragment만 획득하더라도 ServiceType을 통하여 사용자에게 Companion Screen에서 제공되는 서비스가 있음을 알려줄 수 있다. (L30030) 나아가, 이 도면에 도시된 바와 같이, MBC Companion Screen이라는 서비스는 ServiceType 값 14도 포함하고 있으므로 해당 서비스가 Linear Service (value=14)인 경우의 본 발명의 효과를 똑같이 가질 수 있다. 이에 대한 설명은 전술하였다.
도 31은 본 발명의 일 실시예에 따른 Component fragment의 XML schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트 (Component fragment)는 컴포넌트가 참조하는 컨텐츠 또는 서비스의 일부분인 컴포넌트를 기술할 수 있다. (The 'Component' fragment describes a component that is a part of a service or a content that the component refers to.)
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트는 id 어트리뷰트, version 어트리뷰트, validFrom 어트리뷰트, validTo 어트리뷰트, ComponentType 엘레먼트, ComponentData 엘레먼트 및/또는 PrivateExt 엘레먼트를 포함할 수 있다.
id 어트리뷰트는 컴포넌트 프래그먼트의 ID를 나타낼 수 있다. 이 어트리뷰트의 값은 globally unique할 수 있다.
version 어트리뷰트는 컴포넌트 프래그먼트의 버전 정보를 나타탤 수 있다.
validFrom 어트리뷰트는 컴포넌트 프래그먼트가 유효한 처음 시점을 나타낼 수 있다.
validTo 어트리뷰트는 컴포넌트 프래그먼트가 유효한 마지막 시점을 나타낼 수 있다.
ComponentType 엘레먼트는 컴포넌트 프래그먼트가 기술하는 컨텐트의 타입을 나타낼 수 있다. 타입이 혼합된 경우에는 하나 이상의 ComponentType 엘레먼트를 사용하여 타입을 나타낼 수 있다.
ComponentData 엘레먼트는 컴포넌트 프래그먼트가 포함하는 컴포넌트 컨텐트 (Component Content)를 나타낼 수 있다. 이 엘레먼트는 비디오, 오디오 또는 CC (Closed Caption) 데이터를 나타낼 수 있다.
PrivateExt 엘레먼트는 사유적인 또는 어플리케이션에 한정된 확장을 위한 컨테이너를 나타낼 수 있다. (An element serving as a container for proprietary or application-specific extensions.)
도 32는 본 발명의 일 실시예에 따른 ComponentType 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트는 하이브리드 방송에서 보낼 수 있는 모든 ComponentType을 표현할 수 있다. 이를 위하여, 본 발명의 일 실시예는 타입의 범위를 정수값으로 표현할 수 있다.
본 발명의 일 실시예에 따르면, 모든 컴포넌트가 컴포넌트 데이터 (ComponentData)를 포함하고 있는 것은 아니므로 수신 장치는 컴포넌트 프래그먼트의 타입 값을 먼저 알아낸 뒤 컴포넌트 데이터의 정보를 알 수 있다.
본 발명의 일 실시예에 따른 각 컴포넌트들 사이의 상하 또는 종속 관계는 후술한다.
본 발명의 일 실시예에 따르면, ComponentType 엘레먼트의 타입을 나타내는 ComponentRangeType은 최소값으로 0을 최대값으로 13을 가질 수 있다.
이 도면에 도시된 바와 같이, ComponentType 엘레먼트의 값이 0이면, 정해지지 않은 컴포넌트 (Unspecified)를 나타낼 수 있고, 1이면 Continuous component를 나타낼 수 있고, 2이면 Elementary component를 나타낼 수 있고, 3이면 Composite component를 나타낼 수 있고, 4이면 PickOne component를 나타낼 수 있고, 5이면 Complex component를 나타낼 수 있고, 6이면 Presentable component를 나타낼 수 있고, 7이면 NRT File를 나타낼 수 있고, 8이면 NRT Content Item를 나타낼 수 있고, 9이면 Application를 나타낼 수 있고, 10이면 ATSC3.0 Application를 나타낼 수 있고, 11이면 On Demand component를, 12이면 Notification Stream을, 13이면 App-based Enhancement를 14 내지 255이면 Reserved임을 나타낼 수 있다.
Continuous component는 하나의 연속하는 스트림에서 표현되는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 오디오, 비디오 또는 Closed Caption이 이에 해당할 수 있다.
Elementary component는 싱글 인코딩에 해당하는 Continuous component를 나타낼 수 있다. 즉, 별도의 인코더에 의해 인코딩되는 Continuous component를 나타낼 수 있다. 예를 들어, 사운드 시퀀스의 싱글 인코딩, 픽처 시퀀스의 싱글 인코딩 또는 싱글 closed caption 트랙이 이에 해당할 수 있다.
Composite component는 같은 Content type을 갖고, 같은 장면을 표현하고, 하나의 프레젠테이션을 만들기 위해 조합될 수 있는 Continuous component의 집합을 구성하는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 완전한 오디오를 제공하기 위해 혼합될 음악, 다이얼로그 또는 효과 음악이 이에 해당할 수 있다. 또한, 3D 영상을 제공하기 위해 조합될 좌영상 또는 우영상이 이에 해당할 수 있다.
PickOne component는 같은 Content type을 갖고, 같은 장면을 표현하고, 하나의 프레젠테이션을 만들기 위해 선택될 수 있는 Continuous component의 집합을 구성하는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 같은 사운드 시퀀스와 다른 비트레이트로 인코딩된 오디오 컴포넌트들의 집합, 같은 픽처 시퀀스와 다른 비트레이트로 인코딩된 비디오 컴포넌트들의 집합 또는 같은 다이얼로그를 위한 일반적인 closed caption 트랙 및 easy reader closed caption 트랙의 집합이 이에 해당할 수 있다.
Complex component는 Composite component 또는 PickOne component를 나타낼 수 있다.
Presentable component는 사용자에게 표시되는 Continuous component를 나타낼 수 있다. 이 컴포넌트는 Elementary component 또는 Complex component를 포함할 수 있다.
NRT File은 비실시간으로 전송되는 파일을 나타낼 수 있다.
NRT Content Item는 통합된 전체로 소비되어질 의도로 만들어진 하나 이상의 NRT 파일들의 집합을 나타낼 수 있다.
Application은 그 자체로 완전한 인헨스드 또는 인터렉티브 서비스를 구성하는 문서들의 집합을 나타낼 수 있다. 상기 문서들은 HTML, JavaScript, CSS, XML 및/또는 multimedia files을 포함할 수 있다. 이 Application은 이 application의 일부분이 아닌 다른 데이터에 접근할 수 있다. 이 Application은 NRT Content Item의 특별한 경우에 해당할 수 있다.
ATSC3.0 Application은 ATSC 3.0 Application Runtime Environment Specification를 따르는 Application을 나타낼 수 있다.
On Demand component는 on demand에 의하여 전송되는 컨텐트 컴포넌트를 나타낼 수 있다.
Notification Stream은 Linear Time Base 하에 어플리케이션의 액션들을 동기화하기 위한 notification을 전송할 수 있는 스트림을 나타낼 수 있다.
App-based Enhancement는 액션들의 동기화된 notification을 전송하는 0개 이상의 Notification Streams, 하나 이상의 어플리케이션들, 어플리케이션에 의해 사용되는 0개 이상의 다른 NRT Content Items, 어플리케이션에 의해 관리되는 0개 이상의 On Demand components들을 포함할 수 있다.
도 33은 본 발명의 일 실시예에 따른 ComponentData 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 실제 Component Data의 특성을 서비스 가이드하기 위하여 ComponentData 엘레먼트를 스키마로 정의할 수 있다.
본 발명의 일 실시예에 따른 ComponentData 엘레먼트는 전술한 컴포넌트 프래그먼트의 ComponentType 엘레먼트의 값이 2, 3, 4 또는 6일 경우, 각각의 타입의 조합 및 관계에 따라 Component Data를 표현할 수 있도록 할 수 있다.
본 발명의 일 실시예에 따르면, 각 컴포넌트는 ContentType 어트리뷰트를 가질 수 있다. ContentType 어트리뷰트는 비디오, 오디오 및/또는 CC (Closed Caption) 값을 가질 수 있다.
이 도면에 도시된 스키마 구조와 같이, 본 발명의 일 실시예는 각 ContentType 어트리뷰트에 따라 Component Data가 기술될 수 있도록 하는 방법을 제공할 수 있다. 즉, 본 발명의 일 실시예에 따른 ComponentData 엘레먼트는 ContentType 어트리뷰트 값이 Video인 경우 VideoComponent 엘레먼트를 하위 엘레먼트로 가질 수 있고, ContentType 어트리뷰트 값이 Audio인 경우 AudioComponent 엘레먼트를 하위 엘레먼트로 가질 수 있고, ContentType 어트리뷰트 값이 CC인 경우 CCComponent 엘레먼트를 하위 엘레먼트로 가질 수 있다. 그리고, 상기 하위 엘레먼트에 각 Component Data가 기술될 수 있다.
도 34는 본 발명의 일 실시예에 따른 VideoComponent 엘레먼트 및 VideoRole 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 하이브리드 방송에서 사용되는 Video Component를 표현할 수 있도록하는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따른 VideoComponent 엘레먼트는 VideoRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 하위 엘레먼트로 가질 수 있다. (L34010)
VideoRole 엘레먼트는 해당 Video Component가 어떤 Role을 가지는지 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 추후 확장성을 고려하여 이 엘레먼트는 정수값을 가질 수 있다. 또한, 본 발명의 일 실시예는 Video Comonent가 presentable일 경우에 가지는 role 및 composite일 경우 가지는 role을 모두 나타낼 수 있도록 이 엘레먼트 값의 범위를 제공할 수 있다.
TargetUserProfile 엘레먼트 및 TargetDevice 엘레먼트는 모든 presentable componet의 common element에 해당할 수 있다. 이 엘레먼트들은 타겟의 속성을 나타낼 수 있다.
본 발명의 일 실시예에 따른 VideoRole 엘레먼트가 나타내는 값이 0이면 unspecified를, 1이면 Primary (default) video를, 2이면 Alternative camera view를, 3이면 Other alternative video component를, 4면 Sign language (e.g., ASL) inset을, 5면 Follow subject video를, 6이면 Base layer for scalable video encoding를, 7이면 Enhancement layer for scalable video encoding, with level을, 8이면 3D video left view를, 9이면 3D video right view를, 10이면 3D video depth information을, 11이면 Part of video array, <x,y> of <n,m>를, 12이면 Follow-Subject metadata를, 13 내지 255이면 Reserved임을 나타낼 수 있다. 여기서, 이 엘레먼트 값 0 내지 5는 presentable Video Componet의 role을 나타낼 수 있고, 6 내지 12는 Composite Video Component의 role을 나타낼 수 있고, 13 내지 255는 Other Video Component의 role을 나타낼 수 있다. (L34020)
도 35는 본 발명의 일 실시예에 따른 AudioComponent 엘레먼트 및 AudioRole 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 하이브리드 방송에서 사용되는 Audio Component를 표현할 수 있도록하는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따른 AudioComponent 엘레먼트는 associatedTo 어트리뷰트 및/또는 NumberOfAudioChnnels 어트리뷰트를 가질 수 있고, AudioRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 하위 엘레먼트로 가질 수 있다. (L35010)
associatedTo 어트리뷰트는 해당 Audio Component가 Presentable Video Component에 연관되어 있는지를 나타낼 수 있다. 이 어트리뷰트는 컴포넌트 프래그먼트의 id값을 가질 수 있다.
NumberOfAudioChnnels 어트리뷰트는 Audio Component의 채널 수를 나타낼 수 있다.
AudioRole 엘레먼트는 해당 Audio Component가 어떤 Role을 가지는지 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 추후 확장성을 고려하여 이 엘레먼트는 정수값을 가질 수 있다.
TargetUserProfile 엘레먼트 및 TargetDevice 엘레먼트는 모든 presentable componet의 common element에 해당할 수 있다. 이 엘레먼트들은 타겟의 속성을 나타낼 수 있다.
본 발명의 일 실시예에 따른 AudioRole 엘레먼트는 0 내지 7 값을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified, 1이면 Complete main, 2이면 Music, 3이면 Dialog, 4이면 Effects, 5이면 Visually impaired, 6이면 Hearing impaired, 7이면 Commentary, 8 내지 255이면 Reserved임을 나타낼 수 있다. (L35020)
도 36는 본 발명의 일 실시예에 따른 CCComponent 엘레먼트 및 CCRole 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 하이브리드 방송에서 사용되는 CC Component를 표현할 수 있도록하는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따른 CCComponent 엘레먼트는 associatedTo 어트리뷰트를 가질 수 있고, CCRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 하위 엘레먼트로 가질 수 있다. (L36010)
associatedTo 어트리뷰트는 해당 CC Component가 Presentable Video Component에 연관되어 있는지를 나타낼 수 있다. 이 어트리뷰트는 컴포넌트 프래그먼트의 id값을 가질 수 있다.
CCRole 엘레먼트는 해당 CC Component가 어떤 Role을 가지는지 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 추후 확장성을 고려하여 이 엘레먼트는 정수값을 가질 수 있다.
TargetUserProfile 엘레먼트 및 TargetDevice 엘레먼트는 모든 presentable componet의 common element에 해당할 수 있다. 이 엘레먼트들은 타겟의 속성을 나타낼 수 있다.
본 발명의 일 실시예에 따른 CCRole 엘레먼트는 0 내지 2 값을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified, 1이면 normal, 2이면 easy reader임을 나타낼 수 있다. (L36020)
도 37은 본 발명의 일 실시예에 따라 scalable video coding에서 하나의 베이스 레이어 (base layer)와 두개의 인헨스먼트 레이어 (enhancement layer)를 포함하는 Composite Video Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 상단에 위치하는 컴포넌트 프래그먼트 (L37010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 좌측에 위치하는 컴포넌트 프래그먼트 (L37020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Elementary 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, VideoComponent 엘레먼트 및 VideoRole 엘레먼트를 이용하여 해당 컴포넌트가 Video에 관한 것이고 Base Layer of SVC 컴포넌트임을 나타낼 수 있다.
이 도면의 우측에 위치하는 컴포넌트 프래그먼트 (L37030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Elementary 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, VideoComponent 엘레먼트 및 VideoRole 엘레먼트를 이용하여 해당 컴포넌트가 Video에 관한 것이고 Enhancemnet Layer of SVC 컴포넌트임을 나타낼 수 있다.
도 38은 본 발명의 일 실시예에 따라 3D video left view와 3D video right view를 포함하는 Composite Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 상단에 위치하는 컴포넌트 프래그먼트 (L38010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 좌측에 위치하는 컴포넌트 프래그먼트 (L38020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pick-one 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, VideoComponent 엘레먼트 및 VideoRole 엘레먼트를 이용하여 해당 컴포넌트가 Video에 관한 것이고 3D video left view 컴포넌트임을 나타낼 수 있다.
이 도면의 우측에 위치하는 컴포넌트 프래그먼트 (L38030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pick-one 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, VideoComponent 엘레먼트 및 VideoRole 엘레먼트를 이용하여 해당 컴포넌트가 Video에 관한 것이고 3D video right view 컴포넌트임을 나타낼 수 있다.
도 39는 본 발명의 일 실시예에 따라 Comple Audio Component를 기술하는 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 최상단에 위치하는 컴포넌트 프래그먼트 (L39010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pick-one 컴포넌트임을 나타낼 수 있다.
이 도면의 두번째 열의 좌측에 위치하는 컴포넌트 프래그먼트 (L39020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pick-one 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, AudioComponent 엘레먼트 및 AudioRole 엘레먼트를 이용하여 해당 컴포넌트가 Audio에 관한 것이고 Completely Main 컴포넌트임을 나타낼 수 있다.
이 도면의 두번째 열의 우측에 위치하는 컴포넌트 프래그먼트 (L39030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 세번째 열의 좌측에 위치하는 컴포넌트 프래그먼트 (L39040)는 id 값으로 "bcast://lge.com/Component/4"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pick-one 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, AudioComponent 엘레먼트 및 AudioRole 엘레먼트를 이용하여 해당 컴포넌트가 Audio에 관한 것이고 Music 컴포넌트임을 나타낼 수 있다.
이 도면의 세번째 열의 우측에 위치하는 컴포넌트 프래그먼트 (L39050)는 id 값으로 "bcast://lge.com/Component/5"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pick-one 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, AudioComponent 엘레먼트 및 AudioRole 엘레먼트를 이용하여 해당 컴포넌트가 Audio에 관한 것이고 Dialog 컴포넌트임을 나타낼 수 있다.
도 40은 본 발명의 일 실시예에 따른 컨텐트 프래그먼트 (content fragment) 내의 Component 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 컨텐트에 포함되는 컴포넌트를 서브 엘레먼트로 구성할 수 있다. 즉, 컨텐트 프래그먼트 내부에 Component 엘레먼트를 포함시킬 수 있다. 여기서, 서브 엘레먼트는 하위 엘레먼트와 동일한 의미를 가질 수 있다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 컨텐트에 포함되는 컴포넌트 정보를 나타낼 수 있다.
본 발명의 일 실시예에 따른 Component 엘레먼트의 타입은 ComponentElementType인데 ComponentElementType은 컨텐트에 포함되는 컴포넌트 정보를 시퀀스 형태로 정의할 수 있다. 따라서, 컨텐트에 포함되는 모든 타입의 컴포넌트들이 기술될 수 있다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 VideoData 엘레먼트, AudioData 엘레먼트 및/또는 CCData 엘레먼트를 서브 엘레먼트로 가질 수 있다. 또한, VideoData 엘레먼트는 VideoRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 서브 엘레먼트로 가질 수 있고, AudioData 엘레먼트는 AudioRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 서브 엘레먼트로 가질 수 있고, CCData 엘레먼트는 CCRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 서브 엘레먼트로 가질 수 있다. 상술한 엘레먼트들에 대한 상세한 설명은 전술하였다.
도 41은 본 발명의 일 실시예에 따른 Video, Audio 및 CC Component를 포함하는 Linear Service에 대한 컨텐트 프래그먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따라 컨텐트 프래그먼트 내에 Component 엘레먼트를 구성하면, Component 사이의 Reference 규정이 필요 없게 되므로 효율적일 수 있다. 따라서, 본 발명의 일 실시예에 따른 수신기는 컨텐트 프래그먼트를 수신하면, 해당 컨텐트가 어떤 컴포넌트로 구성되어 있고, 어떤 role을 가지는지에 대하여 직관적으로 파악할 수 있다.
본 발명의 일 실시예에 따르면, Component 엘레먼트는 컨텐트 프래그먼트에 포함된 PricateExt 엘레먼트 내에서 정의될 수 있다.
이 도면의 좌측의 그림 및 스키마를 보면, 2D 테니스 방송 컨텐트는 Video, Audio 및 CC 컴포넌트를 포함할 수 있다. 이 컨텐트의 Video 컴포넌트는 Primary (default) video를 나타내고, Audio 컴포넌트는 Complete main을 나타내고, CC 컴포넌트는 normal을 나타낼 수 있다.
이 도면의 우측의 그림 및 스키마를 보면, 3D 테니스 방송 컨텐트는 두개의 Video 컴포넌트, Audio 컴포넌트 및 CC 컴포넌트를 포함할 수 있다. 이 컨텐트의 첫번째 Video 컴포넌트는 3D video left view를 나타내고, 두번째 Video 컴포넌트는 3D video right view를 나타내고, Audio 컴포넌트는 Complete main을 나타내고, CC 컴포넌트는 normal을 나타낼 수 있다.
도 42는 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 컨텐트 프래그먼트 내에 Component 엘레먼트를 정의하는 경우의 Component 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 하나의 컨텐트를 구성하는 컴포넌트들 사이에 연관관계에 대한 정의가 필요할 수 있다.
본 발명의 일 실시예에 따라, 컨텐트 프래그먼트 내에 Component 엘레먼트를 구성하면 컨텐트 프래그먼트 내에서, 해당 컨텐트에 포함되는 모든 컴포넌트 (Video, Audio 및/또는 CC 컴포넌트)를 기술하기 때문에 컴포넌트들 간의 연관관계를 따로 기술할 필요가 없을 수 있다.
도 43은 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 AssociatedTo 어트리뷰트를 사용하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 Presentable Video, Audio 및 CC Component간 연관 (Association)관계를 규정하기 위하여 Audio component와 CC component의 속성으로 associatedTo 어트리뷰트를 기술할 수 있다. 이로써, 본 발명의 일 실시예에 따른 수신기는 Audio component를 수신하면, 이와 연관관계를 맺고 있는 Video component를 알 수 있다. 마찬가지로, CC component를 수신하면, 이와 연관관계를 맺고 있는 Video component를 알 수 있다.
이 도면을 보면, 본 발명의 일 실시예는 컴포넌트 프래그먼트 하위의 ComponentData 엘레먼트 하위의 AudioComponent 엘레먼트의 어트리뷰트로서 associatedTo 어트리뷰트를 정의할 수 있고, CCComponent 엘레먼트의 어트리뷰트로서 associatedTo 어트리뷰트를 정의할 수 있다.
도 44는 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 associatedAudio 및 associatedCC 어트리뷰트를 사용하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 Presentable Video, Audio 및 CC Component간 연관 (Association)관계를 규정하기 위하여 Video component의 속성으로 associatedAudio 및 associatedCC 어트리뷰트를 기술할 수 있다. 이로써, 본 발명의 일 실시예에 따른 수신기는 Video component를 수신하면, 이와 연관관계를 맺고 있는 모든 Audio 및/또는 CC component를 알 수 있다.
이 도면을 보면, 본 발명의 일 실시예는 컴포넌트 프래그먼트 하위의 ComponentData 엘레먼트 하위의 VideoComponent 엘레먼트의 어트리뷰트로서 associatedAudio 및/또는 associatedCC 어트리뷰트를 정의할 수 있다.
도 45는 AssociatedTo 어트리뷰트를 사용하여 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Audio Component를 기술하는 컴포넌트 프래그먼트에서 AudioComponent 엘레먼트에 associatedTo 어트리뷰트를 정의하여 "bcast://lge.com/Component/1"를 참조함으로써 해당 Presentable Audio Component와 연관된 Presentable Video Component를 기술하는 컴포넌트 프래그먼트를 시그널링할 수 있다.
본 발명의 일 실시예에 따르면, Presentable CC Component를 기술하는 컴포넌트 프래그먼트에서 CCComponent 엘레먼트에 associatedTo 어트리뷰트를 정의하여 "bcast://lge.com/Component/1"를 참조함으로써 해당 Presentable CC Component와 연관된 Presentable Video Component를 기술하는 컴포넌트 프래그먼트를 시그널링할 수 있다.
도 46은 associatedAudio 및/또는 associatedCC 어트리뷰트를 사용하여 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Video Component를 기술하는 컴포넌트 프래그먼트에서 VideoComponent 엘레먼트에 associatedAudio 및 associatedCC 어트리뷰트를 정의하여 각각 "bcast://lge.com/Component/2", "bcast://lge.com/Component/3"을 참조함으로써 해당 Presentable Video Component와 연관된 Presentable Audio Component 및 Presentable CC Component를 기술하는 컴포넌트 프래그먼트들을 시그널링할 수 있다.
도 47은 본 발명의 일 실시예에 따른 프래그먼트들 사이의 참조관계를 나타낸 도면이다.
본 발명의 일 실시예에 따라 차세대 하이브리드 방송 시스템의 서비스 가이드를 제공하기 위하여 Service, Content 및 Component 프래그먼트를 정의하는 방법을 전술하였다.
본 발명의 일 실시예는 전술한 각 프래그먼트 사이의 참조관계를 정의함으로써 차세대 하이브리드 방송 시스템의 서비스 가이드가 어나운스먼트 (announcement)될 수 있는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따르면, Component 프래그먼트에서 Service 및/또는 Content 프래그먼트를 참조할 수 있다.
이 도면을 보면, Component 프래그먼트에서 Service 및 Content 프래그먼트를 참조할 수 있고, Content 프래그먼트에서 Service 프래그먼트를 참조할 수 있고, Schedule 프래그먼트에서 Service, Content 및 Component 프래그먼트를 참조할 수 있다.
도 48은 본 발명의 일 실시예에 따라 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 Component 프래그먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Component 프래그먼트는 ServiceReference 엘레먼트, ContentReference 엘레먼트 및/또는 ComponentReference 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트는 각각의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다.
ServiceReference 엘레먼트는 해당 Component 프래그먼트에서 참조하는 Service 프래그먼트를 나타낼 수 있고, 참조하는 Service 프래그먼트의 id 값을 가질 수 있다.
ContentReference 엘레먼트는 해당 Component 프래그먼트에서 참조하는 Content 프래그먼트를 나타낼 수 있고, 참조하는 Content 프래그먼트의 id 값을 가질 수 있다.
ComponentReference 엘레먼트는 해당 Component 프래그먼트에서 참조하는 상위의 Component 프래그먼트를 나타낼 수 있고, 참조하는 상위의 Component 프래그먼트의 id 값을 가질 수 있다. 이 경우, 전술한 ComponentType 엘레먼트가 나타내는 타입값의 분류에 따라 Component 프래그먼트 사이의 참조관계 또는 상하관계가 성립될 수 있다.
도 49는 본 발명의 일 실시예에 따라 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 Schedule 프래그먼트의 xml shema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Schedule 프래그먼트는 ServiceReference 엘레먼트, ContentReference 엘레먼트 및/또는 ComponentReference 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트는 각각의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다.
ServiceReference 엘레먼트는 참조하는 Service 프래그먼트를 나타낼 수 있고, 참조하는 Service 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Service의 시간 정보를 제공할 수 있다.
ContentReference 엘레먼트는 참조하는 Content 프래그먼트를 나타낼 수 있고, 참조하는 Content 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Content의 시간 정보를 제공할 수 있다.
ComponentReference 엘레먼트는 참조하는 Component 프래그먼트를 나타낼 수 있고, 참조하는 Component 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Component의 시간 정보를 제공할 수 있다.
도 50은 Service, Content 및 Component 프레그먼트 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
이 도면을 보면, 전술한 바와 같이, Presentable Audio Component를 기술하는 컴포넌트 프래그먼트, Presentable CC Component를 기술하는 컴포넌트 프래그먼트는 associatedTo 어트리뷰트를 이용하여 Presentable Video Component를 기술하는 컴포넌트 프래그먼트를 참조할 수 있다.
나아가, Presentable Audio Component를 기술하는 컴포넌트 프래그먼트, Presentable CC Component를 기술하는 컴포넌트 프래그먼트 및 Presentable Video Component를 기술하는 컴포넌트 프래그먼트는 ContentReference 엘레먼트를 이용하여 id 값이 "bcast://lge.com/Content/1"인 Content 프래그먼트를 참조할 수 있다.
나아가, id 값이 "bcast://lge.com/Content/1"인 Content 프래그먼트는 ServiceReference 엘레먼트를 이용하여 id 값이 "bcast://lge.com/Service/1"인 Service 프래그먼트를 참조할 수 있다.
이와 같이, 본 발명의 일 실시예는 프래그먼트 사이의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 서비스 가이드 모델을 구성할 수 있다.
도 51은 Continuous Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 컴포넌트 프래그먼트 간의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 Continuous Component들의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, ComponentType 값 1 내지 6에 해당하는 컴포넌트인 Continuous component, Elementary component, Composite component, PickOne component, Complex component 및/또는 Presentable component는 Continuous Component에 해당할 수 있고, 이 도면에 도시된 바와 같이, 상술한 Continuous Component 간의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, Second Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/4")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/3"를 기술함으로써 First Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")를 참조할 수 있다.
마찬가지로, First Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/2"를 기술함으로써 Base Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")를 참조할 수 있다.
마찬가지로, Base Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/1"를 기술함으로써 Composite Component를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")를 참조할 수 있다.
도 52는 App-based Enhancement와 관련한 Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 컴포넌트 프래그먼트 간의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 App-based Enhancement와 관련한 Component들의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, ComponentType 값 7 내지 13에 해당하는 컴포넌트인 NRT File, NRT Content Item, Application, ATSC3.0 Application, On Demand component, Notification Stream 및/또는 App-based Enhancement는 App-based Enhancement와 관련한 Component에 해당할 수 있고, 이 도면에 도시된 바와 같이, 상술한 App-based Enhancement와 관련한 Component간의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, NRT File을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/2"를 기술함으로써 NRT Content Item을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")를 참조할 수 있다.
마찬가지로, NRT Content Item을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/1"를 기술함으로써 App-based Enhancement를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")를 참조할 수 있다.
마찬가지로, On Demand component를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/5")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/1"를 기술함으로써 App-based Enhancement를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")를 참조할 수 있다.
마찬가지로, Application를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/4")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/1"를 기술함으로써 App-based Enhancement를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")를 참조할 수 있다.
도 53은 본 발명의 일 실시예에 따라 컨텐트 프래그먼트에서 관련 서비스 프래그먼트를 참조하는 경우 제공할 수 있는 기능을 나타낸 도면이다.
본 발명의 일 실시예는 컨텐트에서 참조하는 Service 프래그먼트를 표현할 때, 하이브리드 방송망에서 지원하는 기능을 상세히 나타낼 수 있는 서비스 가이드 방법을 제공할 수 있다.
본 발명의 일 실시예에 따른 Content 프래그먼트는 ServiceReference 엘레먼트를 가질 수 있고, ServiceReference 엘레먼트는 idRef 어트리뷰트, weigh 어트리뷰트 및/또는 relationship 어트리뷰트를 포함할 수 있다.
idRef 어트리뷰트는 참조하는 Content 프래그먼트에서 참조하는 Service 프래그먼트의 id를 나타낼 수 있다.
weigh 어트리뷰트는 Service 프래그먼트 참조시 그 중요도를 나타낼 수 있다.
relationship 어트리뷰트는 Service 프래그먼트 참조시 Content 프래그먼트와 Service 프래그먼트와의 관계를 나타낼 수 있다. 나아가, 이 어트리뷰트의 값은 추후 확장성을 위하여 정수값으로 표현될 수 있다. 이 어트리뷰트의 값이 0이면 unspecified, 1이면 ProgramOf, 2이면 ContentItemOf, 3이면 OnDemandComponentOf, 4 내지 255이면 reserved임을 나타낼 수 있다. ProgramOf는 해당 Content가 참조되는 Service의 Program에 해당함을 나타낼 수 있고, ContentItemOf는 해당 Content가 참조되는 Service의 ContentItem에 해당함을 나타낼 수 있고, OnDemandComponentOf는 해당 Content가 참조되는 Service의 OnDemandComponent에 해당함을 나타낼 수 있다.
도 54는 본 발명의 일 실시예에 따른 relationship 어트리뷰트를 이용하여 컨텐트 프래그먼트에서 관련 서비스 프래그먼트를 참조하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예 따른 수신기는 relationship 어트리뷰트를 이용하여 Content 프래그먼트에서 Service 프래그먼트를 참조하는 경우 양 프래그먼트 사이의 관계를 알 수 있다. 따라서, 본 발명의 일 실시예는 relationship 어트리뷰트를 통하여 Component level까지 분석하지 않더라도 해당 서비스가 사용자에게 어떤 속성의 컨텐트로 구성되는지 서비스 가이드로 표현할 수 있다.
이 도면을 보면, 총 3개의 Content 프래그먼트는 ServiceReference 엘레먼트를 이용하여 id 값으로 "bcast://lge.com/Service/1"를 갖는 Service 프래그먼트를 참조하고 있다. 좌측의 컨텐트 프래그먼트는 relationship 어트리뷰트 값으로 1을 가짐으로써 참조되는 서비스 프래그먼트의 Program임을 나타낼 수 있고, 중간의 컨텐트 프래그먼트는 relationship 어트리뷰트 값으로 2를 가짐으로써 참조되는 서비스 프래그먼트의 ContentItem임을 나타낼 수 있고, 우측의 컨텐트 프래그먼트는 relationship 어트리뷰트 값으로 3을 가짐으로써 참조되는 서비스 프래그먼트의 OnDemandComponent임을 나타낼 수 있다.
도 55은 본 발명의 다른 일 실시예에 따른 프래그먼트들 사이의 참조관계를 나타낸 도면이다.
본 발명의 일 실시예에 따라 차세대 하이브리드 방송 시스템의 서비스 가이드를 제공하기 위하여 Service, Content 및 Component 프래그먼트를 정의하는 방법을 전술하였다.
본 발명의 일 실시예는 전술한 각 프래그먼트 사이의 참조관계를 정의함으로써 차세대 하이브리드 방송 시스템의 서비스 가이드가 어나운스먼트 (announcement)될 수 있는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따르면, Service 프래그먼트에서 Content 프래그먼트 및/또는 Component 프래그먼트를 참조할 수 있다.
이 도면을 보면, 서비스 프래그먼트에서 컨텐트 프래그먼트 및/또는 컴포넌트 프래그먼트를 참조할 수 있고, 컨텐트 프래그먼트에서 컴포넌트 프래그먼트를 참조할 수 있고, Schedule 프래그먼트에서 Service, Content 및/또는 Component 프래그먼트를 참조할 수 있다.
본 발명의 일 실시예에 따르면, 특정 서비스를 구성하는 컨텐트, 컴포넌트 요소를 찾기 위한 리소스의 절약이 가능할 수 있다.
도 56은 본 발명의 다른 일 실시예에 따른 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 서비스 프래그먼트, 컨텐트 프래그먼트 및 컴포넌트 프래그먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 서비스 가이드의 각 프래그먼트는 참조관계를 가질 수 있다.
본 발명의 일 실시예에 따른 서비스 프래그먼트는 ContentReference 엘레먼트 및/또는 ComponentReference 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트는 각각의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다. (L56010)
ContentReference 엘레먼트는 해당 서비스 프래그먼트에서 참조하는 Content 프래그먼트를 나타낼 수 있고, 참조하는 Content 프래그먼트의 id 값을 가질 수 있다.
ComponentReference 엘레먼트는 해당 서비스 프래그먼트에서 참조하는 Component 프래그먼트를 나타낼 수 있고, 참조하는 Component 프래그먼트의 id 값을 가질 수 있다.
본 발명의 일 실시예에 따른 컨텐트 프래그먼트는 ComponentReference 엘레먼트를 포함할 수 있다. 이 엘레먼트는 이 엘레먼트의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다. (L56020)
ComponentReference 엘레먼트는 해당 컨텐트 프래그먼트에서 참조하는 Component 프래그먼트를 나타낼 수 있고, 참조하는 Component 프래그먼트의 id 값을 가질 수 있다.
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트는 ComponentReference 엘레먼트를 포함할 수 있다. 이 엘레먼트는 이 엘레먼트의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다. (L56030)
ComponentReference 엘레먼트는 해당 Component 프래그먼트에서 참조하는 하위의 Component 프래그먼트를 나타낼 수 있고, 참조하는 하위의 Component 프래그먼트의 id 값을 가질 수 있다. 이 경우, 전술한 ComponentType 엘레먼트가 나타내는 타입값의 분류에 따라 Component 프래그먼트 사이의 참조관계 또는 상하관계가 성립될 수 있다.
본 발명의 일 실시예에 따른 Schedule 프래그먼트는 ServiceReference 엘레먼트, ContentReference 엘레먼트 및/또는 ComponentReference 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트는 각각의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다. (미도시)
ServiceReference 엘레먼트는 참조하는 Service 프래그먼트를 나타낼 수 있고, 참조하는 Service 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Service의 시간 정보를 제공할 수 있다.
ContentReference 엘레먼트는 참조하는 Content 프래그먼트를 나타낼 수 있고, 참조하는 Content 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Content의 시간 정보를 제공할 수 있다.
ComponentReference 엘레먼트는 참조하는 Component 프래그먼트를 나타낼 수 있고, 참조하는 Component 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Component의 시간 정보를 제공할 수 있다.
도 57은 Service, Content 및 Component 프레그먼트 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
이 도면을 보면, 전술한 바와 같이, Presentable Audio Component를 기술하는 컴포넌트 프래그먼트, Presentable CC Component를 기술하는 컴포넌트 프래그먼트는 associatedTo 어트리뷰트를 이용하여 Presentable Video Component를 기술하는 컴포넌트 프래그먼트를 참조할 수 있다.
Id 값이 "bcast://lge.com/Service/1"인 Service 프래그먼트는 ContentReference 엘레먼트를 이용하여 id 값이 "bcast://lge.com/Content/1"인 Content 프래그먼트를 참조할 수 있다.
Id 값이 "bcast://lge.com/Content/1"인 Content 프래그먼트는 ComponentReference 엘레먼트를 이용하여 id 값이 "bcast://lge.com/Component/1"인 Component 프래그먼트 (Presentable Video Component)를 참조할 수 있다.
이와 같이, 본 발명의 일 실시예는 프래그먼트 사이의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 서비스 가이드 모델을 구성할 수 있다.
본 발명의 일 실시예는 서비스 프래그먼트에서 컨텐트 프래그먼트를 참조하고, 컨텐트 프래그먼트에서 컴포넌트 프레그먼트를 참조하는 방식처럼 상위 레벨에서 하위 레벨을 참조하는 방향을 사용함으로써 리소스를 줄일 수 있다.
도 58은 Continuous Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 컴포넌트 프래그먼트 간의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 Continuous Component들의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, ComponentType 값 1 내지 6에 해당하는 컴포넌트인 Continuous component, Elementary component, Composite component, PickOne component, Complex component 및/또는 Presentable component는 Continuous Component에 해당할 수 있고, 이 도면에 도시된 바와 같이, 상술한 Continuous Component 간의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, Composite Component를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/2"를 기술함으로써 Base Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")를 참조할 수 있다.
마찬가지로, Base Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/3"를 기술함으로써 First Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")를 참조할 수 있다.
마찬가지로, First Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/4"를 기술함으로써 Second Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/4")를 참조할 수 있다.
도 59는 App-based Enhancement와 관련한 Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 컴포넌트 프래그먼트 간의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 App-based Enhancement와 관련한 Component들의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, ComponentType 값 7 내지 13에 해당하는 컴포넌트인 NRT File, NRT Content Item, Application, ATSC3.0 Application, On Demand component, Notification Stream 및/또는 App-based Enhancement는 App-based Enhancement와 관련한 Component에 해당할 수 있고, 이 도면에 도시된 바와 같이, 상술한 App-based Enhancement와 관련한 Component간의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, App-based Enhancement를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/2", "bcast://lge.com/Component/4" 및 "bcast://lge.com/Component/5" 를 기술함으로써 NRT Content Item을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2"), Application를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/4") 및 On Demand component를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/5")를 참조할 수 있다.
마찬가지로, NRT Content Item을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/3"를 기술함으로써 NRT File을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")를 참조할 수 있다.
도 60, 61은 본 발명의 일 실시예에 따른 Component 프래그먼트의 구성을 나타낸 도면이다.
두 도면에 걸쳐 그려진 테이블은 연결된 하나의 테이블에 해당한다.
본 발명의 일 실시예에 다른 컴포넌트 프래그먼트는 id 어트리뷰트, version 어트리뷰트, validFrom 어트리뷰트, validTo 어트리뷰트, ServiceReference 엘레먼트, ContentReference 엘레먼트, ComopnentReference 엘레먼트, ComponentType 엘레먼트, ComponentRole 엘레먼트, PrivateExt 엘레먼트 및/또는 ProprietaryElements 엘레먼트를 포함할 수 있다. ServiceReference 엘레먼트, ContentReference 엘레먼트 및 ComopnentReference 엘레먼트는 각각 idRef 어트리뷰트를 포함할 수 있다. 상술한 id 어트리뷰트 및/또는 idRef 어트리뷰트는 URI 형태를 가질 수 있고, 상술한 어트리뷰트 및/또는 엘레먼트에 대한 상세한 설명은 후술한다.
도 62는 본 발명의 다른 일 실시예에 따른 Component 프래그먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트 (Component fragment)는 컴포넌트가 참조하는 컨텐트 또는 서비스의 일부분인 컴포넌트를 기술할 수 있다. (The 'Component' fragment describes a component that is a part of a service or a content that the component refers to.)
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트는 id 어트리뷰트, version 어트리뷰트, validFrom 어트리뷰트, validTo 어트리뷰트, ServiceReference 엘레먼트, ContentReference 엘레먼트, ComopnentReference 엘레먼트, ComponentType 엘레먼트, ComponentRole 엘레먼트, PrivateExt 엘레먼트 및/또는 ProprietaryElements 엘레먼트를 포함할 수 있다.
id 어트리뷰트는 컴포넌트 프래그먼트의 ID를 나타낼 수 있다. 이 어트리뷰트의 값은 globally unique할 수 있다.
version 어트리뷰트는 컴포넌트 프래그먼트의 버전 정보를 나타탤 수 있다.
validFrom 어트리뷰트는 컴포넌트 프래그먼트가 유효한 처음 시점을 나타낼 수 있다.
validTo 어트리뷰트는 컴포넌트 프래그먼트가 유효한 마지막 시점을 나타낼 수 있다.
ServiceReference 엘레먼트는 해당 컴포넌트 프래그먼트가 속하는 서비스 프래그먼트를 참조할 수 있다.
ContentReference 엘레먼트는 해당 컴포넌트가 속하는 컨텐트 프래그먼트를 참조할 수 있다.
ComopnentReference 엘레먼트는 해당 컴포넌트가 속하는 컴포넌트 프래그먼트를 참조할 수 있다.
ComponentType 엘레먼트는 컴포넌트 프래그먼트가 기술하는 컨텐트의 타입을 나타낼 수 있다. 타입이 혼합된 경우에는 하나 이상의 ComponentType 엘레먼트를 사용하여 타입을 나타낼 수 있다.
ComponentRole 엘레먼트는 해당 컴포넌트의 role을 나타낼 수 있다. 본 발명의 일 실시예에 따르면 해당하는 컴포넌트가 Presentable Video, Composite Video, Presentable Audio 또는 Presentable CC component인 경우에 Component Role을 가지며, 이 엘레멘트에 대한 값에 대한 상세한 설명은 후술한다.
PrivateExt 엘레먼트는 사유적인 또는 어플리케이션에 한정된 확장을 위한 컨테이너를 나타낼 수 있다. (An element serving as a container for proprietary or application-specific extensions.)
ProprietaryElements 엘레먼트은 사유적인 또는 어플리케이션에 한정된 엘레먼트를 나타낼 수 있다. 이 엘레멘트는 하나 이상의 서브 엘레먼트 또는 어트리뷰트를 포함할 수 있다.
도 63은 본 발명의 다른 일 실시예에 따른 ComponentType 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트는 하이브리드 방송에서 보낼 수 있는 모든 ComponentType을 표현할 수 있다. 이를 위하여, 본 발명의 일 실시예는 타입의 범위를 정수값으로 표현할 수 있다.
본 발명의 일 실시예에 따르면, 모든 컴포넌트가 컴포넌트 데이터 (ComponentData)를 포함하고 있는 것은 아니므로 수신 장치는 컴포넌트 프래그먼트의 타입 값을 먼저 알아낸 뒤 컴포넌트 데이터의 정보를 알 수 있다.
본 발명의 일 실시예에 따른 각 컴포넌트들 사이의 상하 또는 종속 관계는 후술한다.
본 발명의 일 실시예에 따르면, ComponentType 엘레먼트의 타입을 나타내는 ComponentRangeType은 최소값으로 0을 최대값으로 15를 가질 수 있다.
이 도면에 도시된 바와 같이, ComponentType 엘레먼트의 값이 0이면, 정해지지 않은 컴포넌트 (Unspecified)를 나타낼 수 있고, 1이면 Continuous component를 나타낼 수 있고, 2이면 Elementary component를 나타낼 수 있고, 3이면 Composite component를 나타낼 수 있고, 4이면 PickOne component를 나타낼 수 있고, 5이면 Complex component를 나타낼 수 있고, 6이면 Presentable Video component를 나타낼 수 있고, 7이면 Presentable Audio component를 나타낼 수 있고, 8이면 Presentable CC component를 나타낼 수 있고, 9이면 NRT File를 나타낼 수 있고, 10이면 NRT Content Item를 나타낼 수 있고, 11이면 Application를 나타낼 수 있고, 12이면 ATSC3.0 Application를 나타낼 수 있고, 13이면 On Demand component를, 14이면 Notification Stream을, 15이면 App-based Enhancement를 16 내지 255이면 Reserved임을 나타낼 수 있다.
Continuous component는 하나의 연속하는 스트림에서 표현되는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 오디오, 비디오 또는 Closed Caption이 이에 해당할 수 있다.
Elementary component는 싱글 인코딩에 해당하는 Continuous component를 나타낼 수 있다. 즉, 별도의 인코더에 의해 인코딩되는 Continuous component를 나타낼 수 있다. 예를 들어, 사운드 시퀀스의 싱글 인코딩, 픽처 시퀀스의 싱글 인코딩 또는 싱글 closed caption 트랙이 이에 해당할 수 있다.
Composite component는 같은 Content type을 갖고, 같은 장면을 표현하고, 하나의 프레젠테이션을 만들기 위해 조합될 수 있는 Continuous component의 집합을 구성하는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 완전한 오디오를 제공하기 위해 혼합될 음악, 다이얼로그 또는 효과 음악이 이에 해당할 수 있다. 또한, 3D 영상을 제공하기 위해 조합될 좌영상 또는 우영상이 이에 해당할 수 있다.
PickOne component는 같은 Content type을 갖고, 같은 장면을 표현하고, 하나의 프레젠테이션을 만들기 위해 선택될 수 있는 Continuous component의 집합을 구성하는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 같은 사운드 시퀀스와 다른 비트레이트로 인코딩된 오디오 컴포넌트들의 집합, 같은 픽처 시퀀스와 다른 비트레이트로 인코딩된 비디오 컴포넌트들의 집합 또는 같은 다이얼로그를 위한 일반적인 closed caption 트랙 및 easy reader closed caption 트랙의 집합이 이에 해당할 수 있다.
Complex component는 Composite component 또는 PickOne component를 나타낼 수 있다.
Presentable component는 사용자에게 표시되는 Continuous component를 나타낼 수 있다. 이 컴포넌트는 Elementary component 또는 Complex component를 포함할 수 있다.
Presentable Video component는 사용자에게 표시되는 Video Continuous component를 나타낼 수 있다.
Presentable Audio component는 사용자에게 표시되는 Audio Continuous component를 나타낼 수 있다.
Presentable CC component 사용자에게 표시되는 CC Continuous component를 나타낼 수 있다.
NRT File은 비실시간으로 전송되는 파일을 나타낼 수 있다.
NRT Content Item는 통합된 전체로 소비되어질 의도로 만들어진 하나 이상의 NRT 파일들의 집합을 나타낼 수 있다.
Application은 그 자체로 완전한 인헨스드 또는 인터렉티브 서비스를 구성하는 문서들의 집합을 나타낼 수 있다. 상기 문서들은 HTML, JavaScript, CSS, XML 및/또는 multimedia files을 포함할 수 있다. 이 Application은 이 application의 일부분이 아닌 다른 데이터에 접근할 수 있다. 이 Application은 NRT Content Item의 특별한 경우에 해당할 수 있다.
ATSC3.0 Application은 ATSC 3.0 Application Runtime Environment Specification를 따르는 Application을 나타낼 수 있다.
On Demand component는 on demand에 의하여 전송되는 컨텐트 컴포넌트를 나타낼 수 있다.
Notification Stream은 Linear Time Base 하에 어플리케이션의 액션들을 동기화하기 위한 notification을 전송할 수 있는 스트림을 나타낼 수 있다.
App-based Enhancement는 액션들의 동기화된 notification을 전송하는 0개 이상의 Notification Streams, 하나 이상의 어플리케이션들, 어플리케이션에 의해 사용되는 0개 이상의 다른 NRT Content Items, 어플리케이션에 의해 관리되는 0개 이상의 On Demand components들을 포함할 수 있다.
도 64는 본 발명의 일 실시예에 따른 ComponentRole 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 ComponentRole 엘레먼트를 사용하여 하이브리드 방송에서 보낼 수 있는 모든 컴포넌트의 role를 표현할 수 있다. 이를 위하여, ComponentRole 엘레먼트의 값은 정수값으로 표현될 수 있다.
본 발명의 일 실시예에 따른 ComponentRole 엘레먼트는 0 내지 21까지의 값을 가질 수 있다.
본 발명의 일 실시예는 Component가 presentable일 경우에 가지는 role 및 composite일 경우 가지는 role을 모두 나타낼 수 있도록 이 엘레먼트 값의 범위를 제공할 수 있다.
본 발명의 일 실시예에 따른 ComponentRole 엘레먼트가 나타내는 값이 0이면 unspecified를, 1이면 Primary (default) video를, 2이면 Alternative camera view를, 3이면 Other alternative video component를, 4면 Sign language (e.g., ASL) inset을, 5면 Follow subject video를, 6이면 Base layer for scalable video encoding를, 7이면 Enhancement layer for scalable video encoding, with level을, 8이면 3D video left view를, 9이면 3D video right view를, 10이면 3D video depth information을, 11이면 Part of video array, <x,y> of <n,m>를, 12이면 Follow-Subject metadata를, 13이면 Complete main을, 14면 Music을, 15면 Dialog를, 16이면 Effects를, 17이면 Visually impaired를, 18이면 Hearing impaired를, 19면 Commentary를, 20이면 Normal을, 21이면 Easy reader를, 22 내지 255이면 reserved임을 나타낼 수 있다. 여기서, 이 엘레먼트 값 1 내지 5는 presentable Video Componet의 role을 나타낼 수 있고, 6 내지 12는 Composite Video Component의 role을 나타낼 수 있고, 13 내지 19는 presentable Audio Componet의 role을 나타낼 수 있고, 20 내지 21은 presentable CC Componet의 role을 나타낼 수 있다.
도 65는 본 발명의 다른 일 실시예에 따라 scalable video coding에서 하나의 베이스 레이어 (base layer)와 두개의 인헨스먼트 레이어 (enhancement layer)를 포함하는 Composite Video Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 상단에 위치하는 컴포넌트 프래그먼트 (L65010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 좌측에 위치하는 컴포넌트 프래그먼트 (L65020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Elementary 및 Base Layer of SVC 컴포넌트임을 나타낼 수 있다.
이 도면의 우측에 위치하는 컴포넌트 프래그먼트 (L65030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Elementary 및 Enhancement Layer of SVC 컴포넌트임을 나타낼 수 있다.
도 66은 본 발명의 다른 일 실시예에 따라 3D video left view와 3D video right view를 포함하는 Composite Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 상단에 위치하는 컴포넌트 프래그먼트 (L66010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 좌측에 위치하는 컴포넌트 프래그먼트 (L66020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pick-one 및 3D video left view 컴포넌트임을 나타낼 수 있다.
이 도면의 우측에 위치하는 컴포넌트 프래그먼트 (L66030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pick-one 및 3D video right view 컴포넌트임을 나타낼 수 있다.
도 67은 본 발명의 다른 일 실시예에 따라 Comple Audio Component를 기술하는 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 최상단에 위치하는 컴포넌트 프래그먼트 (L67010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pick-one 컴포넌트임을 나타낼 수 있다.
이 도면의 두번째 열의 좌측에 위치하는 컴포넌트 프래그먼트 (L67020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pick-one 및 Audio Compoletely Main 컴포넌트임을 나타낼 수 있다.
이 도면의 두번째 열의 우측에 위치하는 컴포넌트 프래그먼트 (L67030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 세번째 열의 좌측에 위치하는 컴포넌트 프래그먼트 (L67040)는 id 값으로 "bcast://lge.com/Component/4"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/3"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pick-one 및 Audio Music 컴포넌트임을 나타낼 수 있다.
이 도면의 세번째 열의 우측에 위치하는 컴포넌트 프래그먼트 (L67050)는 id 값으로 "bcast://lge.com/Component/5"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/3"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pick-one 및 Audio Dialog 컴포넌트임을 나타낼 수 있다.
도 68은 본 발명의 일 실시예에 따른 Content 프래그먼트의 구성을 나타낸 도면이다.
본 발명의 일 실시예는 컨텐트 프래그먼트의 하위 엘레먼트로 Component를 정의하여 디바이스 및 사용자에게 어나운스먼트 (anonouncement)하는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따르면, 컴포넌트 프래그먼트를 별도로 구성함으로써 불가피했던 구성요소 및/또는 어트리뷰트들의 중첩 또는 반복 사용을 줄일 수 있다. 또한, 사용자에게 어나운스먼트 정보들을 직관적으로 제공할 수 있다.
본 발명의 일 실시예에 따른 컨텐트 프래그먼트는 id 어트리뷰트, version 어트리뷰트, validFrom 어트리뷰트, validTo 어트리뷰트, globalContentID 어트리뷰트, emergency 어트리뷰트, baseCID 어트리뷰트, ServiceReference 엘레먼트, ProtectionKeyID 엘레먼트, Name 엘레먼트, Description 엘레먼트, StartTime 엘레먼트, EndTime 엘레먼트, AudioLanguage 엘레먼트, TextLanguage 엘레먼트, Length 엘레먼트, ParentalRating 엘레먼트, TargetUserProfile 엘레먼트, Genre 엘레먼트, Extension 엘레먼트, PreviewDataReference 엘레먼트, BroadcastArea 엘레먼트, TermsOfUse 엘레먼트 및/또는 PrivateExt 엘레먼트를 포함할 수 있다.
id 어트리뷰트는 컨텐트 프래그먼트의 ID를 나타낼 수 있다.
version 어트리뷰트는 해당 컨텐트 프래그먼트의 버전 정보를 나타낼 수 있다.
validFrom 어트리뷰트는 해당 컨텐트 프래그먼트가 유효한 처음 시간 정보를 나타낼 수 있다.
validTo 어트리뷰트는 해당 컨텐트 프래그먼트가 유효한 마지막 시간 정보를 나타낼 수 있다.
globalContentID 어트리뷰트는 해당 컨텐트 프래그먼트가 기술하는 컨텐트를 식별하는 식별자를 나타낼 수 있다.
emergency 어트리뷰트는 해당 컨텐트 프래그먼트가 기술하는 컨텐트가 emergenct 성격의 컨텐트인지 여부를 나타낼 수 있다.
baseCID 어트리뷰트는 서비스 또는 프로그램의 CID에 대한 정보를 나타낼 수 있다.
ServiceReference 엘레먼트는 해당 컨텐트 프래그먼트가 참조하는 서비스를 나타낼 수 있다.
ProtectionKeyID 엘레먼트는 보호된 컨텐트에 접근하기 위해 필요한 Key 식별자를 나타낼 수 있다.
Name 엘레먼트는 해당 컨텐트 프래그먼트의 이름을 나타낼 수 있다.
Description 엘레먼트는 해당 컨텐트 프래그먼트에 대한 설명을 나타낼 수 있다.
StartTime 엘레먼트는 해당 컨텐트의 프레젠테이션을 위한 시작 시간 정보를 나타낼 수 있다.
EndTime 엘레먼트 해당 컨텐트의 프레젠테이션을 위한 종료 시간 정보를 나타낼 수 있다.
AudioLanguage 엘레먼트는 해당 컨텐트가 오디오 스트림과 함께 이용가능하며 이 때 사용되는 오디오의 언어 정보를 나타낼 수 있다.
TextLanguage 엘레먼트는 해당 컨텐트가 텍스트 컴포넌트와 함께 이용가능하며 이 때 사용되는 텍스트의 언어 정보를 나타낼 수 있다.
Length 엘레먼트는 해당 A/V 컨텐트의 지속시간을 나타낼 수 있다.
ParentalRating 엘레먼트는 해당 컨텐트가 어린이들에게 적합한지에 대한 기준 정보를 나타낼 수 있다
TargetUserProfile 엘레먼트는 목표하는 사용자에 대한 정보를 나타낼 수 있다.
Genre 엘레먼트는 해당 컨텐트의 장르정보를 나타낼 수 있다.
Extension 엘레먼트는 해당 컨텐트 프래그먼트와 관련있는 부가 정보를 나타낼 수 있다.
PreviewDataReference 엘레먼트는 해당 컴포넌트 프래그먼트가 참조하는 PreviewData 프래그먼트를 나타낼 수 있다.
BroadcastArea 엘레먼트는 브로드캐스트 컨텐츠를 위한 위치 정보를 포함하는 브로드캐스트 지역 정보를 나타낼 수 있다.
TermsOfUse 엘레먼트는 해당 프래그먼트와 관련있는 Terms of Use를 나타낼 수 있다.
PrivateExt 엘레먼트는 사유적인 또는 어플리케이션에 한정된 확장을 위한 컨테이너를 나타낼 수 있다. (An element serving as a container for proprietary or application-specific extensions.) 이 엘레먼트는 ProprietaryElements 엘레먼트를 서브 엘레먼트로 가질 수 있고, ProprietaryElements 엘레먼트는 사유적인 또는 어플리케이션에 한정된 엘레먼트를 나타낼 수 있다. ProprietaryElements 엘레먼트는 하나 이상의 서브 엘레먼트 또는 어트리뷰트를 포함할 수 있다.
본 발명의 일 실시예에 따른 컨텐트 프래그먼트의 PrivateExt 엘레먼트는 E1 레벨의 엘레먼트이므로 Component 엘레먼트는 PrivateExt 엘레먼트의 서브 엘레먼트로서 E2 레벨에 해당할 수 있다. 이 때, Component 엘레먼트는 상술한 ProprietaryElements 엘레먼트에 해당할 수 있다.
도 69, 70, 71, 72는 본 발명의 일 실시예에 따른 Component 엘레먼트의 구성을 나타낸 도면이다.
총 4개의 도면에 걸쳐 그려진 테이블은 연결된 하나의 테이블에 해당한다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 E2 레벨에 해당할 수 있고, 컴포넌트에 대한 상세 내용을 기술할 수 있기 때문에 컴포넌트의 개수만큼 존재할 수 있고 존재하지 않을 수도 있다. 따라서, 0 내지 N의 cardinality를 가질 수 있다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 서브 엘레먼트로 ComponentType 엘레먼트, ComponentRole 엘레먼트, StartTime 엘레먼트, EndTime 엘레먼트, Language 엘레먼트, Length 엘레먼트, ParentalRating 엘레먼트, DeviceCapability 엘레먼트 및/또는 TargetDevice 엘레먼트를 포함할 수 있다.
ComponentType 엘레먼트는 컴포넌트의 타입을 기술하는 엘레먼트일 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 하위에 존재하므로 E3 레벨에 해당할 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 타입을 나타내는 필수 요소이기 때문에 cardinality는 1을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified, 1이면 Presentable Video component, 2이면 Presentable Audio component, 3이면 Presentable CC component, 4이면 App-based Enhancement, 5 내지 255이면 Reserved for future use임을 나타낼 수 있다.
ComponentRole 엘레먼트는 컴포넌트의 role를 기술하는 엘레먼트일 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 하위에 존재하므로 E3 레벨에 해당할 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 타입을 나타내는 필수 요소이기 때문에 cardinality는 1을 가질 수 있다. 각 컴포넌트는 전술한 ComponentType 엘레먼트의 타입에 따라 role을 가질 수 있으며 ComponentRole 엘레먼트의 값에 따라 해당하는 role을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified를, 1이면 Primary (default) video를, 2이면 Alternative camera view를, 3이면 Other alternative video component를, 4면 Sign language (e.g., ASL) inset을, 5면 Follow subject video를, 6이면 Complete main을, 7이면 Music을, 8이면 Dialog를, 9이면 Effects를, 10이면 Visually impaired를, 11이면 Hearing impaired를, 12면 Commentary를, 13이면 Normal을, 14이면 Easy reader를, 15이면 App, 16이면 NRT Content Item, 17이면 On Demand component, 18이면 Notification Stream, 19이면 Start-Over, 20이면 Companion Screen, 21 내지 255이면 Reserved for future use임을 나타낼 수 있다.
StartTime 엘레먼트는 해당 컴포넌트의 디스플레이가 시작하는 시간을 나타낼 수 있다.
EndTime 엘레먼트는 해당 컴포넌트의 디스플레이가 종료하는 시간을 나타낼 수 있다.
Language 엘레먼트는 해당 컴포넌트의 표현 언어를 나타낼 수 있다. 이 엘레먼트는 어트리뷰트로 languageSDPTag 어트리뷰트를 가질 수 있다. languageSDPTag 어트리뷰트는 세션 디스크립션에서 나타내는 언어를 일치시키기 위해 태그되는 값을 나타낼 수 있다.
Length 엘레먼트는 해당 컴포넌트의 디스플레이가 진행되는 지속 시간을 나타낼 수 있다.
ParentalRating 엘레먼트는 해당 컴포넌트의 등급 표시 정보를 나타낼 수 있다.
DeviceCapability 엘레먼트는 해당 컴포넌트를 렌더링하는 디바이스의 성능 정보를 나타낼 수 있다. 본 발명의 일 실시예는 이 엘레먼트를 이용하여 컴포넌트를 렌더링하기 위한 디바이스의 capability 정보를 제공할 수 있다. 이 엘레먼트의 값 2 내지 8은 디바이스의 Video Rendering Capability 정보를 나타내고, 9 내지 15는 디바이스의 Audio Surround Sound Capability 정보를 나타내고, 16은 Audio Mixing/Rendering Capability 정보를 나타내고, 17 내지 21은 Input Capability 정보를 나타낼 수 있다. 이 엘레먼트의 값이 0이면 Unspecified, 1이면 Broadband connection, 2이면 SD, 3이면 HD, 4이면 UHD, 5이면 8K, 6이면 3D video, 7이면 High Dynamic Range Imaging, 8이면 Wide Color Gamut, 9이면 2.0 channels, 10이면 2.1 channels, 11이면 5.1 channels, 12이면 6.1 channels, 13이면 7.1 channels, 14이면 22.1 channels, 15이면 3D audio, 16이면 Dialog Level adjustment, 17이면 magic remote control input, 18이면 touch screen input, 19이면 mouse input, 20이면 keyboard input, 21이면 app rendering, 22 내지 255이면 Reserved for future use임을 나타낼 수 있다. 여기서, 상술한 Broadband connection은 해당 component를 delivery하기 위해서 broadband connection이 필요한지 여부를 나타낼 수 있고, Video Rendering Capability 정보는 Resolution, 2D, 3D 및/또는 기타 rendering 관련 정보를 나타낼 수 있다. Audio Surround Sound Capability 정보는 audio channel 정보를 나타낼 수 있고, Audio Mixing/Rendering Capability 정보의 Dialog level adjustment는 audio Dialog level을 조절할 수 있는지 여부를 나타낼 수 있다. Input Capability 정보는 특정 Input device에 맞추어 제작된 방송 프로그램임을 나타낼 수 있다. app rendering은 app rendering이 필요한지 여부를 나타낼 수 있다.
TargetDevice 엘레먼트는 컴포넌트가 디스플레이되는 타겟 디바이스의 정보를 나타낼 수 있다. 이 엘레먼트의 값이 0이면 Unspecified, 1이면 Primary, 2이면 Companion, 3이면 Inset on Primary Screen ("Picture-in-Picture"), 4이면 Reserved for future use임을 나타낼 수 있다.
도 73은 본 발명의 일 실시예에 따른 Component 엘레먼트의 xml shema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 서브 엘레먼트로 ComponentType 엘레먼트, ComponentRole 엘레먼트, StartTime 엘레먼트, EndTime 엘레먼트, Language 엘레먼트, Length 엘레먼트, ParentalRating 엘레먼트, DeviceCapability 엘레먼트 및/또는 TargetDevice 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트에 대한 상세한 설명은 전술하였다.
도 74는 본 발명의 일 실시예에 따른 Language 엘레먼트 및 ComponentType 엘레먼트의 xml shema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Language 엘레먼트는 해당 컴포넌트의 표현 언어를 나타낼 수 있다. 이 엘레먼트는 어트리뷰트로 languageSDPTag 어트리뷰트를 가질 수 있다. languageSDPTag 어트리뷰트는 세션 디스크립션에서 나타내는 언어를 일치시키기 위해 태그되는 값을 나타낼 수 있다. (L74010)
본 발명의 일 실시예에 따른 ComponentType 엘레먼트는 컴포넌트의 타입을 기술하는 엘레먼트일 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 하위에 존재하므로 E3 레벨에 해당할 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 타입을 나타내는 필수 요소이기 때문에 cardinality는 1을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified, 1이면 Presentable Video component, 2이면 Presentable Audio component, 3이면 Presentable CC component, 4이면 App-based Enhancement, 5 내지 255이면 Reserved for future use임을 나타낼 수 있다. (L74020)
도 75는 본 발명의 일 실시예에 따른 ComponentRole 엘레먼트의 xml shema를 나타낸 도면이다.
ComponentRole 엘레먼트는 컴포넌트의 role를 기술하는 엘레먼트일 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 하위에 존재하므로 E3 레벨에 해당할 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 타입을 나타내는 필수 요소이기 때문에 cardinality는 1을 가질 수 있다. 각 컴포넌트는 전술한 ComponentType 엘레먼트의 타입에 따라 role을 가질 수 있으며 ComponentRole 엘레먼트의 값에 따라 해당하는 role을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified를, 1이면 Primary (default) video를, 2이면 Alternative camera view를, 3이면 Other alternative video component를, 4면 Sign language (e.g., ASL) inset을, 5면 Follow subject video를, 6이면 Complete main을, 7이면 Music을, 8이면 Dialog를, 9이면 Effects를, 10이면 Visually impaired를, 11이면 Hearing impaired를, 12면 Commentary를, 13이면 Normal을, 14이면 Easy reader를, 15이면 App, 16이면 NRT Content Item, 17이면 On Demand component, 18이면 Notification Stream, 19이면 Start-Over, 20이면 Companion Screen, 21 내지 255이면 Reserved for future use임을 나타낼 수 있다.
도 76은 본 발명의 일 실시예에 따른 DeviceCapability 엘레먼트 및 TargetDevice 엘레먼트의 xml schema를 나타낸 도면이다.
DeviceCapability 엘레먼트는 해당 컴포넌트를 렌더링하는 디바이스의 성능 정보를 나타낼 수 있다. 본 발명의 일 실시예는 이 엘레먼트를 이용하여 컴포넌트를 렌더링하기 위한 디바이스의 capability 정보를 제공할 수 있다. 이 엘레먼트의 값 2 내지 8은 디바이스의 Video Rendering Capability 정보를 나타내고, 9 내지 15는 디바이스의 Audio Surround Sound Capability 정보를 나타내고, 16은 Audio Mixing/Rendering Capability 정보를 나타내고, 17 내지 21은 Input Capability 정보를 나타낼 수 있다. 이 엘레먼트의 값이 0이면 Unspecified, 1이면 Broadband connection, 2이면 SD, 3이면 HD, 4이면 UHD, 5이면 8K, 6이면 3D video, 7이면 High Dynamic Range Imaging, 8이면 Wide Color Gamut, 9이면 2.0 channels, 10이면 2.1 channels, 11이면 5.1 channels, 12이면 6.1 channels, 13이면 7.1 channels, 14이면 22.1 channels, 15이면 3D audio, 16이면 Dialog Level adjustment, 17이면 magic remote control input, 18이면 touch screen input, 19이면 mouse input, 20이면 keyboard input, 21이면 app rendering, 22 내지 255이면 Reserved for future use임을 나타낼 수 있다. 여기서, 상술한 Broadband connection은 해당 component를 delivery하기 위해서 broadband connection이 필요한지 여부를 나타낼 수 있고, Video Rendering Capability 정보는 Resolution, 2D, 3D 및/또는 기타 rendering 관련 정보를 나타낼 수 있다. Audio Surround Sound Capability 정보는 audio channel 정보를 나타낼 수 있고, Audio Mixing/Rendering Capability 정보의 Dialog level adjustment는 audio Dialog level을 조절할 수 있는지 여부를 나타낼 수 있다. Input Capability 정보는 특정 Input device에 맞추어 제작된 방송 프로그램임을 나타낼 수 있다. app rendering은 app rendering이 필요한지 여부를 나타낼 수 있다. (L76010)
TargetDevice 엘레먼트는 컴포넌트가 디스플레이되는 타겟 디바이스의 정보를 나타낼 수 있다. 이 엘레먼트의 값이 0이면 Unspecified, 1이면 Primary, 2이면 Companion, 3이면 Inset on Primary Screen ("Picture-in-Picture"), 4이면 Reserved for future use임을 나타낼 수 있다. (L76020)
도 77은 Presentable Video Component (2D/HD) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Video Component (2D/HD) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우, 어나운스먼트는 Content fragment 내의 PrivateExt 엘레먼트의 sub-element로서 Component 엘레먼트 두 개를 이용할 수 있다. (L77010)
Presentable Video Component (2D/HD)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 1 (Video)을 갖고, ComponentRole 엘레먼트의 값으로 1 (Primary Video)을 갖고, DeviceCapability 엘레먼트의 값으로 3 (HD)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L77010)
Presentable Audio Component (5.1 channels)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 2 (Audio)를 갖고, ComponentRole 엘레먼트의 값으로 6 (Completely Main)을 갖고, Language 엘레먼트의 값으로 KOR (한국어)를 갖고, DeviceCapability 엘레먼트의 값으로 11 (5.1 channels)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L77010)
본 발명의 일 실시예에 따른 수신기 (디바이스)는 DeviceCapability 엘레먼트 값을 획득한 후, 해당 기능을 지원할 수 있는지 여부를 판단하여, 사용자에게 Capability 정보를 제공할 수 있다.
이 도면에서, 우측 상단의 그림은 HD 및 5.1 channels를 지원하는 디바이스의 표출되는 화면을 나타낼 수 있다. 이 경우, 본 발명의 일 실시예는 해당 디바이스가 HD 및 5.1 channels을 지원할 수 있음을 화면상에 나타낼 수 있다. (L77020)
이 도면에서, 우측 하단의 그림은 HD를 지원하지만, 5.1 channels를 지원하지 않는 디바이스의 표출되는 화면을 나타낼 수 있다. 이 경우, 본 발명의 일 실시예에 따르면, 5.1 channels을 지원하지 못하는 수신기에서 Capability 정보를 획득 시, 지원하지 못하는 5.1 channels audio 정보를 Gray-out 처리하여 화면에 보여줄 수 있다. (L77030)
도 78은 Presentable Video component (UHD) 및 Presentable ENG audio component를 브로드캐스트로 전송하고, Presentable SPA audio component를 브로드밴드로 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Video component (UHD) 및 Presentable ENG audio component를 브로드캐스트로 전송하고, Presentable SPA audio component를 브로드밴드로 전송하는 경우, 어나운스먼트는 Content fragment 내의 PrivateExt 엘레먼트의 sub-element로서 Component 엘레먼트 세 개를 이용할 수 있다. (L78010)
Presentable Video component (UHD)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 1 (Video)을 갖고, ComponentRole 엘레먼트의 값으로 1 (Primary Video)을 갖고, DeviceCapability 엘레먼트의 값으로 4 (UHD)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L78010)
Presentable ENG audio component (through Broadcast)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 2 (Audio)를 갖고, ComponentRole 엘레먼트의 값으로 6 (Completely Main)을 갖고, Language 엘레먼트의 값으로 ENG (영어)를 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L78010)
Presentable SPA audio component (through Broadband)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 2 (Audio)를 갖고, ComponentRole 엘레먼트의 값으로 6 (Completely Main)을 갖고, Language 엘레먼트의 값으로 SPA (스페인어)를 갖고, DeviceCapability 엘레먼트의 값으로 1 (브로드밴드로 컴포넌트가 전송됨)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L78010)
본 발명의 일 실시예에 따른 수신기 (디바이스)는 DeviceCapability 엘레먼트 값을 획득한 후, 해당 기능을 지원할 수 있는지 여부를 판단하여, 사용자에게 Capability 정보를 제공할 수 있다.
이 도면에서, 우측 그림은 Brodaband connection을 지원하지 못하는 경우 또는 지원할 수 있지만 연결되어 있지 않은 경우에 수신기 (디바이스)에 표출되는 화면을 나타낼 수 있다. (L78020)
본 발명의 일 실시예에 따른 수신기는 DeviceCapability의 값이 1인 경우, Broadband로 해당 component가 전송됨을 알 수 있다. 이 경우, Brodaband connection을 지원하지 못하는 디바이스 또는 지원할 수 있지만 연결되어 있지 않은 디바이스는 브로드밴드로 전송되는 Component의 정보를 Gray-out처리하여 화면에 보여줄 수 있다. 이 경우, SPA 오디오 정보를 Gray-out처리하여 화면에 보여줄 수 있다. (L78020)
도 79는 Presentable Video Component (UHD/Wide Color Gamut) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Video Component (UHD/Wide Color Gamut) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우, 어나운스먼트는 Content fragment 내의 PrivateExt 엘레먼트의 sub-element로서 Component 엘레먼트 두 개를 이용할 수 있다. (L79010)
Presentable Video Component (UHD/Wide Color Gamut)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 1 (Video)을 갖고, ComponentRole 엘레먼트의 값으로 1 (Primary Video)을 갖고, DeviceCapability 엘레먼트의 값으로 4 (UHD) 및 8 (WCG)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L79010)
Presentable Audio Component (5.1 channels)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 2 (Audio)를 갖고, ComponentRole 엘레먼트의 값으로 6 (Completely Main)을 갖고, Language 엘레먼트의 값으로 KOR (한국어)를 갖고, DeviceCapability 엘레먼트의 값으로 11 (5.1 channels)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L79010)
본 발명의 일 실시예에 따른 수신기 (디바이스)는 DeviceCapability 엘레먼트 값을 획득한 후, 해당 기능을 지원할 수 있는지 여부를 판단하여, 사용자에게 Capability 정보를 제공할 수 있다.
이 도면에서, 우측 상단의 그림은 UHD, WCG (Wide Color Gamut) 및 5.1 channels을 지원하는 디바이스의 표출되는 화면을 나타낼 수 있다. 이 경우, 본 발명의 일 실시예는 해당 디바이스가 UHD, WCG 및 5.1 channels을 지원할 수 있음을 화면상에 나타낼 수 있다. (L79020)
이 도면에서, 우측 하단의 그림은 UHD 및 5.1 channels를 지원하지만, WCG를 지원하지 않는 디바이스의 표출되는 화면을 나타낼 수 있다. 이 경우, 본 발명의 일 실시예에 따르면, 5.1 channels을 지원하지 못하는 수신기에서 Capability 정보를 획득 시, 지원하지 못하는 WCG 정보를 Gray-out 처리하여 화면에 보여줄 수 있다. (L79030)
도 80은 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트 (component element)를 나타낸 도면이다.
컴포넌트 엘레멘트는 컴포넌트 서브 엘레먼트 (Component sub-element)의 루트 엘레먼트 (root element)이다. 컴포넌트 엘레먼트는 E2 레벨로 시작한다. 컴포넌트 엘레먼트는 컴포넌트에 대한 상세 내용을 기술하기 때문에 컴포넌트의 수만큼의 엘레먼트 (element)로 기술될 수 있다. 일부 검토넌트에 대하여, 컴포넌트 엘레먼트가 생략되는 것도 가능하다. 따라서, 컴포넌트 엘레먼트는 0..N의 cardinality를 가진다. 컴포넌트 엘레먼트는 ComponentType 속성, ComponentRole 엘레먼트, Language 엘레먼트 및/또는 EssentialCapabilities 엘레먼트를 포함할 수 있다.
ComponentType 필드는 컴포넌트의 종류 (type) 를 나타내는 속성 (attribute) 정보를 포함한다. 즉, ComponentType 필드는 컴포넌트의 Type을 나타내는 attribute이다. ComponentType 필드는 컴포넌트의 종류를 나타내는 필수 요소이기 때문에 Cardinality는 1로 정의될 수 있다. ComponentType 필드는 값에 따라, 컴포넌트가 Presentable Video, Presentable Audio, Presentable CC (closed caption) 및/또는 Presentable App 에 해당됨을 식별할 수 있다.
도시된 메시지에는 하나 이상의 필드가 포함될 수 있고, 각각의 필드는 각각의 의미 또는 정보를 포함할 수 있다. 각각의 필드에는 type 정보가 할당될 수 있고, type 정보는 'E', 'A', 'E1', 'E2', 또는 'E[n]' 의 값을 가질 수 있다. 'E'는 해당 필드가 엘레먼트에 해당됨을 나타낸다. 'A'는 해당 필드가 속성 (attribute) 정보에 해당됨을 나타낸다. 'E1'은 해당 필드가 서브 엘레먼트임을 나타낸다. 서브 엘레먼트는 엘레먼트 내에서 정의되는 하위 엘레먼트에 해당된다. 'E2'는 서브 엘레먼트의 서브 엘레먼트를 나타낸다. 즉, 'E[n]' 은 엘레먼트의 [n-1] 번째 하위 엘레먼트를 나타낼 수 있다.
도 81은 본 발명의 일 실시예에 따른, ComponentRol 엘레먼트를 나타낸 도면이다.
ComponentRole 엘레먼트는 컴포넌트의 역할 (role)을 기술하는 엘레먼트이다. ComponentRole 엘레먼트는 컴포넌트의 하위 엘레먼트로 정의되는 것이 바람직하므로, ComponentRole 엘레먼트는 E3의 레벨로 시작될 수 있다. ComponentRole 엘레먼트는 String 값을 가질 수 있다. ComponentRole 엘레먼트의 값은, Announcement Data 제작 시에 방송사에서 임의의 유효한 String 값으로 지정될 수 있다. ComponentRole 엘레먼트의 값은 확장 가능한 String 값이기 때문에, 어떠한 값의 Capability String 이라도 기술이 가능하다. 타겟 장치 (Target Device; 예를 들면, 수신기)에서는, ComponentRole 엘레먼트의 값을 이용하여, 엔드 유저 (End User; 예를 들면, 시청자) 에게 유용한 정보를 보여줄 수 있다.
ComponentRole 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다.
ComponentRole 엘레먼트가 나타낼 수 있는 컴포넌트의 종류는, presentable video component에 대하여는, "Primary video", "Alternative camera view", "Other alternative video component", "Sign language inset" 및/또는 "Follow subject video" 를 포함할 수 있다.
ComponentRole 엘레먼트가 나타낼 수 있는 컴포넌트의 종류는, presentable audio component에 대하여는, "Complete main", "Music", "Dialog", "Effects", "Visually impaired", "Hearing impaired" 및/또는 "Commentary" 를 포함할 수 있다.
ComponentRole 엘레먼트가 나타낼 수 있는 컴포넌트의 종류는, presentable CC component에 대하여는, "Normal" 및/또는 "Easy reader"를 포함할 수 있다.
ComponentRole 엘레먼트가 나타낼 수 있는 컴포넌트의 종류는, presentable App (application) component에 대하여는, "On Demand", "Start-over", 및/또는 "Companion-Screen" 를 포함할 수 있다.
도 82는 본 발명의 다른 실시예에 따른. 컴포넌트 엘레먼트를 XML 형태로 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트 엘레먼트는, 컴포넌트가 다수의 종류의 미디어로 구성되는 경우, 각각의 컴포넌트의 종류를 시그널링할 수 있어, 수신측에서는 시청자 또는 수신기가 원하는 종류의 컴포넌트를 사전에 식별할 수 있는 효과가 있다. 또한, 컴포넌트의 역할을 문자 형태로 제공할 수 있어, 해당 정보를 소비하는 시청자가 원하는 컴포넌트를 용이하게 인식하거나, 선택할 수 있는 효과가 있다.
본 발명의 일 실시예에 따른 컴포넌트 엘레먼트는 OMA BCAST에서 기 정의된 Service Guide Content Fragement에 확장 형태로 포함될 수 도 있을 것이다.
도 83은 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트를 나타낸 도면이다.
컴포넌트 엘레멘트는 컴포넌트 서브 엘레먼트 (Component sub-element)의 루트 엘레먼트 (root element)이다. 컴포넌트 엘레먼트는 E2 레벨로 시작한다. 컴포넌트 엘레먼트는 컴포넌트에 대한 상세 내용을 기술하기 때문에 컴포넌트의 수만큼의 엘레먼트 (element)로 기술될 수 있다. 일부 검토넌트에 대하여, 컴포넌트 엘레먼트가 생략되는 것도 가능하다. 따라서, 컴포넌트 엘레먼트는 0..N의 cardinality를 가진다. 컴포넌트 엘레먼트는 PresentableVideoComponent 엘레먼트, PresentableAudioComponent 엘레먼트, PresentableCCComponent 엘레먼트 및/또는 PresentableAppComponent 엘레먼트를 포함할 수 있다.
PresentableVideoComponent 엘레먼트는 Presentable Video Component를 기술하는 엘레먼트이다. PresentableVideoComponent 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로써, E3 level로 시작할 수 있다. PresentableVideoComponent 엘레먼트는 string 값을 가지며, video component의 역할 (role)을 기술할 수 있다. PresentableVideoComponent 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다. PresentableVideoComponent 엘레먼트가 나타낼 수 있는 컴포넌트의 역할은 "Primary video", "Alternative camera view", "Other alternative video component", "Sign language inset" 및/또는 "Follow subject video" 를 포함할 수 있다.
PresentableAudioComponent 엘레먼트는 Presentable Audio Component를 기술하는 엘레먼트이다. PresentableAudioComponent 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로써 E3 레벨로 시작할 수 있다. PresentableAudioComponent 엘레먼트는 string 값을 가지며, audio component의 역할 (role) 을 기술한다. PresentableAudioComponent 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다. PresentableAudioComponent 엘레먼트가 나타낼 수 있는 컴포넌트의 역할은 "Complete main", "Music", "Dialog", "Effects", "Visually impaired", "Hearing impaired" 및/또는 "Commentary" 를 포함할 수 있다.
도 84는 본 발명의 다른 실시예에 따른, PresentableCCComponent 엘레먼트 및 PresentableAppComponent 엘레먼트를 나타낸 도면이다.
본 도면에서 설명되는 엘레먼트는, 도 83에서 설명된 컴포넌트 엘레먼트에 포함될 수 있다.
PresentableCCComponent 엘레먼트는 Presentable CC Component를 기술하는 엘레먼트이다. PresentableCCComponent 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로써 E3 레벨로 시작할 수 있다. PresentableCCComponent 엘레먼트는 string 값을 가지며, cc component의 역할 (role)을 기술할 수 있다. PresentableCCComponent 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다. PresentableCCComponent 엘레먼트가 나타낼 수 있는 컴포넌트의 역할은, "Normal" 및/또는 "Easy reader"를 포함할 수 있다.
PresentableAppComponent 엘레먼트는 Presentable App Component를 기술하는 엘레먼트이다. PresentableAppComponent 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로써 E3 레벨로 시작할 수 있다. PresentableAppComponent 엘레먼트는 string 값을 가지며, app component의 역할 (role)을 기술한다. PresentableAppComponent 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다. PresentableAppComponent 엘레먼트가 나타낼 수 있는 컴포넌트의 역할은, On Demand", "Start-over", 및/또는 "Companion-Screen" 를 포함할 수 있다.
본 실시예에 따라 컴포넌트 엘레먼트를 구성하는 경우, Component fragment를 새롭게 구성하기 위해 필요한 구성 요소 및/또는 속성 값들의 반복 사용을 줄일 수 있고, End User에게 Announcement 정보들을 효율적이고, 직관적으로 제공할 수 있다.
도 85는 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트를 XML 형태로 나타낸 도면이다.
본 발명의 다른 실시예에 따른 컴포넌트 엘레먼트는, 컴포넌트가 다수의 종류의 미디어로 구성되는 경우, 각각의 컴포넌트의 종류를 시그널링할 수 있어, 수신측에서는 시청자 또는 수신기가 원하는 종류의 컴포넌트를 사전에 식별할 수 있는 효과가 있다. 또한, 컴포넌트의 역할을 문자 형태로 제공할 수 있어, 해당 정보를 소비하는 시청자가 원하는 컴포넌트를 용이하게 인식하거나, 선택할 수 있는 효과가 있다. 또한, 본 발명의 다른 실시예에 따르면, 컴포넌트의 Type 별로 Component element를 구성하고, 각 Component의 Role을 String으로 기술함으로써 확장 가능성이 확보할 수 있는 효과가 있다.
본 발명의 일 실시예에 따른 컴포넌트 엘레먼트는 OMA BCAST에서 기 정의된 Service Guide Content Fragement에 확장 형태로 포함될 수 도 있을 것이다.
도 86은 본 발명의 일 실시예에 따른, Essential Capabilities 엘레먼트를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 컴포넌트 엘레먼트는 Capability 항목을 포함할 수 있다. Capability 항목은, 수신기가 해당 컴포넌트를 적절히 디코딩하기 위하여 요구되는 수신기의 성능을 알리는 정보에 해당될 수 있다. Capability 항목은 Capability code와 String의 조합으로 구성될 수 있다. 본 발명의 일 실시예는 Capability code와 Capability category 에 새로운 값을 추가로 정의하는 것을 제안한다.
도면을 참조하면, Capability 항목은, 컴포넌트 엘레먼트의 하위 엘레먼트로 정의될 수 있다. Capability 항목은 EssentialCapabilities 엘레먼트, CapabilituCodes 엘레먼트, CapabilityString 엘레먼트 및/또는 Category 속성 정보를 포함할 수 있다.
EssentialCapabilities 엘레먼트는 서비스 (미디어, 방송 서비스)의 의미있는 프레젠테이션을 위하여 요구되는 capability를 기술한다. EssentialCapabilities 엘레먼트는 CapabilityCodes 엘레먼트, 및/또는 CapabilityString 엘레먼트를 포함할 수 있다. EssentialCapabilities 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로 정의될 수 있으므로, E3 레벨로 시작될 수 있다.
CapabilityCodes 엘레먼트는 capability의 종류를 식별하는 code에 대한 값을 가진다. CapabilityCodes 엘레먼트는 하나 이상의 capability를 가리킬 수 있다.
CapabilityString 엘레먼트는 capability를 설명하는 string를 포함할 수 있다. CapabilityString 엘레먼트는 capability에 대한 설명을 문자로 표현하기 위한 정보를 포함할 수 있다. CapabilityString 엘레먼트는 Category 속성 정보를 포함할 수 있다.
Category 속성 정보는 CapabilityString 엘레먼트에 의하여 설명되는 capability 의 카테고리 (category)를 가리키는 정보이다.
도 87은 본 발명의 일 실시예에 따른, CapabilityCode 엘레먼트의 값에 따른 capability의 의미를 나타낸 도면이다.
CapabilityCode 엘레먼트의 값에 따른 의미는 도면을 참조하는 것으로 설명을 대체한다.
본 발명의 일 실시예에 따르면, Download Protocols의 항목에 새로운 값을 정의하고, 해당 값이 나타내는 capability가 'IP via Broadband' 에 해당되도록 설정될 수 있다. 즉, 차세대 방송 시스템에서는 브로드밴드의 IP를 통한 데이터의 수신이 가능하므로, IP via Broadband에 해당하는 Download protocol에 capability의 한 종류로 추가할 수 있다.
본 발명의 일 실시예에 따르면, CapabilityCode 엘레먼트가 Rendering Capability를 식별할 수도 있다. CapabilityCode 엘레먼트의 값에 따라, 컴포넌트를 사용하기 위하여 수신기가 필요로 하는 Rendering Capability가 시그널링될 수 있다. CapabilityCode 엘레먼트가 나타내는 Rendering Capability는, 수신기가 어떠한 종류의 비디오, 오디오, 어플리케이션, 및/또는 CC를 렌더링할 수 있는지를 가리킬 수 있다.
도 88은 본 발명의 일 실시예에 따른, Category 속성 정보의 값에 따른 Capability Category를 나타낸 도면이다.
본 발명에 따르면, capability가 Rendering Capability의 카테고리에 포함되는 것을 식별할 수 있도록, Category 속성 정보의 값을 추가로 정의할 수 있다. 예를 들면, Category 속성 정보의 값이 0x06 을 가지는 경우, capability가 Rendering Capability의 카테고리에 포함됨을 나타낼 수 있다.
도 89는 본 발명의 일 실시예에 따른, 컴포넌트 별로 Pay Per View (PPV) 가 제공되는 과정을 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Component 별로, Pay-per-view 서비스를 제공할 수 있다. 즉, 본 발명에 따르면, 하나의 서비스 또는 컨텐츠 내에서, 특정 컴포넌트를 유료로 서비스할 수 있다. 예를 들면, 본 발명에 따르면, Announcement에서 Component 를 정의하여, Component에 따라서 Pay-per-view 서비스를 제공할 수 있다.
이를 위하여, 컴포넌트 엘레먼트 (Component element)에 대한 속성 및/또는 요소 정보를 Content 내에 기술하여 송신할 수 있다. 각 Component는 Pay에 대한 정보를 가질 수 있다. 방송 프로그램 (미디어, 방송 서비스, 또는 방송 컨텐츠) 은 무료일 수 있지만, 방송 프로그램의 각 컴포넌트의 부가적인 정보의 양과 질에 따라서 방송사는, 컴포넌트에 대하여 요금을 부과할 수 있다. 예를 들면, 방송사는, HD는 무료이지만 고화질을 위한 UHD를 시청하기 위한 데이터를 전송하는 Video component를 소비하기 위하여는, 시청자가 요금을 내도록 설정할 수 있다. 또는 방송사는 Audio의 Stereo 음향을 위한 Audio component에 대하여 요금을 부가할 수 있도록 설정할 수 있다. 또는 방송사는 선거 프로그램을 보는 중, voting app을 사용하기 위히여 필요한 컴포넌트에 대하여는, 요금을 지불하여야 해당 컴포넌트를 시청자가 소비할 수 있도록 설정할 수 있다. 이는 본 발명에서 제시하는 바와 같이, Component 별로 ESG를 전송함으로써, 가능한 Pay-per-view 방안이다.
각 컴포넌트 별로, PPV가 설정 가능하도록 하기 위하여, 컴포넌트 엘레먼트는 각 컴포넌트에 대하여 PPV 관련 정보를 포함할 수 있다. 또는 ComponentRole 엘레먼트는 각 component role에 대하여 PPV 관련 정보를 포함할 수 있다. PPV 관련 정보는 컴포넌트 또는 component role에 대하여 PPV가 적용되는지 여부를 식별하는 정보, PPV 를 위한 결제 방식에 대한 정보, PPV 를 위한 가격 정보, PPV에 대한 결제가 진행된 이후 인증과 관련된 정보, 및/또는 PPV가 결제된 이후, 해당 컴포넌트를 유효하게 사용할 수 있는 기간 정보를 포함할 수 있다.
도면을 참조하여, 본 발명이 적용될 수 있는 일 실시예를 설명하면, ESG (Electronic Service Guide)에서 방송 프로그램에 PPV로 시청 가능한 요소가 있음을 알 수 있다. 수신기는 PPV로 제공되는 컴포넌트의 항목을 ESG를 통하여 디스플레이할 수 있다. 시청자가 PPV로 시청 가능한 요소가 있는 방송 프로그램을 선택하면, 수신기는 PPV로 시청 가능한 요소가 해당 프로그램에 존재함을 알리고, 시청자에게 해당 요소를 PPV로 시청할 것인지를 묻는 UI (User Interface)를 디스플레이하여, 시청자의 선택을 수신할 수 있다. 본 실시예에서는 방송 프로그램이 기본적으로 제공하는 영상이외에 추가의 영상이 존재하는 경우를 도시하였다. 시청자가 Alternative View에 해당하는 Video component를 보기위해 해당 금액을 결재하면, Alternative View 화면을 볼 수 있다. 이 과정에서, 전술한 제어 유닛은, PPV 관련 정보를 이용하여, 특정 컴포넌트에 대하여 PPV가 적용되는지를 식별하는 표시를 포함하는 방송 편성표를 생성할 수 있다. 전술한 디스플레이 유닛은, 생성된 방송 편성표를 디스플레이할 수 있다.
Alternative View 화면을 나중에 보기로 선택할 수 있다. 이 경우, 수신기는 현재 영상이 종료되거나, 시청자가 원하는 특정 시점에서 Alternative View 화면을 디스플레이할 수 있다. 또는 메인 디바이스가 제공하는 기본 영상과 함께, Alternative View 화면을 실시간으로 Companion Device를 이용하여 시청하는 것도 가능하다..
도 90는 본 발명의 일 실시예에 따른, 방송 프로그램의 각 컴포넌트 별로 미디어가 제공되는 순서를 나타낸 도면이다.
수신기는 방송 신호를 통하여 ESG (Electronic Service Guide) 데이터를 수신한다 (JS90010). ESG 데이터는 전술한 엘레먼트, Service fragment, Content fragment, Schedule fragment 및/또는 Component Fragment 를 포함할 수 있다.
수신기는 Service fragment를 파싱하여, 채널 리스트에 표시될 방송사 리스트를 생성한다 (JS90020).
수신기는 Content fragment를 파싱하여, 각 방송사 별로 제공되는 프로그램의 리스트를 생성한다 (JS90030).
수신기는 Schedule fragment를 파싱하여, 각 방송사 별로 제공되는 프로그램의 스케쥴을 생성한다 (JS90040).
수신기는, 시청자/사용자로부터 방송 편성표를 디스플레이하도록 하는 명령을 수신한다 (JS90050).
수신기는 방송 서비스 또는 방송 프로그램에 포함되는 컴포넌트에 대한 역할이 ESG에 표시되었는지 판단한다 (JS90060).
방송 서비스 또는 방송 프로그램에 포함되는 컴포넌트에 대한 역할이 ESG에 표시되는 경우, 수신기는 방송 편성표에서 각 프로그램에 대한 상세 정보를 디스플레이한다 (JS90070). 수신기는 컴포넌트의 역할에 대한 정보는 전술한 컴포넌트 엘레먼트 및 그 하위 엘레먼트에서 획득할 수 있다.
수신기는, 시청자/사용자로부터, 특정 프로그램에 대한 선택 또는 예약 시청 명령을 수신한다 (JS90080).
수신기는, 시청자/사용자에 의하여 선택된 방송 프로그램에 진입 (디코딩) 한다 (JS90090).
수신기는 방송 프로그램에 포함되는 각 컴포넌트의 역할의 특성에 맞도록 Video, Audio, CC 및/또는 App를 화면에 디스플레이한다 (JS90100). 수신기는 시청자/사용자가 시청하기를 원하는 Video, Audio, CC 및/또는 App의 컴포넌트를 선택하는 명령을 시청자/사용자로부터 수신할 수 있다. 이 경우, 각 컴포넌트에 대한 PPV 정책이 있는 경우, 전술한 방식으로 PPV가 처리될 수 있다. ESG에는, 각 컴포넌트에 대하여, PPV 정책이 있는지 알리는 표시가 디스플레이될 수 있다.
수신기가 디스플레이하는 미디어를 시청자/사용자가 시청한다 (JS90100).
한편, 방송 서비스 또는 방송 프로그램에 포함되는 컴포넌트에 대한 역할이 ESG에 표시되는 않는 경우, 수신기는 방송 편성표에 프로그램의 이름 및/또는 프로그램의 시간 정보를 디스플레이한다 (JS90120).
수신기는, 시청자/사용자로부터, 방송 편성표에서 특정 프로그램에 대한 선택 또는 예약 시청 명령을 수신한다 (JS90130).
수신기는 시청자/사용자가 선택한 방송 프로그램에 진입 (디코딩) 한다 (JS90140).
한편, 방송 시청중, 시청자/사용자가 방송 편성표를 디스플레이하도록 하는 명령을 입력하면, 수신기는 (JS90050) 단계부터 제시된 절차를 수행한다.
도 91은 본 발명의 일 실시예에 따른, 방송 프로그램의 각 컴포넌트 별로 미디어가 제공되는 화면을 나타낸 도면이다.
L91010을 참조하면, ESG에 CNTV라는 방송 서비스 (방송국)에서 제공하는 'G' 프로그램에 대하여, 각각의 컴포넌트의 역할이 기재된 도면과, 그렇지 않은 도면이 도시되어있다. 예를 들면, 컴포넌트의 역할이 ESG에 표시되는 경우는, ESG는 'G' 프로그램에 대하여, 'Alternative View', 'Follow Subject' 및 'Sign Language' 를 제공하는 컴포넌트가 존재함을 나타내고 있다.
L91020을 참조하면, 'G' 프로그램이 디스플레이되는 경우, 수신기는 'Sign language' 나, 'follow subject video' 를 함께 디스플레이하거나, 이러한 컴포넌트들에 대한 thumbnail 이미지를 디스플레이할 수 있다. 여기서 'Sign language'는 수화에 해당될 수 있고, 'follow subject video'는 현재 프로그램과 관련된 영상에 해당될 수 있다.
L91030을 참조하면, 'G' 프로그램에 대하여, 'Alternative View'를 시청자가 선택한 경우, 현재 프로그램에서 기본적으로 제공하는 영상이외에, 다른 영상을 제공하는 장면이 도시되어 있다.
도 92는 본 발명의 일 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들어, 'B' 프로그램에 대하여는 수화 (sign language) 컨텐츠가 제공될 수 있다. 따라서, 수화 컨텐츠를 이용하기를 원하는 시청자는, 'sign language' 가 표시된 프로그램을 선택하여, 해당 프로그램을 채널 전환을 하거나, 해당 프로그램에 대한 시청 예약을 수행할 수 있다. 수신기는 시청 예약이 된 프로그램의 시작시간이 되면, 해당 프로그램의 시청 여부에 대한 문의를 시청자에게 제공하고, 해당 프로그램을 디스플레이할 수 있다.
도 93은 본 발명의 다른 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'G'프로그램에 대하여 'Alternative View' 가 존재함을 나타낼 수 있다. 시청자가 'G' 프로그램을 선택하면, 수신기는 시청자에게 'Alternative View'를 시청할 것인지에 대한 문의를 제공할 수 있다. 수신기가 시청자로부터 'Alternative View'를 시청할 것을 지시하는 명령을 수신하면, 수신기는 현재 영상을 'Alternative View' 로 교체하여 디스플레이할 수 있다. 또는 수신기는 'Alternative View'를 compainion device로 전달하여, companion device에서 'Alternative View'가 디스플레이될 수 있도록 처리할 수 있다.
도 94는 본 발명의 다른 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'I' 프로그램에 대한 'Follow subject video' 컴포넌트가 존재함을 나타낼 수 있다. 시청자가 'I' 프로그램을 선택하면, 수신기는 시청자에게 'Follow subject video'를 확인할 것인지에 대한 문의를 제공할 수 있다. 수신기가 시청자로부터 'Follow subject video'를 확인할 것을 지시하는 명령을 수신하면, 수신기는 현재 영상을 'Follow subject video' 로 교체하여 디스플레이할 수 있다. 또는 수신기는 'Follow subject video'를 compainion device로 전달하여, companion device에서 'Follow subject video'가 디스플레이될 수 있도록 처리할 수 있다.
도 95는 본 발명의 일 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'I' 프로그램에 대한 'Music' 컴포넌트가 존재함을 나타낼 수 있다. 'Music' 컴포넌트는 해당 프로그램에 대하여 보다 나은 음질의 오디오를 제공하는 컴포넌트에 해당될 수 있다. 시청자는 보다 나은 음질의 오디오를 제공받기 위하여 'I' 프로그램을 선택하여, 해당 프로그램과 'Music' 컴포넌트를 함께 소비할 수 있다.
도 96은 본 발명의 다른 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'G' 프로그램에 대한 'Dialog' 컴포넌트가 존재함을 나타낼 수 있다. 'Dialog' 컴포넌트는 해당 프로그램에서 특정 출연자의 대사나 발언에 대한 별도의 컴포넌트에 해당된다. 시청자는 'Dialog' 컴포넌트를 제공하는 'G' 프로그램을 선택하여, 해당 프로그램의 출연진의 Dialog 를 별도의 스피커를 통하여 재생하여, 해당 컨텐츠를 소비할 수 있다. 'Dialog' 컴포넌트가 별도로 제공되는 경우, 수신기는 Dialog의 레벨을 별도로 조절할 수 있다.
도 97은 본 발명의 다른 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'D' 프로그램에 대한 'Visually Impaired' 컴포넌트가 존재함을 나타낼 수 있다. 'Visually Impaired' 컴포넌트는 해당 프로그램에서 제공하는 시각적인 컨텐츠에 대한 음성적 설명을 제공하는 컴포넌트에 해당될 수 있다. 'Visually Impaired' 컴포넌트는 시각 장애인을 위하여, 프로그램에 대한 음성적 설명을 제공하는 컴포넌트에 해당될 수 있다. 시청자는 'Visually Impaired' 컴포넌트를 제공하는 'D' 프로그램을 선택하여, 'Visually Impaired' 컴포넌트에 해당되는 컨텐츠를 소비할 수 있다. 이때, 수신기는 'Visually Impaired' 컴포넌트를 main deivce에서 재생할 수도 있도, companion device로 'Visually Impaired' 컴포넌트를 전달하여, companion device에서 해당 컴포넌트를 재생할 수 있도록 처리할 수 있다.
도 98은 본 발명의 일 실시예에 따른, CC (Closed Caption) 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'D' 프로그램에 대한 'Easy Reader' 컴포넌트가 존재함을 나타낼 수 있다. 'Easy Reader' 컴포넌트는 해당 프로그램의 컨텐츠에 대한 자막 또는 서브타이틀을 제공하는 컴포넌트에 해당될 수 있다. 자막 또는 서브타이틀은 하나 이상의 언어로 제공될 수 있다. 시청자는 'Easy Reader' 컴포넌트를 제공하는 'D' 프로그램을 선택하여, 'Easy Reader' 컴포넌트에 해당되는 컨텐츠를 소비할 수 있다. 이때, 수신기는 'Easy Reader' 컴포넌트를 main deivce에서 재생할 수도 있도, companion device로 'Easy Reader' 컴포넌트를 전달하여, companion device에서 해당 컴포넌트를 재생할 수 있도록 처리할 수 있다.
도 99는 본 발명의 일 실시예에 따른 방송 신호 송신 방법을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 송신 방법은 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 생성하는 단계 (SL99010), 상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 인코딩하는 단계 (SL99020) 및/또는 상기 인코딩된 서비스 가이드 정보 및 컨텐트 데이터를 전송하는 단계 (SL99030)를 포함할 수 있다. 여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및/또는 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함할 수 있다. 여기서, 서비스 가이드 정보는 service guide를 나타낼 수 있고, 서비스 프래그먼트는 service fragment를, 컨텐트 프래그먼트는 content fragment를, 컴포넌트 프래그먼트는, component fragment를 나타낼 수 있다.
본 발명의 다른 일 실시예에 따르면, 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 컴포넌트 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및/또는 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다. 또한, 상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트를 포함할 수 있다. 여기서, 서비스 레퍼런스 엘레먼트는 ServiceReference element, 컨텐트 레퍼런스 엘레먼트는 ContentReference element, 컴포넌트 레퍼런스 엘레먼트는 ComponentReference element를 나타낼 수 있다. 이에 대한 상세한 설명은 도 47 내지 54에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 컨텐트 프래그먼트에 포함되는 서비스 레퍼런스 엘레먼트는 상기 컨텐트 프래그먼트와 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트 사이의 관계를 나타내는 정보를 포함할 수 있다. 여기서, 상기 컨텐트 프래그먼트와 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트 사이의 관계를 나타내는 정보는 relationship 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 이에 대한 상세한 설명은 도 53, 54에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 서비스 프래그먼트는 상기 서비스 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및/또는 상기 서비스 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다. 또한, 상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다. 또한, 상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다. 이에 대한 상세한 설명은 도 55 내지 59에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 서비스 가이드 정보는 상기 방송 서비스의 스케쥴 정보를 나타내는 스케쥴 프래그먼트를 포함할 수 있다. 또한, 상기 스케쥴 프래그먼트는 상기 스케쥴 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 스케쥴 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및/또는 상기 스케쥴 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 포함할 수 있다. 여기서, 스케쥴 프래그먼트는 schedule fragment를 나타낼 수 있다. 이에 대한 상세한 설명은 도 55, 56에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트를 나타내는 컴포넌트 데이터 엘레먼트를 포함할 수 있다. 그리고, 상기 컴포넌트 데이터 엘레먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트의 타입을 나타내는 컨텐트 타입 정보를 포함할 수 있다. 그리고, 상기 컴포넌트 데이터 엘레먼트는 상기 컨텐트 타입 정보에 따른 비디오 컴포넌트에 대한 정보를 포함하는 비디오 컴포넌트 엘레먼트, 오디오 컴포넌트에 대한 정보를 포함하는 오디오 컴포넌트 엘레먼트 및/또는 클로즈드 캡션 컴포넌트에 대한 정보를 포함하는 캡션 컴포넌트 엘레먼트를 포함할 수 있다. 여기서, 컴포넌트 데이터 엘레먼트는 ComponentData element를 나타낼 수 있고, 컨텐트 타입 정보는 ContentType 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 여기서, 비디오 컴포넌트 엘레먼트는 VideoComponent element, 오디오 컴포넌트 엘레먼트는 AudioComponent element, 캡션 컴포넌트 엘레먼트는 CCComponent element를 나타낼 수 있다. 이에 대한 상세한 설명은 도 31 내지 39에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 오디오 컴포넌트 엘레먼트는 상기 오디오 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함하고, 상기 캡션 컴포넌트 엘레먼트는 상기 캡션 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함할 수 있다. 여기서, 오디오 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보 및/또는 캡션 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보는 associatedTo 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 이에 대한 상세한 설명은 도 42 내지 46에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 비디오 컴포넌트 엘레먼트는 상기 비디오 컴포넌트와 연관관계가 있는 오디오 컴포넌트를 나타내는 정보 및/또는 상기 비디오 컴포넌트와 연관관계가 있는 캡션 컴포넌트를 나타내는 정보를 포함할 수 있다. 여기서, 비디오 컴포넌트와 연관관계가 있는 오디오 컴포넌트를 나타내는 정보는 associatedAudio 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 여기서, 비디오 컴포넌트와 연관관계가 있는 캡션 컴포넌트를 나타내는 정보는 associatedCC 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 이에 대한 상세한 설명은 도 42 내지 46에서 전술하였다.
도 100은 본 발명의 일 실시예에 따른 방송 신호 수신 장치의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 수신 장치 (L100030)은 수신부 (L100010) 및/또는 디코더 (L100020)을 포함할 수 있다.
수신부는 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및/또는 컨텐트 데이터를 수신할 수 있다. 여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및/또는 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함할 수 있다.
디코더는 수신한 서비스 가이드 정보 및/또는 컨텐트 데이터를 디코딩할 수 있다.
본 발명의 다른 일 실시예에 따르면, 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 컴포넌트 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및/또는 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다. 또한, 상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트를 포함할 수 있다. 여기서, 서비스 레퍼런스 엘레먼트는 ServiceReference element, 컨텐트 레퍼런스 엘레먼트는 ContentReference element, 컴포넌트 레퍼런스 엘레먼트는 ComponentReference element를 나타낼 수 있다. 이에 대한 상세한 설명은 도 47 내지 54에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 컨텐트 프래그먼트에 포함되는 서비스 레퍼런스 엘레먼트는 상기 컨텐트 프래그먼트와 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트 사이의 관계를 나타내는 정보를 포함할 수 있다. 여기서, 상기 컨텐트 프래그먼트와 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트 사이의 관계를 나타내는 정보는 relationship 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 이에 대한 상세한 설명은 도 53, 54에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 서비스 프래그먼트는 상기 서비스 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및/또는 상기 서비스 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다. 또한, 상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다. 또한, 상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함할 수 있다. 이에 대한 상세한 설명은 도 55 내지 59에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 서비스 가이드 정보는 상기 방송 서비스의 스케쥴 정보를 나타내는 스케쥴 프래그먼트를 포함할 수 있다. 또한, 상기 스케쥴 프래그먼트는 상기 스케쥴 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 스케쥴 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및/또는 상기 스케쥴 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 포함할 수 있다. 여기서, 스케쥴 프래그먼트는 schedule fragment를 나타낼 수 있다. 이에 대한 상세한 설명은 도 55, 56에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트를 나타내는 컴포넌트 데이터 엘레먼트를 포함할 수 있다. 그리고, 상기 컴포넌트 데이터 엘레먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트의 타입을 나타내는 컨텐트 타입 정보를 포함할 수 있다. 그리고, 상기 컴포넌트 데이터 엘레먼트는 상기 컨텐트 타입 정보에 따른 비디오 컴포넌트에 대한 정보를 포함하는 비디오 컴포넌트 엘레먼트, 오디오 컴포넌트에 대한 정보를 포함하는 오디오 컴포넌트 엘레먼트 및/또는 클로즈드 캡션 컴포넌트에 대한 정보를 포함하는 캡션 컴포넌트 엘레먼트를 포함할 수 있다. 여기서, 컴포넌트 데이터 엘레먼트는 ComponentData element를 나타낼 수 있고, 컨텐트 타입 정보는 ContentType 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 여기서, 비디오 컴포넌트 엘레먼트는 VideoComponent element, 오디오 컴포넌트 엘레먼트는 AudioComponent element, 캡션 컴포넌트 엘레먼트는 CCComponent element를 나타낼 수 있다. 이에 대한 상세한 설명은 도 31 내지 39에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 오디오 컴포넌트 엘레먼트는 상기 오디오 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함하고, 상기 캡션 컴포넌트 엘레먼트는 상기 캡션 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함할 수 있다. 여기서, 오디오 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보 및/또는 캡션 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보는 associatedTo 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 이에 대한 상세한 설명은 도 42 내지 46에서 전술하였다.
본 발명의 또다른 일 실시예에 따르면, 비디오 컴포넌트 엘레먼트는 상기 비디오 컴포넌트와 연관관계가 있는 오디오 컴포넌트를 나타내는 정보 및/또는 상기 비디오 컴포넌트와 연관관계가 있는 캡션 컴포넌트를 나타내는 정보를 포함할 수 있다. 여기서, 비디오 컴포넌트와 연관관계가 있는 오디오 컴포넌트를 나타내는 정보는 associatedAudio 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 여기서, 비디오 컴포넌트와 연관관계가 있는 캡션 컴포넌트를 나타내는 정보는 associatedCC 어트리뷰트에 포함되는 정보를 나타낼 수 있다. 이에 대한 상세한 설명은 도 42 내지 46에서 전술하였다.
도 101은 본 발명의 일 실시예에 따른 방송 신호 송신 장치의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 송신 장치 (L101040)는 생성부 (L101010), 인코더 (L101020) 및/또는 전송부 (L101030)를 포함할 수 있다.
생성부는 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 생성할 수 있다. 여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및/또는 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함할 수 있다.
인코더는 생성된 서비스 가이드 정보 및 컨텐트 데이터를 인코딩할 수 있다.
전송부는 인코딩된 서비스 가이드 정보 및 컨텐트 데이터를 전송할 수 있다.
도 102는 본 발명의 일 실시예에 따른 방송 신호 수신 방법을 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 신호 수신 방법은 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 수신하는 단계 (SL102010) 및/또는 상기 수신한 서비스 가이드 정보 및 컨텐트 데이터를 디코딩하는 단계 (SL102020)를 포함할 수 있다. 여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및/또는 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함할 수 있다.
모듈 또는 유닛은 메모리(또는 저장 유닛)에 저장된 연속된 수행과정들을 실행하는 프로세서들일 수 있다. 전술한 실시예에 기술된 각 단계들은 하드웨어/프로세서들에 의해 수행될 수 있다. 전술한 실시예에 기술된 각 모듈/블락/유닛들은 하드웨어/프로세서로서 동작할 수 있다. 또한, 본 발명이 제시하는 방법들은 코드로서 실행될 수 있다. 이 코드는 프로세서가 읽을 수 있는 저장매체에 쓰여질 수 있고, 따라서 장치(apparatus)가 제공하는 프로세서에 의해 읽혀질 수 있다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 통상의 기술자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명이 제안하는 방법을 네트워크 디바이스에 구비된, 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수가 있다.
본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 이해된다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.
본 명세서에서 장치 및 방법 발명이 모두 언급되고, 장치 및 방법 발명 모두의 설명은 서로 보완하여 적용될 수 있다.
다양한 실시예가 본 발명을 실시하기 위한 최선의 형태에서 설명되었다.
본 발명은 일련의 방송 신호 제공 분야에서 이용된다.
본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 자명하다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.

Claims (18)

  1. 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 생성하는 단계,
    여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함하고;
    상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 인코딩하는 단계; 및
    상기 인코딩된 서비스 가이드 정보 및 컨텐트 데이터를 전송하는 단계;
    를 포함하는 방송 신호 송신 방법.
  2. 제 1 항에 있어서,
    상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 컴포넌트 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트 중 적어도 어느 하나를 포함하고,
    상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트를 포함하는 방송 신호 송신 방법.
  3. 제 2 항에 있어서,
    상기 컨텐트 프래그먼트에 포함되는 서비스 레퍼런스 엘레먼트는 상기 컨텐트 프래그먼트와 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트 사이의 관계를 나타내는 정보를 포함하는 방송 신호 송신 방법.
  4. 제 1 항에 있어서,
    상기 서비스 프래그먼트는 상기 서비스 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 서비스 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트 중 적어도 어느 하나를 포함하고,
    상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함하고,
    상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함하는 방송 신호 송신 방법.
  5. 제 2 항 또는 제 4 항에 있어서,
    상기 서비스 가이드 정보는 상기 방송 서비스의 스케쥴 정보를 나타내는 스케쥴 프래그먼트를 포함하고,
    상기 스케쥴 프래그먼트는 상기 스케쥴 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 스케쥴 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 스케쥴 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 포함하는 방송 신호 송신 방법.
  6. 제 1 항에 있어서,
    상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트를 나타내는 컴포넌트 데이터 엘레먼트를 포함하고,
    상기 컴포넌트 데이터 엘레먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트의 타입을 나타내는 컨텐트 타입 정보를 포함하고,
    상기 컴포넌트 데이터 엘레먼트는 상기 컨텐트 타입 정보에 따른 비디오 컴포넌트에 대한 정보를 포함하는 비디오 컴포넌트 엘레먼트, 오디오 컴포넌트에 대한 정보를 포함하는 오디오 컴포넌트 엘레먼트 또는 클로즈드 캡션 컴포넌트에 대한 정보를 포함하는 캡션 컴포넌트 엘레먼트를 포함하는 방송 신호 송신 방법.
  7. 제 6 항에 있어서,
    상기 오디오 컴포넌트 엘레먼트는 상기 오디오 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함하고,
    상기 캡션 컴포넌트 엘레먼트는 상기 캡션 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함하는 방송 신호 송신 방법.
  8. 제 6 항에 있어서,
    상기 비디오 컴포넌트 엘레먼트는 상기 비디오 컴포넌트와 연관관계가 있는 오디오 컴포넌트를 나타내는 정보 및 상기 비디오 컴포넌트와 연관관계가 있는 캡션 컴포넌트를 나타내는 정보 중 적어도 어느 하나를 포함하는 방송 신호 송신 방법.
  9. 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 수신하는 수신부,
    여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함하고; 및
    상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 디코딩하는 디코더;
    를 포함하는 방송 신호 수신 장치.
  10. 제 9 항에 있어서,
    상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 컴포넌트 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트 중 적어도 어느 하나를 포함하고,
    상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트를 포함하는 방송 신호 수신 장치.
  11. 제 10 항에 있어서,
    상기 컨텐트 프래그먼트에 포함되는 서비스 레퍼런스 엘레먼트는 상기 컨텐트 프래그먼트와 상기 컨텐트 프래그먼트에서 참조하는 서비스 프래그먼트 사이의 관계를 나타내는 정보를 포함하는 방송 신호 수신 장치.
  12. 제 9 항에 있어서,
    상기 서비스 프래그먼트는 상기 서비스 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 서비스 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트 중 적어도 어느 하나를 포함하고,
    상기 컨텐트 프래그먼트는 상기 컨텐트 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함하고,
    상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트에서 참조하는 다른 컴포넌트 프래그먼트를 나타내는 컴포넌트 레퍼런스 엘레먼트를 포함하는 방송 신호 수신 장치.
  13. 제 10 항 또는 제 12 항에 있어서,
    상기 서비스 가이드 정보는 상기 방송 서비스의 스케쥴 정보를 나타내는 스케쥴 프래그먼트를 포함하고,
    상기 스케쥴 프래그먼트는 상기 스케쥴 프래그먼트에서 참조하는 서비스 프래그먼트를 나타내는 서비스 레퍼런스 엘레먼트, 상기 스케쥴 프래그먼트에서 참조하는 컨텐트 프래그먼트를 나타내는 컨텐트 레퍼런스 엘레먼트 및 상기 스케쥴 프래그먼트에서 참조하는 컴포넌트 프래그먼트를 포함하는 방송 신호 수신 장치.
  14. 제 9 항에 있어서,
    상기 컴포넌트 프래그먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트를 나타내는 컴포넌트 데이터 엘레먼트를 포함하고,
    상기 컴포넌트 데이터 엘레먼트는 상기 컴포넌트 프래그먼트가 포함하는 컴포넌트의 타입을 나타내는 컨텐트 타입 정보를 포함하고,
    상기 컴포넌트 데이터 엘레먼트는 상기 컨텐트 타입 정보에 따른 비디오 컴포넌트에 대한 정보를 포함하는 비디오 컴포넌트 엘레먼트, 오디오 컴포넌트에 대한 정보를 포함하는 오디오 컴포넌트 엘레먼트 또는 클로즈드 캡션 컴포넌트에 대한 정보를 포함하는 캡션 컴포넌트 엘레먼트를 포함하는 방송 신호 수신 장치.
  15. 제 14 항에 있어서,
    상기 오디오 컴포넌트 엘레먼트는 상기 오디오 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함하고,
    상기 캡션 컴포넌트 엘레먼트는 상기 캡션 컴포넌트와 연관관계가 있는 비디오 컴포넌트를 나타내는 정보를 포함하는 방송 신호 수신 장치.
  16. 제 14 항에 있어서,
    상기 비디오 컴포넌트 엘레먼트는 상기 비디오 컴포넌트와 연관관계가 있는 오디오 컴포넌트를 나타내는 정보 및 상기 비디오 컴포넌트와 연관관계가 있는 캡션 컴포넌트를 나타내는 정보 중 적어도 어느 하나를 포함하는 방송 신호 수신 장치.
  17. 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 생성하는 생성부,
    여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함하고;
    상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 인코딩하는 인코더; 및
    상기 인코딩된 서비스 가이드 정보 및 컨텐트 데이터를 전송하는 전송부;
    를 포함하는 방송 신호 송신 장치.
  18. 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보 및 컨텐트 데이터를 수신하는 단계,
    여기서, 상기 서비스 가이드 정보는 상기 방송 서비스에 대한 정보를 나타내는 서비스 프래그먼트, 상기 컨텐트 데이터에 대한 정보를 나타내는 컨텐트 프래그먼트 및 상기 방송 서비스에 포함되는 컴포넌트에 대한 정보를 나타내는 컴포넌트 프래그먼트를 포함하고; 및
    상기 생성된 서비스 가이드 정보 및 컨텐트 데이터를 디코딩하는 단계;
    를 포함하는 방송 신호 수신 방법.
PCT/KR2015/004179 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 WO2015167189A1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP15786077.6A EP3139526A4 (en) 2014-04-27 2015-04-27 Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
CN201580016718.2A CN106134112B (zh) 2014-04-27 2015-04-27 发送广播信号的设备、接收广播信号的设备、发送广播信号的方法以及接收广播信号的方法
CA2941597A CA2941597C (en) 2014-04-27 2015-04-27 Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
KR1020167020594A KR101801594B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US15/115,875 US10306278B2 (en) 2014-04-27 2015-04-27 Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
US16/385,803 US10743044B2 (en) 2014-04-27 2019-04-16 Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
US16/916,870 US11070859B2 (en) 2014-04-27 2020-06-30 Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201461984854P 2014-04-27 2014-04-27
US61/984,854 2014-04-27
US201461991624P 2014-05-12 2014-05-12
US61/991,624 2014-05-12
US201462000515P 2014-05-19 2014-05-19
US62/000,515 2014-05-19
US201462003039P 2014-05-27 2014-05-27
US62/003,039 2014-05-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/115,875 A-371-Of-International US10306278B2 (en) 2014-04-27 2015-04-27 Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
US16/385,803 Division US10743044B2 (en) 2014-04-27 2019-04-16 Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal

Publications (1)

Publication Number Publication Date
WO2015167189A1 true WO2015167189A1 (ko) 2015-11-05

Family

ID=54358852

Family Applications (5)

Application Number Title Priority Date Filing Date
PCT/KR2015/004171 WO2015167187A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
PCT/KR2015/004179 WO2015167189A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
PCT/KR2015/004184 WO2015167190A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
PCT/KR2015/004162 WO2015167184A1 (ko) 2014-04-27 2015-04-27 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법
PCT/KR2015/004169 WO2015167186A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/004171 WO2015167187A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Family Applications After (3)

Application Number Title Priority Date Filing Date
PCT/KR2015/004184 WO2015167190A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
PCT/KR2015/004162 WO2015167184A1 (ko) 2014-04-27 2015-04-27 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법
PCT/KR2015/004169 WO2015167186A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Country Status (8)

Country Link
US (13) US10306278B2 (ko)
EP (4) EP3139623A4 (ko)
JP (2) JP6360184B2 (ko)
KR (6) KR101944834B1 (ko)
CN (7) CN110234021B (ko)
CA (3) CA3077488C (ko)
MX (1) MX357843B (ko)
WO (5) WO2015167187A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3139623A4 (en) * 2014-04-27 2017-10-11 LG Electronics Inc. Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, method for transmitting broadcast signal, and method for receiving broadcast signal
US20170085921A1 (en) * 2014-05-19 2017-03-23 Sharp Kabushiki Kaisha Method for decoding a service guide
CA2948131A1 (en) * 2014-05-22 2015-11-26 Sharp Kabushiki Kaisha Method for decoding
US20170118503A1 (en) * 2014-06-20 2017-04-27 Sharp Kabushiki Kaisha Methods for xml representation of device capabilities
CA2959353A1 (en) * 2014-09-05 2016-03-10 Sharp Kabushiki Kaisha Syntax and semantics for device capabilities
WO2016048090A1 (ko) 2014-09-25 2016-03-31 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
CN108024120B (zh) * 2016-11-04 2020-04-17 上海动听网络科技有限公司 音频生成、播放、接听方法及装置和音频传输系统
KR101967299B1 (ko) * 2017-12-19 2019-04-09 엘지전자 주식회사 방송 신호를 수신하는 차량용 수신 장치 및 방송 신호를 수신하는 차량용 수신 방법
WO2020142426A1 (en) * 2019-01-04 2020-07-09 Gracenote, Inc. Generation of media station previews using a secondary tuner
CN112990120B (zh) * 2021-04-25 2022-09-16 昆明理工大学 一种利用相机风格分离域信息的跨域行人重识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990072565A (ko) * 1998-02-12 1999-09-27 이데이 노부유끼 Epg송신장치및방법,epg수신장치및방법,epg송수신시스템및방법과제공매체
WO2007052111A1 (en) * 2005-11-01 2007-05-10 Nokia Corporation Identifying scope esg fragments and enabling hierarchy in the scope
KR20070049041A (ko) * 2005-11-07 2007-05-10 삼성전자주식회사 휴대 방송 시스템에서 서비스 가이드 소스 전송 방법 및 장치
KR101179828B1 (ko) * 2005-12-16 2012-09-04 삼성전자주식회사 디지털 비디오 방송 시스템에서 전자 서비스 가이드의데이터 모델과 서비스 데이터 스트림과의 연결관계에 따른전자 서비스 가이드의 구성 방법 및 장치
KR101377951B1 (ko) * 2007-05-18 2014-03-25 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보수신 장치

Family Cites Families (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5900908A (en) * 1995-03-02 1999-05-04 National Captioning Insitute, Inc. System and method for providing described television services
GB2377846B (en) 1998-06-12 2003-03-05 British Sky Broadcasting Ltd Improvements in receivers for television signals
US6732370B1 (en) * 1998-11-30 2004-05-04 Diva Systems Corporation Service provider side interactive program guide encoder
JP2002539528A (ja) 1999-03-05 2002-11-19 キヤノン株式会社 データベース注釈付け及び検索
US7934232B1 (en) * 2000-05-04 2011-04-26 Jerding Dean F Navigation paradigm for access to television services
KR100391179B1 (ko) * 2000-08-02 2003-07-12 한국전력공사 고방사성미세분진폐기물 원격조종이동형청소장치
US20020078459A1 (en) * 2000-08-30 2002-06-20 Mckay Brent Interactive electronic directory service, public information and general content delivery system and method
CA2426159A1 (en) 2000-10-26 2002-09-06 General Instrument Corporation Enforcement of content rights and conditions for multimedia content
US20020170068A1 (en) 2001-03-19 2002-11-14 Rafey Richter A. Virtual and condensed television programs
US7110664B2 (en) 2001-04-20 2006-09-19 Front Porch Digital, Inc. Methods and apparatus for indexing and archiving encoded audio-video data
US7035468B2 (en) 2001-04-20 2006-04-25 Front Porch Digital Inc. Methods and apparatus for archiving, indexing and accessing audio and video data
US7512964B2 (en) * 2001-06-29 2009-03-31 Cisco Technology System and method for archiving multiple downloaded recordable media content
US7908628B2 (en) 2001-08-03 2011-03-15 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator content coding and formatting
US7092888B1 (en) 2001-10-26 2006-08-15 Verizon Corporate Services Group Inc. Unsupervised training in natural language call routing
US20040017831A1 (en) * 2002-04-05 2004-01-29 Jian Shen System and method for processing SI data from multiple input transport streams
US7774815B1 (en) 2002-09-30 2010-08-10 Arris Group, Inc. Context-sensitive interactive television ticker
US8712218B1 (en) 2002-12-17 2014-04-29 At&T Intellectual Property Ii, L.P. System and method for providing program recommendations through multimedia searching based on established viewer preferences
GB0307451D0 (en) * 2003-03-31 2003-05-07 Matsushita Electric Ind Co Ltd Digital receiver with aural interface
GB2405557A (en) 2003-08-27 2005-03-02 Nokia Corp Service identification data relating services at a given frequency to services and identifying their media format
KR100565614B1 (ko) * 2003-09-17 2006-03-29 엘지전자 주식회사 캡션 송수신 방법
US7418472B2 (en) 2003-09-30 2008-08-26 Microsoft Corporation Systems and methods for determining remote device media capabilities
US20050188411A1 (en) 2004-02-19 2005-08-25 Sony Corporation System and method for providing content list in response to selected closed caption word
US7469979B2 (en) 2004-03-19 2008-12-30 Steelcase Inc. Pedestal system
CN1674645A (zh) * 2004-03-24 2005-09-28 乐金电子(沈阳)有限公司 数字电视及其电子节目单的表示方法
KR100617128B1 (ko) * 2004-11-17 2006-08-31 엘지전자 주식회사 디지털 방송 방법 및 장치
US20070124788A1 (en) 2004-11-25 2007-05-31 Erland Wittkoter Appliance and method for client-sided synchronization of audio/video content and external data
TW200704183A (en) * 2005-01-27 2007-01-16 Matrix Tv Dynamic mosaic extended electronic programming guide for television program selection and display
US7614068B2 (en) * 2005-03-18 2009-11-03 Nokia Corporation Prioritization of electronic service guide carousels
US8095951B1 (en) 2005-05-06 2012-01-10 Rovi Guides, Inc. Systems and methods for providing a scan
EP1753166A3 (en) * 2005-08-11 2007-08-29 Samsung Electronics Co., Ltd. Method and system for transmitting and receiving access information for a broadcast service
US7738863B2 (en) 2005-08-25 2010-06-15 Nokia Corporation IP datacasting middleware
US8607271B2 (en) * 2005-08-26 2013-12-10 Nokia Corporation Method to deliver messaging templates in digital broadcast service guide
US8024768B2 (en) 2005-09-15 2011-09-20 Penthera Partners, Inc. Broadcasting video content to devices having different video presentation capabilities
RU2392745C2 (ru) * 2005-10-14 2010-06-20 Нокиа Корпорейшн Объявление об инициализации терминала при помощи сервисного справочника
US8763036B2 (en) 2005-11-04 2014-06-24 Nokia Corporation Method for indicating service types in the service guide
WO2007052989A1 (en) 2005-11-07 2007-05-10 Samsung Electronics Co., Ltd. Method and apparatus for transmitting service guide source in a mobile broadcast system
US7801910B2 (en) 2005-11-09 2010-09-21 Ramp Holdings, Inc. Method and apparatus for timed tagging of media content
US20100021447A1 (en) * 2005-11-22 2010-01-28 Universität Leipzig Medicament for Treating Problems Relating to Fertility and Pregnancy, and Autoimmune Diseases, and for Inducing an Immunological Tolerance in Transplant Patients, and Method for Producing Said Medicament
WO2007064641A2 (en) 2005-11-29 2007-06-07 Google Inc. Social and interactive applications for mass media
KR100890037B1 (ko) 2006-02-03 2009-03-25 삼성전자주식회사 휴대 방송 시스템에서 서비스 가이드 또는 서비스 가이드프레그먼트에 대한 공유 방법 및 시스템
US8458753B2 (en) * 2006-02-27 2013-06-04 Time Warner Cable Enterprises Llc Methods and apparatus for device capabilities discovery and utilization within a content-based network
US8115869B2 (en) 2007-02-28 2012-02-14 Samsung Electronics Co., Ltd. Method and system for extracting relevant information from content metadata
CN101094434B (zh) 2006-06-19 2011-02-02 华为技术有限公司 在移动广播系统中订阅业务相关通知的方法
KR100793801B1 (ko) * 2006-07-06 2008-01-11 엘지전자 주식회사 티브이의 방송 프로그램 안내 표시 방법 및 장치
CN101132292A (zh) 2006-08-22 2008-02-27 华为技术有限公司 一种传输电子节目指南的方法及系统
US20080091713A1 (en) 2006-10-16 2008-04-17 Candelore Brant L Capture of television metadata via OCR
US8296808B2 (en) 2006-10-23 2012-10-23 Sony Corporation Metadata from image recognition
US7689613B2 (en) 2006-10-23 2010-03-30 Sony Corporation OCR input to search engine
US7814524B2 (en) 2007-02-14 2010-10-12 Sony Corporation Capture of configuration and service provider data via OCR
KR100856208B1 (ko) * 2006-12-15 2008-09-03 삼성전자주식회사 Dvb-h 시스템에서 방송 데이터 서비스의 어플리케이션정보를 제공하기 위한 방법 및 이를 위한 시스템
DE202007001277U1 (de) * 2007-01-23 2008-03-13 Dbt Gmbh Führungsschuh für einen Walzenlader und Verschleißeinsätze für Führungsschuhe
WO2008144404A1 (en) * 2007-05-16 2008-11-27 Massachusetts Instutute Of Technology Systems and methods for model-based estimation of cardiac output and total peripheral resistance
KR101356499B1 (ko) 2007-05-18 2014-01-29 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보송수신 장치
JP4345848B2 (ja) 2007-05-25 2009-10-14 船井電機株式会社 デジタル放送受信機
KR20080107137A (ko) * 2007-06-05 2008-12-10 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보송수신 장치
KR101461958B1 (ko) * 2007-06-29 2014-11-14 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101486373B1 (ko) 2007-07-29 2015-01-26 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101420871B1 (ko) 2007-08-21 2014-07-17 삼성전자주식회사 휴대 방송 서비스에서 멀티 콘텐츠를 제공하는 방법 및장치와 그 시스템
CA2697459C (en) * 2007-08-24 2013-09-24 Lg Electronics Inc. Digital broadcasting system and method of processing data in digital broadcasting system
US20090070659A1 (en) * 2007-09-11 2009-03-12 Legend Silicon Corp. Ldpc decoder with an improved llr update method using a set of relative values free from a shifting action
KR101418591B1 (ko) 2007-10-05 2014-07-10 삼성전자주식회사 휴대 방송 시스템에서의 서비스 가이드 제공 방법 및 장치
KR20090069689A (ko) 2007-12-26 2009-07-01 엘지전자 주식회사 서비스 가이드 정보 처리 방법 및 서비스 가이드 정보 처리장치
CN101500135A (zh) * 2008-02-03 2009-08-05 北京视博数字电视科技有限公司 条件接收系统的节目定购方法、系统及其终端
US9503691B2 (en) 2008-02-19 2016-11-22 Time Warner Cable Enterprises Llc Methods and apparatus for enhanced advertising and promotional delivery in a network
US9302648B2 (en) * 2008-03-25 2016-04-05 Autoliv Development Ab Seat belt pretensioner
US20090249392A1 (en) * 2008-03-28 2009-10-01 Lg Electronics Inc. Digital broadcast receiver and method for processing caption thereof
US20090253416A1 (en) 2008-04-04 2009-10-08 Samsung Electronics Co. Ltd. Method and system for providing user defined bundle in a mobile broadcast system
EP2109313B1 (en) 2008-04-09 2016-01-13 Sony Computer Entertainment Europe Limited Television receiver and method
CN101583092A (zh) * 2008-05-14 2009-11-18 三星电子株式会社 数据再现设备和数据再现方法
WO2010058964A2 (en) 2008-11-18 2010-05-27 Lg Electronics Inc. Method for receiving a broadcast signal
JP5225037B2 (ja) * 2008-11-19 2013-07-03 株式会社東芝 番組情報表示装置および方法
US8599242B2 (en) * 2008-12-02 2013-12-03 Lg Electronics Inc. Method for displaying 3D caption and 3D display apparatus for implementing the same
KR101644436B1 (ko) * 2008-12-09 2016-08-01 엘지전자 주식회사 비실시간 수신기에서 타켓팅 디스크립터를 처리하는 방법
US8423363B2 (en) 2009-01-13 2013-04-16 CRIM (Centre de Recherche Informatique de Montréal) Identifying keyword occurrences in audio data
EP2209238A3 (en) * 2009-01-15 2012-09-12 Samsung Electronics Co., Ltd. Rich media-enabled service guide provision method and system for broadcast service
KR20100084104A (ko) * 2009-01-15 2010-07-23 삼성전자주식회사 디지털 방송 시스템에서 리치미디어를 이용한 서비스 가이드 제공 방법 및 이를 위한 시스템
JP2010200087A (ja) * 2009-02-26 2010-09-09 Funai Electric Co Ltd 映像機器
KR101076587B1 (ko) * 2009-03-03 2011-10-26 엘지전자 주식회사 방송망을 통해 전달되는 서비스 가이드를 통해 선별적으로 컨텐트를 수신하는 방법 및 이를 이용한 단말
JP5440836B2 (ja) * 2009-03-24 2014-03-12 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
US20100250764A1 (en) 2009-03-31 2010-09-30 Nokia Corporation Method and Apparatus for Signaling Layer Information of Scalable Media Data
US8621520B2 (en) * 2009-05-19 2013-12-31 Qualcomm Incorporated Delivery of selective content to client applications by mobile broadcast device with content filtering capability
KR20100124966A (ko) * 2009-05-20 2010-11-30 삼성전자주식회사 복수의 형식을 가지는 디지털 방송 송수신 방법 및 장치
KR20100127162A (ko) 2009-05-25 2010-12-03 엘지전자 주식회사 단말 내에서 브로드캐스트 서비스를 통해 관련된 콘텐츠를 검색하고 주문하는 방법 및 장치
US20100316131A1 (en) 2009-06-12 2010-12-16 Motorola, Inc. Macroblock level no-reference objective quality estimation of video
WO2011021867A2 (en) 2009-08-20 2011-02-24 Lg Electronics Inc. Method of processing epg metadata in network device and network device for controlling the same
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
JP2011091619A (ja) 2009-10-22 2011-05-06 Sony Corp 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
US8914835B2 (en) * 2009-10-28 2014-12-16 Qualcomm Incorporated Streaming encoded video data
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR101179826B1 (ko) 2010-02-26 2012-09-04 고려대학교 산학협력단 열량조절이 가능한 전기로 및 이를 이용한 금속 및 실리콘의 용융방법
WO2011112053A2 (ko) * 2010-03-11 2011-09-15 엘지전자 주식회사 비실시간 방송 서비스 처리 시스템 및 그 처리방법
US8730301B2 (en) 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
KR20110105092A (ko) * 2010-03-18 2011-09-26 삼성전자주식회사 휴대방송 시스템에서 서비스 접속 정보를 제공하기 위한 장치 및 방법
US8572488B2 (en) 2010-03-29 2013-10-29 Avid Technology, Inc. Spot dialog editor
CN102918857B (zh) 2010-04-02 2015-11-25 三星电子株式会社 用于发送用于提供二维和三维内容的数字广播内容的方法和设备以及用于接收数字广播内容的方法和设备
WO2011129641A2 (en) 2010-04-16 2011-10-20 Lg Electronics Inc. Purchase transaction method for iptv product and iptv receiver thereof
US20110289533A1 (en) 2010-05-18 2011-11-24 Rovi Technologies Corporation Caching data in a content system
WO2011146276A2 (en) 2010-05-19 2011-11-24 Google Inc. Television related searching
US8694533B2 (en) 2010-05-19 2014-04-08 Google Inc. Presenting mobile content based on programming context
KR20120014509A (ko) * 2010-08-09 2012-02-17 삼성모바일디스플레이주식회사 액정 표시 패널 및 액정 표시 패널 제조 방법
US8898723B2 (en) * 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
CN105554551A (zh) 2011-03-02 2016-05-04 华为技术有限公司 3d格式描述信息的获取方法和装置
US8670505B2 (en) * 2011-03-31 2014-03-11 Subrahmanya Kondageri Shankaraiah Early detection of segment type using BPSK and DBPSK modulated carriers in ISDB-T receivers
CN103443854B (zh) * 2011-04-08 2016-06-08 杜比实验室特许公司 用于混合来自两个编码位流的音频节目的元数据的自动配置
EP2705661A4 (en) 2011-05-01 2014-11-26 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR TRANSMITTING / RECEIVING BROADCAST SERVICE IN DIGITAL BROADCASTING SYSTEM, AND SYSTEM THEREFOR
TWI562560B (en) * 2011-05-09 2016-12-11 Sony Corp Encoder and encoding method providing incremental redundancy
WO2012169779A2 (ko) * 2011-06-07 2012-12-13 엘지전자 주식회사 방송 서비스 전송 방법, 그 수신 방법 및 그 수신 장치
US9584238B2 (en) * 2011-06-24 2017-02-28 Nokia Corporation Accessing service guide information in a digital video broadcast system
EP3554088B1 (en) 2011-10-13 2024-02-07 Samsung Electronics Co., Ltd. Apparatus and method for configuring control message in broadcasting system
KR101991321B1 (ko) * 2011-10-13 2019-06-21 삼성전자주식회사 멀티미디어 서비스 송수신 방법 및 장치
US9106265B2 (en) * 2011-11-04 2015-08-11 Silicon Laboratories Inc. Receive data flow path using a single FEC decoder
US9113230B2 (en) * 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
EP2618532A1 (en) * 2012-01-19 2013-07-24 Panasonic Corporation Improved Component Interleaving for Rotated Constellations
US9071799B2 (en) * 2012-02-17 2015-06-30 Echostar Technologies L.L.C. Channel tuning redirect
US9936231B2 (en) * 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
KR101915128B1 (ko) * 2012-05-17 2018-11-05 엘지전자 주식회사 전자 장치 및 서비스 프로바이더에 대한 정보를 제공하는 방법
KR102031096B1 (ko) * 2012-08-07 2019-10-11 엘지전자 주식회사 양방향 방송 서비스를 포함하는 방송 신호 처리 방법 및 장치
DK2953739T3 (da) 2013-02-11 2020-11-30 Bang & Clean Gmbh Fremgangsmåde og indretning til rensning af inderrum af beholdere og anlæg
KR102061044B1 (ko) * 2013-04-30 2020-01-02 삼성전자 주식회사 수화 번역 및 화면 해설 서비스 방법 및 시스템
KR101500135B1 (ko) 2013-09-04 2015-03-06 주식회사 포스코 블로우 튜브의 패킹 조립장치
CA2924065C (en) 2013-09-13 2018-05-15 Arris Enterprises, Inc. Content based video content segmentation
CN103848358B (zh) 2014-03-24 2017-03-01 谢国贤 一种塔吊塔身双油缸顶升机构
US9882665B2 (en) 2014-04-21 2018-01-30 Sharp Kabushiki Kaisha Method for decoding a service guide
EP3139623A4 (en) * 2014-04-27 2017-10-11 LG Electronics Inc. Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, method for transmitting broadcast signal, and method for receiving broadcast signal
CA2948131A1 (en) * 2014-05-22 2015-11-26 Sharp Kabushiki Kaisha Method for decoding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990072565A (ko) * 1998-02-12 1999-09-27 이데이 노부유끼 Epg송신장치및방법,epg수신장치및방법,epg송수신시스템및방법과제공매체
WO2007052111A1 (en) * 2005-11-01 2007-05-10 Nokia Corporation Identifying scope esg fragments and enabling hierarchy in the scope
KR20070049041A (ko) * 2005-11-07 2007-05-10 삼성전자주식회사 휴대 방송 시스템에서 서비스 가이드 소스 전송 방법 및 장치
KR101179828B1 (ko) * 2005-12-16 2012-09-04 삼성전자주식회사 디지털 비디오 방송 시스템에서 전자 서비스 가이드의데이터 모델과 서비스 데이터 스트림과의 연결관계에 따른전자 서비스 가이드의 구성 방법 및 장치
KR101377951B1 (ko) * 2007-05-18 2014-03-25 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보수신 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3139526A4 *

Also Published As

Publication number Publication date
US9888271B2 (en) 2018-02-06
CN110267068B (zh) 2021-11-02
CA2941597C (en) 2020-05-05
US10306278B2 (en) 2019-05-28
US20200329261A1 (en) 2020-10-15
JP6599864B2 (ja) 2019-11-06
CN110177290A (zh) 2019-08-27
EP3073730A4 (en) 2017-08-16
JP2017507506A (ja) 2017-03-16
CN110234021A (zh) 2019-09-13
KR101801593B1 (ko) 2017-11-27
CA3077488A1 (en) 2015-11-05
KR20160142851A (ko) 2016-12-13
WO2015167190A1 (ko) 2015-11-05
JP6360184B2 (ja) 2018-08-01
KR20160105835A (ko) 2016-09-07
EP3139618A1 (en) 2017-03-08
US20160269792A1 (en) 2016-09-15
US10567815B2 (en) 2020-02-18
US20200245005A1 (en) 2020-07-30
US10743044B2 (en) 2020-08-11
EP3073730A1 (en) 2016-09-28
US20190098342A1 (en) 2019-03-28
KR101944834B1 (ko) 2019-02-01
EP3139618A4 (en) 2017-10-11
US20200137430A1 (en) 2020-04-30
US20180146220A1 (en) 2018-05-24
CN110177290B (zh) 2021-10-26
CN105981374B (zh) 2019-08-09
US20170180761A1 (en) 2017-06-22
US10848797B2 (en) 2020-11-24
KR20160106095A (ko) 2016-09-09
CN110234021B (zh) 2021-07-23
MX357843B (es) 2018-07-26
MX2016010117A (es) 2016-10-07
KR20160102509A (ko) 2016-08-30
US20170013285A1 (en) 2017-01-12
CA3077488C (en) 2022-08-16
CN106134112B (zh) 2019-03-08
US20190222870A1 (en) 2019-07-18
KR101801592B1 (ko) 2017-11-27
CN106170983A (zh) 2016-11-30
WO2015167187A1 (ko) 2015-11-05
CN105981374A (zh) 2016-09-28
EP3139623A4 (en) 2017-10-11
WO2015167186A1 (ko) 2015-11-05
CA3077439C (en) 2023-04-25
US10887635B2 (en) 2021-01-05
CN106134213A (zh) 2016-11-16
KR101801594B1 (ko) 2017-11-27
CA3077439A1 (en) 2015-11-05
KR101865299B1 (ko) 2018-06-07
EP3139623A1 (en) 2017-03-08
US11070859B2 (en) 2021-07-20
CN106170983B (zh) 2019-07-16
KR101825000B1 (ko) 2018-03-22
CN106134213B (zh) 2019-07-12
EP3139526A4 (en) 2017-10-11
US10939147B2 (en) 2021-03-02
EP3139526A1 (en) 2017-03-08
US20190246150A1 (en) 2019-08-08
CN110267068A (zh) 2019-09-20
US10666993B2 (en) 2020-05-26
US20170171635A1 (en) 2017-06-15
US20210105511A1 (en) 2021-04-08
JP2017514329A (ja) 2017-06-01
US20170188099A1 (en) 2017-06-29
WO2015167184A1 (ko) 2015-11-05
CN106134112A (zh) 2016-11-16
US11570494B2 (en) 2023-01-31
KR20180014223A (ko) 2018-02-07
CA2941597A1 (en) 2015-11-05
US10284886B2 (en) 2019-05-07
KR20160071405A (ko) 2016-06-21
US10306277B2 (en) 2019-05-28

Similar Documents

Publication Publication Date Title
WO2015178603A1 (ko) 방송 전송 장치, 방송 전송 장치의 동작 방법. 방송 수신 장치 및 방송 수신 장치의 동작 방법
WO2015167189A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015084004A1 (en) Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
WO2015122747A1 (en) Apparatus for processing a hybrid broadcast service, and method for processing a hybrid broadcast service
WO2016010404A1 (ko) 방송 송신 장치, 방송 송신 장치의 데이터 처리 방법, 방송 수신 장치 및 방송 수신 장치의 데이터 처리 방법
WO2015190790A1 (ko) 서비스 가이드 정보 송신 방법, 서비스 가이드 정보 수신 방법, 서비스 가이드 정보 송신 장치 및 서비스 가이드 정보 수신 장치
WO2015156625A1 (ko) 방송 전송 장치, 방송 수신 장치, 방송 전송 장치의 동작 방법 및 방송 수신 장치의 동작 방법
WO2016028119A1 (ko) 방송 신호 송신 방법, 방송 신호 송신 장치, 방송 신호 수신 방법 및 방송 신호 수신 장치
WO2016111526A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016076654A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015119455A1 (en) Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
WO2016028052A2 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016060410A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015178690A1 (ko) 방송 신호 송/수신 처리 방법 및 장치
WO2016068564A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
EP3095244A1 (en) Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks
WO2015156607A1 (ko) 방송 신호 송/수신 처리 방법 및 장치
WO2015088217A1 (en) A receiver and a method for processing a broadcast signal including a broadcast content and an application related to the broadcast content
WO2015099331A1 (en) Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
WO2016048090A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015167177A1 (ko) 방송 전송 장치, 방송 수신 장치, 방송 전송 장치의 동작 방법 및 방송 수신 장치의 동작 방법
WO2015156618A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016129904A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016114638A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015111905A1 (en) Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15786077

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20167020594

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15115875

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2941597

Country of ref document: CA

REEP Request for entry into the european phase

Ref document number: 2015786077

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015786077

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE