WO2015167184A1 - 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법 - Google Patents

방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법 Download PDF

Info

Publication number
WO2015167184A1
WO2015167184A1 PCT/KR2015/004162 KR2015004162W WO2015167184A1 WO 2015167184 A1 WO2015167184 A1 WO 2015167184A1 KR 2015004162 W KR2015004162 W KR 2015004162W WO 2015167184 A1 WO2015167184 A1 WO 2015167184A1
Authority
WO
WIPO (PCT)
Prior art keywords
component
service
broadcast
fragment
information
Prior art date
Application number
PCT/KR2015/004162
Other languages
English (en)
French (fr)
Inventor
곽민성
양승률
문경수
고우석
홍성룡
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020167030472A priority Critical patent/KR101865299B1/ko
Priority to US15/306,975 priority patent/US20170188099A1/en
Publication of WO2015167184A1 publication Critical patent/WO2015167184A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26283Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for associating distribution time parameters to content, e.g. to generate electronic program guide data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4335Housekeeping operations, e.g. prioritizing content for deletion because of storage space restrictions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47211End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting pay-per-view content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Definitions

  • the present invention relates to a broadcast transmitting device, a method of operating a broadcast transmitting device, a broadcast receiving device, and a method of operating a broadcast receiving device.
  • hybrid broadcasting using a communication network as well as the existing broadcasting network is in the spotlight.
  • the hybrid broadcast provides an application or a broadcast service interoperating with a terminal device such as a smartphone or a tablet.
  • MPEG-2 TS Moving Picture Experts Group-2
  • MPEG-2 TS transport stream
  • MPEG-2 TS does not consider hybrid broadcasting and therefore has many limitations in using it for hybrid broadcasting.
  • MPEG-2 TS does not provide various expandability, and it is inefficient to transmit data used in a broadband network through MPEG-2 TS.
  • MPEG-2 TS in order to transmit data of an IP packet used in a broadband network to the MPEG-2 TS, it is inconvenient to insulate the IP packet back to the MPEG-2 TS.
  • the broadcast receiving apparatus when using the MPEG-2 TS, the broadcast receiving apparatus must process both the MPEG-2 TS packet and the IP packet in order to support hybrid broadcasting. Therefore, there is a need for a new broadcast transmission format with scalability and efficiency for hybrid broadcasting.
  • an electronic service guide displaying a program of a conventional broadcast service has displayed a broadcast service and a program provided by the broadcast service.
  • the ESG may be referred to as an electronic program guide (EPG).
  • ESG displayed the program's start time, end time, title, summary of content, recommended audience rating, genre, and performer information.
  • a broadcast service may be provided together with an application.
  • the broadcast service of the hybrid broadcast may include various media components, and the broadcast reception device may selectively play the media components.
  • the broadcast reception device may provide not only a program provided according to a predetermined schedule, but also a program provided according to a user request.
  • the broadcast reception apparatus needs to provide an ESG capable of effectively delivering contents of a hybrid broadcast service providing complex and diverse contents.
  • the broadcast transmission device needs to transmit a new format of ESG data.
  • the broadcast reception apparatus needs to receive and display ESG data in a new format.
  • An embodiment of the present invention provides a broadcast transmission device for transmitting ESG data for hybrid broadcasting, a method of operating a broadcast transmission device, a broadcast receiving device for receiving ESG data for hybrid broadcasting, and a method of operating the broadcast receiving device. The purpose.
  • a broadcast receiving apparatus includes a broadcast receiving unit for receiving a broadcast signal; And receiving an electronic service guide (ESG) data including information on a broadcast service guide based on the broadcast signal, and receiving at least one of a broadcast service and broadcast content based on the ESG data. And a control unit for obtaining the information.
  • ESG electronic service guide
  • the information about the component may include device capability information indicating device capability required for playing the component.
  • the controller may display information on the component based on the device capability information.
  • the controller may display information about a component that can be played by the broadcast receiving device and information about a component that can be played by the broadcast receiving device.
  • the information about the component may include reference information including reference information representing a component different from the component, the component and the broadcast content, and a relationship between the component and the broadcast service.
  • the information about the component may include related information of the associated component.
  • the associated component may represent a component played with the component.
  • the ESG data may be divided into fragments which are units of information, and may include a service fragment including information on the broadcast service and a content fragment including information on content included in the broadcast service.
  • the information on the content may be a content fragment included in the ESG data.
  • the information about the component may be a component element included in the content fragment.
  • the information about the component may include charging information about the component.
  • the controller may display information about the component on a service guide menu.
  • the controller may display the role of the component on a service guide menu.
  • the controller may display charging information of the component on a service guide menu.
  • the controller may display information about the component based on the type of data included in the component.
  • the controller may display information about the component including the type of data selected by the user.
  • An operating method of a broadcast receiving device includes the steps of receiving a broadcast signal; Receiving an electronic service guide (ESG) data including information on a broadcast service guide based on the broadcast signal; And acquiring information about a component included in at least one of a broadcast service and broadcast content based on the ESG data.
  • ESG electronic service guide
  • An electronic service guide that obtains information about a component included in at least one of a broadcast service and broadcast content according to an embodiment of the present invention, and includes information on a broadcast service guide based on the information about the component.
  • Service Guide (ESG) control unit for generating data;
  • a transmitter for transmitting a broadcast signal based on the ESG data.
  • An embodiment of the present invention provides a broadcast transmitting device for transmitting ESG data for hybrid broadcasting, a method of operating a broadcast transmitting device, a broadcast receiving device for receiving ESG data for hybrid broadcasting, and a method of operating the broadcast receiving device.
  • FIG. 1 shows a structure of a broadcast signal transmission apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • FIG 2 illustrates an input formatting block according to an embodiment of the present invention.
  • FIG 3 illustrates an input formatting block according to another embodiment of the present invention.
  • BICM bit interleaved coding & modulation
  • FIG. 5 illustrates a BICM block according to another embodiment of the present invention.
  • FIG. 6 illustrates a frame building block according to an embodiment of the present invention.
  • FIG 7 illustrates an orthogonal frequency division multiplexing (OFDM) generation block according to an embodiment of the present invention.
  • OFDM orthogonal frequency division multiplexing
  • FIG. 8 illustrates a structure of a broadcast signal receiving apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • FIG. 9 shows a frame structure according to an embodiment of the present invention.
  • FIG. 10 illustrates a signaling hierarchy structure of a frame according to an embodiment of the present invention.
  • FIG 11 illustrates preamble signaling data according to an embodiment of the present invention.
  • FIG 13 illustrates PLS2 data according to an embodiment of the present invention.
  • FIG 14 illustrates PLS2 data according to another embodiment of the present invention.
  • FIG. 15 illustrates a logical structure of a frame according to an embodiment of the present invention.
  • PLS 16 illustrates physical layer signaling (PLS) mapping according to an embodiment of the present invention.
  • EAC emergency alert channel
  • FEC forward error correction
  • 21 illustrates the basic operation of a twisted row-column block interleaver according to an embodiment of the present invention.
  • FIG. 22 illustrates an operation of a twisted row-column block interleaver according to another embodiment of the present invention.
  • FIG. 23 illustrates a diagonal read pattern of a twisted row-column block interleaver according to an embodiment of the present invention.
  • FIG. 24 illustrates XFECBLOCKs interleaved from each interleaving array according to an embodiment of the present invention.
  • FIG. 25 illustrates a protocol stack for providing a broadcast service according to an embodiment of the present invention.
  • FIG. 26 is a block illustrating a broadcast transmission device for transmitting a broadcast service, a content server for transmitting content associated with a broadcast service, a broadcast reception device for receiving a broadcast service, and a companion device interoperating with the broadcast reception device, according to an embodiment of the present invention. Shows the figure.
  • FIG. 27 is a view illustrating a value that a serviceType element included in a service fragment includes and a type of service indicated by the value according to an embodiment of the present invention.
  • FIG. 28 illustrates an XML format of a serviceType element included in a service fragment according to an embodiment of the present invention.
  • 29 is a diagram illustrating XML data and a user interface representing a serviceType element when a service indicated by a service fragment is a linear service according to an embodiment of the present invention.
  • FIG. 30 is a diagram illustrating XML data and a user interface representing a serviceType element when a service indicated by a service fragment is a linear service and an app-based service, according to an embodiment of the present invention.
  • FIG. 31 illustrates XML data and a user interface representing a serviceType element when a service indicated by a service fragment is a linear service and a coordinated service according to an embodiment of the present invention.
  • FIG. 32 illustrates an XML format of a component fragment according to an embodiment of the present invention.
  • FIG 33 is a view showing the types of components that a component fragment may represent according to an embodiment of the present invention.
  • 34 is a view illustrating an XML format of a ComponentRangeType element included in a component fragment according to an embodiment of the present invention.
  • 35 is a view illustrating an XML format of a ComponentData element included in a component fragment according to an embodiment of the present invention.
  • 36 is a view illustrating an XML format of a VideoDataType element included in a component fragment according to an embodiment of the present invention.
  • FIG. 37 is a view illustrating an XML format of an AudioDataType element included in a component fragment according to an embodiment of the present invention.
  • FIG. 38 illustrates an XML format of a CCDataType element included in a component fragment according to an embodiment of the present invention.
  • 39 is a view illustrating an embodiment in which a component fragment represents a composite video component according to an embodiment of the present invention.
  • FIG. 40 illustrates another embodiment in which a component fragment represents a composite video component according to an embodiment of the present invention.
  • FIG. 41 is a view illustrating still another embodiment in which a component fragment represents a PickOne audio component according to an embodiment of the present invention.
  • FIG. 41 is a view illustrating still another embodiment in which a component fragment represents a PickOne audio component according to an embodiment of the present invention.
  • FIG. 42 is a view illustrating an XML format of a content fragment when information about a component is included as an element of a content fragment according to another embodiment of the present invention.
  • FIG. 43 illustrates an XML format of an embodiment of a content fragment when information about a component is included as an element of the content fragment according to another embodiment of the present invention.
  • 44 is a view illustrating an XML format of an embodiment of a content fragment when information about a component is included as an element of the content fragment, according to another embodiment of the present invention.
  • FIG. 45 is a view illustrating an XML format of a component fragment when a component fragment representing an audio component and a component fragment representing a subtitle component refer to a fragment representing a related video component.
  • FIG. 46 is a view illustrating a relationship between component fragments when a component fragment representing an audio component and a component fragment representing a subtitle component refer to a fragment representing a related video component.
  • FIG. 47 illustrates an XML format of a component fragment when a component fragment representing a video component refers to a component fragment representing a subtitle component associated with a component fragment representing a related audio component, according to an embodiment of the present invention.
  • FIG. 48 illustrates a relationship between component fragments when a component fragment representing a video component refers to a component fragment representing a subtitle component associated with a component fragment representing an associated audio component according to an embodiment of the present invention.
  • 49 shows a reference relationship between fragments according to an embodiment of the present invention.
  • FIG. 50 is a diagram illustrating an XML format of a component fragment when the component fragment refers to an upper component fragment, a content fragment, and a service fragment according to an embodiment of the present invention.
  • FIG. 51 is a view illustrating an XML format of a schedule fragment when a schedule fragment refers to a component fragment, a content fragment, and a service fragment according to an embodiment of the present invention.
  • FIG. 52 is a view illustrating a reference relationship with a component fragment representing a service fragment, a content fragment, a presentable video component, a presentable audio component, and a presentable subtitle component according to an embodiment of the present invention.
  • FIG. 53 shows a reference relationship between a component fragment representing a composite component and a component fragment representing a subcomponent according to an embodiment of the present invention.
  • 54 is a view illustrating a reference relationship between a component fragment representing an app-based enhancement component and a component fragment representing a subcomponent according to an embodiment of the present invention.
  • 55 is a view illustrating an XML format of a content fragment when a content fragment refers to a service according to another embodiment of the present invention.
  • 56 is a view illustrating a reference relationship between content fragments and service fragments according to another embodiment of the present invention.
  • 57 shows a reference relationship between fragments according to another embodiment of the present invention.
  • FIG. 58 is a view illustrating an XML format of a service fragment according to another embodiment of the present invention.
  • 59 is a view illustrating an XML format of a content fragment according to another embodiment of the present invention.
  • 60 is a view illustrating an XML format of a component fragment according to another embodiment of the present invention.
  • 61 is a view illustrating a reference relationship with a service fragment, a content fragment, and a component fragment according to another embodiment of the present invention.
  • FIG. 62 is a view illustrating a reference relationship between a component fragment representing a composite component and a component fragment representing a subcomponent according to another embodiment of the present invention.
  • FIG. 63 is a view illustrating a reference relationship between a component fragment representing an app-based enhancement component and a component fragment representing a subcomponent according to another embodiment of the present invention.
  • 65 shows syntax of a component fragment according to another embodiment of the present invention.
  • 66 shows syntax of a component fragment according to another embodiment of the present invention.
  • 67 is a view illustrating an XML format of a component fragment according to another embodiment of the present invention.
  • 68 is a view illustrating an XML format of ComponentRangeType included in a component fragment according to another embodiment of the present invention.
  • 69 is a view illustrating an XML format of ComponentRoleRangeType included in a component fragment according to another embodiment of the present invention.
  • FIG. 70 shows that a component fragment shows a relationship between a composite video component using variable video encoding and components included in the composite component according to another embodiment of the present invention.
  • FIG. 71 is a view illustrating a relationship between a component fragment and a component included in a composite video component including a 3D image according to another embodiment of the present invention.
  • FIG. 72 is a view illustrating a relationship between a component fragment and a component included in a PickOne audio component according to another embodiment of the present invention.
  • 73 shows syntax of a component element according to another embodiment of the present invention.
  • 74 shows syntax of a component element according to another embodiment of the present invention.
  • 76 is a view illustrating the XML format of a component element according to another embodiment of the present invention.
  • 77 is a view illustrating the XML format of a component element according to another embodiment of the present invention.
  • FIG. 78 is a view illustrating an XML format of a component element according to another embodiment of the present invention.
  • 79 is a view illustrating an XML format of a component element according to another embodiment of the present invention.
  • FIG. 80 is a view illustrating an XML format of a component element according to another embodiment of the present invention.
  • FIG. 81 shows that a broadcast reception device displays a component included in content according to a performance element included in a component element according to another embodiment of the present invention.
  • 82 is a view showing that a broadcast reception device displays a component included in content according to a performance element included in a component element according to another embodiment of the present invention.
  • 83 is a view illustrating that a broadcast reception device displays a component included in content according to a performance element included in a component element according to another embodiment of the present invention.
  • 86 is a view illustrating an XML format of a component element according to another embodiment of the present invention.
  • 87 shows syntax of a component element according to another embodiment of the present invention.
  • 89 is a view illustrating an XML format of a component element according to another embodiment of the present invention.
  • 91 is a view illustrating a value that a performance code element included in a performance element according to another embodiment of the present invention can have.
  • 92 is a view illustrating a value that a category element of a performance element may represent according to another embodiment of the present invention.
  • 93 is a view illustrating a user interface for providing payment of a component unit according to an embodiment of the present invention.
  • 94 is a view illustrating a user interface for providing payment in component units according to an embodiment of the present invention.
  • FIG. 96 illustrates an operation of a broadcast reception device according to an embodiment of the present invention.
  • 97 is a view illustrating a content playback screen of a broadcast reception device according to an embodiment of the present invention.
  • 98 is a view illustrating a service guide menu of a broadcast reception device according to an embodiment of the present invention.
  • 99 is a view illustrating reservation viewing in a service guide menu of a broadcast reception device according to an embodiment of the present invention.
  • 100 shows reservation viewing in the service guide menu of the broadcast reception device according to an embodiment of the present invention.
  • 101 is a view illustrating reservation viewing in a service guide menu of a broadcast reception device according to an embodiment of the present invention.
  • 102 is a view illustrating reservation viewing in a service guide menu of a broadcast reception device according to an embodiment of the present invention.
  • 103 is a view illustrating reservation viewing in a service guide menu of a broadcast reception device according to an embodiment of the present invention.
  • 104 is a view illustrating reservation viewing in a service guide menu of a broadcast reception device according to an embodiment of the present invention.
  • 105 is a view illustrating reservation viewing in a service guide menu of a broadcast reception device according to an embodiment of the present invention.
  • the present invention provides an apparatus and method for transmitting and receiving broadcast signals for next generation broadcast services.
  • the next generation broadcast service includes a terrestrial broadcast service, a mobile broadcast service, a UHDTV service, and the like.
  • a broadcast signal for a next generation broadcast service may be processed through a non-multiple input multiple output (MIMO) or MIMO scheme.
  • MIMO multiple input multiple output
  • the non-MIMO scheme may include a multiple input single output (MISO) scheme, a single input single output (SISO) scheme, and the like.
  • the MISO or MIMO scheme uses two antennas, but the present invention can be applied to a system using two or more antennas.
  • the present invention can define three physical profiles (base, handheld, advanced) that are optimized to minimize receiver complexity while achieving the performance required for a particular application. have.
  • the physical profile is a subset of all the structures that the corresponding receiver must implement.
  • the three physical profiles share most of the functional blocks, but differ slightly in certain blocks and / or parameters. Further physical profiles can be defined later.
  • a future profile may be multiplexed with a profile present in a single radio frequency (RF) channel through a future extension frame (FEF). Details of each physical profile will be described later.
  • RF radio frequency
  • FEF future extension frame
  • the base profile mainly indicates the main use of a fixed receiving device in connection with a roof-top antenna.
  • the base profile can be moved to any place but can also include portable devices that fall into a relatively stationary reception category.
  • the use of the base profile can be extended for handheld devices or vehicles with some improved implementation, but such use is not expected in base profile receiver operation.
  • the target signal-to-noise ratio range of reception is approximately 10-20 dB, which includes the 15 dB signal-to-noise ratio receiving capability of existing broadcast systems (eg, ATSC A / 53). Receiver complexity and power consumption are not as important as in battery powered handheld devices that will use the handheld profile. Key system parameters for the base profile are listed in Table 1 below.
  • the handheld profile is designed for use in battery powered handheld and in-vehicle devices.
  • the device may move at pedestrian or vehicle speed.
  • the power consumption as well as the receiver complexity is very important for the implementation of the device of the handheld profile.
  • the target signal-to-noise ratio range of the handheld profile is approximately 0-10 dB, but can be set to reach below 0 dB if intended for lower indoor reception.
  • the advance profile provides higher channel capability in exchange for greater execution complexity.
  • the profile requires the use of MIMO transmission and reception, and the UHDTV service is a target use, for which the profile is specifically designed.
  • the enhanced capability may also be used to allow for an increase in the number of services at a given bandwidth, for example multiple SDTV or HDTV services.
  • the target signal to noise ratio range of the advanced profile is approximately 20 to 30 dB.
  • MIMO transmissions initially use existing elliptic polarization transmission equipment and can later be extended to full power cross polarization transmissions. Key system parameters for the advance profile are listed in Table 3 below.
  • the base profile may be used as a profile for both terrestrial broadcast service and mobile broadcast service. That is, the base profile can be used to define the concept of a profile that includes a mobile profile. Also, the advanced profile can be divided into an advanced profile for the base profile with MIMO and an advanced profile for the handheld profile with MIMO. The three profiles can be changed according to the designer's intention.
  • Auxiliary stream A sequence of cells carrying data of an undefined modulation and coding that can be used as a future extension or as required by a broadcaster or network operator.
  • Base data pipe a data pipe that carries service signaling data
  • Baseband Frame (or BBFRAME): A set of Kbch bits that form the input for one FEC encoding process (BCH and LDPC encoding).
  • Coded block one of an LDPC encoded block of PLS1 data or an LDPC encoded block of PLS2 data
  • Data pipe a logical channel in the physical layer that carries service data or related metadata that can carry one or more services or service components
  • Data pipe unit A basic unit that can allocate data cells to data pipes in a frame
  • Data symbol OFDM symbol in a frame that is not a preamble symbol (frame signaling symbols and frame edge symbols are included in the data symbols)
  • DP_ID This 8-bit field uniquely identifies a data pipe within the system identified by SYSTEM_ID.
  • Dummy cell A cell that carries a pseudo-random value used to fill the remaining unused capacity for physical layer signaling (PLS) signaling, data pipes, or auxiliary streams.
  • PLS physical layer signaling
  • FAC Emergency alert channel
  • Frame A physical layer time slot starting with a preamble and ending with a frame edge symbol.
  • Frame repetition unit A set of frames belonging to the same or different physical profile that contains an FEF that is repeated eight times in a super-frame.
  • FEC Fast information channel
  • FECBLOCK set of LDPC encoded bits of data pipe data
  • FFT size The nominal FFT size used for a particular mode equal to the active symbol period Ts expressed in cycles of the fundamental period T.
  • Frame signaling symbol The higher pilot density used at the start of a frame in a particular combination of FFT size, guard interval, and scattered pilot pattern, which carries a portion of the PLS data. Having OFDM symbol
  • Frame edge symbol An OFDM symbol with a higher pilot density used at the end of the frame in a particular combination of FFT size, guard interval, and scatter pilot pattern.
  • Frame-group set of all frames with the same physical profile type in a superframe
  • Future extention frame A physical layer time slot within a super frame that can be used for future expansion, starting with a preamble.
  • Futurecast UTB system A proposed physical layer broadcast system whose input is one or more MPEG2-TS or IP (Internet protocol) or generic streams and the output is an RF signal.
  • Input stream A stream of data for the coordination of services delivered to the end user by the system.
  • Normal data symbols data symbols except frame signaling symbols and frame edge symbols
  • PHY profile A subset of all structures that the corresponding receiver must implement
  • PLS physical layer signaling data consisting of PLS1 and PLS2
  • PLS1 The first set of PLS data carried in a frame signaling symbol (FSS) with fixed size, coding, and modulation that conveys basic information about the system as well as the parameters needed to decode PLS2.
  • FSS frame signaling symbol
  • PLS2 The second set of PLS data sent to the FSS carrying more detailed PLS data about data pipes and systems.
  • PLS2 dynamic data PLS2 data that changes dynamically from frame to frame
  • PLS2 static data PLS2 data that is static during the duration of a frame group
  • Preamble signaling data signaling data carried by the preamble symbol and used to identify the basic mode of the system
  • Preamble symbol a fixed length pilot symbol carrying basic PLS data and positioned at the beginning of a frame
  • Preamble symbols are primarily used for fast initial band scans to detect system signals, their timings, frequency offsets, and FFT sizes.
  • Superframe set of eight frame repeat units
  • Time interleaving block A set of cells in which time interleaving is performed, corresponding to one use of time interleaver memory.
  • Time interleaving group A unit in which dynamic capacity allocation is performed for a particular data pipe, consisting of an integer, the number of XFECBLOCKs that change dynamically.
  • a time interleaving group can be directly mapped to one frame or mapped to multiple frames.
  • the time interleaving group may include one or more time interleaving blocks.
  • Type 1 DP A data pipe in a frame where all data pipes are mapped to frames in a time division multiplexing (TDM) manner
  • Type 2 DPs Types of data pipes in a frame where all data pipes are mapped to frames in an FDM fashion.
  • XFECBLOCK set of Ncells cells carrying all bits of one LDPC FECBLOCK
  • FIG. 1 shows a structure of a broadcast signal transmission apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • a broadcast signal transmission apparatus for a next generation broadcast service includes an input format block 1000, a bit interleaved coding & modulation (BICM) block 1010, and a frame building block 1020, orthogonal frequency division multiplexing (OFDM) generation block (OFDM generation block) 1030, and signaling generation block 1040. The operation of each block of the broadcast signal transmission apparatus will be described.
  • BICM bit interleaved coding & modulation
  • OFDM generation block orthogonal frequency division multiplexing
  • signaling generation block 1040 The operation of each block of the broadcast signal transmission apparatus will be described.
  • IP streams / packets and MPEG2-TS are the main input formats and other stream types are treated as general streams.
  • management information is input to control the scheduling and allocation of the corresponding bandwidth for each input stream.
  • One or multiple TS streams, IP streams and / or general stream inputs are allowed at the same time.
  • the input format block 1000 can demultiplex each input stream into one or multiple data pipes to which independent coding and modulation is applied.
  • the data pipe is the basic unit for controlling robustness, which affects the quality of service (QoS).
  • QoS quality of service
  • One or multiple services or service components may be delivered by one data pipe. Detailed operations of the input format block 1000 will be described later.
  • a data pipe is a logical channel at the physical layer that carries service data or related metadata that can carry one or multiple services or service components.
  • the data pipe unit is a basic unit for allocating data cells to data pipes in one frame.
  • parity data is added for error correction and the encoded bit stream is mapped to a complex value constellation symbol.
  • the symbols are interleaved over the specific interleaving depth used for that data pipe.
  • MIMO encoding is performed at BICM block 1010 and additional data paths are added to the output for MIMO transmission. Detailed operations of the BICM block 1010 will be described later.
  • the frame building block 1020 may map data cells of an input data pipe to OFDM solid balls within one frame. After mapping, frequency interleaving is used for frequency domain diversity, in particular to prevent frequency selective fading channels. Detailed operations of the frame building block 1020 will be described later.
  • the OFDM generation block 1030 can apply existing OFDM modulation having a cyclic prefix as the guard interval.
  • a distributed MISO scheme is applied across the transmitter.
  • a peak-to-average power ratio (PAPR) scheme is implemented in the time domain.
  • PAPR peak-to-average power ratio
  • the proposal provides a variety of FFT sizes, guard interval lengths, and sets of corresponding pilot patterns. Detailed operations of the OFDM generation block 1030 will be described later.
  • the signaling generation block 1040 may generate physical layer signaling information used for the operation of each functional block.
  • the signaling information is also transmitted such that the service of interest is properly recovered at the receiver side. Detailed operations of the signaling generation block 1040 will be described later.
  • 2 illustrates an input format block according to an embodiment of the present invention. 2 shows an input format block when the input signal is a single input stream.
  • the input format block illustrated in FIG. 2 corresponds to an embodiment of the input format block 1000 described with reference to FIG. 1.
  • Input to the physical layer may consist of one or multiple data streams. Each data stream is carried by one data pipe.
  • the mode adaptation module slices the input data stream into a data field of a baseband frame (BBF).
  • BBF baseband frame
  • the system supports three types of input data streams: MPEG2-TS, IP, and GS (generic stream).
  • MPEG2-TS features a fixed length (188 bytes) packet where the first byte is a sync byte (0x47).
  • An IP stream consists of variable length IP datagram packets signaled in IP packet headers.
  • the system supports both IPv4 and IPv6 for IP streams.
  • the GS may consist of variable length packets or constant length packets signaled in the encapsulation packet header.
  • (a) shows a mode adaptation block 2000 and a stream adaptation (stream adaptation) 2010 for a signal data pipe
  • PLS generation block 2020 and PLS scrambler 2030 are shown. The operation of each block will be described.
  • the input stream splitter splits the input TS, IP, GS streams into multiple service or service component (audio, video, etc.) streams.
  • the mode adaptation module 2010 is composed of a CRC encoder, a baseband (BB) frame slicer, and a BB frame header insertion block.
  • the CRC encoder provides three types of CRC encoding, CRC-8, CRC-16, and CRC-32, for error detection at the user packet (UP) level.
  • the calculated CRC byte is appended after the UP.
  • CRC-8 is used for the TS stream
  • CRC-32 is used for the IP stream. If the GS stream does not provide CRC encoding, then the proposed CRC encoding should be applied.
  • the BB Frame Slicer maps the input to an internal logical bit format.
  • the first receive bit is defined as MSB.
  • the BB frame slicer allocates the same number of input bits as the available data field capacity. In order to allocate the same number of input bits as the BBF payload, the UP stream is sliced to fit the data field of the BBF.
  • the BB frame header insertion block can insert a 2 bytes fixed length BBF header before the BB frame.
  • the BBF header consists of STUFFI (1 bit), SYNCD (13 bit), and RFU (2 bit).
  • the BBF may have an extension field (1 or 3 bytes) at the end of the 2-byte BBF header.
  • Stream adaptation 2010 consists of a stuffing insertion block and a BB scrambler.
  • the stuffing insertion block may insert the stuffing field into the payload of the BB frame. If the input data for the stream adaptation is sufficient to fill the BB frame, STUFFI is set to 0, and the BBF has no stuffing field. Otherwise, STUFFI is set to 1 and the stuffing field is inserted immediately after the BBF header.
  • the stuffing field includes a 2-byte stuffing field header and variable sized stuffing data.
  • the BB scrambler scrambles the complete BBF for energy dissipation.
  • the scrambling sequence is synchronized with the BBF.
  • the scrambling sequence is generated by the feedback shift register.
  • the PLS generation block 2020 may generate PLS data.
  • PLS provides a means by which a receiver can connect to a physical layer data pipe.
  • PLS data consists of PLS1 data and PLS2 data.
  • PLS1 data is the first set of PLS data delivered to the FSS in frames with fixed size, coding, and modulation that convey basic information about the system as well as the parameters needed to decode the PLS2 data.
  • PLS1 data provides basic transmission parameters including the parameters required to enable reception and decoding of PLS2 data.
  • the PLS1 data is constant during the duration of the frame group.
  • PLS2 data is the second set of PLS data sent to the FSS that carries more detailed PLS data about the data pipes and systems.
  • PLS2 contains parameters that provide enough information for the receiver to decode the desired data pipe.
  • PLS2 signaling further consists of two types of parameters: PLS2 static data (PLS2-STAT data) and PLS2 dynamic data (PLS2-DYN data).
  • PLS2 static data is PLS2 data that is static during the duration of a frame group
  • PLS2 dynamic data is PLS2 data that changes dynamically from frame to frame.
  • the PLS scrambler 2030 may scramble PLS data generated for energy distribution.
  • the aforementioned blocks may be omitted or may be replaced by blocks having similar or identical functions.
  • FIG 3 illustrates an input format block according to another embodiment of the present invention.
  • the input format block illustrated in FIG. 3 corresponds to an embodiment of the input format block 1000 described with reference to FIG. 1.
  • FIG. 3 illustrates a mode adaptation block of an input format block when the input signal corresponds to a multi input stream.
  • a mode adaptation block of an input format block for processing multi input streams may independently process multiple input streams.
  • a mode adaptation block for processing a multi input stream may be an input stream splitter 3000 or an input stream synchro.
  • Each block of the mode adaptation block will be described.
  • Operations of the CRC encoder 3050, the BB frame slicer 3060, and the BB header insertion block 3070 correspond to the operations of the CRC encoder, the BB frame slicer, and the BB header insertion block described with reference to FIG. Is omitted.
  • the input stream splitter 3000 splits the input TS, IP, and GS streams into a plurality of service or service component (audio, video, etc.) streams.
  • the input stream synchronizer 3010 may be called ISSY.
  • ISSY can provide suitable means to ensure constant bit rate (CBR) and constant end-to-end transmission delay for any input data format.
  • CBR constant bit rate
  • ISSY is always used in the case of multiple data pipes carrying TS, and optionally in multiple data pipes carrying GS streams.
  • Compensating delay block 3020 may delay the split TS packet stream following the insertion of ISSY information to allow TS packet recombination mechanisms without requiring additional memory at the receiver. have.
  • the null packet deletion block 3030 is used only for the TS input stream. Some TS input streams or split TS streams may have a large number of null packets present to accommodate variable bit-rate (VBR) services in the CBR TS stream. In this case, to avoid unnecessary transmission overhead, null packets may be acknowledged and not transmitted. At the receiver, the discarded null packet can be reinserted in the exact place it originally existed with reference to the deleted null-packet (DNP) counter inserted in the transmission, ensuring CBR and time stamp (PCR) updates. There is no need.
  • VBR variable bit-rate
  • the header compression block 3040 can provide packet header compression to increase transmission efficiency for the TS or IP input stream. Since the receiver may have a priori information for a particular portion of the header, this known information may be deleted at the transmitter.
  • the receiver may have a priori information about the sync byte configuration (0x47) and the packet length (188 bytes). If the input TS delivers content with only one PID, that is, one service component (video, audio, etc.) or service subcomponent (SVC base layer, SVC enhancement layer, MVC base view, or MVC dependent view) Only, TS packet header compression may (optionally) be applied to the TS. TS packet header compression is optionally used when the input stream is an IP stream. The block may be omitted or replaced with a block having similar or identical functions.
  • FIG. 4 illustrates a BICM block according to an embodiment of the present invention.
  • the BICM block illustrated in FIG. 4 corresponds to an embodiment of the BICM block 1010 described with reference to FIG. 1.
  • the broadcast signal transmission apparatus for the next generation broadcast service may provide a terrestrial broadcast service, a mobile broadcast service, a UHDTV service, and the like.
  • the BICM block according to an embodiment of the present invention can independently process each data pipe by independently applying the SISO, MISO, and MIMO schemes to the data pipes corresponding to the respective data paths.
  • the apparatus for transmitting broadcast signals for the next generation broadcast service according to an embodiment of the present invention may adjust QoS for each service or service component transmitted through each data pipe.
  • the BICM block shared by the base profile and the handheld profile and the BICM block of the advanced profile may include a plurality of processing blocks for processing each data pipe.
  • the processing block 5000 of the BICM block for the base profile and the handheld profile includes a data FEC encoder 5010, a bit interleaver 5020, a constellation mapper 5030, a signal space diversity (SSD) encoding block ( 5040, and a time interleaver 5050.
  • a data FEC encoder 5010 a bit interleaver 5020
  • a constellation mapper 5030 a signal space diversity (SSD) encoding block ( 5040, and a time interleaver 5050.
  • SSD signal space diversity
  • the data FEC encoder 5010 performs FEC encoding on the input BBF to generate the FECBLOCK procedure using outer coding (BCH) and inner coding (LDPC).
  • Outer coding (BCH) is an optional coding method. The detailed operation of the data FEC encoder 5010 will be described later.
  • the bit interleaver 5020 may interleave the output of the data FEC encoder 5010 while providing a structure that can be efficiently realized to achieve optimized performance by a combination of LDPC codes and modulation schemes. The detailed operation of the bit interleaver 5020 will be described later.
  • Constellation mapper 5030 can be QPSK, QAM-16, non-uniform QAM (NUQ-64, NUQ-256, NUQ-1024) or non-uniform constellation (NUC-16, NUC-64, NUC-256, NUC-1024)
  • NUQ-64, NUQ-256, NUQ-1024 non-uniform QAM
  • NUC-16, NUC-64, NUC-256, NUC-1024 A constellation point whose power is normalized by modulating each cell word from the bit interleaver 5020 in the base and handheld profiles or the cell word from the cell word demultiplexer 5010-1 in the advanced profile. el can be provided.
  • the constellation mapping applies only to data pipes. It is observed that NUQ has any shape, while QAM-16 and NUQ have a square shape. If each constellation is rotated by a multiple of 90 degrees, the rotated constellation overlaps exactly with the original. Due to the rotational symmetry characteristic, the real and imaginary components have the same capacity and average power. Both NUQ and NUC
  • the time interleaver 5050 may operate at the data pipe level.
  • the parameters of time interleaving can be set differently for each data pipe. The specific operation of the time interleaver 5050 will be described later.
  • the processing block 5000-1 of the BICM block for the advanced profile may include a data FEC encoder, a bit interleaver, a constellation mapper, and a time interleaver.
  • the processing block 5000-1 is distinguished from the processing block 5000 in that it further includes a cell word demultiplexer 5010-1 and a MIMO encoding block 5020-1.
  • operations of the data FEC encoder, the bit interleaver, the constellation mapper, and the time interleaver in the processing block 5000-1 may be performed by the data FEC encoder 5010, the bit interleaver 5020, and the constellation mapper 5030. Since this corresponds to the operation of the time interleaver 5050, the description thereof will be omitted.
  • Cell word demultiplexer 5010-1 is used by an advanced profile data pipe to separate a single cell word stream into a dual cell word stream for MIMO processing. A detailed operation of the cell word demultiplexer 5010-1 will be described later.
  • the MIMO encoding block 5020-1 may process the output of the cell word demultiplexer 5010-1 using the MIMO encoding scheme.
  • MIMO encoding scheme is optimized for broadcast signal transmission. MIMO technology is a promising way to gain capacity, but depends on the channel characteristics. Especially for broadcast, the difference in received signal power between two antennas due to different signal propagation characteristics or the strong LOS component of the channel makes it difficult to obtain capacity gains from MIMO.
  • the proposed MIMO encoding scheme overcomes this problem by using phase randomization and rotation based precoding of one of the MIMO output signals.
  • MIMO encoding is intended for a 2x2 MIMO system that requires at least two antennas at both the transmitter and the receiver.
  • Two MIMO encoding modes are defined in this proposal, full-rate spatial multiplexing (FR-SM) and full-rate full-diversity spatial multiplexing (FRFD-SM).
  • FR-SM encoding provides increased capacity with a relatively small complexity increase at the receiver side, while FRFD-SM encoding provides increased capacity and additional diversity gain with a larger complexity increase at the receiver side.
  • the proposed MIMO encoding scheme does not limit the antenna polarity arrangement.
  • MIMO processing is required for the advanced profile frame, which means that all data pipes in the advanced profile frame are processed by the MIMO encoder. MIMO processing is applied at the data pipe level.
  • a pair of constellation mapper outputs, NUQ (e1, i and e2, i), is fed to the input of the MIMO encoder.
  • MIMO encoder output pairs g1, i and g2, i are transmitted by the same carrier k and OFDM symbol l of each transmit antenna.
  • FIG. 5 illustrates a BICM block according to another embodiment of the present invention.
  • the BICM block illustrated in FIG. 5 corresponds to an embodiment of the BICM block 1010 described with reference to FIG. 1.
  • the EAC is part of a frame carrying EAS information data
  • the FIC is a logical channel in a frame carrying mapping information between a service and a corresponding base data pipe. Detailed description of the EAC and FIC will be described later.
  • a BICM block for protecting PLS, EAC, and FIC may include a PLS FEC encoder 6000, a bit interleaver 6010, and a constellation mapper 6020.
  • the PLS FEC encoder 6000 may include a scrambler, a BCH encoding / zero insertion block, an LDPC encoding block, and an LDPC parity puncturing block. Each block of the BICM block will be described.
  • the PLS FEC encoder 6000 may encode scrambled PLS 1/2 data, EAC and FIC sections.
  • the scrambler may scramble PLS1 data and PLS2 data before BCH encoding and shortening and punctured LDPC encoding.
  • the BCH encoding / zero insertion block may perform outer encoding on the scrambled PLS 1/2 data using the shortened BCH code for PLS protection, and insert zero bits after BCH encoding. For PLS1 data only, the output bits of zero insertion can be permutated before LDPC encoding.
  • the LDPC encoding block may encode the output of the BCH encoding / zero insertion block using the LDPC code.
  • C ldpc and parity bits P ldpc are encoded systematically from each zero-inserted PLS information block I ldpc and appended after it.
  • LDPC code parameters for PLS1 and PLS2 are shown in Table 4 below.
  • the LDPC parity puncturing block may perform puncturing on the PLS1 data and the PLS2 data.
  • LDPC parity bits are punctured after LDPC encoding.
  • the LDPC parity bits of PLS2 are punctured after LDPC encoding. These punctured bits are not transmitted.
  • the bit interleaver 6010 may interleave each shortened and punctured PLS1 data and PLS2 data.
  • the constellation mapper 6020 may map bit interleaved PLS1 data and PLS2 data to constellations.
  • FIG. 6 illustrates a frame building block according to an embodiment of the present invention.
  • the frame building block illustrated in FIG. 7 corresponds to an embodiment of the frame building block 1020 described with reference to FIG. 1.
  • the frame building block may include a delay compensation block 7000, a cell mapper 7010, and a frequency interleaver 7020. have. Each block of the frame building block will be described.
  • the delay compensation block 7000 adjusts the timing between the data pipes and the corresponding PLS data to ensure co-time between the data pipes and the corresponding PLS data at the transmitter. have.
  • PLS data is delayed by the data pipe.
  • the delay of the BICM block is mainly due to the time interleaver 5050.
  • In-band signaling data may cause information of the next time interleaving group to be delivered one frame ahead of the data pipe to be signaled.
  • the delay compensation block delays the in-band signaling data accordingly.
  • the cell mapper 7010 may map a PLS, an EAC, an FIC, a data pipe, an auxiliary stream, and a dummy cell to an active carrier of an OFDM symbol in a frame.
  • the basic function of the cell mapper 7010 is to activate the data cells generated by time interleaving for each data pipe, PLS cell, and EAC / FIC cell, if any, corresponding to each OFDM symbol in one frame. (active) mapping to an array of OFDM cells.
  • Service signaling data (such as program specific information (PSI) / SI) may be collected separately and sent by a data pipe.
  • PSI program specific information
  • SI program specific information
  • the frequency interleaver 7020 may randomly interleave data cells received by the cell mapper 7010 to provide frequency diversity.
  • the frequency interleaver 7020 may operate in an OFDM symbol pair consisting of two sequential OFDM symbols using different interleaving seed order to obtain the maximum interleaving gain in a single frame.
  • FIG 7 illustrates an OFDM generation block according to an embodiment of the present invention.
  • the OFDM generation block illustrated in FIG. 7 corresponds to an embodiment of the OFDM generation block 1030 described with reference to FIG. 1.
  • the OFDM generation block modulates the OFDM carrier by inserting a pilot by the cell generated by the frame building block, inserts a pilot, and generates a time domain signal for transmission.
  • the block sequentially inserts a guard interval and applies a PAPR reduction process to generate a final RF signal.
  • the OFDM generation block includes a pilot and reserved tone insertion block (8000), a 2D-single frequency network (eSFN) encoding block 8010, an inverse fast fourier transform (IFFT).
  • Block 8020 PAPR reduction block 8030, guard interval insertion block 8040, preamble insertion block 8050, other system insertion block 8060, and DAC block ( 8070).
  • the other system insertion block 8060 may multiplex signals of a plurality of broadcast transmission / reception systems in a time domain so that data of two or more different broadcast transmission / reception systems providing a broadcast service may be simultaneously transmitted in the same RF signal band.
  • two or more different broadcast transmission / reception systems refer to a system that provides different broadcast services.
  • Different broadcast services may refer to terrestrial broadcast services or mobile broadcast services.
  • FIG. 8 illustrates a structure of a broadcast signal receiving apparatus for a next generation broadcast service according to an embodiment of the present invention.
  • the broadcast signal receiving apparatus for the next generation broadcast service may correspond to the broadcast signal transmitting apparatus for the next generation broadcast service described with reference to FIG. 1.
  • An apparatus for receiving broadcast signals for a next generation broadcast service includes a synchronization & demodulation module 9000, a frame parsing module 9010, a demapping and decoding module a demapping & decoding module 9020, an output processor 9030, and a signaling decoding module 9040. The operation of each module of the broadcast signal receiving apparatus will be described.
  • the synchronization and demodulation module 9000 receives an input signal through m reception antennas, performs signal detection and synchronization on a system corresponding to the broadcast signal receiving apparatus, and performs a reverse process of the procedure performed by the broadcast signal transmitting apparatus. Demodulation can be performed.
  • the frame parsing module 9010 may parse an input signal frame and extract data in which a service selected by a user is transmitted.
  • the frame parsing module 9010 may execute deinterleaving corresponding to the reverse process of interleaving. In this case, positions of signals and data to be extracted are obtained by decoding the data output from the signaling decoding module 9040, so that the scheduling information generated by the broadcast signal transmission apparatus may be restored.
  • the demapping and decoding module 9020 may convert the input signal into bit region data and then deinterleave the bit region data as necessary.
  • the demapping and decoding module 9020 can perform demapping on the mapping applied for transmission efficiency, and correct an error generated in the transmission channel through decoding. In this case, the demapping and decoding module 9020 can obtain transmission parameters necessary for demapping and decoding by decoding the data output from the signaling decoding module 9040.
  • the output processor 9030 may perform a reverse process of various compression / signal processing procedures applied by the broadcast signal transmission apparatus to improve transmission efficiency.
  • the output processor 9030 may obtain necessary control information from the data output from the signaling decoding module 9040.
  • the output of the output processor 8300 corresponds to a signal input to the broadcast signal transmission apparatus and may be MPEG-TS, IP stream (v4 or v6), and GS.
  • the signaling decoding module 9040 may obtain PLS information from the signal demodulated by the synchronization and demodulation module 9000. As described above, the frame parsing module 9010, the demapping and decoding module 9200, and the output processor 9300 may execute the function using data output from the signaling decoding module 9040.
  • FIG. 9 shows a frame structure according to an embodiment of the present invention.
  • FIG. 9 shows a structural example of a frame time and a frame repetition unit (FRU) in a super frame.
  • (a) shows a super frame according to an embodiment of the present invention
  • (b) shows a FRU according to an embodiment of the present invention
  • (c) shows a frame of various physical profile (PHY profile) in the FRU
  • (D) shows the structure of the frame.
  • Super frame may consist of eight FRUs.
  • the FRU is the basic multiplexing unit for the TDM of the frame and is repeated eight times in the super frame.
  • Each frame in the FRU belongs to one of the physical profiles (base, handheld, advanced profile) or FEF.
  • the maximum allowable number of frames in a FRU is 4, and a given physical profile may appear any number of times from 0 to 4 times in the FRU (eg, base, base, handheld, advanced).
  • the physical profile definition may be extended using the reserved value of PHY_PROFILE in the preamble if necessary.
  • the FEF portion is inserted at the end of the FRU if included. If the FEF is included in the FRU, the maximum number of FEFs is 8 in a super frame. It is not recommended that the FEF parts be adjacent to each other.
  • One frame is further separated into multiple OFDM symbols and preambles. As shown in (d), the frame includes a preamble, one or more FSS, normal data symbols, and FES.
  • the preamble is a special symbol that enables fast Futurecast UTB system signal detection and provides a set of basic transmission parameters for efficient transmission and reception of the signal. Details of the preamble will be described later.
  • the main purpose of the FSS is to carry PLS data.
  • the FSS For fast synchronization and channel estimation, and hence for fast decoding of PLS data, the FSS has a higher density pilot pattern than normal data symbols.
  • the FES has a pilot that is exactly the same as the FSS, which allows frequency only interpolation and temporal interpolation within the FES without extrapolation for symbols immediately preceding the FES.
  • FIG. 10 illustrates a signaling hierarchy structure of a frame according to an embodiment of the present invention.
  • PLS 10 shows a signaling hierarchy, which is divided into three main parts: preamble signaling data 11000, PLS1 data 11010, and PLS2 data 11020.
  • the purpose of the preamble carried by the preamble signal every frame is to indicate the basic transmission parameters and transmission type of the frame.
  • PLS1 allows the receiver to access and decode PLS2 data that includes parameters for connecting to the data pipe of interest.
  • PLS2 is delivered every frame and divided into two main parts, PLS2-STAT data and PLS2-DYN data. The static and dynamic parts of the PLS2 data are followed by padding if necessary.
  • FIG 11 illustrates preamble signaling data according to an embodiment of the present invention.
  • the preamble signaling data carries 21 bits of information needed to enable the receiver to access the PLS data and track the data pipes within the frame structure. Details of the preamble signaling data are as follows.
  • PHY_PROFILE This 3-bit field indicates the physical profile type of the current frame. The mapping of different physical profile types is given in Table 5 below.
  • FFT_SIZE This 2-bit field indicates the FFT size of the current frame in the frame group as described in Table 6 below.
  • GI_FRACTION This 3-bit field indicates a guard interval fraction value in the current super frame as described in Table 7 below.
  • EAC_FLAG This 1-bit field indicates whether EAC is provided in the current frame. If this field is set to 1, EAS is provided in the current frame. If this field is set to 0, EAS is not delivered in the current frame. This field may be converted to dynamic within a super frame.
  • PILOT_MODE This 1-bit field indicates whether the pilot mode is a mobile mode or a fixed mode for the current frame in the current frame group. If this field is set to 0, mobile pilot mode is used. If the field is set to '1', fixed pilot mode is used.
  • PAPR_FLAG This 1-bit field indicates whether PAPR reduction is used for the current frame in the current frame group. If this field is set to 1, tone reservation is used for PAPR reduction. If this field is set to 0, no PAPR reduction is used.
  • This 3-bit field indicates the physical profile type configuration of the FRU present in the current super frame. In the corresponding field in all preambles in the current super frame, all profile types carried in the current super frame are identified. The 3-bit field is defined differently for each profile as shown in Table 8 below.
  • PLS1 data provides basic transmission parameters including the parameters needed to enable the reception and decoding of PLS2. As mentioned above, the PLS1 data does not change during the entire duration of one frame group. A detailed definition of the signaling field of the PLS1 data is as follows.
  • PREAMBLE_DATA This 20-bit field is a copy of the preamble signaling data excluding EAC_FLAG.
  • NUM_FRAME_FRU This 2-bit field indicates the number of frames per FRU.
  • PAYLOAD_TYPE This 3-bit field indicates the format of payload data carried in the frame group. PAYLOAD_TYPE is signaled as shown in Table 9.
  • NUM_FSS This 2-bit field indicates the number of FSS in the current frame.
  • SYSTEM_VERSION This 8-bit field indicates the version of the signal format being transmitted. SYSTEM_VERSION is separated into two 4-bit fields: major and minor.
  • the 4-bit MSB in the SYSTEM_VERSION field indicates major version information. Changes in the major version field indicate incompatible changes. The default value is 0000. For the version described in that standard, the value is set to 0000.
  • Minor Version A 4-bit LSB in the SYSTEM_VERSION field indicates minor version information. Changes in the minor version field are compatible.
  • CELL_ID This is a 16-bit field that uniquely identifies a geographic cell in an ATSC network. ATSC cell coverage may consist of one or more frequencies depending on the number of frequencies used per Futurecast UTB system. If the value of CELL_ID is unknown or not specified, this field is set to zero.
  • NETWORK_ID This is a 16-bit field that uniquely identifies the current ATSC network.
  • SYSTEM_ID This 16-bit field uniquely identifies a Futurecast UTB system within an ATSC network.
  • Futurecast UTB systems are terrestrial broadcast systems whose input is one or more input streams (TS, IP, GS) and the output is an RF signal.
  • the Futurecast UTB system conveys the FEF and one or more physical profiles, if present.
  • the same Futurecast UTB system can carry different input streams and use different RFs in different geographic regions, allowing for local service insertion.
  • Frame structure and scheduling are controlled in one place and are the same for all transmissions within a Futurecast UTB system.
  • One or more Futurecast UTB systems may have the same SYSTEM_ID meaning that they all have the same physical structure and configuration.
  • the following loop is composed of FRU_PHY_PROFILE, FRU_FRAME_LENGTH, FRU_GI_FRACTION, and RESERVED indicating the length and FRU configuration of each frame type.
  • the loop size is fixed such that four physical profiles (including FFEs) are signaled within the FRU. If NUM_FRAME_FRU is less than 4, the unused fields are filled with zeros.
  • FRU_PHY_PROFILE This 3-bit field indicates the physical profile type of the (i + 1) th frame (i is a loop index) of the associated FRU. This field uses the same signaling format as shown in Table 8.
  • FRU_FRAME_LENGTH This 2-bit field indicates the length of the (i + 1) th frame of the associated FRU. Using FRU_FRAME_LENGTH with FRU_GI_FRACTION, the exact value of frame duration can be obtained.
  • FRU_GI_FRACTION This 3-bit field indicates the guard interval partial value of the (i + 1) th frame of the associated FRU.
  • FRU_GI_FRACTION is signaled according to Table 7.
  • the following fields provide parameters for decoding PLS2 data.
  • PLS2_FEC_TYPE This 2-bit field indicates the FEC type used by the PLS2 protection.
  • the FEC type is signaled according to Table 10. Details of the LDPC code will be described later.
  • PLS2_MOD This 3-bit field indicates the modulation type used by PLS2.
  • the modulation type is signaled according to Table 11.
  • PLS2_SIZE_CELL This 15-bit field indicates C total_partial_block which is the size (specified by the number of QAM cells) of all coding blocks for PLS2 carried in the current frame group. This value is constant for the entire duration of the current frame-group.
  • PLS2_STAT_SIZE_BIT This 14-bit field indicates the size, in bits, of the PLS2-STAT for the current frame-group. This value is constant for the entire duration of the current frame-group.
  • PLS2_DYN_SIZE_BIT This 14-bit field indicates the size, in bits, of the PLS2-DYN for the current frame-group. This value is constant for the entire duration of the current frame-group.
  • PLS2_REP_FLAG This 1-bit flag indicates whether the PLS2 repeat mode is used in the current frame group. If the value of this field is set to 1, PLS2 repeat mode is activated. If the value of this field is set to 0, PLS2 repeat mode is deactivated.
  • PLS2_REP_SIZE_CELL This 15-bit field indicates C total_partial_block , which is the size (specified by the number of QAM cells) of the partial coding block for PLS2 delivered every frame of the current frame group when PLS2 repetition is used. If iteration is not used, the value of this field is equal to zero. This value is constant for the entire duration of the current frame-group.
  • PLS2_NEXT_FEC_TYPE This 2-bit field indicates the FEC type used for PLS2 delivered in every frame of the next frame-group.
  • the FEC type is signaled according to Table 10.
  • PLS2_NEXT_MOD This 3-bit field indicates the modulation type used for PLS2 delivered in every frame of the next frame-group.
  • the modulation type is signaled according to Table 11.
  • PLS2_NEXT_REP_FLAG This 1-bit flag indicates whether the PLS2 repeat mode is used in the next frame group. If the value of this field is set to 1, PLS2 repeat mode is activated. If the value of this field is set to 0, PLS2 repeat mode is deactivated.
  • PLS2_NEXT_REP_SIZE_CELL This 15-bit field indicates C total_full_block , which is the size (specified in the number of QAM cells) of the entire coding block for PLS2 delivered every frame of the next frame-group when PLS2 repetition is used. If iteration is not used in the next frame-group, the value of this field is equal to zero. This value is constant for the entire duration of the current frame-group.
  • PLS2_NEXT_REP_STAT_SIZE_BIT This 14-bit field indicates the size, in bits, of the PLS2-STAT for the next frame-group. The value is constant in the current frame group.
  • PLS2_NEXT_REP_DYN_SIZE_BIT This 14-bit field indicates the size of the PLS2-DYN for the next frame-group, in bits. The value is constant in the current frame group.
  • PLS2_AP_MODE This 2-bit field indicates whether additional parity is provided for PLS2 in the current frame group. This value is constant for the entire duration of the current frame-group. Table 12 below provides the values for this field. If the value of this field is set to 00, no additional parity is used for PLS2 in the current frame group.
  • PLS2_AP_SIZE_CELL This 15-bit field indicates the size (specified by the number of QAM cells) of additional parity bits of PLS2. This value is constant for the entire duration of the current frame-group.
  • PLS2_NEXT_AP_MODE This 2-bit field indicates whether additional parity is provided for PLS2 signaling for every frame of the next frame-group. This value is constant for the entire duration of the current frame-group. Table 12 defines the values of this field.
  • PLS2_NEXT_AP_SIZE_CELL This 15-bit field indicates the size (specified by the number of QAM cells) of additional parity bits of PLS2 for every frame of the next frame-group. This value is constant for the entire duration of the current frame-group.
  • RESERVED This 32-bit field is reserved for future use.
  • FIG 13 illustrates PLS2 data according to an embodiment of the present invention.
  • PLS2-STAT data of the PLS2 data.
  • PLS2-STAT data is the same within a frame group, while PLS2-DYN data provides specific information about the current frame.
  • FIC_FLAG This 1-bit field indicates whether the FIC is used in the current frame group. If the value of this field is set to 1, the FIC is provided in the current frame. If the value of this field is set to 0, FIC is not delivered in the current frame. This value is constant for the entire duration of the current frame-group.
  • AUX_FLAG This 1-bit field indicates whether the auxiliary stream is used in the current frame group. If the value of this field is set to 1, the auxiliary stream is provided in the current frame. If the value of this field is set to 0, the auxiliary frame is not transmitted in the current frame. This value is constant for the entire duration of the current frame-group.
  • NUM_DP This 6-bit field indicates the number of data pipes carried in the current frame. The value of this field is between 1 and 64, and the number of data pipes is NUM_DP + 1.
  • DP_ID This 6-bit field uniquely identifies within the physical profile.
  • DP_TYPE This 3-bit field indicates the type of data pipe. This is signaled according to Table 13 below.
  • DP_GROUP_ID This 8-bit field identifies the data pipe group with which the current data pipe is associated. This can be used to connect to the data pipe of the service component associated with a particular service that the receiver will have the same DP_GROUP_ID.
  • BASE_DP_ID This 6-bit field indicates a data pipe that carries service signaling data (such as PSI / SI) used in the management layer.
  • the data pipe indicated by BASE_DP_ID may be a normal data pipe for delivering service signaling data together with service data or a dedicated data pipe for delivering only service signaling data.
  • DP_FEC_TYPE This 2-bit field indicates the FEC type used by the associated data pipe.
  • the FEC type is signaled according to Table 14 below.
  • DP_COD This 4-bit field indicates the code rate used by the associated data pipe.
  • the code rate is signaled according to Table 15 below.
  • DP_MOD This 4-bit field indicates the modulation used by the associated data pipe. Modulation is signaled according to Table 16 below.
  • DP_SSD_FLAG This 1-bit field indicates whether the SSD mode is used in the associated data pipe. If the value of this field is set to 1, the SSD is used. If the value of this field is set to 0, the SSD is not used.
  • DP_MIMO This 3-bit field indicates what type of MIMO encoding processing is applied to the associated data pipe.
  • the type of MIMO encoding process is signaled according to Table 17 below.
  • DP_TI_TYPE This 1-bit field indicates the type of time interleaving. A value of 0 indicates that one time interleaving group corresponds to one frame and includes one or more time interleaving blocks. A value of 1 indicates that one time interleaving group is delivered in more than one frame and contains only one time interleaving block.
  • DP_TI_LENGTH The use of this 2-bit field (only allowed values are 1, 2, 4, 8) is determined by the value set in the DP_TI_TYPE field as follows.
  • N TI the number of time interleaving block per time interleaving group
  • This 2-bit field represents the frame interval (I JUMP ) within the frame group for the associated data pipe, and allowed values are 1, 2, 4, 8 (the corresponding 2-bit fields are 00, 01, 10, 11). For data pipes that do not appear in every frame of a frame group, the value of this field is equal to the interval between sequential frames. For example, if a data pipe appears in frames 1, 5, 9, 13, etc., the value of this field is set to 4. For data pipes that appear in every frame, the value of this field is set to 1.
  • DP_TI_BYPASS This 1-bit field determines the availability of time interleaver 5050. If time interleaving is not used for the data pipe, this field value is set to 1. On the other hand, if time interleaving is used, the corresponding field value is set to zero.
  • DP_FIRST_FRAME_IDX This 5-bit field indicates the index of the first frame of the super frame in which the current data pipe occurs.
  • the value of DP_FIRST_FRAME_IDX is between 0 and 31.
  • DP_NUM_BLOCK_MAX This 10-bit field indicates the maximum value of DP_NUM_BLOCKS for the data pipe. The value of this field has the same range as DP_NUM_BLOCKS.
  • DP_PAYLOAD_TYPE This 2-bit field indicates the type of payload data carried by a given data pipe. DP_PAYLOAD_TYPE is signaled according to Table 19 below.
  • DP_INBAND_MODE This 2-bit field indicates whether the current data pipe carries in-band signaling information. In-band signaling type is signaled according to Table 20 below.
  • DP_PROTOCOL_TYPE This 2-bit field indicates the protocol type of the payload carried by the given data pipe.
  • the protocol type of payload is signaled according to Table 21 below when the input payload type is selected.
  • DP_CRC_MODE This 2-bit field indicates whether CRC encoding is used in the input format block. CRC mode is signaled according to Table 22 below.
  • DNP_MODE This 2-bit field indicates the null packet deletion mode used by the associated data pipe when DP_PAYLOAD_TYPE is set to TS ('00'). DNP_MODE is signaled according to Table 23 below. If DP_PAYLOAD_TYPE is not TS ('00'), DNP_MODE is set to a value of 00.
  • ISSY_MODE This 2-bit field indicates the ISSY mode used by the associated data pipe when DP_PAYLOAD_TYPE is set to TS ('00'). ISSY_MODE is signaled according to Table 24 below. If DP_PAYLOAD_TYPE is not TS ('00'), ISSY_MODE is set to a value of 00.
  • HC_MODE_TS This 2-bit field indicates the TS header compression mode used by the associated data pipe when DP_PAYLOAD_TYPE is set to TS ('00'). HC_MODE_TS is signaled according to Table 25 below.
  • PID This 13-bit field indicates the number of PIDs for TS header compression when DP_PAYLOAD_TYPE is set to TS ('00') and HC_MODE_TS is set to 01 or 10.
  • FIC_VERSION This 8-bit field indicates the version number of the FIC.
  • FIC_LENGTH_BYTE This 13-bit field indicates the length of the FIC in bytes.
  • NUM_AUX This 4-bit field indicates the number of auxiliary streams. Zero indicates that no auxiliary stream is used.
  • AUX_CONFIG_RFU This 8-bit field is reserved for future use.
  • AUX_STREAM_TYPE This 4 bits is reserved for future use to indicate the type of the current auxiliary stream.
  • AUX_PRIVATE_CONFIG This 28-bit field is reserved for future use for signaling the secondary stream.
  • FIG 14 illustrates PLS2 data according to another embodiment of the present invention.
  • the value of the PLS2-DYN data may change during the duration of one frame group, while the size of the field is constant.
  • FRAME_INDEX This 5-bit field indicates the frame index of the current frame within the super frame. The index of the first frame of the super frame is set to zero.
  • PLS_CHANGE_COUNTER This 4-bit field indicates the number of super frames before the configuration changes. The next super frame whose configuration changes is indicated by the value signaled in that field. If the value of this field is set to 0000, this means that no scheduled change is expected. For example, a value of 1 indicates that there is a change in the next super frame.
  • FIC_CHANGE_COUNTER This 4-bit field indicates the number of super frames before the configuration (i.e., the content of the FIC) changes. The next super frame whose configuration changes is indicated by the value signaled in that field. If the value of this field is set to 0000, this means that no scheduled change is expected. For example, a value of 0001 indicates that there is a change in the next super frame.
  • NUM_DP NUM_DP that describes the parameters related to the data pipe carried in the current frame.
  • DP_ID This 6-bit field uniquely represents a data pipe within the physical profile.
  • DP_START This 15-bit (or 13-bit) field indicates the first starting position of the data pipe using the DPU addressing technique.
  • the DP_START field has a length different according to the physical profile and the FFT size as shown in Table 27 below.
  • DP_NUM_BLOCK This 10-bit field indicates the number of FEC blocks in the current time interleaving group for the current data pipe.
  • the value of DP_NUM_BLOCK is between 0 and 1023.
  • the next field indicates the FIC parameter associated with the EAC.
  • EAC_FLAG This 1-bit field indicates the presence of an EAC in the current frame. This bit is equal to EAC_FLAG in the preamble.
  • EAS_WAKE_UP_VERSION_NUM This 8-bit field indicates the version number of the automatic activation indication.
  • EAC_FLAG field If the EAC_FLAG field is equal to 1, the next 12 bits are allocated to the EAC_LENGTH_BYTE field. If the EAC_FLAG field is equal to 0, the next 12 bits are allocated to EAC_COUNTER.
  • EAC_LENGTH_BYTE This 12-bit field indicates the length of the EAC in bytes.
  • EAC_COUNTER This 12-bit field indicates the number of frames before the frame in which the EAC arrives.
  • AUX_PRIVATE_DYN This 48-bit field is reserved for future use for signaling the secondary stream. The meaning of this field depends on the value of AUX_STREAM_TYPE in configurable PLS2-STAT.
  • CRC_32 32-bit error detection code that applies to the entire PLS2.
  • FIG. 15 illustrates a logical structure of a frame according to an embodiment of the present invention.
  • the PLS, EAC, FIC, data pipe, auxiliary stream, and dummy cell are mapped to the active carrier of the OFDM symbol in the frame.
  • PLS1 and PLS2 are initially mapped to one or more FSS. Then, if there is an EAC, the EAC cell is mapped to the immediately following PLS field. If there is an FIC next, the FIC cell is mapped.
  • the data pipes are mapped after the PLS or, if present, after the EAC or FIC. Type 1 data pipes are mapped first, and type 2 data pipes are mapped next. Details of the type of data pipe will be described later. In some cases, the data pipe may carry some special data or service signaling data for the EAS.
  • auxiliary stream or stream if present, is mapped to the data pipe next, followed by a dummy cell in turn. Mapping all together in the order described above, namely PLS, EAC, FIC, data pipe, auxiliary stream, and dummy cell, will correctly fill the cell capacity in the frame.
  • FIG 16 illustrates PLS mapping according to an embodiment of the present invention.
  • the PLS cell is mapped to an active carrier of the FSS. According to the number of cells occupied by the PLS, one or more symbols are designated as FSS, and the number of FSS NFSS is signaled by NUM_FSS in PLS1.
  • FSS is a special symbol that carries a PLS cell. Since alertness and latency are critical issues in PLS, the FSS has a high pilot density, enabling fast synchronization and interpolation only on frequencies within the FSS.
  • the PLS cell is mapped to an active carrier of the FSS from the top down as shown in the example of FIG.
  • PLS1 cells are initially mapped in ascending order of cell index from the first cell of the first FSS.
  • the PLS2 cell follows immediately after the last cell of PLS1 and the mapping continues downward until the last cell index of the first FSS. If the total number of required PLS cells exceeds the number of active carriers of one FSS, the mapping proceeds to the next FSS and continues in exactly the same way as the first FSS.
  • EAC, FIC or both are present in the current frame, EAC and FIC are placed between the PLS and the normal data pipe.
  • FIG 17 illustrates EAC mapping according to an embodiment of the present invention.
  • the EAC is a dedicated channel for delivering EAS messages and is connected to the data pipes for the EAS. EAS support is provided, but the EAC itself may or may not be present in every frame. If there is an EAC, the EAC is mapped immediately after the PLS2 cell. Except for PLS cells, none of the FIC, data pipes, auxiliary streams or dummy cells are located before the EAC. The mapping procedure of the EAC cell is exactly the same as that of the PLS.
  • EAC cells are mapped in ascending order of cell index from the next cell of PLS2 as shown in the example of FIG. Depending on the EAS message size, as shown in FIG. 17, the EAC cell may occupy few symbols.
  • the EAC cell follows immediately after the last cell of PLS2 and the mapping continues downward until the last cell index of the last FSS. If the total number of required EAC cells exceeds the number of remaining active carriers of the last FSS, the EAC mapping proceeds to the next symbol and continues in exactly the same way as the FSS. In this case, the next symbol to which the EAC is mapped is a normal data symbol, which has more active carriers than the FSS.
  • the FIC is passed next if present. If no FIC is sent (as signaling in the PLS2 field), the data pipe follows immediately after the last cell of the EAC.
  • FIC is a dedicated channel that carries cross-layer information to enable fast service acquisition and channel scan.
  • the information mainly includes channel binding information between data pipes and services of each broadcaster.
  • the receiver can decode the FIC and obtain information such as broadcaster ID, number of services, and BASE_DP_ID.
  • BASE_DP_ID For high-speed service acquisition, not only the FIC but also the base data pipe can be decoded using BASE_DP_ID. Except for the content that the base data pipe transmits, the base data pipe is encoded and mapped to the frame in exactly the same way as a normal data pipe. Thus, no further explanation of the base data pipe is needed.
  • FIC data is generated and consumed at the management layer. The content of the FIC data is as described in the management layer specification.
  • FIC data is optional and the use of FIC is signaled by the FIC_FLAG parameter in the static part of the PLS2. If FIC is used, FIC_FLAG is set to 1 and the signaling field for FIC is defined in the static part of PLS2. Signaled in this field is FIC_VERSION, FIC_LENGTH_BYTE. FIC uses the same modulation, coding, and time interleaving parameters as PLS2. The FIC shares the same signaling parameters as PLS2_MOD and PLS2_FEC. FIC data is mapped after PLS2 if present, or immediately after EAC if EAC is present. None of the normal data pipes, auxiliary streams, or dummy cells are located before the FIC. The method of mapping the FIC cells is exactly the same as the EAC, which in turn is identical to the PLS.
  • the FIC cells are mapped in ascending order of cell index from the next cell of PLS2 as shown in the example of (a).
  • FIC cells are mapped for several symbols.
  • the FIC cell follows immediately after the last cell of PLS2 and the mapping continues downward until the last cell index of the last FSS. If the total number of required FIC cells exceeds the number of remaining active carriers of the last FSS, the mapping of the remaining FIC cells proceeds to the next symbol, which continues in exactly the same way as the FSS. In this case, the next symbol to which the FIC is mapped is a normal data symbol, which has more active carriers than the FSS.
  • the EAC is mapped before the FIC and the FIC cells are mapped in ascending order of cell index from the next cell of the EAC as shown in (b).
  • one or more data pipes are mapped, followed by auxiliary streams and dummy cells if present.
  • FIG 19 shows an FEC structure according to an embodiment of the present invention.
  • the data FEC encoder may perform FEC encoding on the input BBF to generate the FECBLOCK procedure using outer coding (BCH) and inner coding (LDPC).
  • BCH outer coding
  • LDPC inner coding
  • the illustrated FEC structure corresponds to FECBLOCK.
  • the FECBLOCK and FEC structures have the same value corresponding to the length of the LDPC codeword.
  • N ldpc 64800 bits (long FECBLOCK) or 16200 bits (short FECBLOCK).
  • Tables 28 and 29 below show the FEC encoding parameters for the long FECBLOCK and the short FECBLOCK, respectively.
  • a 12-error correcting BCH code is used for the outer encoding of the BBF.
  • the BBF-generated polynomials for short FECBLOCK and long FECBLOCK are obtained by multiplying all polynomials.
  • LDPC codes are used to encode the output of the outer BCH encoding.
  • ldpc P parity bits
  • I ldpc - is systematically encoded from the (BCH encoded BBF), it is attached to the I ldpc.
  • the finished B ldpc (FECBLOCK) is expressed by the following equation.
  • N ldpc for long FECBLOCK - specific procedures for calculating the K ldpc parity bits is as follows.
  • x represents the address of the parity bit accumulator corresponding to the first bit i 0
  • Q ldpc is a code rate dependent constant specified in the address of the parity check matrix.
  • Equation 6 x represents the address of the parity bit accumulator corresponding to information bit i 360 , that is, the entry of the second row of the parity check matrix.
  • the final parity bits are obtained as follows.
  • the corresponding LDPC encoding procedure for short FECBLOCK is t LDPC for long FECBLOCK.
  • the time interleaver operates at the data pipe level.
  • the parameters of time interleaving can be set differently for each data pipe.
  • DP_TI_TYPE (allowed values: 0 or 1): Represents the time interleaving mode.
  • 0 indicates a mode with multiple time interleaving blocks (one or more time interleaving blocks) per time interleaving group. In this case, one time interleaving group is directly mapped to one frame (without interframe interleaving).
  • 1 indicates a mode having only one time interleaving block per time interleaving group. In this case, the time interleaving block is spread over one or more frames (interframe interleaving).
  • DP_NUM_BLOCK_MAX (allowed values: 0 to 1023): Represents the maximum number of XFECBLOCKs per time interleaving group.
  • DP_FRAME_INTERVAL (allowed values: 1, 2, 4, 8): Represents the number of frames I JUMP between two sequential frames carrying the same data pipe of a given physical profile.
  • DP_TI_BYPASS (allowed values: 0 or 1): If time interleaving is not used for the data frame, this parameter is set to one. If time interleaving is used, it is set to zero.
  • the parameter DP_NUM_BLOCK from the PLS2-DYN data indicates the number of XFECBLOCKs carried by one time interleaving group of the data group.
  • each time interleaving group is a set of integer number of XFECBLOCKs, and will contain a dynamically varying number of XFECBLOCKs.
  • N xBLOCK_Group (n) The number of XFECBLOCKs in the time interleaving group at index n is represented by N xBLOCK_Group (n) and signaled as DP_NUM_BLOCK in the PLS2-DYN data.
  • N xBLOCK_Group (n) may vary from the minimum value 0 to the maximum value N xBLOCK_Group_MAX (corresponding to DP_NUM_BLOCK_MAX ) having the largest value 1023.
  • Each time interleaving group is either mapped directly to one frame or spread over P I frames.
  • Each time interleaving group is further divided into one or more (N TI ) time interleaving blocks.
  • each time interleaving block corresponds to one use of the time interleaver memory.
  • the time interleaving block in the time interleaving group may include some other number of XFECBLOCKs. If the time interleaving group is divided into multiple time interleaving blocks, the time interleaving group is directly mapped to only one frame. As shown in Table 32 below, there are three options for time interleaving (except for the additional option of omitting time interleaving).
  • the time interleaver will also act as a buffer for the data pipe data before the frame generation process. This is accomplished with two memory banks for each data pipe.
  • the first time interleaving block is written to the first bank.
  • the second time interleaving block is written to the second bank while reading from the first bank.
  • Time interleaving is a twisted row-column block interleaver. number of columns, for the sth time interleaving block of the nth time interleaving group end While the same as, the number of rows of time interleaving memory Is the number of cells Is equivalent to (i.e. ).
  • 21 illustrates the basic operation of a twisted row-column block interleaver according to an embodiment of the present invention.
  • FIG. 21 (a) shows a write operation in the time interleaver
  • FIG. 21 (b) shows a read operation in the time interleaver.
  • the first XFECBLOCK is written in the column direction to the first column of the time interleaving memory
  • the second XFECBLOCK is written to the next column, followed by this operation.
  • the cells are read diagonally.
  • (b) during the diagonal reading from the first row to the last row (starting from the leftmost column to the right along the row), Cells are read.
  • the read operation in this interleaving array is a row index as in the equation below. Column index Related twist parameters Is executed by calculating.
  • the cell position to be read is coordinate Calculated by
  • FIG. 22 illustrates an operation of a twisted row-column block interleaver according to another embodiment of the present invention.
  • FIG. 22 Denotes an interleaving array in the time interleaving memory for each time interleaving group including the virtual XFECBLOCK.
  • the interleaving array for twisted row-column block interleaver inserts a virtual XFECBLOCK into the time interleaving memory. It is set to the size of, and the reading process is made as follows.
  • the number of time interleaving groups is set to three.
  • the maximum number of XFECBLOCKs is signaled in PLS2-STAT data by NxBLOCK_Group_MAX, which Leads to.
  • Figure 23 illustrates a diagonal read pattern of a twisted row-column block interleaver according to one embodiment of the present invention.
  • FIG. 25 illustrates a protocol stack for providing a broadcast service according to an embodiment of the present invention.
  • the broadcast service according to an embodiment of the present invention is an additional service such as HTML5 application, interactive service, ACR service, second screen service, personalization service as well as audiovisual data (Auido / Video, A / V). Can be provided.
  • the broadcast service according to an embodiment of the present invention may provide not only a real time (RT) service but also a non-real time (NRT) service.
  • RT real time
  • NRT non-real time
  • the content for the service is transmitted in real time.
  • content for a service is transmitted in non real time.
  • the content for the real-time service may be transmitted according to the time when the content for the real-time service is used.
  • the content for the non-real time service may be transmitted earlier than when the content for the non real time service is used.
  • the broadcast reception device may receive and store content for a non-real time service in advance, and then use the stored content for a non real time service while providing a non real time service.
  • the broadcast reception device may receive and store content for a non-real-time service in advance, and may provide a non-real-time service using content for a non-real-time service stored in advance when a user input for the non-real-time service is received.
  • Non-real-time service and real-time service may be transmitted through different transport protocols because of different transmission characteristics.
  • the content for the NRT service may be referred to as NRT data.
  • Such a broadcast service may be transmitted through a broadcast network using terrestrial waves, cables, and satellites.
  • a broadcasting network using terrestrial waves, cables, and satellites may be referred to as a physical layer.
  • the content for the non-real-time service may be transmitted through a data period (Data Carousel) transmission.
  • the broadcast transmission device may repeatedly transmit non-real time content at regular intervals, and the broadcast reception device may receive data after waiting for a data rotation period.
  • the broadcast receiving device may receive the transmitted content in the next cycle before receiving the broadcast service.
  • the broadcast reception device may receive a non real-time service even through a broadcast network that is unidirectional communication.
  • the broadcast service according to an embodiment of the present invention may be transmitted through an internet communication network.
  • the broadcast transmission device may transmit a broadcast service by encapsulating an IP (Internet Protocol) through a broadcast network. Accordingly, when a broadcast service is transmitted through a broadcast network which is a broadcast signal such as a terrestrial wave or a cable satellite, the broadcast reception device may demodulate the broadcast signal and extract an IP packet. The broadcast reception device may extract a User Datagram Protocol (UDP) packet from the IP packet. The broadcast reception device uses an Asynchronous Layered Coding / Layered Coding Transport (ALC / LCT) protocol based on a Real-time Objectuve delivery over Unidirectional Transport (ROUTE) protocol for unidirectional transmission from a UDP datagram. You can extract the packet.
  • ALC / LCT Asynchronous Layered Coding / Layered Coding Transport
  • ROUTE Real-time Objectuve delivery over Unidirectional Transport
  • the ROUTE protocol is an application layer protocol that transmits real-time data using ALC / LCT packets.
  • the broadcast reception device may extract at least one of broadcast service signaling information, NRT data, and media content from the ALC / LCT packet.
  • the media content may be in MPEG-DASH (Dynamic Adaptive Streaming over HTTP, DASH) format.
  • the media content may be encapsulated in an ISO Base Media File Format (ISO BMFF) and transmitted through the MPEG-DASH protocol.
  • ISO BMFF ISO Base Media File Format
  • the broadcast reception device may extract an MPEG-DASH segment from a ROUTE packet.
  • an ISO BMFF file can be extracted from a broadcast receiving device MPEG-DASH segment.
  • the broadcast transmission device may transmit the broadcast service encapsulated through the MPEG-2 TS to the broadcast network together with the broadcast service encapsulated through IP for the legacy broadcast reception device.
  • the broadcast transmission device may transmit the broadcast service by multicast or unicast.
  • the broadcast reception device may receive an IP packet from an internet communication network.
  • the broadcast transmission device transmits a broadcast service in unicast
  • the broadcast reception device may extract a TCP packet from an IP packet.
  • the broadcast reception device may extract an HTTP packet from a TCP packet.
  • the broadcast reception device may extract at least one of broadcast service signaling information, NRT data, and media content.
  • the media content may be in MPEG-DASH (Dynamic Adaptive Streaming over HTTP, DASH) format.
  • MPEG-DASH Dynamic Adaptive Streaming over HTTP, DASH
  • the media content may be encapsulated in an ISO Base Media File Format (ISO BMFF) and transmitted through the MPEG-DASH protocol.
  • the broadcast reception device may extract an MPEG-DASH segment from a ROUTE packet.
  • an ISO BMFF file can be extracted from a broadcast receiving device MPEG-DASH segment.
  • a broadcast receiving device that receives a broadcast service transmitted according to a protocol stack for providing a broadcast service will be described with reference to FIG. 26.
  • FIG. 26 is a block illustrating a broadcast transmission device for transmitting a broadcast service, a content server for transmitting content associated with a broadcast service, a broadcast reception device for receiving a broadcast service, and a companion device interoperating with the broadcast reception device, according to an embodiment of the present invention. Shows the figure.
  • the broadcast transmission device 10 transmits a broadcast service.
  • the broadcast transmission device 10 transmits a broadcast service including media content through a broadcast network using at least one of satellite, terrestrial wave, and cable.
  • the broadcast transmission device 10 may include a controller (not shown) and a transmitter (not shown). The controller controls the operation of the broadcast transmission device 10.
  • the transmitter transmits a broadcast signal.
  • the broadcast reception device 100 receives a broadcast service.
  • the broadcast reception device 100 may include a broadcast reception unit 110, an IP transceiver 130, a controller 150, a display 180, and a power supply 190.
  • the broadcast receiving unit 110 receives a broadcast signal through a broadcast network.
  • the broadcast receiving unit 110 may receive a broadcast signal through a broadcast network using at least one of satellite, terrestrial wave, and cable.
  • the broadcast receiving unit 110 may include a tuner for receiving a broadcast signal.
  • the broadcast receiving unit 110 may include a demodulator for extracting link layer data by demodulating the broadcast signal.
  • the broadcast receiver 110 performs one or more processors to perform each of a plurality of functions performed by the broadcast receiver 110. It may include one or more circuits and one or more hardware modules.
  • the controller may be a system on chip (SOC) in which various semiconductor components are integrated into one.
  • the SOC may be a semiconductor in which various multimedia components such as graphics, audio, video, and modem, and a semiconductor such as a processor and a DRAM are integrated into one.
  • the IP transceiver 130 may transmit and receive IP data.
  • the IP transceiver 130 may transmit a request for the content server 50 that provides content related to a broadcast service.
  • the IP transceiver 130 may receive a response to the request from the content server 50.
  • the IP transceiver 130 may transmit data to the companion device 300 and receive data from the companion device 300.
  • the IP transceiver 130 may transmit a request to the companion device 300 and receive a response to the request from the companion device 300.
  • the IP transceiver 130 may transmit content related to a broadcast service to the companion device 300.
  • IP transceiver 130 is one or a plurality of processors to perform each of a plurality of functions performed by the IP transceiver 130. It may include one or more circuits and one or more hardware modules.
  • the controller may be an SOC in which various semiconductor components are integrated into one.
  • the controller 150 may include a main processor 151, a user input receiver 153, a memory unit 155, a storage 157, and a multimedia module 159.
  • the main processor 151 controls the operation of the entire controller.
  • the user input receiver 153 receives a user input.
  • the memory unit 155 temporarily stores data for the operation of the controller 150.
  • the memory unit 155 may be a volatile memory.
  • the storage 157 stores data necessary for the operation of the controller 150.
  • the reservoir 157 may be a non-wheelable memory.
  • the multimedia module 159 processes media content.
  • the controller 150 is one or a plurality of processors to perform each of a plurality of functions that the controller 150 performs. It may include one or more circuits and one or more hardware modules. In more detail, the controller may be an SOC in which various semiconductor components are integrated into one.
  • the display unit 180 displays a screen.
  • the power supply unit 190 supplies power necessary for the operation of the broadcast reception device 100.
  • the companion device 300 interworks with the broadcast reception device 100.
  • the companion device 300 interoperates with the broadcast reception device 100 and provides information on a broadcast service received by the broadcast reception device 100.
  • the companion device 300 may include an IP transceiver 330, a controller 350, a display 380, and a power supply 390.
  • the IP transceiver 330 may transmit and receive IP data.
  • the IP transceiver 330 may transmit a request for the content server 50 that provides content related to a broadcast service.
  • the IP transceiver 330 may receive a response to the request from the content server 50.
  • the IP transceiver 330 may transmit data to the broadcast reception device 100 and receive data from the broadcast reception device 100.
  • the IP transceiver 330 may transmit a request to the broadcast reception device 100 and receive a response to the request from the broadcast reception device 100.
  • the IP transceiver 330 may receive content related to a broadcast service from the broadcast reception device 100.
  • the IP transceiver 330 is one or a plurality of processors to perform each of a plurality of functions that the IP transceiver 330 performs. It may include one or more circuits and one or more hardware modules. In more detail, the controller may be an SOC in which various semiconductor components are integrated into one.
  • the controller 350 may include a main processor 351, a user input receiver 353, a memory 355, a storage 357, and a multimedia module 359.
  • the main processor 351 controls the operation of the entire controller.
  • the user input receiver 353 receives a user input.
  • the memory unit 355 temporarily stores data for the operation of the controller 350.
  • the memory unit 355 may be a volatile memory.
  • the storage 357 stores data necessary for the operation of the controller 350.
  • the reservoir 357 may be a non-wheelable memory.
  • the multimedia module 359 processes the media content.
  • the control unit 350 is one or a plurality of processors to perform each of a plurality of functions that the control unit 350 performs. It may include one or more circuits and one or more hardware modules.
  • the controller may be an SOC in which various semiconductor components are integrated into one.
  • the display unit 380 displays a screen.
  • the power supply unit 390 supplies power necessary for the operation of the companion device 300.
  • the ESG data may include a start time, end time, title, summary of contents, recommended rating, genre, and performer information of the program. Also, the ESG data may include at least one of authority information indicating a provision for viewing the content, information for an interactivity service, purchase information related to the content, and information for accessing the content. have.
  • the broadcast transmission device 10 may structure and transmit ESG data in units of information.
  • the broadcast transmission device 10 may divide and transmit ESG data into types of information included in the ESG data.
  • the broadcast transmission device 10 may include ESG data including information representing broadcast service, ESG data including information representing one or a plurality of contents included in a broadcast service, and at least one of a service and content.
  • the data may be classified into ESG data including information representing one schedule and transmitted.
  • the unit of information may be referred to as a service guide fragment or a fragment.
  • ESG data including information indicating a broadcast service may be referred to as a service fragment.
  • ESG data including information representing one or a plurality of contents included in the broadcast service may be referred to as content fragments.
  • ESG data including information representing at least one schedule of a service and content may be referred to as a schedule fragment.
  • the broadcast reception device 100 may process based on a unit of information structuring the ESG data.
  • the broadcast receiving device 10 may process based on at least one of a service fragment, a content fragment, and a schedule fragment.
  • the broadcast reception device 100 may selectively process necessary data. Therefore, the broadcast reception device 100 may selectively request necessary data through a communication network capable of bidirectional communication.
  • the broadcast reception device 100 may efficiently transmit data required by the companion device 300 to the companion device 300.
  • the service fragment will be described with reference to FIGS. 27 to 31.
  • the service of the service fragment represents a broadcast service.
  • the service may be a collection of content items constituting a broadcast service.
  • a service may be a collection of broadcast programs transmitted through a logical transport channel by one broadcaster.
  • the service fragment forms a center point that other fragments included in the ESG refer to.
  • the broadcast reception device 100 may display the ESG and display the ESG based on the broadcast service indicated by the service fragment.
  • the broadcast receiving device 100 may display the content included in the corresponding broadcast service in a chronological order. In this case, the broadcast receiving device 100 may display what content is included in the content, how to view the content, and when to view the content.
  • the service may have various types of services.
  • the service may be an interactive service.
  • the service may be a one-way service through a broadcasting network.
  • the service may include both a bidirectional service and a unidirectional service.
  • the service may include one or a plurality of components according to the type of service.
  • the service may not be directly related to the content included in the service, and may include a component for functionality of the service.
  • the service may include purchase information for purchasing the content or the service included in the service.
  • the service may include subscription information for subscribing to the content or the service included in the service.
  • Various types of alternative services that may be indicated by the service fragment service will be described with reference to FIG. 27.
  • FIG. 27 is a view illustrating a value that a serviceType element included in a service fragment includes and a type of service indicated by the value according to an embodiment of the present invention.
  • FIG. 28 shows an XML format of a serviceType element included in a service fragment.
  • the service fragment may include an element indicating the type of service of the service fragment.
  • the broadcast reception device 100 may display the broadcast service to the user based on an element indicating the type of service of the service fragment.
  • the broadcast reception device 100 may display an ESG based on an element representing a type of a service of a service fragment.
  • the broadcast reception device 100 may display the type of service by text according to an element indicating the type of service of the service fragment.
  • the broadcast reception device 100 may display the type of service as an icon according to an element indicating the type of service of the service fragment.
  • the broadcast reception device 100 may display the type of the service as a graphic indicating the type of the service according to an element indicating the type of the service of the service fragment.
  • Elements representing the types of services include basic TV service, basic radio service, rights issuer service, cache cast, file download service, software management service, announcement service, service guide, terminal provisioning service, auxiliary data service, and user request. It may represent at least one of a streaming service, a user request file download service, a smart card permission setting service, a linear service, an app-based service, and a companion screen service.
  • Basic TV service represents a service including video.
  • the basic radio service represents a service that does not include video but includes audio.
  • the rights issuer service represents a service for issuing a right of digital rights management (DRM) that manages a right to play content.
  • the cache cast represents a non-real-time service that downloads before playing a broadcast service and then plays the broadcast service.
  • the Cache cast may be referred to as a non-real time (NRT) service.
  • the file download service indicates a service that needs to download a file in order to play the service.
  • the software management service represents a service for managing software.
  • the software management service may represent a service for updating software of the broadcast reception device 100.
  • the notification service represents a service for notifying the broadcast reception device 100 of a notification.
  • the broadcast service provider or the content provider may deliver a message to the broadcast reception device 100 through a notification service.
  • Service guide service represents a service for providing a service guide.
  • the service guide service may represent a service for the broadcast receiving device 100 to receive ESG data providing information about a broadcast service.
  • the terminal provisioning service represents a service for setting a right to subscribe to a service or content.
  • the broadcast receiving device 100 may update the authority through the terminal authority setting service in order to reproduce the broadcast service.
  • the auxiliary data service may represent a service for providing auxiliary data related to a broadcast service.
  • the user request streaming service may represent a service that provides a streaming service according to a user request.
  • the user request file download service may indicate a service for providing a file download according to a user request.
  • the smart card permission setting service may represent a service for updating a smart card's permission.
  • the broadcast reception device 100 may use a smart card that decrypts the encrypted content in order to reproduce the encrypted content.
  • the broadcast receiving device 100 may update the smart card authority through the smart card authority setting service.
  • the linear service may be a service including continuous components in which primary content is consumed according to a schedule set by a broadcaster and a time base.
  • the continuous component may represent a content number component played in the continuous stream.
  • App-based services represent non-linear services that provide a user interface and functionality based on the application.
  • the companion device service represents a service in which the broadcast reception device 100 receiving the broadcast service and the companion device 300 interoperating with the broadcast reception device 100 together provide the broadcast service.
  • a broadcasting service may have a characteristic in which a plurality of services are combined.
  • the broadcast service may be a linear service and an app-based service that provides an additional service through an application.
  • the service fragment may include a plurality of elements each representing a different kind of service.
  • the element indicating the type of service may be referred to as a ServiceType.
  • ServiceType when the value of ServiceType is 1, ServiceType may indicate a basic TV service.
  • ServiceType when the value of ServiceType is 2, ServiceType may indicate a basic radio service.
  • ServiceType when the value of ServiceType is 3, ServiceType may represent a rights issuer service.
  • ServiceType when the value of ServiceType is 4, ServiceType may indicate a cache cast service.
  • ServiceType may indicate a file download service.
  • ServiceType may indicate a software management service.
  • ServiceType when the value of ServiceType is 7, ServiceType may indicate a known service. In a specific embodiment, when the value of ServiceType is 8, ServiceType may indicate a service guide service. In a specific embodiment, when the value of ServiceType is 9, ServiceType may indicate a terminal provisioning service. In a specific embodiment, when the value of the ServiceType is 10, the ServiceType may indicate an auxiliary data service. In a specific embodiment, when the value of ServiceType is 11, ServiceType may indicate a user request streaming service. In a specific embodiment, when the value of ServiceType is 12, the ServiceType may represent a user request file download service. According to a specific embodiment, when the value of ServiceType is 13, ServiceType may indicate a smart card permission setting service.
  • ServiceType when the value of ServiceType is 14, ServiceType may indicate a linear service. In a specific embodiment, when the value of ServiceType is 15, ServiceType may indicate an app-based service. According to a specific embodiment, when the value of ServiceType is 16, ServiceType may indicate a companion screen service.
  • the service fragment may include an element indicating a range of service types that a corresponding service may have.
  • An element indicating a range of service types that a corresponding service may have may include a minimum value and a maximum value of an element indicating a type of service.
  • the broadcast transmission device 10 may inform the broadcast reception device 100 of the type of broadcast service type through an element indicating a range of service types that a corresponding service may have.
  • the broadcast reception device 100 may determine a type of a service that a corresponding service may have based on an element representing a range of service types that the service may have.
  • An element indicating a range of service types that a corresponding service may have may be referred to as a ServiceTypeRangeType.
  • the minimum value that an element indicating the type of service may have may be referred to as minInclusive value.
  • maxInclusive value the maximum value that an element indicating the type of service may have.
  • ServiceTypeRangeType has 0 as minInclusive value and 13 as maxInclusive value. Therefore, the broadcast reception device 100 may know that the service indicated by the corresponding service fragment does not correspond to the linear service, the app-based service, and the companion device service.
  • the broadcast reception device 100 may display a service based on the type of service indicated by the service fragment.
  • the broadcast reception device 100 may display a service on the basis of an element indicating the type of service included in the service fragment.
  • the broadcast receiving device 100 may display the type of service based on the type of service indicated by the service fragment through a menu displaying a guide of the broadcast service.
  • the menu displaying the guide of the broadcast service may be a menu displaying a plurality of broadcast services and contents included in each of the plurality of broadcast services.
  • the broadcast receiving device 100 may display the type of service based on the type of service indicated by the service fragment through a menu displaying information on the corresponding broadcast service on a screen for playing the broadcast service.
  • the broadcast reception device 100 may display a name of a service, a schedule in which a service is provided, and a type of service indicated by a service fragment in the form of a bar located at the bottom or the top of a screen while playing a broadcast service.
  • the broadcast reception device 100 may display a type of service based on a type of a service indicated by a service fragment through a service list displaying a broadcast service and information indicating a broadcast service.
  • the broadcast reception device 100 may display a service list and display a type of a service indicated by a service fragment together with a name of the corresponding service and a virtual channel number indicating the corresponding service. Specific embodiments will be described with reference to the following drawings.
  • 29 is a diagram illustrating XML data and a user interface representing a serviceType element when a service indicated by a service fragment is a linear service according to an embodiment of the present invention.
  • the service fragment indicates that the corresponding service is a linear service.
  • the broadcast receiving device 100 may display the start time and the end time of the linear service while reproducing the service. This is because the main content included in the linear service has a start time and end time specified by the broadcaster. Through this, the broadcast reception device 100 may notify the user of the start time and the end time of the corresponding service based on the service fragment of the ESG data without additional information.
  • FIG. 30 is a diagram illustrating XML data and a user interface representing a serviceType element when a service indicated by a service fragment is a linear service and an app-based service, according to an embodiment of the present invention.
  • the service fragment indicates that the corresponding service is a linear service and an app-based service.
  • the broadcast receiving device 100 may display the application included in the service while reproducing the service.
  • the broadcast receiving device 100 may execute the corresponding application. Through this, the broadcast reception device 100 may display that there is an application related to a service based on the service fragment of the ESG data without additional information.
  • FIG. 31 illustrates XML data and a user interface representing a serviceType element when a service indicated by a service fragment is a linear service and a coordinated service according to an embodiment of the present invention.
  • the service fragment indicates that the corresponding service is a linear service and a companion device service.
  • the broadcast reception device 100 may display that the service may be provided through the companion device 300 while playing the service. In this way, the broadcast reception device 100 may display that the corresponding service may be provided through the companion device 300 based on the service fragment of the ESG data without additional information.
  • the broadcast service may include one or a plurality of components constituting the broadcast service.
  • the component may configure media content included in the broadcast service.
  • a specific function or information related to the component broadcast service may be provided.
  • an application that provides information associated with a broadcast service may be a component of a broadcast service.
  • hybrid broadcasting may include various components.
  • the component included in the broadcast service may be changed according to content included in the broadcast service.
  • the broadcast reception device 100 may selectively play various components. Therefore, it is necessary to display this in ESG data so that a user can view component information and select a broadcast service and contents included in the broadcast service.
  • ESG data does not indicate a component of a broadcast service
  • the broadcast reception device 100 should obtain information about a component through broadcast service signaling information signaling a broadcast service currently being broadcast. Accordingly, it is necessary for the broadcast reception device 100 to efficiently obtain information on a component included in a broadcast service, and to acquire not only information on a component currently being broadcast but also information on a component to be broadcasted in the future.
  • the broadcast reception device 100 it is necessary for the broadcast reception device 100 to be able to obtain the correct time that the component is broadcast. It is necessary to be able to obtain information about the component to be broadcasted in the future. To this end, it will be described with reference to the following drawings that the ESG data includes a component fragment indicating a component included in the broadcast service.
  • FIG. 32 illustrates an XML format of a component fragment according to an embodiment of the present invention.
  • ESG data may include a component fragment.
  • the component fragment includes information about a component that is part of a broadcast service or content.
  • the component fragment may specifically include an identifier element that identifies the component fragment.
  • the component fragment may include a version element indicating whether the component is changed.
  • the component fragment may include an expiration date element indicating the expiration date of the component fragment.
  • the element representing the validity period of the component fragment may include a start time and an end time of the validity period.
  • the component fragment may include a component type element indicating the type of component. Since one component may include several properties simultaneously, one component fragment may include a plurality of component type elements.
  • the component fragment may include a component data element indicating the type of data included in the component.
  • component fragments may include extension elements that may be used preliminarily for later expansion and specific applications.
  • the identifier element may be id.
  • the version element may be version.
  • the element representing the start time of the validity period of the component fragment may be validFrom, and the element representing the end time of the validity period may be validTo.
  • the component type element may be a ComponentType element.
  • the component data element may be a ComponentData element.
  • the extension element may be a PrivateExt element.
  • FIG 33 is a view showing the types of components that a component fragment may represent according to an embodiment of the present invention.
  • the component fragment may represent various kinds of components.
  • the type of a component may be indicated through a component type element included in the component fragment. In this way, the broadcast reception device 100 may determine the type of a corresponding component.
  • the component fragment may represent a continuous component.
  • Continuous components are components that are played on a continuous stream.
  • the continuous component can be any one of audio, video and subtitles.
  • the component type element may have a value of 1.
  • the component fragment may represent an elementary component.
  • An elementary component is a continuous component that contains only one encoding.
  • the elementary component can be an audio component.
  • the elementary component may be one encoding for a speech sequence.
  • the elementary component may also be a video component. In more detail, this may be one encoding for an image sequence.
  • the elementary component may be one subtitle track.
  • the component type element may have a value of two.
  • the component fragment may represent a composite component.
  • a composite component is a collection of a plurality of contiguous components needed to play a scene.
  • a composite component has the same media type, represents the same scene, and is a set of continuous components that must be played together in a certain combination for reproduction. Therefore, a composite component is a collection of a plurality of media components in which a plurality of media components are combined to represent a scene.
  • the composite component may be music, dialogue, and special effects required for one complete audio.
  • the composite component may be a right image of the 3D image and a left image of the 3D image required to reproduce the 3D image.
  • the component type element may have a value of 3.
  • the component fragment may represent a PickOne component.
  • the PickOne component is a collection of a plurality of consecutive components that are interchangeable with each other representing any one scene.
  • the PickOne of a PickOne component indicates that one of a plurality of alternative components can be selected and played.
  • the PickOne component is the same media type, represents the same scene, and is a collection of a plurality of consecutive components in which one is selected for playback.
  • the PickOne component may be a collection of a plurality of media components that encode the same content with different qualities.
  • the PickOne component may be a set of audio components that encode the same speech sequence at different bitrates.
  • the PickOne component may be a set of video components obtained by encoding the same video sequence at different bit rates.
  • the adaptive component may also be a general subtitle track and easy reader subtitle for the same conversation.
  • the component type element may have a value of four.
  • the component fragment may represent a complex component.
  • the complex component represents either a composite component or a PickOne component.
  • the component type element may have a value of five.
  • the component fragment may represent a presentable component.
  • the presentable component represents a continuous component that the broadcast receiving device 100 can reproduce substantially.
  • the presentable component can be an elementary component.
  • the presentable component may be a complex component.
  • the component type element may have a value of six.
  • the component fragment may represent that the component is a non-real time (NRT) file.
  • NRT file represents a file that is transmitted in real time.
  • the broadcast reception device 100 may download the file in advance and may indicate a file to be executed at the time when the corresponding file is executed.
  • the component type element may have a value of 7.
  • the component fragment may indicate that the component is an NRT content item.
  • An NRT content item is a collection of NRT files that a service provider specifies to be consumed together.
  • the component type element may have a value of 8.
  • the component fragment may indicate that the component is an application.
  • An application may be a collection of documents that make up an additional service or an interactive service.
  • the document may include at least one of HTML, JavaScriptr, CSS, XML, and a multimedia file.
  • An application may be a kind of NRT content item.
  • the component type element may have a value of 9.
  • the component fragment may indicate that the component is an ATSC 3.0 application.
  • An ATSC 3.0 application may represent an application running in a switch environment in the ATSC 3.0 standard.
  • the component type element may have a value of 10.
  • the component fragment may indicate that the component is a user request component.
  • the user request component represents a component transmitted by the user request.
  • the component type element may have a value of 11.
  • the component fragment may indicate that the component is a notification stream.
  • the notification stream transmits notifications to synchronize the application's actions according to a linear reference time.
  • the component type element may have a value of 12.
  • the component fragment may indicate that the component is an App-based Enhancement.
  • the app based enhancement may include one or a plurality of notification streams.
  • the app based enhancement may include one or a plurality of applications.
  • the app based enhancement may include an NRT content item. In this case, the NRT content item may be executed by the application.
  • the app based enhancement may include a user request component. In this case, the user request component may be managed by an application.
  • the component type element may have a value of 13.
  • 34 is a view illustrating an XML format of a ComponentRangeType element included in a component fragment according to an embodiment of the present invention.
  • the component fragment may include an element indicating a range of component types that the corresponding component may have.
  • An element representing a range of component types that a corresponding component may have may include a minimum value and a maximum value of a value that an element indicating a type of component may have.
  • the broadcast transmission device 10 may inform the broadcast reception device 100 of the type of a component type through an element indicating a range of a component type that a corresponding component may have.
  • the broadcast reception device 100 may determine a type of a component that a corresponding component may have based on an element representing a range of component types that the corresponding component may have.
  • An element representing a range of service types that a corresponding component may have may be referred to as a ComponentRangeType.
  • the minimum value that an element indicating the type of component may have may be referred to as minInclusive value.
  • maxInclusive value the maximum value that an element indicating the type of a component may have.
  • the ComponentRangeType has a minInclusive value of 0 and a maxInclusive value of 13. Therefore, the broadcast reception device 100 may determine that the component indicated by the corresponding component fragment is one of the above-described component types.
  • the component type element indicating the type of the component does not indicate the type of content included in the component.
  • 35 is a view illustrating an XML format of a ComponentData element included in a component fragment according to an embodiment of the present invention.
  • the component fragment may include a component data element indicating a type of content included in the component.
  • the component data element may represent that the component is a video component including video.
  • the component data element may indicate that the component is an audio component including audio.
  • the component data element may indicate that the component is a caption component including a caption.
  • the component data element may include a lower element according to the type of content included in the component.
  • an element representing a case where a component is a video component may be VideoComponent.
  • an element representing a case where a component is an audio component may be an AudioComponent.
  • an element indicating a case where a component is a caption component may be CCComponent.
  • 36 is a view illustrating an XML format of a VideoDataType element included in a component fragment according to an embodiment of the present invention.
  • the component data element may include a video roll element indicating the role of the video.
  • the value of the video roll element may be an integer.
  • the video roll element may represent default video when the component is a presentable component. In this case, the value of the video roll element may be 1.
  • the video roll element may represent an alternative camera view when the component is a presentable component. In this case, the value of the video roll element may be 2.
  • the video roll element may represent a substitute video component when the component is a presentable component. In this case, the value of the video roll element may be three.
  • the video roll element may represent a sign language screen when the component is a presentable component. In this case, the value of the video roll element may be four.
  • the video roll element may indicate follow subject video when the component is a presentable component. In this case, the value of the video roll element may be five. In addition, the video roll element may indicate that a scalable video encoding is a base layer when the component is a composite component. In this case, the value of the video roll element may be 6. In addition, when the component is a composite component, the video roll element may indicate that it is an enhancement layer layer for scalable video encoding. In this case, the value of the video roll element may be 7. The video roll element may indicate that the media component is the left image of the 3D image when the component is a composite component. In this case, the value of the video roll element may have 8 days.
  • the video roll element may represent a right image of a 3D image when the component is a composite component.
  • the value of the video roll element may be 9.
  • the video roll element may indicate depth information of the 3D image when the component is a composite component.
  • the value of the video roll element may be 10.
  • the video roll element may represent that the media component is video of a specific position of a screen divided into a plurality of regions.
  • the value of the video roll element may be 11.
  • the video roll element may be follow-subject metadata, which is a screen viewed along a specific subject when the component is a composite component. In this case, the value of the video roll element may be 12.
  • the follow-subject metadata may include at least one of a name of the subject, a position of the subject, and a size of the subject.
  • the follow-subject metadata may indicate an area of the main video component to which the subject is focused.
  • a video roll element indicating a role of video may be referred to as a VideoRole.
  • the component data element may include an element indicating a range of values that the video roll element may have.
  • an element indicating a range of values that a video roll element may have may include an element indicating a range of values that a video roll element may have when the video component is a presentable video.
  • an element indicating a range of values that the video roll element may have may include an element indicating a range of values that the video roll element may have when the video component is a composite video.
  • an element indicating a range of values that the video roll element may have may include an element indicating a range of values that the video roll element may have when the video component is a composite video or a presentable video.
  • the element representing the range of values that the video roll element may have may be a VideoRoleRangeType.
  • the component data element may include a target user element indicating a user targeted by the corresponding component.
  • the target user element may be TargetUserProfile.
  • the component may include a target device element indicating a target device.
  • the target device element may represent at least one of a primary device, a companion device, a host device, and a companion device that receive a broadcast service in a companion service.
  • the target device element may be TargetDevice.
  • FIG. 37 is a view illustrating an XML format of an AudioDataType element included in a component fragment according to an embodiment of the present invention.
  • the component data element may include an audio roll element indicating the role of audio.
  • the audio roll element may have an integer value.
  • the audio roll element may indicate that the audio component is complete main. In this case, the value of the audio roll element may be 1.
  • the audio roll element may indicate that the audio component is music. In this case, the value of the audio roll element may be 2.
  • the audio roll element may indicate that the audio component is a dialog. In this case, the value of the audio roll element may be three.
  • the audio roll element may indicate that the audio component is effects. In this case, the value of the audio roll element may be four.
  • the audio roll element may indicate that the audio component is visual impaired for the visually impaired. In this case, the value of the audio roll element may be five.
  • the audio roll element may indicate that the audio component is hearing impaired. In this case, the value of the audio roll element may be 6.
  • the audio roll element may indicate that the audio component is a commentary. In this case, the value of the audio roll element may be 7.
  • the component data element may include an element indicating a range of values that the audio roll element may have.
  • an element representing a range of values that an audio roll element may have may be AudioRoleRangeType.
  • the component data element may include a target user element indicating a user targeted by the corresponding component.
  • the target user element may be TargetUserProfile.
  • the component may include a target device element indicating a target device.
  • the target device element may represent at least one of a primary device, a companion device, a host device, and a companion device, all of which receive a broadcast subordinate in the companion service.
  • the target device element may be TargetDevice.
  • the component data element may include an association element indicating whether the associated video component is associated with.
  • a component associated with a video component may represent a component played with the video component.
  • the component associated with the video component may represent a component that is played in synchronization with the video component.
  • the association element may include an identifier that identifies a component fragment that represents the associated presentable video component.
  • the associated element may be associatedTo.
  • the component data element may include an audio channel number element indicating the number of channels included in the audio component.
  • the audio channel number element may be NumberOfAudioChannels.
  • FIG. 38 illustrates an XML format of a CCDataType element included in a component fragment according to an embodiment of the present invention.
  • the component data element may include a caption roll element indicating the role of the caption.
  • the caption roll element may have an integer value.
  • the caption roll element can indicate that the caption component is a normal caption. In this case, the value of the caption roll element may be 1.
  • the subtitle roll element may indicate that the subtitle component is an easy-reader subtitle that is a subtitle for the elementary school student. In this case, the value of the caption roll element may be 2.
  • the component data element may include an element indicating a range of values that the caption roll element may have.
  • an element representing a range of values that a caption roll element may have may be CCRoleRangeType.
  • the component data element may include a target user element indicating a user targeted by the corresponding component.
  • the target user element may be TargetUserProfile.
  • the component may include a target device element indicating a target device.
  • the target device element may represent at least one of a primary device, a companion device, a host device, and a companion device, all of which receive a broadcast subordinate in the companion service.
  • the target device element may be TargetDevice.
  • the component data element may include an association element indicating whether the associated video component is associated with.
  • the association with the video component may indicate whether the video component is played together with the video component.
  • a component associated with the video component may indicate whether the component is played in synchronization with the video component.
  • the association element may include an identifier that identifies a component fragment that represents the associated presentable video component.
  • the associated element may be associatedTo.
  • the broadcast reception device 100 may determine a role of a component based on the component fragment described above. In addition, the broadcast reception device 100 may display the role of a component based on the component data element. According to a specific embodiment, the broadcast reception device 100 may display the role of a component included in each content in the service guide menu. The broadcast reception device 100 may display a role of a component fragment on a bar-shaped menu located at the bottom or the top of the screen based on the component fragment. According to another specific embodiment, the broadcast reception device 100 may display the role of a component indicated by a service fragment on a service list that displays information indicating a broadcast service based on the component fragment. For example, the broadcast reception device 100 may display a service list and display a role of a component currently broadcasting in a corresponding service along with a name of the corresponding service and a virtual channel number indicating the corresponding service.
  • the broadcast reception device 100 may determine at least one of a device targeted by a component and a user profile targeted based on a component data element.
  • the broadcast reception device 100 may display the role of a component based on the component data element.
  • the broadcast reception device 100 may display information on a corresponding component based on at least one of a targeting device and a targeting user profile in the service guide menu.
  • the broadcast reception device 100 may display a corresponding component differently from other components. For example, when the broadcast reception device 100 does not support 3D video, the ESG may display a video component for 3D video in gray.
  • the broadcast reception device 100 may not display a corresponding component when the broadcast reception device 100 does not correspond to targeting.
  • the broadcast reception device 100 may display at least one of an icon, text, and graphic shapes indicating a user profile targeted by a corresponding component on a service guide menu.
  • the broadcast receiving device 100 may display the corresponding component differently from other components in the service guide menu.
  • the broadcast reception device 100 may not display the corresponding component in the service guide menu when the user of the broadcast reception device 100 does not match the user profile targeted by the corresponding component.
  • the broadcast reception device 100 may assign a component to a corresponding component based on at least one of a targeting device and a targeting user profile on a bar-shaped menu located at the bottom or top of a screen on which a broadcast service is being played. Information about the system can be displayed.
  • the broadcast reception device 100 does not correspond to the targeting, the broadcast reception device 100 is different from other components in a bar-shaped menu located at the bottom or the top of a screen on which a broadcast service is being played. I can display it.
  • a video component for 3D video may be displayed in gray in a bar-shaped menu located at the bottom or the top of a screen playing a broadcast service.
  • the broadcast reception device 100 when the broadcast reception device 100 does not correspond to targeting, the broadcast reception device 100 may display a corresponding component on a bar-shaped menu located at the bottom or top of the screen playing the broadcast service. It may not be displayed.
  • the broadcast reception device 100 may include at least one of an icon, text, and graphic shape representing a user profile targeted by a corresponding component in a bar-shaped menu located at the bottom or top of a screen on which a broadcast service is being played. Either one can be displayed.
  • the broadcast reception device 100 is located at the bottom or top of a screen playing a broadcast service when a user of the broadcast reception device 100 does not match a user profile targeted by a corresponding component.
  • the broadcast reception device 100 is located at the bottom or top of a screen playing a broadcast service when a user of the broadcast reception device 100 does not match a user profile targeted by a corresponding component.
  • the component may not be displayed on the menu in the form of).
  • the broadcast reception device 100 may display the role of a component indicated by a service fragment on a service list that displays information indicating a broadcast service based on the component fragment.
  • the broadcast reception device 100 may display a service list and display a role of a component currently broadcasting in a corresponding service along with a name of the corresponding service and a virtual channel number indicating the corresponding service.
  • the broadcast reception device 100 may display information on a corresponding component based on at least one of a device targeting to a service list and a user profile targeting.
  • the broadcast reception device 100 may display a corresponding component differently from other components in the broadcast service list. For example, when the broadcast reception device 100 does not support 3D video, the video component for 3D video may be displayed in gray in the broadcast service list.
  • the broadcast reception device 100 may not display a corresponding component in a broadcast service list when the broadcast reception device 100 does not correspond to targeting.
  • the broadcast reception device 100 may display at least one of an icon, text, and graphic shapes indicating a user profile targeted by a corresponding component on a broadcast service list. According to another specific embodiment, when the user of the broadcast reception device 100 does not match a user profile targeted by the corresponding component, the broadcast reception device 100 may display the corresponding component differently from other components in the broadcast service list. According to another specific embodiment, the broadcast reception device 100 may not display a corresponding component in a broadcast service list when a user of the broadcast reception device 100 does not match a user profile targeted by the corresponding component.
  • 39 is a view illustrating an embodiment in which a component fragment represents a composite video component according to an embodiment of the present invention.
  • the component data element of the component fragment indicates that the elementary component whose identifier is bcast: //lge.com/Component/2 is the base layer of variable video encoding, and whose elementary identifier is bcast: //lge.com/Component/3. Indicates that the component is a segment layer due to variable video encoding.
  • FIG. 40 illustrates another embodiment in which a component fragment represents a composite video component according to an embodiment of the present invention.
  • the component fragment includes a PickOne component having an identifier of bcast: //lge.com/Component/1 and a PickOne component having an identifier of bcast: //lge.com/Component/2 and an identifier of bcast: // lge. Indicates that the PickOne component is at .com / Component / 3.
  • the component data element of the component fragment indicates that the base component whose identifier is bcast: //lge.com/Component/2 represents the left image of the 3D image and the base component whose identifier is bcast: //lge.com/Component/3 Denotes the right image of the 3D image.
  • FIG. 41 is a view illustrating still another embodiment in which a component fragment represents a PickOne audio component according to an embodiment of the present invention.
  • FIG. 41 is a view illustrating still another embodiment in which a component fragment represents a PickOne audio component according to an embodiment of the present invention.
  • the component fragment may include a PickOne component having an identifier of bcast: //lge.com/Component/2 and a identifier that can be replaced by a PickOne component having an identifier of bcast: //lge.com/Component/1. Show that it contains a composite component that is //lge.com/Component/3.
  • the component data element of the component fragment indicates that the PickOne component whose identifier is bcast: //lge.com/Component/2 is complete main audio.
  • the component data element of the component fragment is bcast: //lge.com/Component/3
  • the composite component has a PickOne component whose identifier is bcast: //lge.com/Component/4 and a bcast: //lge.com identifier.
  • the component data element of the component fragment indicates that the PickOne component whose identifier is bcast: //lge.com/Component/4 is music.
  • the component data element of the component fragment indicates that the PickOne component whose identifier is bcast: //lge.com/Component/5 is a conversation.
  • the broadcast transmission device 10 transmits component information and the broadcast reception device 100 receives component information by including ESG data with separate component fragments.
  • each component may have an organic association, and the broadcast reception device 100 should play a component in consideration of the association between the components. Therefore, we need a way to represent the relationships between components. This will be described with reference to the following drawings.
  • FIG. 42 is a view illustrating an XML format of a content fragment when information about a component is included as an element of a content fragment according to another embodiment of the present invention.
  • the content fragment includes extension elements for extensibility.
  • the broadcast transmission device 10 may insert a component element representing component information into an extension element.
  • the content fragment may include a component element in the form of a sequence.
  • the information included in the component element may be the same as the information included in the component fragment described above.
  • the component when the component is a video component, the component may include at least one of an element indicating a role of a video, a target user profile element indicating a user profile targeted by the component, and a target device element indicating a device targeted by the component. have.
  • the component when the component is an audio component, the component may include at least one of an element indicating a role of audio, a target user profile element indicating a user profile targeted by the component, and a target device element indicating a device targeted by the component. have.
  • the component when the component is a caption component, the component may include at least one of an element indicating a role of a caption, a target user profile element indicating a user profile targeted by the component, and a target device element indicating a device targeted by the component. have.
  • 43 and 44 illustrate an XML format of an embodiment of a content fragment when information about a component is included as an element of the content fragment according to another embodiment of the present invention.
  • the broadcast reception device 100 may obtain information of a video component, an audio component, and a subtitle component based on the content fragment. Accordingly, the broadcast reception device 100 may obtain information of a video component, an audio component, and a subtitle component, which are necessary for playing the content represented by the content fragment. Accordingly, the broadcast reception device 100 may recognize that the corresponding video component, audio component, and subtitle component should be played together without additional information.
  • the broadcast reception device 100 may obtain information of a video component, an audio component, and a subtitle component based on the content fragment.
  • the broadcast reception device 100 may know that a corresponding content includes a component including a left image of the 3D image and a component including a right image of the 3D image based on the content fragment.
  • the broadcast reception device 100 may know all the components included in the content without an element for a separate association. Also, the broadcast reception device 100 may determine other components associated with each component without additional information.
  • a component fragment representing an audio component and a component fragment representing a subtitle component may be referred to a fragment representing a video component associated with it. This will be described with reference to FIGS. 45 to 46.
  • FIG. 45 is a view illustrating an XML format of a component fragment when a component fragment representing an audio component and a component fragment representing a subtitle component refer to a fragment representing a related video component.
  • the component fragment representing the audio component and the component fragment representing the subtitle component may include an associated element representing a fragment of the related video component.
  • the associated video component may represent a component that is played together with a subtitle component.
  • the associated video component may represent a video component that is played back in synchronization with the subtitle component.
  • the association element may have, as a value, an identifier that identifies a component fragment that represents the associated video component.
  • the associated element may be associatedTo.
  • FIG. 46 is a view illustrating a relationship between component fragments when a component fragment representing an audio component and a component fragment representing a subtitle component refer to a fragment representing a related video component.
  • a component fragment of an audio component having bcast: //lge.com/Component/2 as an identifier refers to a component fragment of a video component having bcast: //lge.com/Component/1 as an identifier.
  • the component fragment of the subtitle component having bcast: //lge.com/Component/3 as an identifier refers to the component fragment of the video component having bcast: //lge.com/Component/1 as an identifier. Therefore, the broadcast reception device 100 may obtain information of a video component associated with the audio component based on the component fragment of the audio component. Also, the broadcast reception device 100 may obtain information of a video component associated with a caption component based on a component fragment of the caption component.
  • FIG. 47 illustrates an XML format of a component fragment when a component fragment representing a video component refers to a component fragment representing a subtitle component associated with a component fragment representing a related audio component, according to an embodiment of the present invention.
  • a component fragment representing a video component may include an associated element representing a component fragment representing a subtitle component associated with a component fragment representing an associated audio component.
  • the subtitle component related to the related audio component may represent an audio component and a subtitle component that are played together with the video component.
  • the subtitle component related to the related audio component may represent an audio component and a subtitle component that are synchronized and reproduced with the video component, respectively.
  • the association element may have a value as an identifier identifying a component fragment that represents an audio component or a subtitle component associated with the video component.
  • the associated element may be associatedTo.
  • FIG. 48 illustrates a relationship between component fragments when a component fragment representing a video component refers to a component fragment representing a subtitle component associated with a component fragment representing an associated audio component according to an embodiment of the present invention.
  • a component fragment of a video component having bcast: //lge.com/Component/1 as an identifier and a fragment of an audio component having bcast: //lge.com/Component/2 as an identifier and bcast: / refers to a component of the subtitle component whose identifier is /lge.com/Component/3. Accordingly, the broadcast reception device 100 may obtain information of an audio component and a subtitle component associated with the video component based on the component fragment of the video component.
  • 49 shows a reference relationship between fragments according to an embodiment of the present invention.
  • the content fragment representing the content may refer to the fragment representing the service including the content.
  • the component fragment representing the component may refer to the content fragment representing the content including the component.
  • a component fragment representing a component may refer to a service fragment representing a service including a component.
  • the schedule component may refer to a service fragment indicating a service corresponding to a schedule, a content fragment indicating a content corresponding to a schedule, and a component fragment indicating a component corresponding to a schedule.
  • the component fragment includes additional components in addition to the elements described above. This will be described with reference to FIG. 50.
  • FIG. 50 is a diagram illustrating an XML format of a component fragment when the component fragment refers to an upper component fragment, a content fragment, and a service fragment according to an embodiment of the present invention.
  • a component fragment representing a component may include a reference service element representing a service fragment of a service including a component.
  • the reference service element may have an identifier value that identifies a service fragment indicating a service to which it refers.
  • the reference service element may be referred to as a ServiceReference.
  • the component fragment representing the component may include a reference content element representing a content fragment of the content including the component.
  • the reference content element may have an identifier value for identifying a content fragment indicating the content to be referred to.
  • the reference content element may be referred to as a ContentReference.
  • the component fragment representing the component may include a reference component element representing a component fragment of a parent component including the component.
  • the reference component element may have an identifier value that identifies a component fragment that represents the referring component.
  • the reference component element may be referred to as a CompoonentReference.
  • the broadcast reception device 100 may obtain information on an upper component, content, and service including a component indicated by the component fragment, based on the component fragment.
  • the schedule fragment may also include an element for referring to the component fragment. This will be described with reference to FIG. 51.
  • FIG. 51 is a view illustrating an XML format of a schedule fragment when a schedule fragment refers to a component fragment, a content fragment, and a service fragment according to an embodiment of the present invention.
  • the schedule fragment representing the schedule may include a reference component element representing a component fragment of a component corresponding to the schedule.
  • the reference component element may have an identifier value that identifies the component fragment referenced by the schedule fragment.
  • the reference component element may be referred to as a ComponentReference.
  • the broadcast reception device 100 may obtain information on a component, content, and a service corresponding to a schedule indicated by the schedule fragment based on the schedule fragment.
  • FIG. 52 is a view illustrating a reference relationship with a component fragment representing a service fragment, a content fragment, a presentable video component, a presentable audio component, and a presentable subtitle component according to an embodiment of the present invention.
  • the service may include content, and the content may include a presentable video component, a presentable audio component, and a presentable subtitle component.
  • the service fragment, the content fragment, and the plurality of component fragments of the embodiment of FIG. 52 illustrate this inclusion relationship.
  • a content fragment representing a presentable audio component, a component fragment representing a presentable subtitle component, and a component fragment representing a presentable video component, the content representing a presentable subtitle component, a presentable video component, and a presentable audio component See fragment.
  • the component fragment representing the presentable subtitle component and the component fragment representing the presentable audio component are shown to be associated with the component fragment representing the presentable video component.
  • the content fragment indicating the content refers to the service fragment indicating the service containing the content.
  • the broadcast reception device 100 may obtain the association between components and information of content including the component, based on the component fragment.
  • the broadcast receiving device 100 may obtain information on a service including the content based on the content fragment indicating the content.
  • FIG. 53 shows a reference relationship between a component fragment representing a composite component and a component fragment representing a subcomponent according to an embodiment of the present invention.
  • the composite component may include a plurality of components constituting one scene.
  • the plurality of component fragments in the embodiment of FIG. 53 represents this inclusion relationship.
  • a component fragment indicating a video component of a second enhancement layer for variable video encoding refers to a component fragment indicating a video component of a first enhancement layer.
  • the component fragment representing the video component of the first enhancement layer refers to the component fragment representing the video component of the base layer.
  • the component fragment representing the video component of the base layer refers to the component fragment representing the composite video component.
  • the broadcast reception device 100 may obtain information about a relationship between components constituting the composite component based on a plurality of component fragments representing a plurality of components for variable video coding.
  • the broadcast reception device 100 may recognize that a video component of the first enhancement layer is required to play a video component of the second enhancement layer based on a component fragment representing a video component of the second enhancement layer. have.
  • the broadcast reception device 100 may recognize that a video component of the base layer is required to reproduce a video component of the first enhancement layer based on a component fragment representing a video component of the first enhancement layer.
  • 54 is a view illustrating a reference relationship between a component fragment representing an app-based enhancement component and a component fragment representing a subcomponent according to an embodiment of the present invention.
  • the app-based enhancement component may include an NRT content item component.
  • the NRT content item component may include an NRT file component.
  • the app-based enhancement component may include an application component.
  • the app-based enhancement component may include a user request component.
  • the plurality of component fragments in the embodiment of FIG. 54 illustrates this inclusion relationship.
  • a component fragment representing an NRT file component refers to a component fragment representing an NRT content item component.
  • the component fragment representing the NRT content item component refers to the component fragment representing the app-based enhancement component.
  • a component fragment representing an application component refers to a component fragment representing an app-based enhancement component.
  • the component fragment representing the user request component refers to the component fragment representing the app-based enhancement component.
  • the broadcast reception device 100 may obtain information about a relationship between an app-based enhancement component and a component included in the app-based enhancement component based on a component fragment indicating a component included in the app-based enhancement component. .
  • the broadcast reception device 100 may recognize that an app-based enhancement component includes an NRT content item.
  • the broadcast reception device 100 may recognize an NRT file component required to execute an NRT content item.
  • a service may include various kinds of contents in a hybrid broadcasting.
  • a service may include at least one of a program, user request content, and non-real time content. Therefore, it is necessary to express this relationship while the content fragment refers to the service fragment. This will be described with reference to the following drawings.
  • 55 is a view illustrating an XML format of a content fragment when a content fragment refers to a service according to another embodiment of the present invention.
  • the content fragment may include a relationship element indicating a relationship with the service fragment to which the content fragment refers.
  • the relationship element may represent a program of a service indicated by a service fragment referenced by the corresponding content. In this case, the value of the relationship element may be 1.
  • the relationship element may indicate that the content item of the service indicated by the service fragment referenced by the corresponding content. In this case, the value of the relationship element may be 2.
  • the relationship element may indicate that the content is a user request content of a service indicated by the service fragment referenced by the content.
  • User request content represents content executed by a user request. In this case, the value of the relationship element may be three.
  • the relationship element may be referred to as a relationship.
  • the broadcast reception device 100 may recognize how the content has a relationship with a service referred to by the content element.
  • the content fragment may include an element indicating a range of values that the relationship element may have.
  • the content fragment may be referred to as a RelationshipRangeType element indicating a range of values that a relationship element may have.
  • the broadcast reception device 100 may recognize how the content may have a service referred to by the content element based on the relationship element.
  • the broadcast reception device 100 may include a weight element indicating the importance with respect to the service fragment to reference.
  • the weight element may be referred to as weight.
  • the broadcast reception device 100 may determine the importance of content included in a service based on a weight element.
  • the broadcast reception device 100 may display the content included in the service based on the weight element.
  • the broadcast receiving device 100 may display the content included in the service and display the content as the weight factor increases. For example, the broadcast reception device 100 may sort and display contents included in a service according to a value of a weight element.
  • 56 is a view illustrating a reference relationship between content fragments and service fragments according to another embodiment of the present invention.
  • the content fragment with the identifier bcast: //lge.com/Content/1 has a value of 1 as the relation element while referring to the service fragment with the identifier bcast: //lge.com/Service/1. Accordingly, the broadcast reception device 100 may indicate that the content fragment indicated by the content fragment having the identifier bcast: //lge.com/Content/1 through the content fragment indicates the service fragment having the identifier bcast: //lge.com/Service/1. Recognize that the program is a service.
  • the broadcast receiving device 100 may indicate that the content fragment represented by the content fragment having the identifier bcast: //lge.com/Content/2 is represented by the service fragment having the identifier bcast: //lge.com/Service/1 through the content fragment. It may be recognized that the content item of the service.
  • the broadcast reception device 100 may indicate that the content fragment indicated by the content fragment having the identifier bcast: //lge.com/Content/3 is represented by the service fragment having the identifier bcast: //lge.com/Service/1 through the content fragment. It can be recognized that the content of the user request of the service.
  • the broadcast reception device 100 may recognize how the content and the service including the content have a relationship based on the content fragment. Therefore, the broadcast reception device 100 may recognize a relationship between a service and content based on ESG data without additional service signaling information.
  • the broadcast reception device 100 may determine the relationship between the upper fragment and the lower fragment only after the lower fragment first processes the lower fragment. Therefore, even when the broadcast receiving device 100 intends to display only some services, it is necessary to check not only fragments indicating content and components included in the service but also all other fragments. This may be inefficient when the broadcast reception device 100 considers that it is normal to display content based on a service. Therefore, it will be described with reference to the following drawings that the upper fragment refers to the lower fragment.
  • 57 shows a reference relationship between fragments according to another embodiment of the present invention.
  • a fragment representing a service including content may refer to a content fragment representing content.
  • the content fragment representing the content including the component may refer to the component fragment representing the component.
  • a component fragment representing a component may refer to a service fragment representing a service including a component.
  • the schedule component may refer to a service fragment indicating a service corresponding to a schedule, a content fragment indicating a content corresponding to a schedule, and a component fragment indicating a component corresponding to a schedule.
  • the service fragment, the content fragment, and the component fragment include additional components in addition to the elements described above. This will be described with reference to FIGS. 58 to 63.
  • FIG. 58 is a view illustrating an XML format of a service fragment according to another embodiment of the present invention.
  • the service fragment may include a content reference element indicating a content fragment of the content included in the service represented by the service fragment.
  • the content reference element may have an identifier value for identifying a content fragment indicating content included in a service.
  • the content reference element may be a ContentReference.
  • the service fragment may include a component reference element representing a component fragment of a component included in a service represented by the service fragment.
  • the component reference element may have an identifier value for identifying a component fragment indicating content included in a service.
  • the component reference element may be a ComponentReference.
  • the broadcast reception device 100 may obtain information on content included in a service indicated by the service fragment, based on the service fragment. In addition, the broadcast reception device 100 may obtain information about a component included in a service indicated by the service fragment based on the service fragment.
  • 59 is a view illustrating an XML format of a content fragment according to another embodiment of the present invention.
  • the content fragment may include a component reference element representing a component fragment of a component included in the content represented by the content fragment.
  • the component reference element may have an identifier value for identifying a component fragment indicating a component included in the content.
  • the component reference element may be a CompoentReference.
  • the broadcast reception device 100 may obtain information on components included in content represented by the content fragments based on the content fragments.
  • 60 is a view illustrating an XML format of a component fragment according to another embodiment of the present invention.
  • the component fragment may include a component reference element representing a component fragment of a component included in the component represented by the component fragment.
  • the component reference element may have an identifier value for identifying a component fragment indicating a component included in the component.
  • the component reference element may be a CompoentReference.
  • the broadcast reception device 100 may obtain information about a component included in a component represented by the component fragment based on the component fragment.
  • 61 is a view illustrating a reference relationship with a service fragment, a content fragment, and a component fragment according to another embodiment of the present invention.
  • the service may include content, and the content may include a presentable video component, a presentable audio component, and a presentable subtitle component.
  • the service fragment, the content fragment, and the plurality of component fragments in the embodiment of FIG. 61 show this inclusion relationship.
  • the service fragment refers to the content fragment of the content included in the service represented by the service fragment.
  • the content fragment refers to a component fragment of the presentable video component included in the content represented by the content fragment.
  • the content fragment may refer only to a component fragment of the presentable video component, but may refer to a component of the presentable audio component and a component fragment of the presentable subtitle component included in the content represented by the content component fragment.
  • the component fragment representing the presentable subtitle component and the component fragment representing the presentable audio component are associated with the component fragment representing the presentable video component.
  • the broadcast reception device 100 may obtain information on content included in a service based on the service fragment.
  • the broadcast reception device 100 may obtain a component fragment included in the content based on the component fragment.
  • FIG. 62 is a view illustrating a reference relationship between a component fragment representing a composite component and a component fragment representing a subcomponent according to another embodiment of the present invention.
  • the composite component may include a plurality of components constituting one scene.
  • the plurality of component fragments in the embodiment of FIG. 62 represents this inclusion relationship.
  • the component fragment of the composite component refers to the component fragment of the base layer component for variable video encoding.
  • the component fragment of the base layer component for variable video encoding refers to the component fragment of the first jesterment fragment component.
  • the component fragment of the first enhancement layer component refers to the component fragment of the second enhancement fragment component.
  • the broadcast reception device 100 may obtain information about a relationship between components constituting the composite component based on a plurality of component fragments representing a plurality of components for variable video coding.
  • the broadcast reception device 100 may recognize that the base layer video component and the video component of the first enhancement layer may be played together based on a component fragment representing the video component of the base layer.
  • the broadcast reception device 100 may recognize that a video component of a first enhancement layer and a video component of a second enhancement layer may be played together based on a component fragment representing a video component of the first enhancement layer. have.
  • FIG. 63 is a view illustrating a reference relationship between a component fragment representing an app-based enhancement component and a component fragment representing a subcomponent according to another embodiment of the present invention.
  • the app-based enhancement component may include an NRT content item component.
  • the NRT content item component may include an NRT file component.
  • the app-based enhancement component may include an application component.
  • the app-based enhancement component may include a user request component.
  • the plurality of component fragments in the embodiment of FIG. 63 represents this inclusion relationship.
  • a component fragment indicating an app-based enhancement component refers to a component fragment indicating an NRT content item component.
  • the component fragment representing the NRT content item component refers to the component fragment representing the NRT file component.
  • a component fragment representing an app-based enhancement component refers to a component fragment representing an application component.
  • the component fragment representing the app-based enhancement component refers to the component fragment representing the user request component.
  • the broadcast reception device 100 may obtain information about a relationship between an app-based enhancement component and a component included in the app-based enhancement component based on a component fragment representing the app-based enhancement component.
  • the broadcast reception device 100 may recognize that an app-based enhancement component includes an NRT content item.
  • the broadcast reception device 100 may recognize an NRT file component required to execute an NRT content item.
  • the service fragment may include a component reference element representing a component fragment of a component included in a service indicated by the service fragment.
  • the content fragment may include a component reference element representing a component fragment of a component included in the content represented by the content fragment.
  • the component fragment may include a component reference element representing a component fragment of the component included in the component represented by the component fragment.
  • 64 to 66 show syntax of a component fragment according to another embodiment of the present invention.
  • the component fragment according to another embodiment of the present invention includes information about a component that is part of a broadcast service or content.
  • the component fragment may specifically include an identifier attribute that identifies the component fragment.
  • the identifier attribute may be id.
  • the component fragment may include a version attribute indicating whether the component is changed.
  • the version attribute may be version.
  • the component fragment may include an expiration date attribute indicating the expiration date of the component fragment.
  • the attribute representing the validity period of the component fragment may include a start time and an end time of the validity period.
  • the start time attribute of the validity period may be validFrom.
  • the end time attribute of the validity period may be validTo.
  • the component fragment may include a service reference element that represents a service fragment of a service including a component.
  • the service reference element may have an identifier value as an identifier attribute for identifying a service fragment indicating a service to be referred to.
  • the reference service element may be referred to as a ReferenceService.
  • the identifier attribute may be referred to as idRef.
  • the component fragment may include a content reference element representing a content fragment of the content including the component.
  • the content reference element may have, as an identifier attribute, an identifier value for identifying a content fragment indicating content to be referred to.
  • the content reference element may be referred to as ReferenceContent.
  • the identifier attribute may be referred to as idRef.
  • the component fragment may include a component reference element representing a component fragment of a higher component including the component.
  • the component reference element may have, as an identifier attribute, an identifier value that identifies a component fragment indicating a referencing component.
  • the component reference element may be referred to as ReferenceCompoonent.
  • the identifier attribute may be referred to as idRef.
  • the component fragment may include a component type element indicating the type of component. Since one component may include several properties simultaneously, one component fragment may include a plurality of component type elements.
  • the component type element may represent various kinds of components.
  • the component type element may represent a continuous component.
  • Continuous components are components that are played on a continuous stream.
  • the continuous component can be any one of audio, video and subtitles.
  • the component type element when the component type element represents a continuous component, the component type element may have a value of 1.
  • the component type element may represent an elementary component.
  • the component type element when the component type element represents an elementary component, the component type element may have a value of two.
  • the component type element may represent a composite component.
  • the component type element when the component type element represents a composite component, the component type element may have a value of three.
  • the component type element may represent a PickOne component.
  • the component type element when a component type element represents a PickOne component, the component type element may have a value of four. In addition, the component type element may represent a complex component. In a specific embodiment, when the component type element represents a complex component, the component type element may have a value of five. In addition, the component type element may represent a video presentable component. According to a specific embodiment, when a component type element represents a presentable video component, the component type element may have a value of 6. In addition, the component type element may represent an audio presentable component. According to a specific embodiment, when the component type element represents a presentable audio component, the component type element may have a value of 7. In addition, the component type element may represent a caption presentable component.
  • the component type element when the component type element represents a presentable subtitle component, the component type element may have a value of 8. In addition, the component type element may represent that the component is a non-real time (NRT) file. In a specific embodiment, when the component type element indicates that the component is an NRT file, the component type element may have a value of 9. In addition, the component type element may represent that the component is an NRT content item. In a specific embodiment, when the component type element indicates that the component is an NRT content item, the component type element may have a value of 10. In addition, the component type element may represent that the component is an application. An application may be a collection of documents that make up an additional service or an interactive service.
  • the document may include at least one of HTML, JavaScriptr, CSS, XML, and a multimedia file.
  • An application may be a kind of NRT content item.
  • the component type element when the component type element indicates that the component is an application, the component type element may have a value of 11.
  • the component type element may indicate that the component is an ATSC 3.0 application.
  • An ATSC 3.0 application may represent an application running in a switch environment in the ATSC 3.0 standard.
  • the component type element when the component type element indicates that the component is an ATSC 3.0 application, the component type element may have a value of 12.
  • the component type element may indicate that the component is a user request component.
  • the user request component represents a component transmitted by the user request.
  • the component type element when the component type element indicates a user request component, the component type element may have a value of 13.
  • the component type element may indicate that the component is a notification stream.
  • the notification stream transmits notifications to synchronize the application's actions according to a linear reference time.
  • the component type element when the component type element indicates that the component is a notification stream, the component type element may have a value of 14.
  • the component type element may indicate that the component is an App-based Enhancement.
  • the component type element when the component type element indicates that the component is an app based enhancement, the component type element may have a value of 15.
  • the component type element may be referred to as a ComponentType.
  • the component fragment may include a component roll element indicating the role of the component.
  • the value that a component role element can have may be an integer.
  • one component fragment may include a plurality of component roll elements.
  • the component roll element may indicate default video when the component is a presentable video component.
  • the value of the component roll element may be 1.
  • the component roll element may represent an alternative camera view when the component is a presentable video component.
  • the value of the component roll element may be 2.
  • the component roll element may represent a substitute video component when the component is a presentable video component.
  • the value of the component roll element may be three.
  • the component roll element may represent a sign language screen when the component is a presentable video component.
  • the value of the component roll element may be four.
  • the component roll element may represent a follow subject video when the component is a presentable video component. In this case, the value of the component roll element may be five.
  • the component roll element may indicate that a scalable video encoding is a base layer when the component is a composite video component.
  • the value of the component roll element may be 6.
  • the component roll element may indicate that the component is an enhancement layer layer for scalable video encoding when the component is a composite video component.
  • the value of the component roll element may be 7.
  • the component roll element may represent that the media component is the left image of the 3D image when the component is a composite video component.
  • the value of the component roll element may have 8 days.
  • the component roll element may represent the right image of the 3D image. In this case, the value of the component roll element may be 9.
  • the component roll element may indicate depth information of the 3D image when the component is a composite video component.
  • the value of the component roll element may be 10.
  • the component roll element may represent that the media component is video of a specific position of a screen divided into a plurality of regions.
  • the value of the component roll element may be 11.
  • the component roll element may be follow-subject metadata, which is a screen viewed along a specific subject when the component is a composite video component.
  • the value of the component roll element may be 12.
  • the follow-subject metadata may include at least one of a name of the subject, a position of the subject, and a size of the subject. When the follow-subject function is supported by the frame-by-frame metadata of the stream, the follow-subject metadata may indicate an area of the main video component to which the subject is focused.
  • the component roll element may indicate that the component is complete main when the component is a presentable audio component.
  • the value of the component roll element may be 13.
  • the component roll element may indicate that the component is music when the component is a presentable audio component.
  • the value of the component roll element may be 14.
  • the component roll element may indicate that the component is a dialog when the component is a presentable audio component.
  • the value of the component roll element may be 15.
  • the component roll element may indicate that the component is effects when the component is a presentable audio component.
  • the value of the component roll element may be 16.
  • the component roll element may indicate that the component is visual impaired for the visually impaired when the component is a presentable audio component. In this case, the value of the component roll element may be 17.
  • the component roll element may indicate that the component is hearing impaired when the component is a presentable audio component. In this case, the value of the component roll element may be 18.
  • the component roll element may indicate that the component is a commentary when the component is a presentable audio component. In this case, the value of the component roll element may be 19.
  • the component roll element may indicate that the component is a normal caption when the component is a presentable caption component. In this case, the value of the component roll element may be 20.
  • the component role element may indicate that the component is an easy-reader subtitle that is a subtitle for a primary schoolchild. In this case, the value of the component roll element may be 21.
  • the component fragment may include an extension element that may be used preliminarily for later expansion.
  • the extension element may be referred to as PrivateExt.
  • the component fragment may include a proprietary element for use of a specific application.
  • the owner element may be referred to as ProprietartyElements.
  • 67 is a view illustrating an XML format of a component fragment according to another embodiment of the present invention.
  • the component fragment in the embodiment of FIG. 68 includes elements and attributes described with reference to FIGS. 65 to 68.
  • 68 is a view illustrating an XML format of ComponentRangeType included in a component fragment according to another embodiment of the present invention.
  • the component type element included in the component fragment may include an attribute indicating a range of values that the component type element type element may have.
  • an attribute representing a range of values that a component type element may have may be referred to as a ComponentTypeRangeType.
  • 69 is a view illustrating an XML format of ComponentRoleRangeType included in a component fragment according to another embodiment of the present invention.
  • the component roll element included in the component fragment may include an attribute indicating a range of values that the component roll element roll element may have.
  • an attribute representing a range of values that a component roll element may have may be referred to as a ComponentRoleRangeType.
  • FIG. 70 shows that a component fragment shows a relationship between a composite video component using variable video encoding and components included in the composite component according to another embodiment of the present invention.
  • Indicates that an elementary component, com / Component / 3 is included.
  • the component role element of the component fragment indicates that the base component whose identifier is bcast: //lge.com/Component/2 is the base layer of variable video encoding, and whose base identifier is bcast: //lge.com/Component/3 Indicates that the component is a segment layer due to variable video encoding.
  • FIG. 71 is a view illustrating a relationship between a component fragment and a component included in a composite video component including a 3D image according to another embodiment of the present invention.
  • the component fragment includes a PickOne component having an identifier of bcast: //lge.com/Component/1 and a PickOne component having an identifier of bcast: //lge.com/Component/2, and an identifier of bcast: // lge. Indicates that the PickOne component is at .com / Component / 3.
  • the component roll element of the component fragment has a base component whose identifier is bcast: //lge.com/Component/2 represents a left image of a 3D image, and an elementary component whose identifier is bcast: //lge.com/Component/3 Denotes the right image of the 3D image.
  • FIG. 72 is a view illustrating a relationship between a component fragment and a component included in a PickOne audio component according to another embodiment of the present invention.
  • the component fragment includes a PickOne component having an identifier of bcast: //lge.com/Component/2 and a identifier that can be replaced by a PickOne component having an identifier of bcast: //lge.com/Component/1. Show that it contains a composite component that is //lge.com/Component/3.
  • the component roll element of the component fragment indicates that the PickOne component whose identifier is bcast: //lge.com/Component/2 is the full main audio.
  • the component role element of the component fragment is a composite component of bcast: //lge.com/Component/3, and a PickOne component of the identifier bcast: //lge.com/Component/4 and a bcast: //lge.com identifier Includes a PickOne component that is / Component / 5.
  • the component roll element of the component fragment indicates that the PickOne component whose identifier is bcast: //lge.com/Component/4 is music.
  • the component role element of the component fragment indicates that the PickOne component whose identifier is bcast: //lge.com/Component/5 is a conversation.
  • the ESG data may include information about a component as a lower element of the content fragment. This will be described with reference to the following drawings.
  • 73-75 show syntax of a component element according to another embodiment of the present invention.
  • the content fragment includes extension elements for extensibility.
  • the content fragment may include a component element representing information about a component included in the content as a child element of the extension element.
  • the component element may include a component type element indicating a type of a component.
  • the component type element may represent the presentable video component. In this case, the value of the component type element may be 1.
  • the component type element may represent a presentable audio component. In this case, the value of the component type element may be 2.
  • the component type element may represent a presentable subtitle component. In this case, the value of the component type element may be 3.
  • the component type element may represent an app based enhancement component. In this case, the value of the component type element may be four.
  • the component type element may be referred to as a ComponentType.
  • the component type element may include an element indicating a range of values that the component type element may have.
  • an element representing a range of values that a component type element may have may be referred to as a ComponentTypeRangeType.
  • the type of the component indicated by the component type element may be smaller. This is because the characteristics of the content including the component are represented by the content fragment, so it is not necessary to repeatedly describe the content fragment.
  • the component element may include an element component roll element indicating a role of the component.
  • the component roll element may indicate default video when the component is a presentable video component.
  • the primary video may be referred to as a primary video.
  • the value of the component roll element may be 1.
  • the component roll element may represent an alternative camera view when the component is a presentable video component.
  • the value of the component roll element may be 2.
  • the component roll element may represent a substitute video component when the component is a presentable video component.
  • the value of the component roll element may be three.
  • the component roll element may represent a sign language screen when the component is a presentable video component.
  • the value of the component roll element may be four.
  • the component roll element may represent a follow subject video when the component is a presentable video component. In this case, the value of the component roll element may be five.
  • the component roll element may indicate that the component is complete main when the component is a presentable audio component.
  • the value of the component roll element may be 6.
  • the component roll element may indicate that the component is music when the component is a presentable audio component.
  • the value of the component roll element may be 7.
  • the component roll element may indicate that the component is a dialog when the component is a presentable audio component.
  • the value of the component roll element may be 8.
  • the component roll element may indicate that the component is effects when the component is a presentable audio component.
  • the value of the component roll element may be 9.
  • the component roll element may indicate that the component is visual impaired for the visually impaired when the component is a presentable audio component.
  • the value of the component roll element may be 10.
  • the component roll element may indicate that the component is hearing impaired when the component is a presentable audio component. In this case, the value of the component roll element may be 11.
  • the component roll element may indicate that the component is a commentary when the component is a presentable audio component. In this case, the value of the component roll element may be 12.
  • the component roll element may indicate that the component is a normal caption when the component is a presentable caption component.
  • the value of the component roll element may be 13.
  • the component role element may indicate that the component is an easy-reader subtitle that is a subtitle for a primary schoolchild.
  • the value of the component roll element may be 14.
  • the component roll element may indicate that the component is an application when the component is an app-based enhancement component.
  • the value of the component roll element may be 15.
  • when the component roll element is an app-based enhancement component it may indicate that the component is an NRT content item.
  • the value of the component roll element may be 16.
  • when the component roll element is an app-based enhancement component it may indicate that the component is a user request component.
  • the value of the component roll element may be 17.
  • the component roll element when the component roll element is an app-based enhancement component, it may represent that the component is a notification stream component. In this case, the value of the component roll element may be 18.
  • the notification stream transmits notifications to synchronize the application's actions according to a linear reference time.
  • the component roll element when the component roll element is an app-based enhancement component, it may indicate that the component is a start-over component.
  • the start-over component represents an application component that provides a function of viewing the content from the beginning according to a user's request after the content starts broadcasting.
  • the value of the component roll element may be 19.
  • the component roll element when the component roll element is an app-based enhancement component, it may represent that the component is an interlocking screen component that may be consumed by the companion device 300 that interworks with the broadcast reception device 100. In this case, the value of the component roll element may be 20.
  • the component roll element may be referred to as a ComponentRole.
  • the component roll element may include an element indicating a range of values that the component roll element may have.
  • an element indicating a range of values that a component roll element may have may be referred to as a ComponentRoleRangeType.
  • the component element may include a start time element indicating a display start time of the component.
  • the start time element may be referred to as StartTime.
  • the component element may include an end time element indicating a display end time of the component.
  • the start time element may be referred to as EndTime.
  • the component element may include a language element indicating the expression language of the component.
  • the language element may be called Language.
  • the component element may include a session description language element indicating a language that appears in the session description when the component is transmitted according to the session based transport protocol.
  • the session description language element may be referred to as languageSDP.
  • the component element may include a length element representing the duration in which the component is displayed.
  • the length element may be referred to as Length.
  • the component element may include a recommendation rating element that represents a recommended rating of the component.
  • the recommended grade element may be referred to as ParentalRating.
  • the component element may include a performance element indicating the capability of the broadcast reception device 100 required to play the component.
  • the performance element may indicate that a connection with a network is required for component reproduction.
  • the value of the performance element may be 1.
  • the performance element may indicate that it requires simple definition (SD) video reproduction performance. In this case, the value of the performance element may be 2. In addition, when the component is a presentable video component, the performance element may indicate that high definition (HD) video reproduction performance is required. In this case, the value of the performance element may be three. In addition, when the component is a presentable video component, the performance element may indicate that the resolution requires ultra high definition (UHD) video reproduction performance of 4K or more. In this case, the value of the performance element may be four. In addition, when the component is a presentable video component, the performance element may indicate that the resolution requires the ability to play video of 8K or more. When the value of the performance element may be five.
  • SD simple definition
  • HD high definition
  • UHD ultra high definition
  • the performance element may indicate that the resolution requires the ability to play 3D video. When the value of the performance element may be six. In addition, if the component is a presentable video component, the performance element may indicate that the resolution requires the ability to play high dynamic range imaging video. In this case, the value of the performance element may be 7. In addition, if the component is a presentable video component, the performance element may indicate that the resolution requires the ability to play Wide Color Gamut video. When the value of the performance element may be eight.
  • the performance element may indicate that it should be able to play 2.0 channel audio. In this case, the value of the performance element may be 9. In addition, if the component is a presentable audio component, the performance element may indicate that it should be able to play 2.1 channel audio. In this case, the value of the performance element may be 10. In addition, if the component is a presentable audio component, the performance element may indicate that it should be able to play 5.1 channel audio. In this case, the value of the performance element may be 11. Also, if the component is a presentable audio component, the performance element may indicate that it should be able to play 6.1 channel audio. In this case, the value of the performance element may be 12.
  • the performance element may indicate that it should be able to play 7.1 channel audio. In this case, the value of the performance element may be 13. In addition, if the component is a presentable audio component, the performance element may indicate that it should be able to play 22.1 channel audio. In this case, the value of the performance element may be 14. Also, if the component is a presentable audio component, the performance element may indicate that it should be able to play 3D audio. In this case, the value of the performance element may be 15. In addition, when the component is a presentable audio component, the performance element may indicate that the dialogue level adjustment should be possible. In this case, the value of the performance element may be 16.
  • the performance element may indicate that a magic remote control input must be available to play the component.
  • the value of the performance element may be 17.
  • the performance element may indicate that a touch screen input must be available to play the component.
  • the value of the performance element may be 18.
  • the performance element may also indicate that it must be able to receive mouse input in order to play the component.
  • the value of the performance element may be 19.
  • the performance element may also indicate that it must be able to receive keyboard input to play the component. In this case, the value of the performance element may be 20.
  • the performance element may indicate that application rendering is required.
  • the value of the performance element may be 21.
  • the performance element may be referred to as DeviceCappability.
  • the performance element may include an element indicating a range of values that the performance element may have.
  • an element indicating a range of values that the capability type element may have may be referred to as a DeviceCappabilityRangeType.
  • the component element may include a target device element that represents the device that the component is targeting.
  • the target device element may represent that the target device element is a component provided through a screen of the broadcast reception device 100, which is a primary device that receives a broadcast service.
  • the value of the target device element may be 1.
  • the target device element may represent that the target device element is a component provided through a screen of the companion device 300 interoperating with the broadcast reception device 100 which is a primary device receiving the broadcast service.
  • the value of the target device element may be 2.
  • the target device element may represent that the target device element is a component provided through a part of the entire screen of the broadcast reception device 100, which is a primary device receiving the broadcast service. In this case, the value of the target device element may be three.
  • the target device element may be referred to as TargetDevice.
  • the target device element may include an element indicating a range of values that the target device element may have.
  • an element representing a range of values that the target device element may have may be referred to as a TargetDeviceRangeType.
  • 76 through 80 show the XML format of the component element described above.
  • the broadcast reception device 100 may display component information based on the component element.
  • the broadcast reception device 100 may display component information included in content based on a performance element included in the component element. This will be described in detail with reference to the following drawings.
  • a broadcast reception device displays a component included in content according to a performance element included in a component element according to another embodiment of the present invention.
  • the broadcast reception device 100 may display component information included in content based on a performance element included in a component element. In more detail, the broadcast reception device 100 may distinguish between components that can be played by the broadcast reception device 100 and components that cannot be played based on the performance elements included in the component element. In more detail, the broadcast reception device 100 may differently display a component that can be played by the broadcast reception device 100 and a component that cannot be played based on a performance element included in the component element. According to a specific embodiment, the broadcast reception device 100 may display a component that can be played by the broadcast reception device 100 and a component that cannot be played on a different color based on a performance element included in the component element.
  • the broadcast reception device 100 displays a component that can be played by the broadcast reception device 100 on a white background based on a performance element included in the component element, and grays out a component that the broadcast reception device 100 cannot reproduce. Can be displayed on the background.
  • the broadcast reception device 100 may display a component that can be played by the broadcast reception device 100 and a component that cannot be played on the basis of a performance element included in the component element with a different icon.
  • the broadcast reception device 100 may display a component that the broadcast reception device 100 can reproduce and a component that cannot be reproduced in different text based on the performance element included in the component element.
  • the broadcast reception device 100 may display a component that can be played by the broadcast reception device 100 and a component that cannot be played by different graphic symbols based on a performance element included in the component element.
  • the broadcast reception device 100 may display component information on a service guide menu.
  • the broadcast reception device 100 may display component information on a service list menu.
  • the broadcast reception device 100 may display component information on a bar-shaped menu located at the bottom or the top of the screen on the screen where the content is played.
  • the content includes a component requiring HD video reproduction and a component requiring 5.1 channel audio reproduction.
  • the broadcast reception device 100 may display component information on a white background as shown in FIG.
  • the broadcast reception device 100 does not support 5.1-channel audio reproduction
  • the broadcast reception device 100 needs to reproduce 5.1-channel reproduction on a gray background as shown in FIG. 81 (C).
  • Component information can be displayed.
  • the content includes a component that requires UHD video playback, an audio component that includes English, and an audio component that includes Spanish, which requires a broadband connection.
  • the broadcast reception device 100 may display an audio component including Spanish on a gray background as in the embodiment of FIG. 82 (b).
  • the content includes a component requiring UHD video reproduction, an audio component requiring 5.1 channel reproduction, and a video component requiring wide color gamut.
  • the broadcast reception device 100 may display a video component requiring wide color gamut on a gray background as in the embodiment of FIG. 83 (c). have.
  • the user may select content according to whether the broadcast reception device 100 can play the corresponding content.
  • the user may know in advance that the broadcast reception device 100 cannot reproduce the corresponding content. This may prevent the user from waiting for content that the broadcast reception device 100 cannot reproduce.
  • such a function may increase user convenience.
  • the component element may include information indicating a component type.
  • the component element may include information indicating the type of the component in the form of an element.
  • the component element may include information indicating the type of the component as a component type attribute.
  • the component type property may represent a presentable video component.
  • the value of the component type attribute may be 1.
  • the component type attribute may indicate a presentable audio component.
  • the value of the component type attribute may be 2.
  • the component type attribute may indicate a presentable subtitle component.
  • the value of the component type attribute may be 3.
  • the component type attribute may indicate an app-based enhancement component.
  • the value of the component type attribute may be 4.
  • the component roll element may have an integer value.
  • the component roll element may have a string value indicating the role of the component for convenience of data addition later.
  • the broadcast reception device 100 may display a string value of the component roll element.
  • the component roll element may indicate that the component is a default video when the component is a presentable video component.
  • the primary video may be referred to as a primary video.
  • the value of the component roll element may be “Primary video”.
  • the component roll element may represent an alternative camera view when the component is a presentable video component.
  • the value of the component roll element may be "Alternative camera view.”
  • the component roll element may represent a substitute video component when the component is a presentable video component.
  • the value of the component roll element may be "Other alternative video component”.
  • the component roll element may represent a sign language screen when the component is a presentable video component.
  • the value of the component roll element may be "Sign language inset”.
  • the component roll element may indicate that the component is a follow subject video when the component is a presentable video component.
  • the value of the component role element may be "Follow subject video".
  • the component roll element may indicate that the component is complete main when the component is a presentable audio component.
  • the value of the component roll element may be "Complete main”.
  • the component roll element may indicate that the component is music when the component is a presentable audio component.
  • the value of the component roll element may be "Music”.
  • the component roll element may indicate that the component is a dialog when the component is a presentable audio component.
  • the value of the component roll element may be "Dialog”.
  • the component roll element may indicate that the component is effects when the component is a presentable audio component.
  • the value of the component roll element may be “Effects”.
  • the component roll element may indicate that the component is visual impaired for the visually impaired when the component is a presentable audio component.
  • the value of the component roll element may be "Visually impaired”.
  • the component roll element may indicate that the component is hearing impaired when the component is a presentable audio component.
  • the value of the component roll element may be "Hearing impaired”.
  • the component roll element may indicate that the component is a commentary when the component is a presentable audio component.
  • the value of the component roll element may be "Commentary”.
  • the component roll element may indicate that the component is a normal caption when the component is a presentable caption component.
  • the value of the component roll element may be "Normal”.
  • the component role element may indicate that the component is an easy-reader subtitle that is a subtitle for a primary schoolchild.
  • the value of the component roll element may be "Easy reader”.
  • the component roll element may indicate that the component is an application when the component is an app-based enhancement component.
  • the value of the component roll element may be "Application”.
  • the component roll element when the component roll element is an app-based enhancement component, it may indicate that the component is an NRT content item. In this case, the value of the component roll element may be "NRT Content Item”.
  • the component roll element when the component roll element is an app-based enhancement component, it may indicate that the component is a user request component. In this case, the value of the component roll element may be "On demand”.
  • the component roll element when the component roll element is an app-based enhancement component, it may represent that the component is a notification stream component.
  • the value of the component roll element may be "Notification Stream.”
  • the notification stream transmits notifications to synchronize the application's actions according to a linear reference time.
  • the component roll element is an app-based enhancement component, it may indicate that the component is a start-over component.
  • the start-over component represents an application component that provides a function of viewing the content from the beginning according to a user's request after the content starts broadcasting.
  • the value of the component roll element may be "Start-over”.
  • the component roll element when the component roll element is an app-based enhancement component, it may represent that the component is an interlocking screen component that may be consumed by the companion device 300 that interworks with the broadcast reception device 100.
  • the value of the component roll element may be "Companion-Screen".
  • 86 illustrates the XML format of a component element described above.
  • the above-described component element includes information about the component regardless of the component type.
  • the component element includes component information according to the component type, it is possible to reduce the use of duplicate sub-elements and attributes. This will be described with reference to the following drawings.
  • 87 through 88 show syntax of a component element according to another embodiment of the present invention.
  • the component element may separately include lower elements representing component information according to the type of inspector.
  • the component element may separately include a component roll element representing a component role according to the type of inspector.
  • the component element may include a presentable video component element indicating a role of the presentable video component.
  • the presentable video component element may represent that the presentable video component is a default video component.
  • the primary video may be referred to as a primary video.
  • the value of the presentable video component element may be “Primary video”.
  • the presentable video component element may represent that the presentable video component is an alternative camera view. In this case, the value of the presentable video component element may be "Alternative camera view.”
  • the presentable video component element may indicate that the presentable video component is a replacement video component. In this case, the value of the presentable video component element may be “Other alternative video component”.
  • the presentable video component element may represent that the presentable video component is a sign language screen. In this case, the value of the presentable video component element may be "Sign language inset". In addition, the presentable video component element may indicate that the presentable video component is a follow subject video. In this case, the value of the presentable video component element may be “Follow subject video”.
  • the component element may include a presentable audio component element indicating a role of the presentable audio component.
  • the presentable audio component element may represent that the presentable audio component is complete main.
  • the value of the presentable audio component element may be “Complete main”.
  • the presentable audio component element may indicate that the presentable audio component is music.
  • the value of the presentable audio component element may be "Music”.
  • the presentable audio component element may indicate that the presentable audio component is a dialog.
  • the value of the presentable audio component element may be "Dialog”.
  • the presentable audio component element may represent that the presentable audio component is effects.
  • a value of the presentable audio component element may be “Effects”.
  • the presentable audio component element may represent that the presentable audio component is visual impaired for the visually impaired. In this case, the value of the presentable audio component element may be "Visually impaired”. The presentable audio component element may indicate that the presentable audio component is hearing impaired. In this case, the value of the presentable audio component element may be “Hearing impaired”. The presentable audio component element may represent that the presentable audio component is a commentary. In this case, the value of the presentable audio component element may be “Commentary”.
  • the component element may include a presentable subtitle component element indicating a role of the presentable subtitle component.
  • the presentable subtitle component element may indicate that the presentable subtitle component is a normal subtitle. In this case, the value of the presentable subtitle component element may be "Normal”.
  • the presentable subtitle component element may indicate that the presentable subtitle component is an easy-reader subtitle that is a subtitle for a primary schoolchild. In this case, the value of the presentable subtitle component element may be “Easy reader”.
  • the component element may include a presentable app component element indicating a role of the presentable app-based enhancement component.
  • the presentable app component element may indicate that the component-based enhancement component is an application.
  • the value of the component roll element may be "Application”.
  • the presentable app component element may represent that the app-based enhancement component is an NRT content item.
  • the value of the presentable app component element may be "NRT Content Item”.
  • the presentable app component element may indicate that the app-based enhancement component is a user request component.
  • the value of the presentable app component element may be “On demand”.
  • the presentable app component element may represent that the app-based enhancement component is a notification stream component.
  • the value of the presentable app component element may be "Notification Stream.”
  • the presentable app component element may indicate that the app-based enhancement component is a start-over component.
  • the start-over component represents an application component that provides a function of viewing the content from the beginning according to a user's request after the content starts broadcasting.
  • the value of the presentable app component element may be “Start-over”.
  • the presentable app component element may represent that the app-based enhancement component is an interlocking screen component that may be consumed by the companion device 300 interoperating with the broadcast reception device 100.
  • the value of the presentable app component element may be "Companion-Screen".
  • FIG. 89 illustrates XML formats of the above-described component element and the presentable video component element, the presentable audio component element, the presentable subtitle component element, and the presentable application component element included in the component element.
  • the component element may include information indicating the type of the component as an attribute.
  • the component element may include a value of an element indicating a role of the component as a string to facilitate later addition of the component role.
  • the broadcast reception device 100 may display an element value indicating a role of a component to a user as it is.
  • the component information included in the ESG data may include information representing the performance of the device required for playing the component.
  • the component fragment described above may include, as an element, information representing device performance required to play a component.
  • the above-described component element may include information indicating the device capability required for playing the component as an element. This will be described with reference to the following drawings.
  • the performance element may include a performance code that is a value representing the performance.
  • values representing performance may be referred to as CapabilityCodes. The meaning that the performance code can indicate will be described with reference to FIG. 91.
  • 91 is a view illustrating a value that a performance code element included in a performance element according to another embodiment of the present invention can have.
  • the capability code may indicate that a connection to a broadband network is required to play a component.
  • the performance code may indicate that a download through a communication network is required to play a component.
  • the performance code value may be 0x02.
  • the performance code may indicate the performance of the device required for video rendering.
  • the performance code may indicate that the SD video needs to be played in order to play the component.
  • the value of the capability code may be 0x80.
  • the performance code may indicate that HD video is required to play a component.
  • the value of the capability code may be 0x81.
  • the performance code may represent that UHD video needs to be played in order to play a component.
  • the value of the capability code may be 0x82.
  • the performance code may indicate that E-UHD video having a resolution of 8K or more is required to play a component.
  • the value of the capability code may be 0x83.
  • the performance code may represent that 3D video needs to be played in order to play a component.
  • the value of the capability code may be 0x90.
  • the performance code may indicate that high dynamic range video playback is required to play a component.
  • the value of the capability code may be 0x91.
  • the performance code may indicate that wide color gamut video is required to play a component.
  • the value of the capability code may be 0x92.
  • the performance code may indicate the performance of the device required for audio rendering.
  • the performance code may indicate that stereo (2-channel) audio is required to play a component.
  • the value of the capability code may be 0xA0.
  • the capability code may indicate that 5.1 channel audio is required to be played to play a component.
  • the value of the capability code may be 0xA1.
  • the performance code may indicate that 3D audio needs to be played to play a component.
  • the value of the capability code may be 0xA2.
  • the performance code may indicate that a dialogue level adjustment is required to play a component. In this case, the value of the capability code may be 0xB1.
  • the performance code may indicate the performance of the device required to render the application.
  • the performance code may indicate that a Personal Video Recoreder (PVR) function is required to play a component.
  • the value of the capability code may be 0xC0.
  • the performance code may indicate that a download function is required to play a component.
  • the download function may represent downloading to persistent storage.
  • the value of the capability code may be 0xC1.
  • the performance code may represent that a DRM processing function is required to play a component.
  • the value of the capability code may be 0xC2.
  • the capability code may indicate that a Conditional Access (CA) processing function is required to play a component.
  • CA Conditional Access
  • the performance element will be described again with reference to FIG. 90.
  • the capability element may include a capability string element that represents a string representing the capability required to play the component.
  • the broadcast reception device 100 may display the capability required for component reproduction based on the capability string element.
  • the broadcast reception device 100 may display a string indicated by the performance string element.
  • the capability string element may be referred to as CapabilityString.
  • the capability element may include a category element that indicates the category of the capability code.
  • the category element may be referred to as category. This will be described with reference to FIG. 92.
  • 92 is a view illustrating a value that a category element of a performance element may represent according to another embodiment of the present invention.
  • the category element may indicate a download protocol required for playing the component. At this point, the category element value may be 0x01. The category element may represent a Forward Error Correction (FEC) algorithm required for playing the component. At this point, the category element value may be 0x02. The category element may indicate a wrapper / archive format required to play the component. At this point, the category element value may be 0x03. The category element may represent a compression algorithm required to play the component. At this point, the category element value may be 0x04. The category element may indicate a media format required for playing the component. At this point, the category element value may be 0x05. The category element may indicate the playback performance required for playing the component. At this point, the category element value may be 0x06.
  • FEC Forward Error Correction
  • hybrid broadcasting various services including various types of components can be transmitted.
  • the performance of each broadcast receiving apparatus 100 can reproduce. Accordingly, as described above, the broadcast reception device 100 may display whether each component can be played based on the performance element. This allows the user to select content based on the components included in the service.
  • Broadcasters or content providers may sell content on a component basis.
  • broadcasters or content providers may separately sell some components included in the service.
  • broadcasters or content providers may sell components in a pay-per-view (PPV) form.
  • PSV pay-per-view
  • broadcasters or content providers may provide a base layer component of variable video coding without additional charge, and an enhancement layer component may receive and provide a separate charge.
  • broadcasters or content providers may provide components at some points in time while providing multi-view content for a separate charge.
  • broadcasters or content providers may provide the UHD component under separate charge while providing the HD component without charge.
  • broadcasters or content providers may provide a stereo audio component for a separate charge.
  • broadcasters or content providers may be charged for and provide a voting application for audition related content while providing audition related content.
  • the broadcast transmission device 100 should transmit charging information for each component.
  • the broadcast reception device 100 should display billing information for each component and provide an interface that can be purchased for each component. This will be described with reference to FIGS. 93 and 94.
  • 93 and 94 illustrate a user interface for providing payment in component units according to an embodiment of the present invention.
  • the broadcast transmission device 10 may include billing information for each component in the information on the above-described component and transmit the same.
  • the broadcast transmission device 10 may include billing information for each component in the aforementioned component element and transmit the same.
  • the broadcast transmission device 10 may include the charging information for each component in the above-described component fragment and transmit it.
  • the broadcast reception device 100 may obtain charging information about each component based on the information about the component. In more detail, the broadcast receiving device 100 may obtain charging information about each component based on the component fragment. In addition, the broadcast reception device 100 may obtain charging information for each component based on the component element. In addition, the broadcast reception device 100 may display charging information on the component in the service guide menu. In more detail, the broadcast reception device 100 may describe that purchase is necessary to play a corresponding component in a service guide menu. In addition, the broadcast reception device 100 may display the purchase condition of the corresponding component in the service guide menu. The purchase condition may include a price. In addition, the purchase condition may indicate a playable period. In the embodiment of FIG. 93, the broadcast reception device 100 indicates that purchase is required to play a component including an alternative view of broadcast content.
  • the broadcast reception device 100 may display that charging is required to play a component included in the corresponding content while playing the corresponding content.
  • the broadcast reception device 100 may provide a user interface for purchasing a corresponding component.
  • the broadcast reception device 100 may display in the form of a message box that charging is required to play a component included in the corresponding content while playing the corresponding content.
  • the broadcast reception device 100 may proceed with a purchase procedure of a corresponding component based on a user input.
  • the broadcast reception device 100 displays that a different time point screen of a baseball game can be viewed when a paid payment is made.
  • the broadcast reception device 100 plays a component including another viewpoint screen.
  • the broadcast transmission device 10 obtains information about a component in operation S101.
  • the broadcast transmission device 10 may obtain information about a component through a control unit.
  • the broadcast transmission device 10 may include a type of a component, device performance required for component reproduction, a role of a component, a relationship with another component, information on a service including a component, information on a content including a component, At least one of device information targeted by the component, user information targeted by the component, valid period information of the component, display start time of the component, display end time of the component, and a recommended grade of the component may be obtained.
  • the broadcast transmission device 10 generates ESG data based on the information on the component (S103).
  • the broadcast transmission device 10 may generate ESG data based on information on a component through a control unit.
  • the broadcast transmission device 10 may generate the component fragment described above based on the component.
  • the broadcast transmission device 100 may generate the above-described component element based on the component.
  • the broadcast transmission device 10 transmits a broadcast signal based on the information on the component (S105).
  • the broadcast transmission device 10 may transmit a broadcast signal based on information on a component through a transmitter.
  • the broadcast transmission device 10 may transmit a broadcast signal including ESG data.
  • the broadcast transmission device 10 may transmit a broadcast signal including ESG data signaling information, which is information for receiving ESG data.
  • the content server 50 may separately transmit the ESG data through the communication network.
  • FIG. 96 illustrates an operation of a broadcast reception device according to an embodiment of the present invention.
  • the broadcast reception device 100 receives a broadcast signal in operation S201.
  • the broadcast reception device 100 may receive a broadcast signal through the broadcast reception unit 110.
  • the broadcast reception device 100 obtains ESG data based on the broadcast signal in operation S203.
  • the broadcast reception device 100 may obtain ESG data on the basis of a broadcast signal through the control unit 150.
  • the broadcast reception device 100 may obtain ESG data from a broadcast signal.
  • the broadcast reception device 100 may extract ESG data signaling information that is information for receiving ESG data from a broadcast signal.
  • the broadcast reception device 100 may obtain ESG data from the content server 50 based on the ESG data signaling information.
  • the broadcast reception device 100 obtains information about a component on the basis of ESG data in operation S205.
  • the broadcast reception device 100 may obtain information about a component on the basis of the ESG data through the control unit 150.
  • the information on the component as described above, the type of the component, the device performance required for playing the component, the role of the component, the relationship with other components, information about the service including the component, information about the content including the component,
  • the device may include at least one of device information targeted by the component, user information targeted by the component, valid period information of the component, display start time of the component, display end time of the component, and a recommended grade of the component.
  • the broadcast reception device 100 displays information about a component in operation S207.
  • the broadcast reception device 100 may display information about a component through the control unit 150.
  • the broadcast occasional feast 100 may display information about a component on a service guide menu.
  • the broadcast reception device 100 may display a role of a component included in content in a service guide menu.
  • the broadcast reception device 100 may display charging information of a component included in the content on the service guide menu.
  • the broadcast reception device 100 may display component information on a content playback screen.
  • the broadcast reception device 100 may display the role of a component with a message box located at the bottom or the top of a content playback screen.
  • the broadcast receiving device 100 may display the role of the component as a message box located at the bottom or the top of the content playback screen.
  • the broadcast reception device 100 may display information about a component in a service list.
  • the broadcast reception device 100 receives a user input for a component in operation S209.
  • the broadcast reception device 100 may receive a user input for a component through the control unit 150.
  • the broadcast receiving device 100 may receive a user input for reserved viewing of a component.
  • the broadcast reception device 100 may receive a user input for reserved recording of a component.
  • the broadcast receiving device 100 may receive a user input for viewing a component.
  • the broadcast reception device 100 may receive a user input for recording a component.
  • the broadcast reception device 100 plays a component on the basis of a user input in operation S211.
  • the broadcast reception device 100 may play a component on the basis of a user input through the control unit 150.
  • the broadcast receiving device 100 may play a component corresponding to a user input.
  • the broadcast reception device 100 may play a component corresponding to an input by a user at a reserved viewing time.
  • the broadcast reception device 100 may immediately play a component corresponding to a user input.
  • the broadcast reception device 100 may immediately record a component corresponding to a user input.
  • the broadcast reception device 100 may record a component corresponding to a user input at a reserved recording time.
  • 97 is a view illustrating a content playback screen of a broadcast reception device according to an embodiment of the present invention.
  • the service or content of the hybrid broadcast may include a plurality of components. Also, a plurality of components can be played simultaneously. 97 shows that a component including a movie, a component including a sign language screen displayed on a part of a screen, and a component including a follow subject video are simultaneously played.
  • 98 is a view illustrating a service guide menu of a broadcast reception device according to an embodiment of the present invention.
  • the broadcast reception device 100 may display information about a component.
  • the broadcast reception device 100 may display information about a component included in a service.
  • the broadcast receiving device 100 may display information about a component included in content.
  • the broadcast reception device 100 may display information about a component in a service guide menu. For example, as shown in the embodiment of FIG. 98 (b), the role of the component included in the content may be displayed.
  • the broadcast reception device 100 may display information about a component in a service guide menu based on a user input. For example, the broadcast reception device 100 may display a service guide menu without displaying information on a component as shown in 97 (b).
  • the broadcast reception device 100 may display the information on the component on the service guide menu as in the embodiment of FIG. 98 (b).
  • the broadcast reception device 100 may display a component based on the content data type.
  • the broadcast receiving device 100 may display information about a component including a type of data selected by a user. For example, when a user input for selecting a video component is received, the broadcast reception device 100 may display the role of the video component in the service guide menu. In addition, when a user input for selecting an audio component is received, the broadcast reception device 100 may display the role of the audio component in the service guide menu.
  • the broadcast reception device 100 may display the role of the caption component in the service guide menu.
  • the broadcast reception device 100 may display the role of the app-based enhancement component in the service guide menu. This allows the user to select content based on the components that the content or service includes.
  • 99 to 105 illustrate viewing a reservation in a service guide menu of a broadcast reception device according to an embodiment of the present invention.
  • the broadcast reception device 100 may display information about a video component included in content in a service guide menu.
  • the broadcast reception device 100 may receive a user input for viewing content reservation including a component including a sign language screen in a service guide menu.
  • the broadcast reception device 100 may display that reservation viewing is set in the service guide menu.
  • the broadcast receiving device 100 may play the corresponding content at the reserved viewing time.
  • the broadcast reception device 100 may cause the companion device 300 to play a component for which the user has set reserved viewing.
  • the broadcast reception device 100 may transmit information about a component for which reserved viewing is set to the companion device 300.
  • the companion device 300 may play the corresponding component based on the information on the component for which the reserved viewing is set.
  • the broadcast reception device 100 may receive a user input for viewing content reservation including a component for a substitute view screen in a service guide menu.
  • the broadcast reception device 100 may display that reservation viewing is set in the service guide menu.
  • the broadcast reception device 100 may transmit information on a corresponding component to the companion device 300.
  • the companion device 300 may play the corresponding content at the reserved viewing time.
  • the broadcast reception device 100 may receive a user input for viewing content reservation including a component for a follow subject video in a service guide menu.
  • the companion device 300 may play the corresponding content at the reserved viewing time.
  • the broadcast reception device 100 may receive a user input for viewing content reservation including a component for a follow subject video in a service guide menu.
  • the broadcast reception device 100 may display information on an audio component included in content in a service guide menu.
  • the broadcast reception device 100 may receive a user input for viewing content reservation including a component including music in a service guide menu.
  • the broadcast reception device 100 may receive a user input for viewing a content reservation including a component including a conversation level adjustment function in a service guide menu.
  • the broadcast reception device 100 may receive a user input for viewing content reservation including a component for audio for the visually impaired in the service guide menu.
  • the broadcast reception device 100 may display that reservation viewing is set in the service guide menu.
  • the broadcast receiving device 100 may play the corresponding content at the reserved viewing time.
  • the broadcast reception device 100 may display information on a caption component included in content in a service guide menu.
  • the broadcast reception device 100 may receive a user input for viewing a content reservation including a caption component for a primary schoolchild in a service guide menu.
  • the broadcast reception device 100 may display that reservation viewing is set in the service guide menu.
  • the broadcast receiving device 100 may play the corresponding content at the reserved viewing time.
  • the broadcast reception device 100 may display information on an application-based enhancement component included in the content in the service guide menu.
  • the broadcast reception device 100 may provide information on various components provided by the hybrid broadcast based on the ESG data. Through this, the broadcast reception device 100 may increase the convenience of user's selection of content or service. In particular, the broadcast reception device 100 may provide not only a service or content that is currently being played but also content or service information that is scheduled to be broadcasted in the future, so that a user may easily select content or service.

Abstract

방송 신호를 수신하는 방송 수신 장치가 개시된다. 방송 수신 장치는 방송 신호를 수신하는 방송 수신부; 및 방송 신호에 기초하여 방송 서비스 가이드에 대한 정보를 포함하는 전자 서비스 가이드(Electrical Service Guide, ESG) 데이터를 수신하고, 상기 ESG 데이터에 기초하여 방송 서비스 및 방송 컨텐츠 중 적어도 어느 하나가 포함하는 컴포넌트에 관한 정보를 획득하는 제어부를 포함한다.

Description

방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법
본 발명은 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법에 관한 것이다.
디지털 방송 환경 및 통신 환경의 발전에 따라 기존 방송망뿐만 아니라 통신망(broadband)을 이용하는 하이브리드 방송이 각광 받고있다. 또한 이러한 하이브리드 방송은 스마트폰 이나 태블릿 등의 단말 장치와 연동하는 어플리케이션이나 방송 서비스를 제공하고 있다.
다만, 기존 방송 스트림을 전송하기 위해 사용되는 MPEG-2(Moving Picture Experts Group-2) 전송 스트림(Transport Stream, TS)을 제정할 당시에는 하이브리드 방송이 활성하되기 전이었다. 따라서 MPEG-2 TS는 하이브리드 방송을 고려하지 못하여 하이브리드 방송에 사용하는데 제약사항이 많다. 구체적으로 MPEG-2 TS는 다양한 확장성 제공하지 못 하고, MPEG-2 TS를 통해 통신망(broadband)에서 사용되는 데이터를 전송하는 것은 비효율적이다. 예컨대, 통신망(broadband)에서 사용되는 IP 패킷의 데이터를 MPEG-2 TS로 전송하기 위해서는, IP 패킷을 다시 MPEG-2 TS로 인켑슐레이션하여야 되는 불편이 따른다. 또한, MPEG-2 TS를 사용할 경우, 방송 수신 장치는 하이브리드 방송을 지원하기 위해서 MPEG-2 TS 패킷과 IP 패킷을 모두 처리해야한다. 따라서 하이브리드 방송을 위한 확장성과 효율성을 갖는 새로운 방송 전송 포맷이 필요하다.
또한, 기존의 방송 서비스의 프로그램을 표시하는 전자 프로그램 가이드(Electronic Service Guide, ESG)는 방송 서비스와 방송 서비스가 제공하는 프로그램을 표시하였다. 이때, ESG는 전자 프로그램 가이드(Electronic Program Guide, EPG)로 지칭될 수 있다. 구체적으로 ESG는 프로그램의 시작 시간, 종료 시간, 제목, 내용에 대한 요약, 권장 시청 등급, 장르, 출연자 정보 등을 표시하였다. 다만, 하이브리드 방송의 경우, 방송 서비스가 어플리케이션과 함께 제공될 수 있다. 또한, 하이브리드 방송의 방송 서비스는 다양한 미디어 컴포넌트를 포함하고, 방송 수신 장치는 미디어 컴포넌트를 선택적으로 재생할 수 있다. 또한, 방송 수신 장치는 미리 정해진 일정에 따라 제공되는 프로그램뿐만아니라 사용자 요청에 따라 제공되는 프로그램 까지도 제공할 수 있다. 따라서 방송 수신 장치는 복잡하고 다양한 컨텐츠를 제공하는 하이브리드 방송 서비스의 컨텐츠를 효과적으로 전달할 수 있는 ESG를 제공할 필요가 있다. 이를 위해 방송 전송 장치는 새로운 형식의 ESG 데이터를 전송할 필요가 있다. 또한, 방송 수신 장치는 새로운 형식에 ESG 데이터를 수신하고 표시할 필요가 있다.
본 발명의 일 실시예는 하이브리드 방송을 위한 ESG 데이터를 전송하는 방송 전송 장치, 방송 전송 장치의 동작 방법, 하이브리드 방송을 위한 ESG 데이터를 수신하는 방송 수신 장치 및 방송 수신 장치의 동작 방법을 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 방송 수신 장치는 방송 신호를 수신하는 방송 수신부; 및 방송 신호에 기초하여 방송 서비스 가이드에 대한 정보를 포함하는 전자 서비스 가이드(Electrical Service Guide, ESG) 데이터를 수신하고, 상기 ESG 데이터에 기초하여 방송 서비스 및 방송 컨텐츠 중 적어도 어느 하나가 포함하는 컴포넌트에 관한 정보를 획득하는 제어부를 포함한다.
상기 컴포넌트에 관한 정보는 상기 컴포넌트를 재생하기 위해 필요한 장치 성능을 나타내는 장치 성능 정보를 포함할 수 있다.
상기 제어부는 상기 장치 성능 정보에 기초하여 상기 컴포넌트에 대한 정보를 표시할 수 있다.
상기 제어부는 상기 방송 수신 장치가 재생할 수 있는 컴포넌트에 관한 정보와 상기 방송 수신 장치 재생할 수 있는 컴포넌트에 관한 정보를 구별되게 표시할 수 있다.
상기 컴포넌트에 관한 정보는 상기 컴포넌트와 다른 컴포넌트, 상기 컴포넌트와 상기 방송 컨텐츠, 및 상기 컴포넌트와 상기 방송 서비스의 포함 관계를 나타내는 참조 정보를 포함하는 참조 정보를 포함할 수 있다.
상기 컴포넌트에 관한 정보는 연관된 컴포넌트를 연관 정보를 포함할 수 있다.
상기 연관된 컴포넌트는 상기 컴포넌트와 함께 재생되는 컴포넌트를 나타낼 수 있다.
상기 ESG 데이터는 정보의 단위인 프래그먼트로 구분되고, 상기 방송 서비스에 대한 정보를 포함하는 서비스 프래그먼트 및 상기 방송서비스가 포함하는 컨텐츠에 대한 정보를 포함하는 컨텐츠 프래그먼트를 포함할 수 있다.
상기 컨텐츠에 대한 정보는 상기 ESG 데이터가 포함하는 컨텐츠 프래그먼트일 수 있다.
상기 컴포넌트에 관한 정보는 상기 컨텐츠 프래그먼트가 포함하는 컴포넌트 엘리먼트일 수 있다.
상기 컴포넌트에 관한 정보는 상기 컴포넌트에 대한 과금 정보를 포함할 수 있다.
상기 제어부는 상기 컴포넌트에 관한 정보를 서비스 가이드 메뉴에 표시할 수 있다.
상기 제어부는 상기 컴포넌트의 역할을 서비스 가이드 메뉴에 표시할 수 있다.
상기 제어부는 상기 컴포넌트의 과금 정보를 서비스 가이드 메뉴에 표시할 수 있다.
상기 제어부는 상기 컴포넌트가 포함하는 데이터 종류에 기초하여 상기 컴포넌트에 관한 정보를 표시할 수 있다.
상기 제어부는 사용자가 선택한 종류의 데이터를 포함하는 상기 컴포넌트에 관한 정보를 표시할 수 있다.
본 발명의 일 실시예에 따른 방송 수신 장치의 동작 방법은 방송 신호를 수신하는 단계; 방송 신호에 기초하여 방송 서비스 가이드에 대한 정보를 포함하는 전자 서비스 가이드(Electrical Service Guide, ESG) 데이터를 수신하는 단계; 및 상기 ESG 데이터에 기초하여 방송 서비스 및 방송 컨텐츠 중 적어도 어느 하나가 포함하는 컴포넌트에 관한 정보를 획득하는 단계를 포함한다.
본 발명의 일 실시예에 따른 방송 서비스 및 방송 컨텐츠 중 적어도 어느 하나가 포함하는 컴포넌트에 관한 정보를 획득하고, 상기 컴포넌트에 관한 정보에 기초하여 방송 서비스 가이드에 대한 정보를 포함하는 전자 서비스 가이드(Electrical Service Guide, ESG) 데이터를 생성하는 제어부; 및 상기 ESG 데이터에 기초하여 방송 신호를 전송하는 전송부를 포함한다.
본 발명의 일 실시예는 하이브리드 방송을 위한 ESG 데이터를 전송하는 방송 전송 장치, 방송 전송 장치의 동작 방법, 하이브리드 방송을 위한 ESG 데이터를 수신하는 방송 수신 장치 및 방송 수신 장치의 동작 방법을 제공한다.
도 1은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치의 구조를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 인풋 포맷팅(Input formatting, 입력 포맷) 블록을 나타낸다.
도 3은 본 발명의 다른 일 실시예에 따른 인풋 포맷팅(Input formatting, 입력 포맷) 블록을 나타낸다.
도 4는 본 발명의 일 실시예에 따른 BICM (bit interleaved coding & modulation) 블록을 나타낸다.
도 5는 본 발명의 다른 일 실시예에 따른 BICM 블록을 나타낸다.
도 6은 본 발명의 일 실시예에 따른 프레임 빌딩(Frame Building, 프레임 생성) 블록을 나타낸다.
도 7은 본 발명의 일 실시예에 따른 OFDM (orthogonal frequency division multiplexing) 제너레이션(generation, 생성) 블록을 나타낸다.
도 8은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치의 구조를 나타낸다.
도 9는 본 발명의 일 실시예에 따른 프레임 구조를 나타낸다.
도 10은 본 발명의 일 실시예에 따른 프레임의 시그널링 계층 구조를 나타낸다.
도 11은 본 발명의 일 실시예에 따른 프리앰블 시그널링 데이터를 나타낸다.
도 12는 본 발명의 일 실시예에 따른 PLS1 데이터를 나타낸다.
도 13은 본 발명의 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 14는 본 발명의 다른 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 15는 본 발명의 일 실시예에 따른 프레임의 로지컬(logical, 논리) 구조를 나타낸다.
도 16은 본 발명의 일 실시예에 따른 PLS (physical layer signalling) 매핑을 나타낸다.
도 17은 본 발명의 일 실시예에 따른 EAC (emergency alert channel) 매핑을 나타낸다.
도 18은 본 발명의 일 실시예에 따른 FIC (fast information channel) 매핑을 나타낸다.
도 19는 본 발명의 일 실시예에 따른 FEC (forward error correction) 구조를 나타낸다.
도 20은 본 발명의 일 실시예에 따른 타임 인터리빙을 나타낸다.
도 21은 본 발명의 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 기본 동작을 나타낸다.
도 22는 본 발명의 다른 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 동작을 나타낸다.
도 23은 본 발명의 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 대각선 방향 읽기 패턴을 나타낸다.
도 24는 본 발명의 일 실시예에 따른 각 인터리빙 어레이(array)로부터 인터리빙된 XFECBLOCK을 나타낸다.
도 25는 본 발명의 일 실시예에 따른 방송 서비스 제공을 위한 프로토콜 스택(protocol stack)을 보여준다.
도 26은 본 발명의 일 실시예에 따라 방송 서비스를 전송하는 방송 전송 장치, 방송 서비스와 연관된 컨텐츠를 전송하는 컨텐츠 서버, 방송 서비스를 수신하는 방송 수신 장치 및 방송 수신 장치와 연동하는 연동 장치의 블록도를 보여준다.
도 27은 본 발명의 일 실시예에 따른 서비스 프래그먼트가 포함하는 serviceType 엘리먼트가 가질 수 있는 값과 해당 값이 나타내는 서비스의 종류를 보여준다.
도 28은 본 발명의 일 실시예에 따른 서비스 프래그먼트가 포함하는 serviceType 엘리먼트의 XML 형식을 보여준다.
도 29는 본 발명의 일 실시예에 따른 서비스 프래그먼트가 나타내는 서비스가 리니어 서비스인 경우, serviceType 엘리먼트를 나타내는 XML 데이터와 사용자 인터페이스를 보여준다.
도 30은 본 발명의 일 실시예에 따른 서비스 프래그먼트가 나타내는 서비스가 리니어 서비스이면서 어플기반 서비스일 경우, serviceType 엘리먼트를 나타내는 XML 데이터와 사용자 인터페이스를 보여준다.
도 31은 본 발명의 일 실시예에 따른 서비스 프래그먼트가 나타내는 서비스가 리니어 서비스이면서 연동서비스일 경우, serviceType 엘리먼트를 나타내는 XML 데이터와 사용자 인터페이스를 보여준다.
도 32는 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트의 XML 형식을 보여준다.
도 33은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 나타낼 수 있는 컴포넌트의 종류를 보여준다.
도 34는 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 ComponentRangeType 엘리먼트의 XML 형식을 보여준다.
도 35는 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 ComponentData 엘리먼트의 XML 형식을 보여준다.
도 36은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 VideoDataType 엘리먼트의 XML 형식을 보여준다.
도 37은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 AudioDataType 엘리먼트의 XML 형식을 보여준다.
도 38은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 CCDataType 엘리먼트의 XML 형식을 보여준다.
도 39는 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 컴포지트 비디오 컴포넌트를 나타내는 실시예를 보여준다.
도 40은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 컴포지트 비디오 컴포넌트를 나타내는 또 다른 실시예를 보여준다.
도 41은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 픽원 오디오 컴포넌트를 나타내는 또 다른 실시예를 보여준다.
도 42는 본 발명의 또 다른 실시예에 따라 컴포넌트에 관한 정보가 컨텐츠 프래그먼트의 엘리먼트로 포함되는 경우 컨텐츠 프래그먼트의 XML 형식을 보여준다.
도 43은 본 발명의 또 다른 실시예에 따라 컴포넌트에 관한 정보가 컨텐츠 프래그먼트의 엘리먼트로 포함되는 경우 컨텐츠 프래그먼트의 일 실시예의 XML 형식을 보여준다.
도 44는 본 발명의 또 다른 실시예에 따라 컴포넌트에 관한 정보가 컨텐츠 프래그먼트의 엘리먼트로 포함되는 경우 컨텐츠 프래그먼트의 일 실시예의 XML 형식을 보여준다.
도 45는 본 발명의 일 실시예에 따라 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 비디오 컴포넌트를 나타내는 프로래그먼트를 참조하는 경우 컴포넌트 프래그먼트의 XML 형식을 보여준다.
도 46은 본 발명의 일 실시예에 따라 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 비디오 컴포넌트를 나타내는 프로래그먼트를 참조하는 경우 컴포넌트 프래그먼트간의 관계를 보여준다.
도 47은 본 발명의 일 실시예에 따라 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 관련된 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조하는 경우 컴포넌트 프래그먼트의 XML 형식을 보여준다.
도 48은 본 발명의 일 실시예에 따라 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 관련된 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조하는 경우 컴포넌트 프래그먼트간의 관계를 보여준다.
도 49는 본 발명의 일 실시예에 따른 프래그먼트간의 참조 관계를 보여준다.
도 50은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 상위의 컴포넌트 프래그먼트, 컨텐츠 프래그먼트, 및 서비스 프래그먼트를 참조하는 경우 컴포넌트 프래그먼트의 XML 형식을 보여준다.
도 51은 본 발명의 일 실시예에 따른 스제줄 프래그먼트가 컴포넌트 프래그먼트, 컨텐츠 프래그먼트, 및 서비스 프래그먼트 참조하는 경우 스케줄 프래그먼트의 XML 형식을 보여준다.
도 52는 본 발명의 일 실시예에 따른 서비스 프래그먼트, 컨텐츠 프래그먼트, 프레젠터블 비디오 컴포넌트, 프레젠터블 오디오 컴포넌트, 및 프레젠터블 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트와의 참조관계를 보여준다.
도 53은 본 발명의 일 실시예에 따른 컴포지트 컴포넌트를 나타내는 컴포넌트 프래그먼트와 하위 컴포넌트를 나타내는 컴포넌트 프래그먼트간의 참조관계를 보여준다.
도 54는 본 발명의 일 실시예에 따른 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트와 하위 컴포넌트를 나타내는 컴포넌트 프래그먼트간의 참조 관계를 보여준다.
도 55는 본 발명의 또 다른 실시예에 따른 컨텐츠 프래그먼트가 서비스를 참조하는 경우 컨텐츠 프래그먼트의 XML 형식을 보여준다.
도 56은 본 발명의 또 다른 실시예에 따라 컨텐츠 프래그먼트가 서비스 프래그먼트간의 참조 관계를 보여준다.
도 57은 본 발명의 또 다른 실시예에 따른 프래그먼트간의 참조 관계를 보여준다.
도 58은 본 발명의 또 다른 실시예에 따른 서비스 프래그먼트의 XML 형식을 보여준다.
도 59는 본 발명의 또 다른 실시예에 따른 컨텐츠 프래그먼트의 XML 형식을 보여준다.
도 60은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트의 XML 형식을 보여준다.
도 61은 본 발명의 또 다른 실시예에 따른 서비스 프래그먼트, 컨텐츠 프래그먼트, 및 컴포넌트 프래그먼트와의 참조 관계를 보여준다.
도 62는 본 발명의 또 다른 실시예에 따른 컴포지트 컴포넌트를 나타내는 컴포넌트 프래그먼트와 하위 컴포넌트를 나타내는 컴포넌트 프래그먼트간의 참조관계를 보여준다.
도 63은 본 발명의 또 다른 실시예에 따른 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트와 하위 컴포넌트를 나타내는 컴포넌트 프래그먼트간의 참조 관계를 보여준다.
도 64는 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트의 신택스를 보여준다.
도 65는 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트의 신택스를 보여준다.
도 66은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트의 신택스를 보여준다.
도 67은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트의 XML 형식을 보여준다.
도 68은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 포함하는 ComponentRangeType의 XML 형식을 보여준다.
도 69는 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 포함하는 ComponentRoleRangeType의 XML 형식을 보여준다.
도 70은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 가변적 비디오 인코딩을 사용하는 컴포지트 비디오 컴포넌트와 컴포지트 컴포넌트가 포함하는 컴포넌트들과의 관계를 나타내는 것을 보여준다.
도 71은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 3D 영상을 포함하는 컴포지트 비디오 컴포넌트와 컴포지트 비디오 컴포넌트가 포함하는 컴포넌트들과의 관계를 나타내는 것을 보여준다.
도 72는 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 픽원 오디오 컴포넌트와 픽원 오디오 컴포넌트가 포함하는 컴포넌트들과의 관계를 나타내는 것을 보여준다.
도 73은 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 신택스를 보여준다.
도 74는 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 신택스를 보여준다.
도 75는 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 신택스를 보여준다.
도 76은 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 XML 형식을 보여준다.
도 77은 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 XML 형식을 보여준다.
도 78은 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 XML 형식을 보여준다.
도 79는 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 XML 형식을 보여준다.
도 80은 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 XML 형식을 보여준다.
도 81은 본 발명의 또 다른 실시예에 따라 방송 수신 장치가 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 따라 컨텐츠가 포함하는 컴포넌트를 표시하는 것을 보여준다.
도 82는 본 발명의 또 다른 실시예에 따라 방송 수신 장치가 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 따라 컨텐츠가 포함하는 컴포넌트를 표시하는 것을 보여준다.
도 83은 본 발명의 또 다른 실시예에 따라 방송 수신 장치가 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 따라 컨텐츠가 포함하는 컴포넌트를 표시하는 것을 보여준다.
도 84는 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 신택스를 보여준다.
도 85는 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 신택스를 보여준다.
도 86은 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 XML 형식을 보여준다.
도 87은 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 신택스를 보여준다.
도 88은 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 신택스를 보여준다.
도 89는 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 XML 형식을 보여준다.
도 90은 본 발명의 또 다른 실시예에 따른 성능 엘리먼트의 신택스를 보여준다.
도 91은 본 발명의 또 다른 실시예에 따른 성능 엘리먼트가 포함하는 성능 코드 엘리먼트가 가질 수 있는 값을 보여준다.
도 92는 본 발명의 또 다른 실시예에 따른 성능 엘리먼트의 카테고리 엘리먼트가 나타낼 수 있는 값을 보여준다.
도 93은 본 발명의 일 실시예에 따라 컴포넌트 단위의 결재를 제공하는 사용자 인터페이스를 보여준다.
도 94는 본 발명의 일 실시예에 따라 컴포넌트 단위의 결재를 제공하는 사용자 인터페이스를 보여준다.
도 95는 본 발명의 일 실시예에 따른 방송 전송 장치의 동작을 보여준다.
도 96은 본 발명의 일 실시예에 따른 방송 수신 장치의 동작을 보여준다.
도 97은 본 발명의 일 실시예에 따른 방송 수신 장치의 컨텐츠 재생화면을 보여분다.
도 98은 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴를 보여준다.
도 99는 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴에서 예약 시청을 하는 것을 보여준다.
도 100은 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴에서 예약 시청을 하는 것을 보여준다.
도 101은 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴에서 예약 시청을 하는 것을 보여준다.
도 102는 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴에서 예약 시청을 하는 것을 보여준다.
도 103은 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴에서 예약 시청을 하는 것을 보여준다.
도 104는 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴에서 예약 시청을 하는 것을 보여준다.
도 105는 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴에서 예약 시청을 하는 것을 보여준다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 발명은 차세대 방송 서비스에 대한 방송 신호 송신 및 수신 장치 및 방법을 제공한다. 본 발명의 일 실시예에 따른 차세대 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 포함한다. 본 발명은 일 실시예에 따라 비-MIMO (non-Multiple Input Multiple Output) 또는 MIMO 방식을 통해 차세대 방송 서비스에 대한 방송 신호를 처리할 수 있다. 본 발명의 일 실시예에 따른 비-MIMO 방식은 MISO (Multiple Input Single Output) 방식, SISO (Single Input Single Output) 방식 등을 포함할 수 있다.
이하에서는 설명의 편의를 위해 MISO 또는 MIMO 방식은 두 개의 안테나를 사용하지만, 본 발명은 두 개 이상의 안테나를 사용하는 시스템에 적용될 수 있다. 본 발명은 특정 용도에 요구되는 성능을 달성하면서 수신기 복잡도를 최소화하기 위해 최적화된 세 개의 피지컬 프로파일(PHY profile) (베이스(base), 핸드헬드(handheld), 어드벤스(advanced) 프로파일)을 정의할 수 있다. 피지컬 프로파일은 해당하는 수신기가 구현해야 하는 모든 구조의 서브셋이다.
세 개의 피지컬 프로파일은 대부분의 기능 블록을 공유하지만, 특정 블록 및/또는 파라미터에서는 약간 다르다. 추후에 추가로 피지컬 프로파일이 정의될 수 있다. 시스템 발전을 위해, 퓨처 프로파일은 FEF (future extension frame)을 통해 단일 RF (radio frequency) 채널에 존재하는 프로파일과 멀티플렉싱 될 수도 있다. 각 피지컬 프로파일에 대한 자세한 내용은 후술한다.
1. 베이스 프로파일
베이스 프로파일은 주로 루프 톱(roof-top) 안테나와 연결되는 고정된 수신 장치의 주된 용도를 나타낸다. 베이스 프로파일은 어떤 장소로 이동될 수 있지만 비교적 정지된 수신 범주에 속하는 휴대용 장치도 포함할 수 있다. 베이스 프로파일의 용도는 약간의 개선된 실행에 의해 핸드헬드 장치 또는 차량용으로 확장될 수 있지만, 이러한 사용 용도는 베이스 프로파일 수신기 동작에서는 기대되지 않는다.
수신의 타겟 신호 대 잡음비 범위는 대략 10 내지 20 dB인데, 이는 기존 방송 시스템(예를 들면, ATSC A/53)의 15 dB 신호 대 잡음비 수신 능력을 포함한다. 수신기 복잡도 및 소비 전력은 핸드헬드 프로파일을 사용할 배터리로 구동되는 핸드헬드 장치에서만큼 중요하지 않다. 베이스 프로파일에 대한 중요 시스템 파라미터가 아래 표 1에 기재되어 있다.
표 1
Figure PCTKR2015004162-appb-T000001
2. 핸드헬드 프로파일
핸드헬드 프로파일은 배터리 전원으로 구동되는 핸드헬드 및 차량용 장치에서의 사용을 위해 설계된다. 해당 장치는 보행자 또는 차량 속도로 이동할 수 있다. 수신기 복잡도뿐만 아니라 소비 전력은 핸드헬드 프로파일의 장치의 구현을 위해 매우 중요하다. 핸드헬드 프로파일의 타겟 신호 대 잡음비 범위는 대략 0 내지 10 dB이지만, 더 낮은 실내 수신을 위해 의도된 경우 0 dB 아래에 달하도록 설정될 수 있다.
저 신호 대 잡음비 능력뿐만 아니라, 수신기 이동성에 의해 나타난 도플러 효과에 대한 복원력은 핸드헬드 프로파일의 가장 중요한 성능 속성이다. 핸드헬드 프로파일에 대한 중요 시스템 파라미터가 아래 표 2에 기재되어 있다.
표 2
Figure PCTKR2015004162-appb-T000002
3. 어드벤스 프로파일
어드벤스 프로파일은 더 큰 실행 복잡도에 대한 대가로 더 높은 채널 능력을 제공한다. 해당 프로파일은 MIMO 송신 및 수신을 사용할 것을 요구하며, UHDTV 서비스는 타겟 용도이고, 이를 위해 해당 프로파일이 특별히 설계된다. 향상된 능력은 주어진 대역폭에서 서비스 수의 증가, 예를 들면, 다수의 SDTV 또는 HDTV 서비스를 허용하는 데도 사용될 수 있다.
어드벤스 프로파일의 타겟 신호 대 잡음비 범위는 대략 20 내지 30 dB이다. MIMO 전송은 초기에는 기존의 타원 분극 전송 장비를 사용하고, 추후에 전출력 교차 분극 전송으로 확장될 수 있다. 어드벤스 프로파일에 대한 중요 시스템 파라미터가 아래 표 3에 기재되어 있다.
표 3
Figure PCTKR2015004162-appb-T000003
이 경우, 베이스 프로파일은 지상파 방송 서비스 및 모바일 방송 서비스 모두에 대한 프로파일로 사용될 수 있다. 즉, 베이스 프로파일은 모바일 프로파일을 포함하는 프로파일의 개념을 정의하기 위해 사용될 수 있다. 또한, 어드벤스 프로파일은 MIMO을 갖는 베이스 프로파일에 대한 어드벤스 프로파일 및 MIMO을 갖는 핸드헬드 프로파일에 대한 어드벤스 프로파일로 구분될 수 있다. 그리고 해당 세 프로파일은 설계자의 의도에 따라 변경될 수 있다.
다음의 용어 및 정의는 본 발명에 적용될 수 있다. 다음의 용어 및 정의는 설계에 따라 변경될 수 있다.
보조 스트림: 퓨처 익스텐션(future extension, 추후 확장) 또는 방송사나 네트워크 운영자에 의해 요구됨에 따라 사용될 수 있는 아직 정의되지 않은 변조 및 코딩의 데이터를 전달하는 셀의 시퀀스
베이스 데이터 파이프(base data pipe): 서비스 시그널링 데이터를 전달하는 데이터 파이프
베이스밴드 프레임 (또는 BBFRAME): 하나의 FEC 인코딩 과정 (BCH 및 LDPC 인코딩)에 대한 입력을 형성하는 Kbch 비트의 집합
셀(cell): OFDM 전송의 하나의 캐리어에 의해 전달되는 변조값
코딩 블록(coded block): PLS1 데이터의 LDPC 인코딩된 블록 또는 PLS2 데이터의 LDPC 인코딩된 블록들 중 하나
데이터 파이프(data pipe): 하나 또는 다수의 서비스 또는 서비스 컴포넌트를 전달할 수 있는 서비스 데이터 또는 관련된 메타데이터를 전달하는 물리 계층(physical layer)에서의 로지컬 채널
데이터 파이프 유닛(DPU, data pipe unit): 데이터 셀을 프레임에서의 데이터 파이프에 할당할 수 있는 기본 유닛
데이터 심볼(data symbol): 프리앰블 심볼이 아닌 프레임에서의 OFDM 심볼 (프레임 시그널링 심볼 및 프레임 엣지(edge) 심볼은 데이터 심볼에 포함된다.)
DP_ID: 해당 8비트 필드는 SYSTEM_ID에 의해 식별된 시스템 내에서 데이터 파이프를 유일하게 식별한다.
더미 셀(dummy cell): PLS (physical layer signalling) 시그널링, 데이터 파이프, 또는 보조 스트림을 위해 사용되지 않은 남아 있는 용량을 채우는 데 사용되는 의사 랜덤값을 전달하는 셀
FAC (emergency alert channel, 비상 경보 채널): EAS 정보 데이터를 전달하는 프레임 중 일부
프레임(frame): 프리앰블로 시작해서 프레임 엣지 심볼로 종료되는 물리 계층(physical layer) 타임 슬롯
프레임 리피티션 유닛(frame repetition unit, 프레임 반복 단위): 슈퍼 프레임(super-frame)에서 8회 반복되는 FEF를 포함하는 동일한 또는 다른 피지컬 프로파일에 속하는 프레임의 집합
FIC (fast information channel, 고속 정보 채널): 서비스와 해당 베이스 데이터 파이프 사이에서의 매핑 정보를 전달하는 프레임에서 로지컬 채널
FECBLOCK: 데이터 파이프 데이터의 LDPC 인코딩된 비트의 집합
FFT 사이즈: 기본 주기 T의 사이클로 표현된 액티브 심볼 주기 Ts와 동일한 특정 모드에 사용되는 명목상의 FFT 사이즈
프레임 시그널링 심볼(frame signaling symbol): PLS 데이터의 일부를 전달하는, FFT 사이즈, 가드 인터벌(guard interval), 및 스캐터(scattered) 파일럿 패턴의 특정 조합에서 프레임의 시작에서 사용되는 더 높은 파일럿 밀도를 갖는 OFDM 심볼
프레임 엣지 심볼(frame edge symbol): FFT 사이즈, 가드 인터벌, 및 스캐터 파일럿 패턴의 특정 조합에서 프레임의 끝에서 사용되는 더 높은 파일럿 밀도를 갖는 OFDM 심볼
프레임 그룹(frame-group): 슈퍼 프레임에서 동일한 피지컬 프로파일 타입을 갖는 모든 프레임의 집합
퓨쳐 익스텐션 프레임(future extention frame, 추후 확장 프레임): 프리앰블로 시작하는, 추후 확장에 사용될 수 있는 슈퍼 프레임 내에서 물리 계층(physical layer) 타임 슬롯
퓨처캐스트(futurecast) UTB 시스템: 입력이 하나 이상의 MPEG2-TS 또는 IP (Internet protocol) 또는 일반 스트림이고 출력이 RF 시그널인 제안된 물리 계층(physical layer) 방송 시스템
인풋 스트림(input stream, 입력 스트림): 시스템에 의해 최종 사용자에게 전달되는 서비스의 조화(ensemble)를 위한 데이터의 스트림
노멀(normal) 데이터 심볼: 프레임 시그널링 심볼 및 프레임 엣지 심볼을 제외한 데이터 심볼
피지컬 프로파일(PHY profile): 해당하는 수신기가 구현해야 하는 모든 구조의 서브셋
PLS: PLS1 및 PLS2로 구성된 물리 계층(physical layer) 시그널링 데이터
PLS1: PLS2를 디코딩하는 데 필요한 파라미터뿐만 아니라 시스템에 관한 기본 정보를 전달하는 고정된 사이즈, 코딩, 변조를 갖는 FSS (frame signalling symbol)로 전달되는 PLS 데이터의 첫 번째 집합
NOTE: PLS1 데이터는 프레임 그룹의 듀레이션(duration) 동안 일정하다.
PLS2: 데이터 파이프 및 시스템에 관한 더욱 상세한 PLS 데이터를 전달하는 FSS로 전송되는 PLS 데이터의 두 번째 집합
PLS2 다이나믹(dynamic, 동적) 데이터: 프레임마다 다이나믹(dynamic, 동적)으로 변화하는 PLS2 데이터
PLS2 스태틱(static, 정적) 데이터: 프레임 그룹의 듀레이션 동안 스태틱(static, 정적)인 PLS2 데이터
프리앰블 시그널링 데이터(preamble signaling data): 프리앰블 심볼에 의해 전달되고 시스템의 기본 모드를 확인하는 데 사용되는 시그널링 데이터
프리앰블 심볼(preamble symbol): 기본 PLS 데이터를 전달하고 프레임의 시작에 위치하는 고정된 길이의 파일럿 심볼
NOTE: 프리앰블 심볼은 시스템 신호, 그 타이밍, 주파수 오프셋, 및 FFT 사이즈를 검출하기 위해 고속 초기 밴드 스캔에 주로 사용된다.
추후 사용(future use)을 위해 리저브드(reserved): 현재 문서에서 정의되지 않지만 추후에 정의될 수 있음
슈퍼 프레임(superframe): 8개의 프레임 반복 단위의 집합
타임 인터리빙 블록(time interleaving block, TI block): 타임 인터리버 메모리의 하나의 용도에 해당하는, 타임 인터리빙이 실행되는 셀의 집합
타임 인터리빙 그룹(time interleaving group, TI group): 정수, 다이나믹(dynamic, 동적)으로 변화하는 XFECBLOCK의 수로 이루어진, 특정 데이터 파이프에 대한 다이나믹(dynamic, 동적) 용량 할당이 실행되는 단위
NOTE: 타임 인터리빙 그룹은 하나의 프레임에 직접 매핑되거나 다수의 프레임에 매핑될 수 있다. 타임 인터리빙 그룹은 하나 이상의 타임 인터리빙 블록을 포함할 수 있다.
타입 1 데이터 파이프(Type 1 DP): 모든 데이터 파이프가 프레임에 TDM (time division multiplexing) 방식으로 매핑되는 프레임의 데이터 파이프
타입 2 데이터 파이프(Type 2 DP): 모든 데이터 파이프가 프레임에 FDM 방식으로 매핑되는 프레임의 데이터 파이프
XFECBLOCK: 하나의 LDPC FECBLOCK의 모든 비트를 전달하는 Ncells 셀들의 집합
도 1은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치의 구조를 나타낸다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 인풋 포맷 블록 (Input Format block) (1000), BICM (bit interleaved coding & modulation) 블록(1010), 프레임 빌딩 블록 (Frame building block) (1020), OFDM (orthogonal frequency division multiplexing) 제너레이션 블록 (OFDM generation block)(1030), 및 시그널링 생성 블록(1040)을 포함할 수 있다. 방송 신호 송신 장치의 각 블록의 동작에 대해 설명한다.
IP 스트림/패킷 및 MPEG2-TS은 주요 입력 포맷이고, 다른 스트림 타입은 일반 스트림으로 다루어진다. 이들 데이터 입력에 추가로, 관리 정보가 입력되어 각 입력 스트림에 대한 해당 대역폭의 스케줄링 및 할당을 제어한다. 하나 또는 다수의 TS 스트림, IP 스트림 및/또는 일반 스트림 입력이 동시에 허용된다.
인풋 포맷 블록(1000)은 각각의 입력 스트림을 독립적인 코딩 및 변조가 적용되는 하나 또는 다수의 데이터 파이프로 디멀티플렉싱 할 수 있다. 데이터 파이프는 견고성(robustness) 제어를 위한 기본 단위이며, 이는 QoS (Quality of Service)에 영향을 미친다. 하나 또는 다수의 서비스 또는 서비스 컴포넌트가 하나의 데이터 파이프에 의해 전달될 수 있다. 인풋 포맷 블록(1000)의 자세한 동작은 후술한다.
데이터 파이프는 하나 또는 다수의 서비스 또는 서비스 컴포넌트를 전달할 수 있는 서비스 데이터 또는 관련 메타데이터를 전달하는 물리 계층(physical layer)에서의 로지컬 채널이다.
또한, 데이터 파이프 유닛은 하나의 프레임에서 데이터 셀을 데이터 파이프에 할당하기 위한 기본 유닛이다.
인풋 포맷 블록(1000)에서, 패리티(parity) 데이터는 에러 정정을 위해 추가되고, 인코딩된 비트 스트림은 복소수값 컨스텔레이션 심볼에 매핑된다. 해당 심볼은 해당 데이터 파이프에 사용되는 특정 인터리빙 깊이에 걸쳐 인터리빙 된다. 어드벤스 프로파일에 있어서, BICM 블록(1010)에서 MIMO 인코딩이 실행되고 추가 데이터 경로가 MIMO 전송을 위해 출력에 추가된다. BICM 블록(1010)의 자세한 동작은 후술한다.
프레임 빌딩 블록(1020)은 하나의 프레임 내에서 입력 데이터 파이프의 데이터 셀을 OFDM 실볼로 매핑할 수 있다. 매핑 후, 주파수 영역 다이버시티를 위해, 특히 주파수 선택적 페이딩 채널을 방지하기 위해 주파수 인터리빙이 이용된다. 프레임 빌딩 블록(1020)의 자세한 동작은 후술한다.
프리앰블을 각 프레임의 시작에 삽입한 후, OFDM 제너레이션 블록(1030)은 사이클릭 프리픽스(cyclic prefix)을 가드 인터벌로 갖는 기존의 OFDM 변조를 적용할 수 있다. 안테나 스페이스 다이버시티를 위해, 분산된(distributed) MISO 방식이 송신기에 걸쳐 적용된다. 또한, PAPR (peak-to-average power ratio) 방식이 시간 영역에서 실행된다. 유연한 네트워크 방식을 위해, 해당 제안은 다양한 FFT 사이즈, 가드 인터벌 길이, 해당 파일럿 패턴의 집합을 제공한다. OFDM 제너레이션 블록(1030)의 자세한 동작은 후술한다.
시그널링 생성 블록(1040)은 각 기능 블록의 동작에 사용되는 물리 계층(physical layer) 시그널링 정보를 생성할 수 있다. 해당 시그널링 정보는 또한 관심 있는 서비스가 수신기 측에서 적절히 복구되도록 전송된다. 시그널링 생성 블록(1040)의 자세한 동작은 후술한다.
도 2, 3, 4는 본 발명의 실시예에 따른 인풋 포맷 블록(1000)을 나타낸다. 각 도면에 대해 설명한다.
도 2는 본 발명의 일 실시예에 따른 인풋 포맷 블록을 나타낸다. 도 2는 입력 신호가 단일 입력 스트림(single input stream)일 때의 인풋 포맷 블록을 나타낸다.
도 2에 도시된 인풋 포맷 블록은 도 1을 참조하여 설명한 인풋 포맷 블록(1000)의 일 실시예에 해당한다.
물리 계층(physical layer)으로의 입력은 하나 또는 다수의 데이터 스트림으로 구성될 수 있다. 각각의 데이터 스트림은 하나의 데이터 파이프에 의해 전달된다. 모드 어댑테이션(mode adaptaion, 모드 적응) 모듈은 입력되는 데이터 스트림을 BBF (baseband frame)의 데이터 필드로 슬라이스한다. 해당 시스템은 세 가지 종류의 입력 데이터 스트림, 즉 MPEG2-TS, IP, GS (generic stream)을 지원한다. MPEG2-TS는 첫 번째 바이트가 동기 바이트(0x47)인 고정된 길이(188 바이트)의 패킷을 특징으로 한다. IP 스트림은 IP 패킷 헤더 내에서 시그널링 되는 가변 길이 IP 데이터그램 패킷으로 구성된다. 해당 시스템은 IP 스트림에 대해 IPv4와 IPv6을 모두 지원한다. GS는 캡슐화 패킷 헤더 내에서 시그널링되는 가변 길이 패킷 또는 일정 길이 패킷으로 구성될 수 있다.
(a)는 신호 데이터 파이프에 대한 모드 어댑테이션(mode adaptaion, 모드 적응) 블록(2000) 및 스트림 어댑테이션(stream adaptation, 스트림 적응)(2010)을 나타내고, (b)는 PLS 데이터를 생성 및 처리하기 위한 PLS 생성 블록(2020) 및 PLS 스크램블러(2030)를 나타낸다. 각 블록의 동작에 대해 설명한다.
입력 스트림 스플리터는 입력된 TS, IP, GS 스트림을 다수의 서비스 또는 서비스 컴포넌트(오디오, 비디오 등) 스트림으로 분할한다. 모드 어댑테이션(mode adaptaion, 모드 적응) 모듈(2010)은 CRC 인코더, BB (baseband) 프레임 슬라이서, 및 BB 프레임 헤더 삽입 블록으로 구성된다.
CRC 인코더는 유저 패킷 (user packet, UP)레벨에서의 에러 검출을 위한 세 종류의 CRC 인코딩, 즉 CRC-8, CRC-16, CRC-32를 제공한다. 산출된 CRC 바이트는 UP 뒤에 첨부된다. CRC-8은 TS 스트림에 사용되고, CRC-32는 IP 스트림에 사용된다. GS 스트림이 CRC 인코딩을 제공하지 않으면, 제안된 CRC 인코딩이 적용되어야 한다.
BB 프레임 슬라이서는 입력을 내부 로지컬 비트 포맷에 매핑한다. 첫 번째 수신 비트는 MSB라고 정의한다. BB 프레임 슬라이서는 가용 데이터 필드 용량과 동일한 수의 입력 비트를 할당한다. BBF 페이로드와 동일한 수의 입력 비트를 할당하기 위해, UP 스트림이 BBF의 데이터 필드에 맞게 슬라이스된다.
BB 프레임 헤더 삽입 블록은 2바이트의 고정된 길이의 BBF 헤더를 BB 프레임의 앞에 삽입할 수 있다. BBF 헤더는 STUFFI (1비트), SYNCD (13비트), 및 RFU (2비트)로 구성된다. 고정된 2바이트 BBF 헤더뿐만 아니라, BBF는 2바이트 BBF 헤더 끝에 확장 필드(1 또는 3바이트)를 가질 수 있다.
스트림 어댑테이션(stream adaptation, 스트림 적응)(2010)은 스터핑(stuffing) 삽입 블록 및 BB 스크램블러로 구성된다. 스터핑 삽입 블록은 스터핑 필드를 BB 프레임의 페이로드에 삽입할 수 있다. 스트림 어댑테이션(stream adaptation, 스트림 적응)에 대한 입력 데이터가 BB 프레임을 채우기에 충분하면, STUFFI는 0으로 설정되고, BBF는 스터핑 필드를 갖지 않는다. 그렇지 않으면, STUFFI는 1로 설정되고, 스터핑 필드는 BBF 헤더 직후에 삽입된다. 스터핑 필드는 2바이트의 스터핑 필드 헤더 및 가변 사이즈의 스터핑 데이터를 포함한다.
BB 스크램블러는 에너지 분산을 위해 완전한 BBF를 스크램블링한다. 스크램블링 시퀀스는 BBF와 동기화된다. 스크램블링 시퀀스는 피드백 시프트 레지스터에 의해 생성된다.
PLS 생성 블록(2020)은 PLS 데이터를 생성할 수 있다. PLS는 수신기에서 피지컬 레이어(physical layer) 데이터 파이프에 접속할 수 있는 수단을 제공한다. PLS 데이터는 PLS1 데이터 및 PLS2 데이터로 구성된다.
PLS1 데이터는 PLS2 데이터를 디코딩하는 데 필요한 파라미터뿐만 아니라 시스템에 관한 기본 정보를 전달하는 고정된 사이즈, 코딩, 변조를 갖는 프레임에서 FSS로 전달되는 PLS 데이터의 첫 번째 집합이다. PLS1 데이터는 PLS2 데이터의 수신 및 디코딩을 가능하게 하는 데 요구되는 파라미터를 포함하는 기본 송신 파라미터를 제공한다. 또한, PLS1 데이터는 프레임 그룹의 듀레이션 동안 일정하다.
PLS2 데이터는 데이터 파이프 및 시스템에 관한 더욱 상세한 PLS 데이터를 전달하는 FSS로 전송되는 PLS 데이터의 두 번째 집합이다. PLS2는 수신기가 원하는 데이터 파이프를 디코딩하는 데 충분한 정보를 제공하는 파라미터를 포함한다. PLS2 시그널링은 PLS2 스태틱(static, 정적) 데이터(PLS2-STAT 데이터) 및 PLS2 다이나믹(dynamic, 동적) 데이터(PLS2-DYN 데이터)의 두 종류의 파라미터로 더 구성된다. PLS2 스태틱(static, 정적) 데이터는 프레임 그룹의 듀레이션 동안 스태틱(static, 정적)인 PLS2 데이터이고, PLS2 다이나믹(dynamic, 동적) 데이터는 프레임마다 다이나믹(dynamic, 동적)으로 변화하는 PLS2 데이터이다.
PLS 데이터에 대한 자세한 내용은 후술한다.
PLS 스크램블러(2030)는 에너지 분산을 위해 생성된 PLS 데이터를 스크램블링 할 수 있다.
전술한 블록은 생략될 수도 있고 유사 또는 동일 기능을 갖는 블록에 의해 대체될 수도 있다.
도 3은 본 발명의 다른 일 실시예에 따른 인풋 포맷 블록을 나타낸다.
도 3에 도시된 인풋 포맷 블록은 도 1을 참조하여 설명한 인풋 포맷 블록(1000)의 일 실시예에 해당한다.
도 3은 입력 신호가 멀티 인풋 스트림(multi input stream, 다수의 입력 스트림)에 해당하는 경우 인풋 포맷 블록의 모드 어댑테이션(mode adaptaion, 모드 적응) 블록을 나타낸다.
멀티 인풋 스트림(multi input stream, 다수의 입력 스트림)을 처리하기 위한 인풋 포맷 블록의 모드 어댑테이션(mode adaptaion, 모드 적응) 블록은 다수 입력 스트림을 독립적으로 처리할 수 있다.
도 3을 참조하면, 멀티 인풋 스트림(multi input stream, 다수의 입력 스트림)을 각각 처리하기 위한 모드 어댑테이션(mode adaptaion, 모드 적응) 블록은 인풋 스트림 스플리터 (input stream splitter) (3000), 인풋 스트림 싱크로나이저 (input stream synchronizer) (3010), 컴펜세이팅 딜레이(compensatin delay, 보상 지연) 블록(3020), 널 패킷 딜리션 블록 (null packet deletion block) (3030), 헤더 컴프레션 블록 (header compression block) (3040), CRC 인코더 (CRC encoder) (3050), BB 프레임 슬라이서(BB frame slicer) (3060), 및 BB 헤더 삽입 블록 (BB header insertion block) (3070)을 포함할 수 있다. 모드 어댑테이션(mode adaptaion, 모드 적응) 블록의 각 블록에 대해 설명한다.
CRC 인코더(3050), BB 프레임 슬라이서(3060), 및 BB 헤더 삽입 블록(3070)의 동작은 도 2를 참조하여 설명한 CRC 인코더, BB 프레임 슬라이서, 및 BB 헤더 삽입 블록의 동작에 해당하므로, 그 설명은 생략한다.
인풋 스트림 스플리터(3000)는 입력된 TS, IP, GS 스트림을 다수의 서비스 또는 서비스 컴포넌트(오디오, 비디오 등) 스트림으로 분할한다.
인풋 스트림 싱크로나이저(3010)는 ISSY라 불릴 수 있다. ISSY는 어떠한 입력 데이터 포맷에 대해서도 CBR (constant bit rate) 및 일정한 종단간 전송(end-to-end transmission) 지연을 보장하는 적합한 수단을 제공할 수 있다. ISSY는 TS를 전달하는 다수의 데이터 파이프의 경우에 항상 이용되고, GS 스트림을 전달하는 다수의 데이터 파이프에 선택적으로 이용된다.
컴펜세이팅 딜레이(compensatin delay, 보상 지연) 블록(3020)은 수신기에서 추가로 메모리를 필요로 하지 않고 TS 패킷 재결합 메커니즘을 허용하기 위해 ISSY 정보의 삽입에 뒤따르는 분할된 TS 패킷 스트림을 지연시킬 수 있다.
널 패킷 딜리션 블록(3030)은 TS 입력 스트림 경우에만 사용된다. 일부 TS 입력 스트림 또는 분할된 TS 스트림은 VBR (variable bit-rate) 서비스를 CBR TS 스트림에 수용하기 위해 존재하는 많은 수의 널 패킷을 가질 수 있다. 이 경우, 불필요한 전송 오버헤드를 피하기 위해, 널 패킷은 확인되어 전송되지 않을 수 있다. 수신기에서, 제거된 널 패킷은 전송에 삽입된 DNP(deleted null-packet, 삭제된 널 패킷) 카운터를 참조하여 원래 존재했던 정확한 장소에 재삽입될 수 있어, CBR이 보장되고 타임 스탬프(PCR) 갱신의 필요가 없어진다.
헤더 컴프레션 블록(3040)은 TS 또는 IP 입력 스트림에 대한 전송 효율을 증가시키기 위해 패킷 헤더 압축을 제공할 수 있다. 수신기는 헤더의 특정 부분에 대한 선험적인(a priori) 정보를 가질 수 있기 때문에, 이 알려진 정보(known information)는 송신기에서 삭제될 수 있다.
TS에 대해, 수신기는 동기 바이트 구성(0x47) 및 패킷 길이(188 바이트)에 관한 선험적인 정보를 가질 수 있다. 입력된 TS가 하나의 PID만을 갖는 콘텐트를 전달하면, 즉, 하나의 서비스 컴포넌트(비디오, 오디오 등) 또는 서비스 서브 컴포넌트(SVC 베이스 레이어, SVC 인헨스먼트 레이어, MVC 베이스 뷰, 또는 MVC 의존 뷰)에 대해서만, TS 패킷 헤더 압축이 TS에 (선택적으로) 적용될 수 있다. TS 패킷 헤더 압축은 입력 스트림이 IP 스트림인 경우 선택적으로 사용된다. 상기 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 4는 본 발명의 일 실시예에 따른 BICM 블록을 나타낸다.
도 4에 도시된 BICM 블록은 도 1을 참조하여 설명한 BICM 블록(1010)의 일 실시예에 해당한다.
전술한 바와 같이, 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 제공할 수 있다.
QoS가 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치에 의해 제공되는 서비스의 특성에 의존하므로, 각각의 서비스에 해당하는 데이터는 서로 다른 방식을 통해 처리되어야 한다. 따라서, 본 발명의 일 실시예에 따른 BICM 블록은 SISO, MISO, MIMO 방식을 각각의 데이터 경로에 해당하는 데이터 파이프에 독립적으로 적용함으로써 각데이터 파이프를 독립적으로 처리할 수 있다. 결과적으로, 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 각각의 데이터 파이프를 통해 전송되는 각 서비스 또는 서비스 컴포넌트에 대한 QoS를 조절할 수 있다.
(a)는 베이스 프로파일 및 핸드헬드 프로파일에 의해 공유되는 BICM 블록을 나타내고, (b)는 어드벤스 프로파일의 BICM 블록을 나타낸다.
베이스 프로파일 및 핸드헬드 프로파일에 의해 공유되는 BICM 블록 및 어드벤스 프로파일의 BICM 블록은 각각의 데이터 파이프를 처리하기 위한 복수의 처리 블록을 포함할 수 있다.
베이스 프로파일 및 핸드헬드 프로파일에 대한 BICM 블록 및 어드벤스 프로파일에 대한 BICM 블록의 각각의 처리 블록에 대해 설명한다.
베이스 프로파일 및 핸드헬드 프로파일에 대한 BICM 블록의 처리 블록(5000)은 데이터 FEC 인코더(5010), 비트 인터리버(5020), 컨스텔레이션 매퍼(mapper)(5030), SSD (signal space diversity) 인코딩 블록(5040), 타임 인터리버(5050)를 포함할 수 있다.
데이터 FEC 인코더(5010)는 외부 코딩(BCH) 및 내부 코딩(LDPC)을 이용하여 FECBLOCK 절차를 생성하기 위해 입력 BBF에 FEC 인코딩을 실행한다. 외부 코딩(BCH)은 선택적인 코딩 방법이다. 데이터 FEC 인코더(5010)의 구체적인 동작에 대해서는 후술한다.
비트 인터리버(5020)는 효율적으로 실현 가능한 구조를 제공하면서 데이터 FEC 인코더(5010)의 출력을 인터리빙하여 LDPC 코드 및 변조 방식의 조합으로 최적화된 성능을 달성할 수 있다. 비트 인터리버(5020)의 구체적인 동작에 대해서는 후술한다.
컨스텔레이션 매퍼(5030)는 QPSK, QAM-16, 불균일 QAM (NUQ-64, NUQ-256, NUQ-1024) 또는 불균일 컨스텔레이션 (NUC-16, NUC-64, NUC-256, NUC-1024)을 이용해서 베이스 및 핸드헬드 프로파일에서 비트 인터리버(5020)로부터의 각각의 셀 워드를 변조하거나 어드벤스 프로파일에서 셀 워드 디멀티플렉서(5010-1)로부터의 셀 워드를 변조하여 파워가 정규화된 컨스텔레이션 포인트 el을 제공할 수 있다. 해당 컨스텔레이션 매핑은 데이터 파이프에 대해서만 적용된다. NUQ가 임의의 형태를 갖는 반면, QAM-16 및 NUQ는 정사각형 모양을 갖는 것이 관찰된다. 각각의 컨스텔레이션이 90도의 배수만큼 회전되면, 회전된 컨스텔레이션은 원래의 것과 정확히 겹쳐진다. 회전 대칭 특성으로 인해 실수 및 허수 컴포넌트의 용량 및 평균 파워가 서로 동일해진다. NUQ 및 NUC는 모두 각 코드 레이트(code rate)에 대해 특별히 정의되고, 사용되는 특정 하나는 PLS2 데이터에 보관된 파라미터 DP_MOD에 의해 시그널링 된다.
타임 인터리버(5050)는 데이터 파이프 레벨에서 동작할 수 있다. 타임 인터리빙의 파라미터는 각각의 데이터 파이프에 대해 다르게 설정될 수 있다. 타임 인터리버(5050)의 구체적인 동작에 관해서는 후술한다.
어드벤스 프로파일에 대한 BICM 블록의 처리 블록(5000-1)은 데이터 FEC 인코더, 비트 인터리버, 컨스텔레이션 매퍼, 및 타임 인터리버를 포함할 수 있다.
단, 처리 블록(5000-1)은 셀 워드 디멀티플렉서(5010-1) 및 MIMO 인코딩 블록(5020-1)을 더 포함한다는 점에서 처리 블록(5000)과 구별된다.
또한, 처리 블록(5000-1)에서의 데이터 FEC 인코더, 비트 인터리버, 컨스텔레이션 매퍼, 타임 인터리버의 동작은 전술한 데이터 FEC 인코더(5010), 비트 인터리버(5020), 컨스텔레이션 매퍼(5030), 타임 인터리버(5050)의 동작에 해당하므로, 그 설명은 생략한다.
셀 워드 디멀티플렉서(5010-1)는 어드벤스 프로파일의 데이터 파이프가 MIMO 처리를 위해 단일 셀 워드 스트림을 이중 셀 워드 스트림으로 분리하는 데 사용된다. 셀 워드 디멀티플렉서(5010-1)의 구체적인 동작에 관해서는 후술한다.
MIMO 인코딩 블록(5020-1)은 MIMO 인코딩 방식을 이용해서 셀 워드 디멀티플렉서(5010-1)의 출력을 처리할 수 있다. MIMO 인코딩 방식은 방송 신호 송신을 위해 최적화되었다. MIMO 기술은 용량 증가를 얻기 위한 유망한 방식이지만, 채널 특성에 의존한다. 특별히 방송에 대해서, 서로 다른 신호 전파 특성으로 인한 두 안테나 사이의 수신 신호 파워 차이 또는 채널의 강한 LOS 컴포넌트는 MIMO로부터 용량 이득을 얻는 것을 어렵게 한다. 제안된 MIMO 인코딩 방식은 MIMO 출력 신호 중 하나의 위상 랜덤화 및 회전 기반 프리코딩을 이용하여 이 문제를 극복한다.
MIMO 인코딩은 송신기 및 수신기 모두에서 적어도 두 개의 안테나를 필요로 하는 2x2 MIMO 시스템을 위해 의도된다. 두 개의 MIMO 인코딩 모드는 본 제안인 FR-SM (full-rate spatial multiplexing) 및 FRFD-SM (full-rate full-diversity spatial multiplexing)에서 정의된다. FR-SM 인코딩은 수신기 측에서의 비교적 작은 복잡도 증가로 용량 증가를 제공하는 반면, FRFD-SM 인코딩은 수신기 측에서의 큰 복잡도 증가로 용량 증가 및 추가적인 다이버시티 이득을 제공한다. 제안된 MIMO 인코딩 방식은 안테나 극성 배치를 제한하지 않는다.
MIMO 처리는 어드벤스 프로파일 프레임에 요구되는데, 이는 어드벤스 프로파일 프레임에서의 모든 데이터 파이프가 MIMO 인코더에 의해 처리된다는 것을 의미한다. MIMO 처리는 데이터 파이프 레벨에서 적용된다. 컨스텔레이션 매퍼 출력의 페어(pair, 쌍)인 NUQ (e1,i 및 e2,i)는 MIMO 인코더의 입력으로 공급된다. MIMO 인코더 출력 페어(pair, 쌍)(g1,i 및 g2,i)은 각각의 송신 안테나의 동일한 캐리어 k 및 OFDM 심볼 l에 의해 전송된다.
전술한 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 5는 본 발명의 다른 실시예에 따른 BICM 블록을 나타낸다.
도 5에 도시된 BICM 블록은 도 1을 참조하여 설명한 BICM 블록(1010)의 일 실시예에 해당한다.
도 5는 PLS, EAC, 및 FIC의 보호를 위한 BICM 블록을 나타낸다. EAC는 EAS 정보 데이터를 전달하는 프레임의 일부이고, FIC는 서비스와 해당하는 베이스 데이터 파이프 사이에서 매핑 정보를 전달하는 프레임에서의 로지컬 채널이다. EAC 및 FIC에 대한 상세한 설명은 후술한다.
도 5를 참조하면, PLS, EAC, 및 FIC의 보호를 위한 BICM 블록은 PLS FEC 인코더(6000), 비트 인터리버(6010), 및 컨스텔레이션 매퍼(6020)를 포함할 수 있다.
또한, PLS FEC 인코더(6000)는 스크램블러, BCH 인코딩/제로 삽입 블록, LDPC 인코딩 블록, 및 LDPC 패리티 펑처링(puncturing) 블록을 포함할 수 있다. BICM 블록의 각 블록에 대해 설명한다.
PLS FEC 인코더(6000)는 스크램블링된 PLS 1/2 데이터, EAC 및 FIC 섹션을 인코딩할 수 있다.
스크램블러는 BCH 인코딩 및 쇼트닝(shortening) 및 펑처링된 LDPC 인코딩 전에 PLS1 데이터 및 PLS2 데이터를 스크램블링 할 수 있다.
BCH 인코딩/제로 삽입 블록은 PLS 보호를 위한 쇼트닝된 BCH 코드를 이용하여 스크램블링된 PLS 1/2 데이터에 외부 인코딩을 수행하고, BCH 인코딩 후에 제로 비트를 삽입할 수 있다. PLS1 데이터에 대해서만, 제로 삽입의 출력 비트가 LDPC 인코딩 전에 퍼뮤테이션(permutation) 될 수 있다.
LDPC 인코딩 블록은 LDPC 코드를 이용하여 BCH 인코딩/제로 삽입 블록의 출력을 인코딩할 수 있다. 완전한 코딩 블록을 생성하기 위해, Cldpc 및 패리티 비트 Pldpc는 각각의 제로가 삽입된 PLS 정보 블록 Ildpc로부터 조직적으로 인코딩되고, 그 뒤에 첨부된다.
수학식 1
PLS1 및 PLS2에 대한 LDPC 코드 파라미터는 다음의 표 4와 같다.
표 4
Figure PCTKR2015004162-appb-T000004
LDPC 패리티 펑처링 블록은 PLS1 데이터 및 PLS2 데이터에 대해 펑처링을 수행할 수 있다.
쇼트닝이 PLS1 데이터 보호에 적용되면, 일부 LDPC 패리티 비트는 LDPC 인코딩 후에 펑처링된다. 또한, PLS2 데이터 보호를 위해, PLS2의 LDPC 패리티 비트가 LDPC 인코딩 후에 펑처링된다. 이들 펑처링된 비트는 전송되지 않는다.
비트 인터리버(6010)는 각각의 쇼트닝 및 펑처링된 PLS1 데이터 및 PLS2 데이터를 인터리빙할 수 있다.
컨스텔레이션 매퍼(6020)는 비트 인터리빙된 PLS1 데이터 및 PLS2 데이터를 컨스텔레이션에 매핑할 수 있다.
전술한 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 6은 본 발명의 일 실시예에 따른 프레임 빌딩 블록(frame building block)을 나타낸다.
도 7에 도시한 프레임 빌딩 블록은 도 1을 참조하여 설명한 프레임 빌딩 블록(1020)의 일 실시예에 해당한다.
도 6을 참조하면, 프레임 빌딩 블록은 딜레이 컴펜세이션(delay compensation, 지연보상) 블록(7000), 셀 매퍼 (cell mapper) (7010), 및 프리퀀시 인터리버 (frequency interleaver) (7020)를 포함할 수 있다. 프레임 빌딩 블록의 각 블록에 관해 설명한다.
딜레이 컴펜세이션(delay compensation, 지연보상) 블록(7000)은 데이터 파이프와 해당하는 PLS 데이터 사이의 타이밍을 조절하여 송신기 측에서 데이터 파이프와 해당하는 PLS 데이터 간의 동시성(co-time)을 보장할 수 있다. 인풋 포맷 블록 및 BICM 블록으로 인한 데이터 파이프의 지연을 다룸으로써 PLS 데이터는 데이터 파이프만큼 지연된다. BICM 블록의 지연은 주로 타임 인터리버(5050)로 인한 것이다. 인 밴드(In-band) 시그널링 데이터는 다음 타임 인터리빙 그룹의 정보를 시그널링될 데이터 파이프보다 하나의 프레임 앞서 전달되도록 할 수 있다. 딜레이 컴펜세이션(delay compensation, 지연보상) 블록은 그에 맞추어 인 밴드(In-band) 시그널링 데이터를 지연시킨다.
셀 매퍼(7010)는 PLS, EAC, FIC, 데이터 파이프, 보조 스트림, 및 더미 셀을 프레임 내에서 OFDM 심볼의 액티브(active) 캐리어에 매핑할 수 있다. 셀 매퍼(7010)의 기본 기능은 각각의 데이터 파이프, PLS 셀, 및 EAC/FIC 셀에 대한 타임 인터리빙에 의해 생성된 데이터 셀을, 존재한다면, 하나의 프레임 내에서 각각의 OFDM 심볼에 해당하는 액티브(active) OFDM 셀의 어레이에 매핑하는 것이다. (PSI(program specific information)/SI와 같은) 서비스 시그널링 데이터는 개별적으로 수집되어 데이터 파이프에 의해 보내질 수 있다. 셀 매퍼는 프레임 구조의 구성 및 스케줄러에 의해 생성된 다이나믹 인포메이션(dynamic information, 동적 정보)에 따라 동작한다. 프레임에 관한 자세한 내용은 후술한다.
주파수 인터리버(7020)는 셀 매퍼(7010)로부터 의해 수신된 데이터 셀을 랜덤하게 인터리빙하여 주파수 다이버시티를 제공할 수 있다. 또한, 주파수 인터리버(7020)는 단일 프레임에서 최대의 인터리빙 이득을 얻기 위해 다른 인터리빙 시드(seed) 순서를 이용하여 두 개의 순차적인 OFDM 심볼로 구성된 OFDM 심볼 페어(pair, 쌍)에서 동작할 수 있다.
전술한 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 7은 본 발명의 일 실시예에 따른 OFDM 제너레이션 블록을 나타낸다.
도 7에 도시된 OFDM 제너레이션 블록은 도 1을 참조하여 설명한 OFDM 제너레이션 블록(1030)의 일 실시예에 해당한다.
OFDM 제너레이션 블록은 프레임 빌딩 블록에 의해 생성된 셀에 의해 OFDM 캐리어를 변조하고, 파일럿을 삽입하고, 전송을 위한 시간 영역 신호를 생성한다. 또한, 해당 블록은 순차적으로 가드 인터벌을 삽입하고, PAPR 감소 처리를 적용하여 최종 RF 신호를 생성한다.
도 8을 참조하면, OFDM 제너레이션 블록은 파일럿 및 리저브드 톤 삽입 블록 (pilot and revserved tone insertion block) (8000), 2D-eSFN (single frequency network) 인코딩 블록(8010), IFFT (inverse fast Fourier transform) 블록(8020), PAPR 감소 블록(8030), 가드 인터벌 삽입 블록 (guard interval insertion block)(8040), 프리앰블 삽입 블록 (preamble insertion block)(8050), 기타 시스템 삽입 블록(8060), 및 DAC 블록(8070)을 포함할 수 있다.
기타 시스템 삽입 블록(8060)은 방송 서비스를 제공하는 둘 이상의 서로 다른 방송 송신/수신 시스템의 데이터가 동일한 RF 신호 대역에서 동시에 전송될 수 있도록 시간 영역에서 복수의 방송 송신/수신 시스템의 신호를 멀티플렉싱 할 수 있다. 이 경우, 둘 이상의 서로 다른 방송 송신/수신 시스템은 서로 다른 방송 서비스를 제공하는 시스템을 말한다. 서로 다른 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스 등을 의미할 수 있다.
도 8은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치의 구조를 나타낸다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치는 도 1을 참조하여 설명한 차세대 방송 서비스에 대한 방송 신호 송신 장치에 대응할 수 있다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치는 동기 및 복조 모듈 (synchronization & demodulation module) (9000), 프레임 파싱 모듈 (frame parsing module) (9010), 디매핑 및 디코딩 모듈 (demapping & decoding module) (9020), 출력 프로세서 (output processor) (9030), 및 시그널링 디코딩 모듈 (signaling decoding module) (9040)을 포함할 수 있다. 방송 신호 수신 장치의 각 모듈의 동작에 대해 설명한다.
동기 및 복조 모듈(9000)은 m개의 수신 안테나를 통해 입력 신호를 수신하고, 방송 신호 수신 장치에 해당하는 시스템에 대해 신호 검출 및 동기화를 실행하고, 방송 신호 송신 장치에 의해 실행되는 절차의 역과정에 해당하는 복조를 실행할 수 있다.
프레임 파싱 모듈(9010)은 입력 신호 프레임을 파싱하고, 사용자에 의해 선택된 서비스가 전송되는 데이터를 추출할 수 있다. 방송 신호 송신 장치가 인터리빙을 실행하면, 프레임 파싱 모듈(9010)은 인터리빙의 역과정에 해당하는 디인터리빙을 실행할 수 있다. 이 경우, 추출되어야 하는 신호 및 데이터의 위치가 시그널링 디코딩 모듈(9040)로부터 출력된 데이터를 디코딩함으로써 획득되어, 방송 신호 송신 장치에 의해 생성된 스케줄링 정보가 복원될 수 있다.
디매핑 및 디코딩 모듈(9020)은 입력 신호를 비트 영역 데이터로 변환한 후, 필요에 따라 비트 영역 데이터들을 디인터리빙할 수 있다. 디매핑 및 디코딩 모듈(9020)은 전송 효율을 위해 적용된 매핑에 대한 디매핑을 실행하고, 디코딩을 통해 전송 채널에서 발생한 에러를 정정할 수 있다. 이 경우, 디매핑 및 디코딩 모듈(9020)은 시그널링 디코딩 모듈(9040)로부터 출력된 데이터를 디코딩함으로써 디매핑 및 디코딩을 위해 필요한 전송 파라미터를 획득할 수 있다.
출력 프로세서(9030)는 전송 효율을 향상시키기 위해 방송 신호 송신 장치에 의해 적용되는 다양한 압축/신호 처리 절차의 역과정을 실행할 수 있다. 이 경우, 출력 프로세서(9030)는 시그널링 디코딩 모듈(9040)로부터 출력된 데이터에서 필요한 제어 정보를 획득할 수 있다. 출력 프로세서(8300)의 출력은 방송 신호 송신 장치에 입력되는 신호에 해당하고, MPEG-TS, IP 스트림 (v4 또는 v6) 및 GS일 수 있다.
시그널링 디코딩 모듈(9040)은 동기 및 복조 모듈(9000)에 의해 복조된 신호로부터 PLS 정보를 획득할 수 있다. 전술한 바와 같이, 프레임 파싱 모듈(9010), 디매핑 및 디코딩 모듈(9200), 출력 프로세서(9300)는 시그널링 디코딩 모듈(9040)로부터 출력된 데이터를 이용하여 그 기능을 실행할 수 있다.
도 9는 본 발명의 일 실시예에 따른 프레임 구조를 나타낸다.
도 9는 프레임 타임의 구성예 및 슈퍼 프레임에서의 FRU (frame repetition unit, 프레임 반복 단위)를 나타낸다. (a)는 본 발명의 일 실시예에 따른 슈퍼 프레임을 나타내고, (b)는 본 발명의 일 실시예에 따른 FRU를 나타내고, (c)는 FRU에서의 다양한 피지컬 프로파일(PHY profile)의 프레임을 나타내고, (d)는 프레임의 구조를 나타낸다.
슈퍼 프레임은 8개의 FRU로 구성될 수 있다. FRU는 프레임의 TDM에 대한 기본 멀티플렉싱 단위이고, 슈퍼 프레임에서 8회 반복된다.
FRU에서 각 프레임은 피지컬 프로파일(베이스, 핸드헬드, 어드벤스 프로파일) 중 하나 또는 FEF에 속한다. FRU에서 프레임의 최대 허용수는 4이고, 주어진 피지컬 프로파일은 FRU에서 0회 내지 4회 중 어느 횟수만큼 나타날 수 있다(예를 들면, 베이스, 베이스, 핸드헬드, 어드벤스). 피지컬 프로파일 정의는 필요시 프리앰블에서의 PHY_PROFILE의 리저브드 값을 이용하여 확장될 수 있다.
FEF 부분은 포함된다면 FRU의 끝에 삽입된다. FEF가 FRU에 포함되는 경우, FEF의 최대수는 슈퍼 프레임에서 8이다. FEF 부분들이 서로 인접할 것이 권장되지 않는다.
하나의 프레임은 다수의 OFDM 심볼 및 프리앰블로 더 분리된다. (d)에 도시한 바와 같이, 프레임은 프리앰블, 하나 이상의 FSS, 노멀 데이터 심볼, FES를 포함한다.
프리앰블은 고속 퓨처캐스트 UTB 시스템 신호 검출을 가능하게 하고, 신호의 효율적인 송신 및 수신을 위한 기본 전송 파라미터의 집합을 제공하는 특별한 심볼이다. 프리앰블에 대한 자세한 내용은 후술한다.
FSS의 주된 목적은 PLS 데이터를 전달하는 것이다. 고속 동기화 및 채널 추정을 위해, 이에 따른 PLS 데이터의 고속 디코딩을 위해, FSS는 노멀 데이터 심볼보다 고밀도의 파일럿 패턴을 갖는다. FES는 FSS와 완전히 동일한 파일럿을 갖는데, 이는 FES에 바로 앞서는 심볼에 대해 외삽(extrapolation) 없이 FES 내에서의 주파수만의 인터폴레이션(interpolation, 보간) 및 시간적 보간(temporal interpolation)을 가능하게 한다.
도 10은 본 발명의 일 실시예에 따른 프레임의 시그널링 계층 구조(signaling hierarchy structure) 를 나타낸다.
도 10은 시그널링 계층 구조를 나타내는데, 이는 세 개의 주요 부분인 프리앰블 시그널링 데이터(11000), PLS1 데이터(11010), 및 PLS2 데이터(11020)로 분할된다. 매 프레임마다 프리앰블 신호에 의해 전달되는 프리앰블의 목적은 프레임의 기본 전송 파라미터 및 전송 타입을 나타내는 것이다. PLS1은 수신기가 관심 있는 데이터 파이프에 접속하기 위한 파라미터를 포함하는 PLS2 데이터에 접속하여 디코딩할 수 있게 한다. PLS2는 매 프레임마다 전달되고, 두 개의 주요 부분인 PLS2-STAT 데이터와 PLS2-DYN 데이터로 분할된다. PLS2 데이터의 스태틱(static, 정적) 및 다이나믹(dynamic, 동적) 부분에는 필요시 패딩이 뒤따른다.
도 11은 본 발명의 일 실시예에 따른 프리앰블 시그널링 데이터를 나타낸다.
프리앰블 시그널링 데이터는 수신기가 프레임 구조 내에서 PLS 데이터에 접속하고 데이터 파이프를 추적할 수 있게 하기 위해 필요한 21비트의 정보를 전달한다. 프리앰블 시그널링 데이터에 대한 자세한 내용은 다음과 같다.
PHY_PROFILE: 해당 3비트 필드는 현 프레임의 피지컬 프로파일 타입을 나타낸다. 서로 다른 피지컬 프로파일 타입의 매핑은 아래 표 5에 주어진다.
표 5
Figure PCTKR2015004162-appb-T000005
FFT_SIZE: 해당 2비트 필드는 아래 표 6에서 설명한 바와 같이 프레임 그룹 내에서 현 프레임의 FFT 사이즈를 나타낸다.
표 6
Figure PCTKR2015004162-appb-T000006
GI_FRACTION: 해당 3비트 필드는 아래 표 7에서 설명한 바와 같이 현 슈퍼 프레임에서의 가드 인터벌 일부(fraction) 값을 나타낸다.
표 7
Figure PCTKR2015004162-appb-T000007
EAC_FLAG: 해당 1비트 필드는 EAC가 현 프레임에 제공되는지 여부를 나타낸다. 해당 필드가 1로 설정되면, EAS가 현 프레임에 제공된다. 해당 필드가 0으로 설정되면, EAS가 현 프레임에서 전달되지 않는다. 해당 필드는 슈퍼 프레임 내에서 다이나믹(dynamic, 동적)으로 전환될 수 있다.
PILOT_MODE: 해당 1비트 필드는 현 프레임 그룹에서 현 프레임에 대해 파일럿 모드가 모바일 모드인지 또는 고정 모드인지 여부를 나타낸다. 해당 필드가 0으로 설정되면, 모바일 파일럿 모드가 사용된다. 해당 필드가 1로 설정되면, 고정 파일럿 모드가 사용된다.
PAPR_FLAG: 해당 1비트 필드는 현 프레임 그룹에서 현 프레임에 대해 PAPR 감소가 사용되는지 여부를 나타낸다. 해당 필드가 1로 설정되면, 톤 예약(tone reservation)이 PAPR 감소를 위해 사용된다. 해당 필드가 0으로 설정되면, PAPR 감소가 사용되지 않는다.
FRU_CONFIGURE: 해당 3비트 필드는 현 슈퍼 프레임에서 존재하는 FRU의 피지컬 프로파일 타입 구성을 나타낸다. 현 슈퍼 프레임에서 모든 프리앰블에서의 해당 필드에서, 현 슈퍼 프레임에서 전달되는 모든 프로파일 타입이 식별된다. 해당 3비트 필드는 아래 표 8에 나타낸 바와 같이 각각의 프로파일에 대해 다르게 정의된다.
표 8
Figure PCTKR2015004162-appb-T000008
RESERVED: 해당 7비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
도 12는 본 발명의 일 실시예에 따른 PLS1 데이터를 나타낸다.
PLS1 데이터는 PLS2의 수신 및 디코딩을 가능하게 하기 위해 필요한 파라미터를 포함한 기본 전송 파라미터를 제공한다. 전술한 바와 같이, PLS1 데이터는 하나의 프레임 그룹의 전체 듀레이션 동안 변화하지 않는다. PLS1 데이터의 시그널링 필드의 구체적인 정의는 다음과 같다.
PREAMBLE_DATA: 해당 20비트 필드는 EAC_FLAG를 제외한 프리앰블 시그널링 데이터의 카피이다.
NUM_FRAME_FRU: 해당 2비트 필드는 FRU당 프레임 수를 나타낸다.
PAYLOAD_TYPE: 해당 3비트 필드는 프레임 그룹에서 전달되는 페이로드 데이터의 포맷을 나타낸다. PAYLOAD_TYPE은 표 9에 나타낸 바와 같이 시그널링 된다.
표 9
Figure PCTKR2015004162-appb-T000009
NUM_FSS: 해당 2비트 필드는 현 프레임에서 FSS의 수를 나타낸다.
SYSTEM_VERSION: 해당 8비트 필드는 전송되는 신호 포맷의 버전을 나타낸다. SYSTEM_VERSION은 주 버전 및 부 버전의 두 개의 4비트 필드로 분리된다.
주 버전: SYSTEM_VERSION 필드의 MSB인 4비트는 주 버전 정보를 나타낸다. 주 버전 필드에서의 변화는 호환이 불가능한 변화를 나타낸다. 디폴트 값은 0000이다. 해당 표준에서 서술된 버전에 대해, 값이 0000으로 설정된다.
부 버전: SYSTEM_VERSION 필드의 LSB인 4비트는 부 버전 정보를 나타낸다. 부 버전 필드에서의 변화는 호환이 가능하다.
CELL_ID: 이는 ATSC 네트워크에서 지리적 셀을 유일하게 식별하는 16비트 필드이다. ATSC 셀 커버리지는 퓨처캐스트 UTB 시스템당 사용되는 주파수 수에 따라 하나 이상의 주파수로 구성될 수 있다. CELL_ID의 값이 알려지지 않거나 특정되지 않으면, 해당 필드는 0으로 설정된다.
NETWORK_ID: 이는 현 ATSC 네트워크를 유일하게 식별하는 16비트 필드이다.
SYSTEM_ID: 해당 16비트 필드는 ATSC 네트워크 내에서 퓨처캐스트 UTB 시스템을 유일하게 식별한다. 퓨처캐스트 UTB 시스템은 입력이 하나 이상의 입력 스트림(TS, IP, GS)이고 출력이 RF 신호인 지상파 방송 시스템이다. 퓨처캐스트 UTB 시스템은 존재한다면 FEF 및 하나 이상의 피지컬 프로파일을 전달한다. 동일한 퓨처캐스트 UTB 시스템은 서로 다른 입력 스트림을 전달하고 서로 다른 지리적 영역에서 서로 다른 RF를 사용할 수 있어, 로컬 서비스 삽입을 허용한다. 프레임 구조 및 스케줄링은 하나의 장소에서 제어되고, 퓨처캐스트 UTB 시스템 내에서 모든 전송에 대해 동일하다. 하나 이상의 퓨처캐스트 UTB 시스템은 모두 동일한 피지컬 구조 및 구성을 갖는다는 동일한 SYSTEM_ID 의미를 가질 수 있다.
다음의 루프(loop)는 각 프레임 타입의 길이 및 FRU 구성을 나타내는 FRU_PHY_PROFILE, FRU_FRAME_LENGTH, FRU_GI_FRACTION, RESERVED로 구성된다. 루프(loop) 사이즈는 FRU 내에서 4개의 피지컬 프로파일(FEF 포함)이 시그널링되도록 고정된다. NUM_FRAME_FRU가 4보다 작으면, 사용되지 않는 필드는 제로로 채워진다.
FRU_PHY_PROFILE: 해당 3비트 필드는 관련된 FRU의 (i+1)번째 프레임(i는 루프(loop) 인덱스)의 피지컬 프로파일 타입을 나타낸다. 해당 필드는 표 8에 나타낸 것과 동일한 시그널링 포맷을 사용한다.
FRU_FRAME_LENGTH: 해당 2비트 필드는 관련된 FRU의 (i+1)번째 프레임의 길이를 나타낸다. FRU_GI_FRACTION와 함께 FRU_FRAME_LENGTH를 사용하면, 프레임 듀레이션의 정확한 값이 얻어질 수 있다.
FRU_GI_FRACTION: 해당 3비트 필드는 관련된 FRU의 (i+1)번째 프레임의 가드 인터벌 일부 값을 나타낸다. FRU_GI_FRACTION은 표 7에 따라 시그널링 된다.
RESERVED: 해당 4비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음의 필드는 PLS2 데이터를 디코딩하기 위한 파라미터를 제공한다.
PLS2_FEC_TYPE: 해당 2비트 필드는 PLS2 보호에 의해 사용되는 FEC 타입을 나타낸다. FEC 타입은 표 10에 따라 시그널링 된다. LDPC 코드에 대한 자세한 내용은 후술한다.
표 10
Figure PCTKR2015004162-appb-T000010
PLS2_MOD: 해당 3비트 필드는 PLS2에 의해 사용되는 변조 타입을 나타낸다. 변조 타입은 표 11에 따라 시그널링 된다.
표 11
PLS2_MODE
000 BPSK
001 QPSK
010 QAM-16
011 NUQ-64
100~111 리저브드(reserved)
PLS2_SIZE_CELL: 해당 15비트 필드는 현 프레임 그룹에서 전달되는 PLS2에 대한 모든 코딩 블록의 사이즈(QAM 셀의 수로 특정됨)인 Ctotal_partial_block를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_STAT_SIZE_BIT: 해당 14비트 필드는 현 프레임 그룹에 대한 PLS2-STAT의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_DYN_SIZE_BIT: 해당 14비트 필드는 현 프레임 그룹에 대한 PLS2-DYN의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_REP_FLAG: 해당 1비트 플래그는 PLS2 반복 모드가 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, PLS2 반복 모드는 활성화된다. 해당 필드의 값이 0으로 설정되면, PLS2 반복 모드는 비활성화된다.
PLS2_REP_SIZE_CELL: 해당 15비트 필드는 PLS2 반복이 사용되는 경우 현 프레임 그룹의 매 프레임마다 전달되는 PLS2에 대한 부분 코딩 블록의 사이즈(QAM 셀의 수로 특정됨)인 Ctotal_partial_block를 나타낸다. 반복이 사용되지 않는 경우, 해당 필드의 값은 0과 동일하다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_NEXT_FEC_TYPE: 해당 2비트 필드는 다음 프레임 그룹의 매 프레임에서 전달되는 PLS2에 사용되는 FEC 타입을 나타낸다. FEC 타입은 표 10에 따라 시그널링 된다.
PLS2_NEXT_MOD: 해당 3비트 필드는 다음 프레임 그룹의 매 프레임에서 전달되는 PLS2에 사용되는 변조 타입을 나타낸다. 변조 타입은 표 11에 따라 시그널링 된다.
PLS2_NEXT_REP_FLAG: 해당 1비트 플래그는 PLS2 반복 모드가 다음 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, PLS2 반복 모드는 활성화된다. 해당 필드의 값이 0으로 설정되면, PLS2 반복 모드는 비활성화된다.
PLS2_NEXT_REP_SIZE_CELL: 해당 15비트 필드는 PLS2 반복이 사용되는 경우 다음 프레임 그룹의 매 프레임마다 전달되는 PLS2에 대한 전체 코딩 블록의 사이즈(QAM 셀의 수로 특정됨)인 Ctotal_full_block를 나타낸다. 다음 프레임 그룹에서 반복이 사용되지 않는 경우, 해당 필드의 값은 0과 동일하다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_NEXT_REP_STAT_SIZE_BIT: 해당 14비트 필드는 다음 프레임 그룹에 대한 PLS2-STAT의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹에서 일정하다.
PLS2_NEXT_REP_DYN_SIZE_BIT: 해당 14비트 필드는 다음 프레임 그룹에 대한 PLS2-DYN의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹에서 일정하다.
PLS2_AP_MODE: 해당 2비트 필드는 현 프레임 그룹에서 PLS2에 대해 추가 패리티가 제공되는지 여부를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다. 아래의 표 12는 해당 필드의 값을 제공한다. 해당 필드의 값이 00으로 설정되면, 현 프레임 그룹에서 추가 패리티가 PLS2에 대해 사용되지 않는다.
표 12
Figure PCTKR2015004162-appb-T000011
PLS2_AP_SIZE_CELL: 해당 15비트 필드는 PLS2의 추가 패리티 비트의 사이즈(QAM 셀의 수로 특정됨)를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_NEXT_AP_MODE: 해당 2비트 필드는 다음 프레임 그룹의 매 프레임마다 PLS2 시그널링에 대해 추가 패리티가 제공되는지 여부를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다. 표 12는 해당 필드의 값을 정의한다.
PLS2_NEXT_AP_SIZE_CELL: 해당 15비트 필드는 다음 프레임 그룹의 매 프레임마다 PLS2의 추가 패리티 비트의 사이즈(QAM 셀의 수로 특정됨)를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
RESERVED: 해당 32비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
CRC_32: 전체 PLS1 시그널링에 적용되는 32비트 에러 검출 코드
도 13은 본 발명의 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 13은 PLS2 데이터의 PLS2-STAT 데이터를 나타낸다. PLS2-STAT 데이터는 프레임 그룹 내에서 동일한 반면, PLS2-DYN 데이터는 현 프레임에 대해 특정한 정보를 제공한다.
PLS2-STAT 데이터의 필드에 대해 다음에 구체적으로 설명한다.
FIC_FLAG: 해당 1비트 필드는 FIC가 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, FIC는 현 프레임에서 제공된다. 해당 필드의 값이 0으로 설정되면, FIC는 현 프레임에서 전달되지 않는다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
AUX_FLAG: 해당 1비트 필드는 보조 스트림이 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, 보조 스트림은 현 프레임에서 제공된다. 해당 필드의 값이 0으로 설정되면, 보조 프레임은 현 프레임에서 전달되지 않는다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
NUM_DP: 해당 6비트 필드는 현 프레임 내에서 전달되는 데이터 파이프의 수를 나타낸다. 해당 필드의 값은 1에서 64 사이이고, 데이터 파이프의 수는 NUM_DP+1이다.
DP_ID: 해당 6비트 필드는 피지컬 프로파일 내에서 유일하게 식별한다.
DP_TYPE: 해당 3비트 필드는 데이터 파이프의 타입을 나타낸다. 이는 아래의 표 13에 따라 시그널링 된다.
표 13
Figure PCTKR2015004162-appb-T000012
DP_GROUP_ID: 해당 8비트 필드는 현 데이터 파이프가 관련되어 있는 데이터 파이프 그룹을 식별한다. 이는 수신기가 동일한 DP_GROUP_ID를 갖게 되는 특정 서비스와 관련되어 있는 서비스 컴포넌트의 데이터 파이프에 접속하는 데 사용될 수 있다.
BASE_DP_ID: 해당 6비트 필드는 관리 계층에서 사용되는 (PSI/SI와 같은) 서비스 시그널링 데이터를 전달하는 데이터 파이프를 나타낸다. BASE_DP_ID에 의해 나타내는 데이터 파이프는 서비스 데이터와 함께 서비스 시그널링 데이터를 전달하는 노멀 데이터 파이프이거나, 서비스 시그널링 데이터만을 전달하는 전용 데이터 파이프일 수 있다.
DP_FEC_TYPE: 해당 2비트 필드는 관련된 데이터 파이프에 의해 사용되는 FEC 타입을 나타낸다. FEC 타입은 아래의 표 14에 따라 시그널링 된다.
표 14
Figure PCTKR2015004162-appb-T000013
DP_COD: 해당 4비트 필드는 관련된 데이터 파이프에 의해 사용되는 코드 레이트(code rate)을 나타낸다. 코드 레이트(code rate)은 아래의 표 15에 따라 시그널링 된다.
표 15
Figure PCTKR2015004162-appb-T000014
DP_MOD: 해당 4비트 필드는 관련된 데이터 파이프에 의해 사용되는 변조를 나타낸다. 변조는 아래의 표 16에 따라 시그널링 된다.
표 16
Figure PCTKR2015004162-appb-T000015
DP_SSD_FLAG: 해당 1비트 필드는 SSD 모드가 관련된 데이터 파이프에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, SSD는 사용된다. 해당 필드의 값이 0으로 설정되면, SSD는 사용되지 않는다.
다음의 필드는 PHY_PROFILE가 어드벤스 프로파일을 나타내는 010과 동일할 때에만 나타난다.
DP_MIMO: 해당 3비트 필드는 어떤 타입의 MIMO 인코딩 처리가 관련된 데이터 파이프에 적용되는지 나타낸다. MIMO 인코딩 처리의 타입은 아래의 표 17에 따라 시그널링 된다.
표 17
Figure PCTKR2015004162-appb-T000016
DP_TI_TYPE: 해당 1비트 필드는 타임 인터리빙의 타입을 나타낸다. 0의 값은 하나의 타임 인터리빙 그룹이 하나의 프레임에 해당하고 하나 이상의 타임 인터리빙 블록을 포함하는 것을 나타낸다. 1의 값은 하나의 타임 인터리빙 그룹이 하나보다 많은 프레임으로 전달되고 하나의 타임 인터리빙 블록만을 포함하는 것을 나타낸다.
DP_TI_LENGTH: 해당 2비트 필드(허용된 값은 1, 2, 4, 8뿐이다)의 사용은 다음과 같은 DP_TI_TYPE 필드 내에서 설정되는 값에 의해 결정된다.
DP_TI_TYPE의 값이 1로 설정되면, 해당 필드는 각각의 타임 인터리빙 그룹이 매핑되는 프레임의 수인 PI를 나타내고, 타임 인터리빙 그룹당 하나의 타임 인터리빙 블록이 존재한다 (NTI=1). 해당 2비트 필드로 허용되는 PI의 값은 아래의 표 18에 정의된다.
DP_TI_TYPE의 값이 0으로 설정되면, 해당 필드는 타임 인터리빙 그룹당 타임 인터리빙 블록의 수 NTI를 나타내고, 프레임당 하나의 타임 인터리빙 그룹이 존재한다 (PI=1). 해당 2비트 필드로 허용되는 PI의 값은 아래의 표 18에 정의된다.
표 18
Figure PCTKR2015004162-appb-T000017
DP_FRAME_INTERVAL: 해당 2비트 필드는 관련된 데이터 파이프에 대한 프레임 그룹 내에서 프레임 간격(IJUMP)을 나타내고, 허용된 값은 1, 2, 4, 8 (해당하는 2비트 필드는 각각 00, 01, 10, 11)이다. 프레임 그룹의 모든 프레임에 나타나지 않는 데이터 파이프에 대해, 해당 필드의 값은 순차적인 프레임 사이의 간격과 동일하다. 예를 들면, 데이터 파이프가 1, 5, 9, 13 등의 프레임에 나타나면, 해당 필드의 값은 4로 설정된다. 모든 프레임에 나타나는 데이터 파이프에 대해, 해당 필드의 값은 1로 설정된다.
DP_TI_BYPASS: 해당 1비트 필드는 타임 인터리버(5050)의 가용성을 결정한다. 데이터 파이프에 대해 타임 인터리빙이 사용되지 않으면, 해당 필드 값은 1로 설정된다. 반면, 타임 인터리빙이 사용되면, 해당 필드 값은 0으로 설정된다.
DP_FIRST_FRAME_IDX: 해당 5비트 필드는 현 데이터 파이프가 발생하는 슈퍼 프레임의 첫 번째 프레임의 인덱스를 나타낸다. DP_FIRST_FRAME_IDX의 값은 0에서 31 사이다.
DP_NUM_BLOCK_MAX: 해당 10비트 필드는 해당 데이터 파이프에 대한 DP_NUM_BLOCKS의 최대값을 나타낸다. 해당 필드의 값은 DP_NUM_BLOCKS와 동일한 범위를 갖는다.
DP_PAYLOAD_TYPE: 해당 2비트 필드는 주어진 데이터 파이프에 의해 전달되는 페이로드 데이터의 타입을 나타낸다. DP_PAYLOAD_TYPE은 아래의 표 19에 따라 시그널링 된다.
표 19
Figure PCTKR2015004162-appb-T000018
DP_INBAND_MODE: 해당 2비트 필드는 현 데이터 파이프가 인 밴드(In-band) 시그널링 정보를 전달하는지 여부를 나타낸다. 인 밴드(In-band) 시그널링 타입은 아래의 표 20에 따라 시그널링 된다.
표 20
Figure PCTKR2015004162-appb-T000019
DP_PROTOCOL_TYPE: 해당 2비트 필드는 주어진 데이터 파이프에 의해 전달되는 페이로드의 프로토콜 타입을 나타낸다. 페이로드의 프로토콜 타입은 입력 페이로드 타입이 선택되면 아래의 표 21에 따라 시그널링 된다.
표 21
Figure PCTKR2015004162-appb-T000020
DP_CRC_MODE: 해당 2비트 필드는 CRC 인코딩이 인풋 포맷 블록에서 사용되는지 여부를 나타낸다. CRC 모드는 아래의 표 22에 따라 시그널링 된다.
표 22
Figure PCTKR2015004162-appb-T000021
DNP_MODE: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되는 경우에 관련된 데이터 파이프에 의해 사용되는 널 패킷 삭제 모드를 나타낸다. DNP_MODE는 아래의 표 23에 따라 시그널링 된다. DP_PAYLOAD_TYPE이 TS ('00')가 아니면, DNP_MODE는 00의 값으로 설정된다.
표 23
Figure PCTKR2015004162-appb-T000022
ISSY_MODE: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되는 경우에 관련된 데이터 파이프에 의해 사용되는 ISSY 모드를 나타낸다. ISSY_MODE는 아래의 표 24에 따라 시그널링 된다. DP_PAYLOAD_TYPE이 TS ('00')가 아니면, ISSY_MODE는 00의 값으로 설정된다.
표 24
Figure PCTKR2015004162-appb-T000023
HC_MODE_TS: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되는 경우에 관련된 데이터 파이프에 의해 사용되는 TS 헤더 압축 모드를 나타낸다. HC_MODE_TS는 아래의 표 25에 따라 시그널링 된다.
표 25
Figure PCTKR2015004162-appb-T000024
표 26
Figure PCTKR2015004162-appb-T000025
PID: 해당 13비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되고 HC_MODE_TS가 01 또는 10으로 설정되는 경우에 TS 헤더 압축을 위한 PID 수를 나타낸다.
RESERVED: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음 필드는 FIC_FLAG가 1과 동일할 때만 나타난다.
FIC_VERSION: 해당 8비트 필드는 FIC의 버전 넘버를 나타낸다.
FIC_LENGTH_BYTE: 해당 13비트 필드는 FIC의 길이를 바이트 단위로 나타낸다.
RESERVED: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음 필드는 AUX_FLAG가 1과 동일할 때만 나타난다.
NUM_AUX: 해당 4비트 필드는 보조 스트림의 수를 나타낸다. 제로는 보조 스트림이 사용되지 않는 것을 나타낸다.
AUX_CONFIG_RFU: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
AUX_STREAM_TYPE: 해당 4비트는 현 보조 스트림의 타입을 나타내기 위한 추후 사용을 위해 리저브드(reserved)된다.
AUX_PRIVATE_CONFIG: 해당 28비트 필드는 보조 스트림을 시그널링 하기 위한 추후 사용을 위해 리저브드(reserved)된다.
도 14는 본 발명의 다른 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 14는 PLS2 데이터의 PLS2-DYN을 나타낸다. PLS2-DYN 데이터의 값은 하나의 프레임 그룹의 듀레이션 동안 변화할 수 있는 반면, 필드의 사이즈는 일정하다.
PLS2-DYN 데이터의 필드의 구체적인 내용은 다음과 같다.
FRAME_INDEX: 해당 5비트 필드는 슈퍼 프레임 내에서 현 프레임의 프레임 인덱스를 나타낸다. 슈퍼 프레임의 첫 번째 프레임의 인덱스는 0으로 설정된다.
PLS_CHANGE_COUNTER: 해당 4비트 필드는 구성이 변화하기 전의 슈퍼 프레임의 수를 나타낸다. 구성이 변화하는 다음 슈퍼 프레임은 해당 필드 내에서 시그널링 되는 값에 의해 나타낸다. 해당 필드의 값이 0000으로 설정되면, 이는 어떠한 예정된 변화도 예측되지 않는 것을 의미한다. 예를 들면, 1의 값은 다음 슈퍼 프레임에 변화가 있다는 것을 나타낸다.
FIC_CHANGE_COUNTER: 해당 4비트 필드는 구성(즉, FIC의 콘텐츠)이 변화하기 전의 슈퍼 프레임의 수를 나타낸다. 구성이 변화하는 다음 슈퍼 프레임은 해당 필드 내에서 시그널링 되는 값에 의해 나타낸다. 해당 필드의 값이 0000으로 설정되면, 이는 어떠한 예정된 변화도 예측되지 않는 것을 의미한다. 예를 들면, 0001의 값은 다음 슈퍼 프레임에 변화가 있다는 것을 나타낸다.
RESERVED: 해당 16비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음 필드는 현 프레임에서 전달되는 데이터 파이프와 관련된 파라미터를 설명하는 NUM_DP에서의 루프(loop)에 나타난다.
DP_ID: 해당 6비트 필드는 피지컬 프로파일 내에서 데이터 파이프를 유일하게 나타낸다.
DP_START: 해당 15비트 (또는 13비트) 필드는 DPU 어드레싱(addressing) 기법을 사용하여 데이터 파이프의 첫 번째의 시작 위치를 나타낸다. DP_START 필드는 아래의 표 27에 나타낸 바와 같이 피지컬 프로파일 및 FFT 사이즈에 따라 다른 길이를 갖는다.
표 27
Figure PCTKR2015004162-appb-T000026
DP_NUM_BLOCK: 해당 10비트 필드는 현 데이터 파이프에 대한 현 타임 인터리빙 그룹에서 FEC 블록의 수를 나타낸다. DP_NUM_BLOCK의 값은 0에서 1023 사이에 있다.
RESERVED: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음의 필드는 EAC와 관련된 FIC 파라미터를 나타낸다.
EAC_FLAG: 해당 1비트 필드는 현 프레임에서 EAC의 존재를 나타낸다. 해당 비트는 프리앰블에서 EAC_FLAG와 같은 값이다.
EAS_WAKE_UP_VERSION_NUM: 해당 8비트 필드는 자동 활성화 지시의 버전 넘버를 나타낸다.
EAC_FLAG 필드가 1과 동일하면, 다음의 12비트가 EAC_LENGTH_BYTE 필드에 할당된다. EAC_FLAG 필드가 0과 동일하면, 다음의 12비트가 EAC_COUNTER에 할당된다.
EAC_LENGTH_BYTE: 해당 12비트 필드는 EAC의 길이를 바이트로 나타낸다.
EAC_COUNTER: 해당 12비트 필드는 EAC가 도달하는 프레임 전의 프레임의 수를 나타낸다.
다음 필드는 AUX_FLAG 필드가 1과 동일한 경우에만 나타난다.
AUX_PRIVATE_DYN: 해당 48비트 필드는 보조 스트림을 시그널링 하기 위한 추후 사용을 위해 리저브드(reserved)된다. 해당 필드의 의미는 설정 가능한 PLS2-STAT에서 AUX_STREAM_TYPE의 값에 의존한다.
CRC_32: 전체 PLS2에 적용되는 32비트 에러 검출 코드.
도 15는 본 발명의 일 실시예에 따른 프레임의 로지컬(logical) 구조를 나타낸다.
전술한 바와 같이, PLS, EAC, FIC, 데이터 파이프, 보조 스트림, 더미 셀은 프레임에서 OFDM 심볼의 액티브(active) 캐리어에 매핑된다. PLS1 및 PLS2는 처음에 하나 이상의 FSS에 매핑된다. 그 후, EAC가 존재한다면 EAC 셀은 바로 뒤따르는 PLS 필드에 매핑된다. 다음에 FIC가 존재한다면 FIC 셀이 매핑된다. 데이터 파이프는 PLS 다음에 매핑되거나, EAC 또는 FIC가 존재하는 경우, EAC 또는 FIC 이후에 매핑된다. 타입 1 데이터 파이프가 처음에 매핑되고, 타입 2 데이터 파이프가 다음에 매핑된다. 데이터 파이프의 타입의 구체적인 내용은 후술한다. 일부 경우, 데이터 파이프는 EAS에 대한 일부 특수 데이터 또는 서비스 시그널링 데이터를 전달할 수 있다. 보조 스트림 또는 스트림은 존재한다면 데이터 파이프를 다음에 매핑되고 여기에는 차례로 더미 셀이 뒤따른다. 전술한 순서, 즉, PLS, EAC, FIC, 데이터 파이프, 보조 스트림, 및 더미 셀의 순서로 모두 함께 매핑하면 프레임에서 셀 용량을 정확히 채운다.
도 16은 본 발명의 일 실시예에 따른 PLS 매핑을 나타낸다.
PLS 셀은 FSS의 액티브(active) 캐리어에 매핑된다. PLS가 차지하는 셀의 수에 따라, 하나 이상의 심볼이 FSS로 지정되고, FSS의 수 NFSS는 PLS1에서의 NUM_FSS에 의해 시그널링된다. FSS는 PLS 셀을 전달하는 특수한 심볼이다. 경고성 및 지연 시간(latency)은 PLS에서 중대한 사안이므로, FSS는 높은 파일럿 밀도를 가지고 있어 고속 동기화 및 FSS 내에서의 주파수만의 인터폴레이션(interpoloation, 보간)을 가능하게 한다.
PLS 셀은 도 16의 예에 나타낸 바와 같이 하향식으로 FSS의 액티브(active) 캐리어에 매핑된다. PLS1 셀은 처음에 첫 FSS의 첫 셀부터 셀 인덱스의 오름차순으로 매핑된다. PLS2 셀은 PLS1의 마지막 셀 직후에 뒤따르고, 매핑은 첫 FSS의 마지막 셀 인덱스까지 아래방향으로 계속된다. 필요한 PLS 셀의 총 수가 하나의 FSS의 액티브(active) 캐리어의 수를 초과하면, 매핑은 다음 FSS로 진행되고 첫 FSS와 완전히 동일한 방식으로 계속된다.
PLS 매핑이 완료된 후, 데이터 파이프가 다음에 전달된다. EAC, FIC 또는 둘 다 현 프레임에 존재하면, EAC 및 FIC는PLS와 노멀 데이터 파이프 사이에 배치된다.
도 17은 본 발명의 일 실시예에 따른 EAC 매핑을 나타낸다.
EAC는 EAS 메시지를 전달하는 전용 채널이고 EAS에 대한 데이터 파이프에 연결된다. EAS 지원은 제공되지만, EAC 자체는 모든 프레임에 존재할 수도 있고 존재하지 않을 수도 있다. EAC가 존재하는 경우, EAC는 PLS2 셀의 직후에 매핑된다. PLS 셀을 제외하고 FIC, 데이터 파이프, 보조 스트림 또는 더미 셀 중 어느 것도 EAC 앞에 위치하지 않는다. EAC 셀의 매핑 절차는 PLS와 완전히 동일하다.
EAC 셀은 도 17의 예에 나타낸 바와 같이 PLS2의 다음 셀부터 셀 인덱스의 오름차순으로 매핑된다. EAS 메시지 크기에 따라, 도 17에 나타낸 바와 같이 EAC 셀은 적은 심볼을 차지할 수 있다.
EAC 셀은 PLS2의 마지막 셀 직후에 뒤따르고, 매핑은 마지막 FSS의 마지막 셀 인덱스까지 아래방향으로 계속된다. 필요한 EAC 셀의 총 수가 마지막 FSS의 남아 있는 액티브(active) 캐리어의 수를 초과하면, EAC 매핑은 다음 심볼로 진행되며, FSS와 완전히 동일한 방식으로 계속된다. 이 경우 EAC의 매핑이 이루어지는 다음 심볼은 노멀 데이터 심볼이고, 이는 FSS보다 더 많은 액티브(active) 캐리어를 갖는다.
EAC 매핑이 완료된 후, 존재한다면 FIC가 다음에 전달된다. FIC가 전송되지 않으면(PLS2 필드에서 시그널링으로), 데이터 파이프가 EAC의 마지막 셀 직후에 뒤따른다.
도 18은 본 발명의 일 실시예에 따른 FIC 매핑을 나타낸다.
(a)는 EAC 없이 FIC 셀의 매핑의 예를 나타내고, (b)는 EAC와 함께 FIC 셀의 매핑의 예를 나타낸다.
FIC는 고속 서비스 획득 및 채널 스캔을 가능하게 하기 위해 계층간 정보(cross-layer information)를 전달하는 전용 채널이다. 해당 정보는 주로 데이터 파이프 사이의 채널 바인딩 (channel binding) 정보 및 각 방송사의 서비스를 포함한다. 고속 스캔을 위해, 수신기는 FIC를 디코딩하고 방송사 ID, 서비스 수, BASE_DP_ID와 같은 정보를 획득할 수 있다. 고속 서비스 획득을 위해, FIC뿐만 아니라 베이스 데이터 파이프도 BASE_DP_ID를 이용해서 디코딩 될 수 있다. 베이스 데이터 파이프가 전송하는 콘텐트를 제외하고, 베이스 데이터 파이프는 노멀 데이터 파이프와 정확히 동일한 방식으로 인코딩되어 프레임에 매핑된다. 따라서, 베이스 데이터 파이프에 대한 추가 설명이 필요하지 않다. FIC 데이터가 생성되어 관리 계층에서 소비된다. FIC 데이터의 콘텐트는 관리 계층 사양에 설명된 바와 같다.
FIC 데이터는 선택적이고, FIC의 사용은 PLS2의 스태틱(static, 정적)인 부분에서 FIC_FLAG 파라미터에 의해 시그널링 된다. FIC가 사용되면, FIC_FLAG는 1로 설정되고, FIC에 대한 시그널링 필드는 PLS2의 스태틱(static, 정적)인 부분에서 정의된다. 해당 필드에서 시그널링되는 것은 FIC_VERSION이고, FIC_LENGTH_BYTE. FIC는 PLS2와 동일한 변조, 코딩, 타임 인터리빙 파라미터를 사용한다. FIC는 PLS2_MOD 및 PLS2_FEC와 같은 동일한 시그널링 파라미터를 공유한다. FIC 데이터는 존재한다면 PLS2 후에 매핑되거나, EAC가 존재하는 경우 EAC 직후에 매핑된다. 노멀 데이터 파이프, 보조 스트림, 또는 더미 셀 중 어느 것도 FIC 앞에 위치하지 않는다. FIC 셀을 매핑하는 방법은 EAC와 완전히 동일하고, 이는 다시 PLS와 동일하다.
PLS 후의 EAC가 존재하지 않는 경우, FIC 셀은 (a)의 예에 나타낸 바와 같이 PLS2의 다음 셀부터 셀 인덱스의 오름차순으로 매핑된다. FIC 데이터 사이즈에 따라, (b)에 나타낸 바와 같이, FIC 셀은 수 개의 심볼에 대해서 매핑된다.
FIC 셀은 PLS2의 마지막 셀 직후에 뒤따르고, 매핑은 마지막 FSS의 마지막 셀 인덱스까지 아래방향으로 계속된다. 필요한 FIC 셀의 총 수가 마지막 FSS의 남아 있는 액티브(active) 캐리어의 수를 초과하면, 나머지 FIC 셀의 매핑은 다음 심볼로 진행되며 이는 FSS와 완전히 동일한 방식으로 계속된다. 이 경우, FIC가 매핑되는 다음 심볼은 노멀 데이터 심볼이며, 이는 FSS보다 더 많은 액티브(active) 캐리어를 갖는다.
EAS 메시지가 현 프레임에서 전송되면, EAC는 FIC 보다 먼저 매핑되고 (b)에 나타낸 바와 같이 EAC의 다음 셀부터 FIC 셀은 셀 인덱스의 오름차순으로 매핑된다.
FIC 매핑이 완료된 후, 하나 이상의 데이터 파이프가 매핑되고, 이후 존재한다면 보조 스트림, 더미 셀이 뒤따른다.
도 19는 본 발명의 일 실시예에 따른 FEC 구조를 나타낸다.
도 19는 비트 인터리빙 전의 본 발명의 일 실시예에 따른 FEC 구조를 나타낸다. 전술한 바와 같이, 데이터 FEC 인코더는 외부 코딩(BCH) 및 내부 코딩(LDPC)을 이용하여 FECBLOCK 절차를 생성하기 위해 입력 BBF에 FEC 인코딩을 실행할 수 있다. 도시된 FEC 구조는 FECBLOCK에 해당한다. 또한, FECBLOCK 및 FEC 구조는 LDPC 코드워드의 길이에 해당하는 동일한 값을 갖는다.
도 19에 도시된 바와 같이, BCH 인코딩이 각각의 BBF(Kbch 비트)에 적용된 후, LDPC 인코딩이 BCH - 인코딩된 BBF(Kldpc 비트 = Nbch 비트)에 적용된다.
Nldpc의 값은 64800 비트 (롱 FECBLOCK) 또는 16200 비트 (쇼트 FECBLOCK)이다.
아래의 표 28 및 표 29는 롱 FECBLOCK 및 쇼트 FECBLOCK 각각에 대한 FEC 인코딩 파라미터를 나타낸다.
표 28
Figure PCTKR2015004162-appb-T000027
표 29
Figure PCTKR2015004162-appb-T000028
BCH 인코딩 및 LDPC 인코딩의 구체적인 동작은 다음과 같다.
12-에러 정정 BCH 코드가 BBF의 외부 인코딩에 사용된다. 쇼트 FECBLOCK 및 롱 FECBLOCK에 대한 BBF 생성 다항식은 모든 다항식을 곱함으로써 얻어진다.
LDPC 코드는 외부 BCH 인코딩의 출력을 인코딩하는 데 사용된다. 완성된 Bldpc (FECBLOCK)를 생성하기 위해, Pldpc (패리티 비트)가 각각의 Ildpc (BCH - 인코딩된 BBF)로부터 조직적으로 인코딩되고, Ildpc에 첨부된다. 완성된 Bldpc (FECBLOCK)는 다음의 수학식으로 표현된다.
수학식 2
Figure PCTKR2015004162-appb-M000002
롱 FECBLOCK 및 쇼트 FECBLOCK에 대한 파라미터는 위의 표 28 및 29에 각각 주어진다.
롱 FECBLOCK에 대해 Nldpc - Kldpc 패리티 비트를 계산하는 구체적인 절차는 다음과 같다.
1) 패리티 비트 초기화
수학식 3
Figure PCTKR2015004162-appb-M000003
2) 패리티 체크 매트릭스의 어드레스의 첫 번째 행에서 특정된 패리티 비트 어드레스에서 첫 번째 정보 비트 i0 누산(accumulate). 패리티 체크 매트릭스의 어드레스의 상세한 내용은 후술한다. 예를 들면, 비율 13/15에 대해,
수학식 4
Figure PCTKR2015004162-appb-M000004
3) 다음 359개의 정보 비트 is, s=1, 2, …, 359에 대해, 다음의 수학식을 이용하여 패리티 비트 어드레스에서 is 누산(accumulate).
수학식 5
Figure PCTKR2015004162-appb-M000005
여기서, x는 첫 번째 비트 i0에 해당하는 패리티 비트 누산기의 어드레스를 나타내고, Qldpc는 패리티 체크 매트릭스의 어드레서에서 특정된 코드 레이트(code rate) 의존 상수이다. 상기 예인, 비율 13/15에 대한, 따라서 정보 비트 i1에 대한 Qldpc = 24에 계속해서, 다음 동작이 실행된다.
수학식 6
Figure PCTKR2015004162-appb-M000006
4) 361번째 정보 비트 i360에 대해, 패리티 비트 누산기의 어드레스는 패리티 체크 매트릭스의 어드레스의 두 번째 행에 주어진다. 마찬가지 방식으로, 다음 359개의 정보 비트 is, s= 361, 362, …, 719에 대한 패리티 비트 누산기의 어드레스는 수학식 6을 이용하여 얻어진다. 여기서, x는 정보 비트 i360에 해당하는 패리티 비트 누산기의 어드레스, 즉 패리티 체크 매트릭스의 두 번째 행의 엔트리를 나타낸다.
5) 마찬가지 방식으로, 360개의 새로운 정보 비트의 모든 그룹에 대해, 패리티 체크 매트릭스의 어드레스로부터의 새로운 행은 패리티 비트 누산기의 어드레스를 구하는 데 사용된다.
모든 정보 비트가 이용된 후, 최종 패리티 비트가 다음과 같이 얻어진다.
6) i=1로 시작해서 다음 동작을 순차적으로 실행
수학식 7
Figure PCTKR2015004162-appb-M000007
여기서 pi, i=0,1,...Nldpc - Kldpc - 1의 최종 콘텐트는 패리티 비트 pi와 동일하다.
표 30
Figure PCTKR2015004162-appb-T000029
표 30을 표 31로 대체하고, 롱 FECBLOCK에 대한 패리티 체크 매트릭스의 어드레스를 쇼트 FECBLOCK에 대한 패리티 체크 매트릭스의 어드레스로 대체하는 것을 제외하고, 쇼트 FECBLOCK에 대한 해당 LDPC 인코딩 절차는 롱 FECBLOCK에 대한 t LDPC 인코딩 절차에 따른다.
표 31
Figure PCTKR2015004162-appb-T000030
도 20은 본 발명의 일 실시예에 따른 타임 인터리빙을 나타낸다.
(a) 내지 (c)는 타임 인터리빙 모드의 예를 나타낸다.
타임 인터리버는 데이터 파이프 레벨에서 동작한다. 타임 인터리빙의 파라미터는 각각의 데이터 파이프에 대해 다르게 설정될 수 있다.
PLS2-STAT 데이터의 일부에 나타나는 다음의 파라미터는 타임 인터리빙을 구성한다.
DP_TI_TYPE (허용된 값: 0 또는 1): 타임 인터리빙 모드를 나타낸다. 0은 타임 인터리빙 그룹당 다수의 타임 인터리빙 블록(하나 이상의 타임 인터리빙 블록)을 갖는 모드를 나타낸다. 이 경우, 하나의 타임 인터리빙 그룹은 하나의 프레임에 (프레임간 인터리빙 없이) 직접 매핑된다. 1은 타임 인터리빙 그룹당 하나의 타임 인터리빙 블록만을 갖는 모드를 나타낸다. 이 경우, 타임 인터리빙 블록은 하나 이상의 프레임에 걸쳐 확산된다(프레임간 인터리빙).
DP_TI_LENGTH: DP_TI_TYPE = '0'이면, 해당 파라미터는 타임 인터리빙 그룹당 타임 인터리빙 블록의 수 NTI이다. DP_TI_TYPE = '1'인 경우, 해당 파라미터는 하나의 타임 인터리빙 그룹으로부터 확산되는 프레임의 수 PI이다.
DP_NUM_BLOCK_MAX (허용된 값: 0 내지 1023): 타임 인터리빙 그룹당 XFECBLOCK의 최대 수를 나타낸다.
DP_FRAME_INTERVAL (허용된 값: 1, 2, 4, 8): 주어진 피지컬 프로파일의 동일한 데이터 파이프를 전달하는 두 개의 순차적인 프레임 사이의 프레임의 수 IJUMP를 나타낸다.
DP_TI_BYPASS (허용된 값: 0 또는 1): 타임 인터리빙이 데이터 프레임에 이용되지 않으면, 해당 파라미터는 1로 설정된다. 타임 인터리빙이 이용되면, 0으로 설정된다.
추가로, PLS2-DYN 데이터로부터의 파라미터 DP_NUM_BLOCK은 데이터 그룹의 하나의 타임 인터리빙 그룹에 의해 전달되는 XFECBLOCK의 수를 나타낸다.
타임 인터리빙이 데이터 프레임에 이용되지 않으면, 다음의 타임 인터리빙 그룹, 타임 인터리빙 동작, 타임 인터리빙 모드는 고려되지 않는다. 그러나 스케줄러부터의 다이나믹(dynamic, 동적) 구성 정보를 위한 딜레이 컴펜세이션(delay compensation, 지연보상) 블록은 여전히 필요하다. 각각의 데이터 파이프에서, SSD/MIMO 인코딩으로부터 수신한 XFECBLOCK은 타임 인터리빙 그룹으로 그루핑된다. 즉, 각각의 타임 인터리빙 그룹은 정수 개의 XFECBLOCK의 집합이고, 다이나믹(dynamic, 동적)으로 변화하는 수의 XFECBLOCK을 포함할 것이다. 인덱스 n의 타임 인터리빙 그룹에 있는 XFECBLOCK의 수는 NxBLOCK_Group(n)로 나타내고, PLS2-DYN 데이터에서 DP_NUM_BLOCK으로 시그널링된다. 이때, NxBLOCK_Group(n)은 최소값 0에서 가장 큰 값이 1023인 최대값 NxBLOCK_Group_MAX (DP_NUM_BLOCK_MAX에 해당)까지 변화할 수 있다.
각각의 타임 인터리빙 그룹은 하나의 프레임에 직접 매핑되거나 PI개의 프레임에 걸쳐 확산된다. 또한 각각의 타임 인터리빙 그룹은 하나 이상(NTI개)의 타임 인터리빙 블록으로 분리된다. 여기서 각각의 타임 인터리빙 블록은 타임 인터리버 메모리의 하나의 사용에 해당한다. 타임 인터리빙 그룹 내의 타임 인터리빙 블록은 약간의 다른 수의 XFECBLOCK을 포함할 수 있다. 타임 인터리빙 그룹이 다수의 타임 인터리빙 블록으로 분리되면, 타임 인터리빙 그룹은 하나의 프레임에만 직접 매핑된다. 아래의 표 32에 나타낸 바와 같이, 타임 인터리빙에는 세 가지 옵션이 있다(타임 인터리빙을 생략하는 추가 옵션 제외).
표 32
Figure PCTKR2015004162-appb-T000031
일반적으로, 타임 인터리버는 프레임 생성 과정 이전에 데이터 파이프 데이터에 대한 버퍼로도 작용할 것이다. 이는 각각의 데이터 파이프에 대해 2개의 메모리 뱅크로 달성된다. 첫 번째 타임 인터리빙 블록은 첫 번째 뱅크에 기입된다. 첫 번째 뱅크에서 판독되는 동안 두 번째 타임 인터리빙 블록이 두 번째 뱅크에 기입된다.
타임 인터리빙은 트위스트된 행-열 블록 인터리버이다. n번째 타임 인터리빙 그룹의 s번째 타임 인터리빙 블록에 대해, 열의 수
Figure PCTKR2015004162-appb-I000001
Figure PCTKR2015004162-appb-I000002
와 동일한 반면, 타임 인터리빙 메모리의 행의 수
Figure PCTKR2015004162-appb-I000003
는 셀의 수
Figure PCTKR2015004162-appb-I000004
와 동일하다 (즉,
Figure PCTKR2015004162-appb-I000005
).
도 21은 본 발명의 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 기본 동작을 나타낸다.
도 21 (a)는 타임 인터리버에서 기입 동작을 나타내고, 도 21 (b)는 타임 인터리버에서 판독 동작을 나타낸다. (a)에 나타낸 바와 같이, 첫 번째 XFECBLOCK은 타임 인터리빙 메모리의 첫 번째 열에 열 방향으로 기입되고, 두 번째 XFECBLOCK은 다음 열에 기입되고, 이러한 동작이 이어진다. 그리고 인터리빙 어레이에서, 셀이 대각선 방향으로 판독된다. (b)에 나타낸 바와 같이 첫 번째 행으로부터 (가장 왼쪽 열을 시작으로 행을 따라 오른쪽으로) 마지막 행까지 대각선 방향 판독이 진행되는 동안,
Figure PCTKR2015004162-appb-I000006
개의 셀이 판독된다. 구체적으로,
Figure PCTKR2015004162-appb-I000007
이 순차적으로 판독될 타임 인터리빙 메모리 셀 위치라고 가정하면, 이러한 인터리빙 어레이에서의 판독 동작은 아래 식에서와 같이 행 인덱스
Figure PCTKR2015004162-appb-I000008
, 열 인덱스
Figure PCTKR2015004162-appb-I000009
, 관련된 트위스트 파라미터
Figure PCTKR2015004162-appb-I000010
를 산출함으로써 실행된다.
수학식 8
Figure PCTKR2015004162-appb-M000008
여기서,
Figure PCTKR2015004162-appb-I000011
Figure PCTKR2015004162-appb-I000012
에 상관없이 대각선 방향 판독 과정에 대한 공통 시프트 값이고, 시프트 값은 아래 식에서와 같이 PLS2-STAT에서 주어진
Figure PCTKR2015004162-appb-I000013
에 의해 결정된다.
수학식 9
Figure PCTKR2015004162-appb-M000009
Figure PCTKR2015004162-appb-I000014
결과적으로, 판독될 셀 위치는 좌표
Figure PCTKR2015004162-appb-I000015
에 의해 산출된다.
도 22는 본 발명의 다른 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 동작을 나타낸다.
더 구체적으로, 도 22는
Figure PCTKR2015004162-appb-I000016
,
Figure PCTKR2015004162-appb-I000017
,
Figure PCTKR2015004162-appb-I000018
일 때 가상 XFECBLOCK을 포함하는 각각의 타임 인터리빙 그룹에 대한 타임 인터리빙 메모리에서 인터리빙 어레이를 나타낸다.
변수
Figure PCTKR2015004162-appb-I000019
Figure PCTKR2015004162-appb-I000020
보다 작거나 같을 것이다. 따라서,
Figure PCTKR2015004162-appb-I000021
에 상관없이 수신기 측에서 단일 메모리 디인터리빙을 달성하기 위해, 트위스트된 행-열 블록 인터리버용 인터리빙 어레이는 가상 XFECBLOCK을 타임 인터리빙 메모리에 삽입함으로써
Figure PCTKR2015004162-appb-I000022
의 크기로 설정되고, 판독 과정은 다음 식과 같이 이루어진다.
수학식 10
Figure PCTKR2015004162-appb-M000010
타임 인터리빙 그룹의 수는 3으로 설정된다. 타임 인터리버의 옵션은 DP_TI_TYPE='0', DP_FRAME_INTERVAL='1', DP_TI_LENGTH='1', 즉 NTI=1, IJUMP=1, PI=1에 의해 PLS2-STAT 데이터에서 시그널링된다. 각각 Ncells = 30인 XFECBLOCK의 타임 인터리빙 그룹당 수는 각각의 NxBLOCK_TI(0,0) = 3, NxBLOCK_TI(1,0) = 6, NxBLOCK_TI(2,0) = 5에 의해 PLS2-DYN 데이터에서 시그널링된다. XFECBLOCK의 최대 수는 NxBLOCK_Group_MAX에 의해 PLS2-STAT 데이터에서 시그널링 되고, 이는
Figure PCTKR2015004162-appb-I000023
로 이어진다.
도 23은 본 발명의 일 실시예에 따른 트위스트된 행-열 블록 인터리버의 대각선 방향 판독 패턴을 나타낸다.
더 구체적으로, 도 23은 파라미터
Figure PCTKR2015004162-appb-I000024
및 Sshift=(7-1)/2=3을 갖는 각각의 인터리빙 어레이로부터의 대각선 방향 판독 패턴을 나타낸다. 이때 위에 유사 코드로 나타낸 판독 과정에서,
Figure PCTKR2015004162-appb-I000025
이면, Vi의 값이 생략되고, Vi의 다음 계산값이 사용된다.
도 24는 본 발명의 일 실시예에 따른 각각의 인터리빙 어레이로부터의 인터리빙된 XFECBLOCK을 나타낸다.
도 24는 파라미터
Figure PCTKR2015004162-appb-I000026
및 Sshift=3을 갖는 각각의 인터리빙 어레이로부터 인터리빙된 XFECBLOCK을 나타낸다.
도 25는 본 발명의 일 실시예에 따른 방송 서비스 제공을 위한 프로토콜 스택(protocol stack)을 보여준다.
본 발명의 일 실시예에 따른 방송 서비스는 시청각 데이터(Auido/Video, A/V)뿐만 아니라 HTML5 어플리케이션, 양방향 서비스, ACR 서비스, 세컨드 스크린(second screen) 서비스, 개인화(personalization) 서비스 등의 부가 서비스를 제공할 수 있다. 또한, 본 발명의 일 실시예에 따른 방송 서비스는 실시간(Real Time, RT) 서비스뿐만 아니라 비실시간(Non-Real Time, NRT) 서비스를 함께 제공할 수 있다. 실시간 서비스는 서비스를 위한 컨텐츠가 실시간으로 전송된다. 비실시간 서비스는 서비스를 위한 컨텐츠가 비실시간으로 전송된다. 구체적으로 실시간 서비스를 위한 컨텐츠는 실시간 서비스를 위한 컨텐츠가 사용(use)되는 시간에 맞추어 전송될 수 있다. 비실시간 서비스를 위한 컨텐츠는 비실시간 서비스를 위한 컨텐츠가 가 사용되는 시점보다 먼저 전송될 수 있다. 구체적인 실시예에서 방송 수신 장치는 비실시간 서비스를 위한 컨텐츠를 미리 수신하여 저장한 후, 비실시간 서비스를 제공하면서 저장한 비실시간 서비스를 위한 컨텐츠를 사용할 수 있다. 예컨대, 방송 수신 장치는 비실시간 서비스를 위한 컨텐츠를 미리 수신하여 저장하고, 비실시간 서비스에 대한 사용자 입력을 수신하는 경우 미리 저장한 비실시간 서비스를 위한 컨텐츠 이용하여 비실시간 서비스를 제공할 수 있다. 비실시간 서비스와 실시간 서비스는 전송 특징을 달리하므로 서로 다른 전송 프로토콜을 통해 전송될 수 있다. 또한, 비실시간 서비스를 위한 컨텐츠는 NRT 데이터라할 수 있다.
이러한 방송 서비스는 지상파, 케이블 및 위성 등을 이용한 방송망을 통해 전송될 수 있다. 이때, 지상파, 케이블 및 위성 등을 이용한 방송망은 물리계층이라 할 수 있다. 또한 구체적인 실시예에서 비실시간 서비스가 방송망을 통해 전송되는 경우, 비실시간 서비스를 위한 컨텐츠는 데이터 주기(Data Carousel) 전송을 통해 전송될 수 있다. 구체적으로 방송 전송 장치는 비실시간 컨텐츠를 일정 간격을 두고 주기적으로 반복하여 전송하고, 방송 수신 장치는 데이터 회전 주기만큼 기다린 후에 데이터를 수신할 수 있다. 이를 통해 방송 수신 장치는 컨텐츠의 전송이 이루어지는 도중 방송 서비스를 수신하더라도 방송 서비스를 수신하기 전 전송된 컨텐츠를 다음 주기에 수신할 수 있다. 따라서 방송 수신 장치는 단방향 통신인 방송망을 통해서도 비실시간 서비스를 수신할 수 있다. 또한 본 발명의 일 실시예에 따른 방송 서비스는 인터넷 통신망(broadband)을 통하여 전송될 수 있다.
방송 전송 장치는 방송망을 통해 방송 서비스를 IP(Internet Protocol) 인켑슐레이션하여 전송할수 있다. 이에 따라 방송 서비스가 지상파, 케이블 위성 등의 방송 신호인 방송망을 통해 전송되는 경우, 방송 수신 장치는 방송 신호를 디모듈레이션하여 IP 패킷을 추출할 수 있다. 방송 수신 장치는 IP 패킷으로부터 사용자 데이터그램 프로토콜(User Datagram Protocol, UDP) 패킷을 추출할 수 있다. 방송 수신 장치는 UDP 데이터그램으로부터 단방향 전송을 위한 실시간 오브젝트 딜리버리(Real-time Objectuve delivery over Unidirectional Transport, ROUTE) 프로토콜에 기반한 비동기 계층 코딩/ 계층 코딩 전송(Asynchronous Layered Coding/ Layered Coding Transport, ALC/LCT) 패킷을 추출할 수 있다. ROUTE 프로토콜은 어플리케이션 계층(layer) 프로토콜로서 ALC/LCT 패킷을 이용하여 실시간 데이터를 전송하기 위한 프로토콜이다. 방송 수신 장치는 ALC/LCT 패킷 으로부터 방송 서비스 시그널링 정보, NRT 데이터, 미디어 컨텐츠 중 적어도 어느 하나를 추출할 수 있다. 이때, 미디어 컨텐츠는 MPEG-DASH(Dynamic Adaptive Streaming over HTTP, DASH) 형식일 수 있다. 구체적으로 미디어 컨텐츠는 ISO 베이스 미디어 파일 포맷(ISO Base Media File Format, ISO BMFF)으로 인캡슐레이션되어 MPEG-DASH 프로토콜을 통해전송될 수 있다. 방송 수신 장치는 ROUTE 패킷으로부터 MPEG-DASH 세그먼트를 추출할 수 있다. 또한, 방송 수신 장치 MPEG-DASH 세그먼트로부터 ISO BMFF 파일을 추출할 수 있다.
또한 방송 전송 장치는 기존(legacy) 방송 수신 장치를 위해 IP를 통해 인켑슐레이된 방송 서비스와 함께 기존과 같이 MPEG-2 TS를 통해 인켑슐레이된 방송 서비스를 방송망으로 전송할 수 있다.
방송 서비스가 인터넷 통신망(broadband)을 통하여 전송되는 경우, 방송 전송 장치는 방송 서비스를 멀티캐스트(multicast) 또는 유니캐스트(unicast)로 전송할 수 있다. 이때, 방송 수신 장치는 인터넷 통신망으로부터 IP 패킷을 수신할 수 있다. 방송 전송 장치가 방송 서비스를 유니캐스트로 전송하는 경우, 방송 수신 장치는 IP 패킷으로부터 TCP 패킷을 추출할 수 있다. 방송 수신 장치는 TCP 패킷으로부터 HTTP 패킷을 추출할 수 있다. 방송 수신 장치는 방송 서비스 시그널링 정보, NRT 데이터, 미디어 컨텐츠 중 적어도 어느 하나를 추출할 수 있다. 이때, 미디어 컨텐츠는 MPEG-DASH(Dynamic Adaptive Streaming over HTTP, DASH) 형식일 수 있다. 구체적으로 미디어 컨텐츠는 ISO 베이스 미디어 파일 포맷(ISO Base Media File Format, ISO BMFF)으로 인캡슐레이션되어 MPEG-DASH 프로토콜을 통해전송될 수 있다. 방송 수신 장치는 ROUTE 패킷으로부터 MPEG-DASH 세그먼트를 추출할 수 있다. 또한, 방송 수신 장치 MPEG-DASH 세그먼트로부터 ISO BMFF 파일을 추출할 수 있다. 방송 서비스 제공을 위한 프로토콜 스택(protocol stack)에 따라 전송되는 방송 서비스를 수신하는 방송 수신 장치에 대해서는 도 26을 통해서 설명한다.
도 26은 본 발명의 일 실시예에 따라 방송 서비스를 전송하는 방송 전송 장치, 방송 서비스와 연관된 컨텐츠를 전송하는 컨텐츠 서버, 방송 서비스를 수신하는 방송 수신 장치 및 방송 수신 장치와 연동하는 연동 장치의 블록도를 보여준다.
방송 전송 장치(10)는 방송 서비스를 전송한다. 구체적으로 방송 전송 장치(10)는 위성, 지상파, 및 케이블 중 적어도 어느 하나를 이용한 방송망을 통하여 미디어 컨텐츠를 포함하는 방송 서비스를 전송한다. 구체적으로 방송 전송 장칭(10)는 제어부(미도시)와 전송부(미도시)를 포함할 수 있다. 제어부는 방송 전송 장치(10)의 동작을 제어한다. 전송부는 방송 신호를 전송한다.
방송 수신 장치(100)는 방송 서비스를 수신한다. 방송 수신 장치(100)는 방송 수신부(110), IP 송수신부(130), 제어부(150), 디스플레이부(180), 및 전력 공급부(190)를 포함할 수 있다.
방송 수신부(110)는 방송망을 통하여 방송 신호를 수신한다. 구체적으로 방송 수신부(110)는 위성, 지상파, 및 케이블 중 적어도 어느 하나를 이용한 방송망을 통하여 방송 신호를 수신할 수 있다. 구체적으로 방송 수신부(110)는 방송 신호를 수신하기 위한 튜너를 포함할 수 있다. 또한, 방송 수신부(110)는 방송 신호를 디모률레이팅하여 링크레이어 데이터를 추출하는 디모듈레이터를 포함할 수 있다. 방송 수신부(110)는 방송 수신부(110)가 수행하는 복수의 기능 각각을 수행하는 하나 또는 복수의 프로세서. 하나 또는 복수의 회로 및 하나 또는 복수의 하드웨어 모듈을 포함할 수 있다. 구체적으로 제어부는 여러가지 반도체 부품이 하나로 집적되는 시스템 온 칩(System On Chip, SOC)일 수 있다. 이때, SOC는 그래픽, 오디오, 비디오, 모뎀 등 각종 멀티미디어용 부품과 프로세서와 D램 등 반도체가 하나로 통합된 반도체일 수 있다.
IP 송수신부(130)는 IP 데이터를 전송하고, 수신할 수 있다. 구체적으로 IP 송수신부(130)는 방송 서비스와 관련된 컨텐츠를 제공하는 컨텐츠 서버(50)에대한 요청을 전송할 수 있다. 또한, IP 송수신부(130)는 컨텐츠 서버(50)로부터 요청에 대한 응답을 수신할 수 있다. IP 송수신부(130)는 연동 장치(300)에게 데이터를 전송하고, 연동 장치(300)로부터 데이터를 수신할 수 있다. 구체적으로 IP 송수신부(130)는 연동 장치(300)에게 요청을 전송하고, 연동 장치(300)로부터 요청에 대한 응답을 수신할 수 있다. 또한, IP 송수신부(130)는 연동 장치(300)에게 방송 서비스와 관련된 컨텐츠를 전송할 수 있다. IP 송수신부(130)는 IP 송수신부(130)가 수행하는 복수의 기능 각각을 수행하는 하나 또는 복수의 프로세서. 하나 또는 복수의 회로 및 하나 또는 복수의 하드웨어 모듈을 포함할 수 있다. 구체적으로 제어부는 여러가지 반도체 부품이 하나로 집적되는 SOC일 수 있다.
제어부(150)는 메인 프로세서(151), 사용자 입력 수신부(153), 메모리부(155), 저장소(157) 및 멀티미디어 모듈(159)을 포함할 수 있다. 메인 프로세서(151)는 제어부 전체의 동작을 제어한다. 사용자 입력 수신부(153)는 사용자 입력을 수신한다. 메모리부(155)는 제어부(150)의 동작을 위해 데이터를 임시로 저장한다. 구체적으로 메모리부(155)는 휘발성 메모리일 수 있다. 저장소(157)는 제어부(150)의 동작을 위해 필요한 데이터를 저장한다. 구체적으로 저장소(157)는 비휠발성 메모리일 수 있다. 멀티미디어 모듈(159)은 미디어 컨텐츠를 처리한다. 제어부(150)는 제어부(150)가 수행하는 복수의 기능 각각을 수행하는 하나 또는 복수의 프로세서. 하나 또는 복수의 회로 및 하나 또는 복수의 하드웨어 모듈을 포함할 수 있다. 구체적으로 제어부는 여러가지 반도체 부품이 하나로 집적되는 SOC일 수 있다.
디스플레이부(180)는 화면을 표시한다.
전력 공급부(190)는 방송 수신 장치(100)의 동작을 위해 필요한 전력을 공급한다.
연동 장치(300)는 방송 수신 장치(100)와 연동한다. 구체적으로 연동 장치(300)는 방송 수신 장치(100)와 연동하여 방송 수신 장치(100)가 수신하는 방송 서비스에 대한 정보를 제공한다. 연동 장치(300)는 IP 송수신부(330), 제어부(350), 디스플레이부(380), 및 전원 공급부(390)를 포함할 수 있다.
IP 송수신부(330)는 IP 데이터를 전송하고, 수신할 수 있다. 구체적으로 IP 송수신부(330)는 방송 서비스와 관련된 컨텐츠를 제공하는 컨텐츠 서버(50)에대한 요청을 전송할 수 있다. 또한, IP 송수신부(330)는 컨텐츠 서버(50)로부터 요청에 대한 응답을 수신할 수 있다. IP 송수신부(330)는 방송 수신 장치(100)에게 데이터를 전송하고, 방송 수신 장치(100)로부터 데이터를 수신할 수 있다. 구체적으로 IP 송수신부(330)는 방송 수신 장치(100)에게 요청을 전송하고, 방송 수신 장치(100)로부터 요청에 대한 응답을 수신할 수 있다. 또한 IP 송수신부(330)는 방송 수신 장치(100)로부터 방송 서비스와 관련된 컨텐츠를 수신할 수 있다. IP 송수신부(330)는 IP 송수신부(330)가 수행하는 복수의 기능 각각을 수행하는 하나 또는 복수의 프로세서. 하나 또는 복수의 회로 및 하나 또는 복수의 하드웨어 모듈을 포함할 수 있다. 구체적으로 제어부는 여러가지 반도체 부품이 하나로 집적되는 SOC일 수 있다.
제어부(350)는 메인 프로세서(351), 사용자 입력 수신부(353), 메모리부(355), 저장소(357) 및 멀티미디어 모듈(359)을 포함할 수 있다. 메인 프로세서(351)는 제어부 전체의 동작을 제어한다. 사용자 입력 수신부(353)는 사용자 입력을 수신한다. 메모리부(355)는 제어부(350)의 동작을 위해 데이터를 임시로 저장한다. 구체적으로 메모리부(355)는 휘발성 메모리일 수 있다. 저장소(357)는 제어부(350)의 동작을 위해 필요한 데이터를 저장한다. 구체적으로 저장소(357)는 비휠발성 메모리일 수 있다. 멀티미디어 모듈(359)은 미디어 컨텐츠를 처리한다. 제어부(350)는 제어부(350)가 수행하는 복수의 기능 각각을 수행하는 하나 또는 복수의 프로세서. 하나 또는 복수의 회로 및 하나 또는 복수의 하드웨어 모듈을 포함할 수 있다. 구체적으로 제어부는 여러가지 반도체 부품이 하나로 집적되는 SOC일 수 있다.
디스플레이부(380)는 화면을 표시한다.
전력 공급부(390)는 연동 장치(300)의 동작을 위해 필요한 전력을 공급한다.
앞서 설명한 바와 같이 ESG 데이터는 프로그램의 시작 시간, 종료 시간, 제목, 내용에 대한 요약, 권장 시청 등급, 장르, 출연자 정보를 포함할 수 있다. 또한, ESG 데이터는 컨텐츠를 보기 위한 권한(provision)을 나타내는 권한 정보, 쌍방향(interactivity) 서비스를 위한 정보, 컨텐츠와 관련된 구매 정보 및 컨텐츠에 접근(access)하기 위한 정보 중 적어도 어느 하나를 포함할 수 있다.
이러한 다양한 정보를 효율적으로 전송하기 위해, 방송 전송 장치(10)는 ESG 데이터를 정보의 단위로 구조화(structured)하여 전송할 수 있다. 방송 전송 장치(10)는 ESG 데이터를 ESG 데이터가 포함하는 정보의 종류로 구분하여 전송할 수 있다. 구체적으로 방송 전송 장치(10)는 ESG 데이터를 방송 서비스를 나타내는 정보를 포함하는 ESG 데이터, 방송 서비스가 포함하는 하나 또는 복수의 컨텐츠를 나태내는 정보를 포함하는 ESG 데이터, 및 서비스 및 컨텐츠 중 적어도 어느 하나의 일정을 나타내는 정보를 포함하는 ESG 데이터로 구분하여 전송할 수 있다. 이때, 정보의 단위를 서비스 가이드 프래그먼트(fragment) 또는 프래그먼트라 할 수 있다. 또한, 방송 서비스를 나타내는 정보를 포함하는 ESG 데이터를 서비스 프래그먼트라할 수 있다. 또한, 방송 서비스가 포함하는 하나 또는 복수의 컨텐츠를 나태내는 정보를 포함하는 ESG 데이터를 컨텐츠 프래그먼트라 할 수 있다. 또한, 서비스 및 컨텐츠 중 적어도 어느 하나의 일정을 나타내는 정보를 포함하는 ESG 데이터를 스케줄 프래그먼트(schedule)라 할 수 있다. 또한, 방송 수신 장치(100)는 ESG 데이터를 구조화하는 정보의 단위에 기초하여 처리할 수 있다. 구체적으로 방송 수신 장치(10)는 서비스 프래그먼트, 컨텐츠 프래그먼트, 및 스케줄 프래그먼트 중 적어도 어느 하나에 기초하여 처리할 수 있다. 이와 같이 방송 수신 장치(100)가 프래그먼트에 기초하여 데이터를 처리할 경우, 방송 수신 장치(100)는 필요한 데이터를 선택적으로 처리할 수 있다. 따라서 방송 수신 장치(100)는 양방향 통신이 가능한 통신망을 통하여 필요한 데이터를 선택적으로 요청할 수 있다. 또한, 방송 수신 장치(100)는 연동 장치(300)가 필요로하는 데이터를 연동 장치(300)에게 효율적으로 전송할 수 있다. 도 27 내지 도 31을 통해 서비스 프래그먼트에 대해서 먼저 설명한다.
서비스 프래그먼트의 서비스는 방송 서비스를 나타낸다. 서비스는 방송 서비스를 구성하는 컨텐츠 아이템의 집합일 수 있다. 예컨대, 서비스는 하나의 방송상에 의하여 논리적 전송 채널을 통하여 전송되는 방송 프로그램의 집합일 수 있다.
서비스 프래그먼트는 ESG가 포함하는 다른 프래그먼트들이 참조하는 중심점을 형성한다. 구체적으로 방송 수신 장치(100)는 ESG를 표시하면서 서비스 프래그먼트가 나타내는 방송 서비스를 기준으로 표시할 수 있다. 구체적으로, 방송 수신 장치(100)는 방송 서비스 별로 해당 방송 서비스가 포함하는 컨텐츠를 시간순으로 정렬하여 표시할 수 있다. 이때, 방송 수신 장치(100)는 해당 컨텐츠가 어떤 내용을 포함하고, 해당 컨텐츠를 어떻게 볼 수 있고, 해당 컨텐츠를 언제 볼 수 있는지 표시할 수 있다.
서비스는 다양한 종류의 서비스 형태를 가질 수 있다. 구체적으로 서비스는 양방향 서비스일 수 있다. 또한, 서비스는 방송망을 통한 단방향 서비스일 수있다. 또한, 서비스는 양방향 서비스와 단방향 서비스를 모두 포함할 수 있다. 또한, 서비스는 서비스의 종류에 따라 하나 또는 복수의 컴포넌트를 포함할 수 있다. 이때, 서비스는 서비스가 포함하는 컨텐츠 직접적으로 관련없고, 서비스의 기능(functionality)을 위한 컴포넌트를 포함할 수 있다. 예컨대, 서비스는 서비스가 포함하는 컨텐츠 또는 서비스를 구입하기 위한 구입(purchase) 정보를 포함할 수 있다. 또한, 서비스는 서비스가 포함하는 컨텐츠 또는 서비스를 구독(subscription)하기 위한 구독 정보를 포함할 수 있다. 서비스 프래그먼트의 서비스가 나타낼 수 있는 다양한 형대틔 서비스에 대해서는 도 27을 통해 설명한다.
도 27은 본 발명의 일 실시예에 따른 서비스 프래그먼트가 포함하는 serviceType 엘리먼트가 가질 수 있는 값과 해당 값이 나타내는 서비스의 종류를 보여준다. 또한, 도 28은 서비스 프래그먼트가 포함하는 serviceType 엘리먼트의 XML 형식을 보여준다.
서비스 프래그먼트는 서비스 프래그먼트의 서비스의 종류를 나타내는 엘리먼트를 포함할 수 있다. 또한, 방송 수신 장치(100)는 서비스 프래그먼트의 서비스의 종류를 나타내는 엘리먼트에 기초하여 방송 서비스를 사용자에게 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 서비스 프래그먼트의 서비스의 종류를 나타내는 엘리먼트에 기초하여 ESG를 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 서비스 프래그먼트의 서비스의 종류를 나타내는 엘리먼트에 따라 서비스의 종류를 문자로 표시할 수 있다. 또한, 방송 수신 장치(100)는 서비스 프래그먼트의 서비스의 종류를 나타내는 엘리먼트에 따라 서비스의 종류를 아이콘으로 표시할 수 있다. 또한, 방송 수신 장치(100)는 서비스 프래그먼트의 서비스의 종류를 나타내는 엘리먼트에 따라 서비스의 종류를 해당 서비스의 종류를 나타내는 그래픽으로 표시할 수 있다.
서비스의 종류를 나타내는 엘리먼트는 기본 TV 서비스, 기본 라디오 서비스, 권리 발행자 서비스, 캐쉬 캐스트, 파일 다운로드 서비스, 소프트웨어 관리 서비스, 공지 서비스, 서비스 가이드, 단말 권한설정(provisioning) 서비스, 보조 데이터 서비스, 사용자 요청 스트리밍 서비스, 사용자 요청 파일 다운로드 서비스, 스마트 카드 권한 설정 서비스, 리니어 서비스, 어플 기반 서비스, 및 연동 장치(companion screen) 서비스 중 적어도 어느 하나를 나타낼 수 있다. 기본 TV 서비스는 비디오를 포함하는 서비스를 나타낸다. 기본 라디오 서비스는 비디오를 포함하지 않고 오디오를 포함하는 서비스를 나타낸다. 권리 발행자 서비스는 컨텐츠를 재생할 수 있는 권리를 관리하는 디지털 권리 관리(Digital Right Mangement, DRM)의 권리를 발행하는 서비스를 나타낸다. 캐쉬 캐스트는 방송 서비스를 재생하기 전에 미리 다운로드 받은 뒤, 방송 서비스를 재생하는 비실시간 서비스를 나타낸다. 캐쉬 캐스트는 비실시간(Non-Real Time, NRT) 서비스라 지칭할 수 있다. 파일 다운로드 서비스는 서비스를 재생하기위해 파일을 다운로드할 필요가 있는 서비스를 나타낸다. 소프트웨어 관리 서비스는 소프트웨어를 관리하기 위한 서비스를 나타낸다. 구체적으로 소프웨어 관리 서비스는 방송 수신 장치(100)의 소프트웨어를 업데이트하기 위한 서비스를 나타낼 수 있다. 공지 서비스는 방송 수신 장치(100)에게 공지(notification)를 알리기 위한 서비스를 나타낸다. 구체적으로 방송 서비스 제공자 또는 컨텐츠 제공자는 공지 서비스를 통해 방송 수신 장치(100)에게 메시지를 전달할 수 있다. 서비스 가이드 서비스는 서비스 가이드를 제공하기 위한 서비스를 나타낸다. 구체적으로 서비스 가이드 서비스는 방송 수신 장치(100)가 방송 서비스에 대한 정보를 제공하는 ESG 데이터를 수신하기 위한 서비스를 나타낼 수 있다. 단말 권한설정(provisioning) 서비스는 서비스 또는 컨텐츠를 구독하기 위한 권한을 설정하기 위한 서비스를 나타낸다. 구체적으로 방송 수신 장치(100)는 방송 서비스를 재생하기 위해 단말 권한설정 서비스를 통해 권한을 업데이트할 수 있다. 보조 데이터 서비스는 방송 서비스와 관련된 보조 데이터를 제공하는 서비스를 나타낼 수 있다. 사용자 요청 스트리밍 서비스는 사용자 요청에 따라 스트리밍 서비스를 제공하는 서비스를 나타낼 수 있다. 사용자 요청 파일 다운로드 서비스는 사용자 요청에 따라 파일 다운로드를 제공하는 서비스를 타낼 수 있다. 스마트 카드 권한 설정 서비스는 스마트 카드의 권한을 업데이트하기 위한 서비스를 나타낼 수 있다. 구체적으로 방송 수신 장치(100)는 암호화된(scrambled) 컨텐츠를 재생하기 위해, 암호화된 컨텐츠를 복호화(descramble)하는 스마트 카드를 사용할 수 있다. 이때, 방송 수신 장치(100)는 스마트 카드 권한 설정 서비스를 통해 스마트 카드의 권한을 업데이트할 수 있다. 리니어 서비스는 주된 컨텐츠(primary content)가 방송사가 설정한 일정(schedule)과 기준 시간(time base)에따라 소비되는 연속 컴포넌트(continuous component)를 포함하는 서비스일 수 있다. 이때, 연속 컴포넌트는 연속된 스트림에서 재생되는 컨텐츠 넘포넌트를 나타낼 수 있다. 어플 기반 서비스는 어플리케이션에 기초하여 사용자 인터페이스와 기능을 제공하는 논 리니어(non-linear) 서비스를 나타낸다. 연동 장치 서비스는 방송 서비스를 수신하는 방송 수신 장치(100)와 방송 수신 장치(100)와 연동하는 연동 장치(300)가 함께 방송 서비스를 제공하는 서비스를 나타낸다.
하이브리드 방송에서 방송 서비스는 복수의 서비스가 조합된 특성을 갖을 수있다. 예컨대, 방송 서비스는 리니어 서비스인면서 어플리케이션을 통해 부가 서비스를 제공하는 어플 기반 서비스일 수 있다. 이러한 경우, 서비스 프래그먼트는 각각 서로 다른 서비스의 종류를 나타내는 복수의 엘리먼트를 포함할 수 있다.
구체적인 실시예에서 서비스의 종류를 나타내는 엘리먼트는 ServiceType이라 할 수 있다. 또한, 구체적인 실시예에서 ServiceType의 값이 1인 경우, ServiceType은 기본 TV 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 2인 경우, ServiceType은 기본 라디오 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 3인 경우, ServiceType은 권리 발행자 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 4인 경우, ServiceType은 캐쉬 캐스트 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 5인 경우, ServiceType은 파일 다운로드 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 6인 경우, ServiceType은 소프트웨어 관리 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 7인 경우, ServiceType은 공지 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 8인 경우, ServiceType은 서비스 가이드 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 9인 경우, ServiceType은 단말 권한설정(provisioning) 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 10인 경우, ServiceType은 보조 데이터 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 11인 경우, ServiceType은 사용자 요청 스트리밍 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 12인 경우, ServiceType은 사용자 요청 파일 다운로드 서비스를 나탄낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 13인 경우, ServiceType은 스마트 카드 권한 설정 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 14인 경우, ServiceType은 리니어 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 15인 경우, ServiceType은 어플 기반 서비스를 나타낼 수 있다. 구체적인 실시예에서 ServiceType의 값이 16인 경우, ServiceType은 연동 장치(companion screen) 서비스를 나타낼 수 있다.
또한, 서비스 프래그먼트는 해당 서비스가 가질 수 있는 서비스 종류의 범위를 나타내는 엘리먼트를 포함할 수 있다. 해당 서비스가 가질 수 있는 서비스 형태의 범위를 타나내는 엘리먼트는 서비스의 종류를 나타내는 엘리먼트가 가질 수 있는 값의 최소 값과 최대 값을 포함할 수 있다. 방송 전송 장치(10)는 해당 서비스가 가질 수 있는 서비스 종류의 범위를 나타내는 엘리먼트를 통하여 방송 서비스의 종류의 범위를 방송 수신 장치(100)에게 알릴 수 있다. 방송 수신 장치(100)는 해당 서비스가 가질 수 있는 서비스 종류의 범위를 나타내는 엘리먼트에 기초하여 해당 서비스가 가질 수 있는 서비스의 종류를 판단할 수 있다. 해당 서비스가 가질 수 있는 서비스 형태의 범위를 나타내는 엘리먼트는 ServiceTypeRangeType이라 할 수 있다. 이때, 서비스의 종류를 나타내는 엘리먼트가 가질 수 있는 최소값은 minInclusive value라 할 수 있다. 또한, 서비스의 종류를 나타내는 엘리먼트가 가질 수 있는 최대값은 maxInclusive value라 할 수 있다. 도 28의 실시예에서 ServiceTypeRangeType은 minInclusive value 값으로 0을 갖고, maxInclusive value 값으로 13을 갖는다. 따라서 방송 수신 장치(100)는 해당 서비스 프레그먼트가 나타내는 서비스가 리니어 서비스, 어플 기반 서비스 및 연동 장치 서비스에 해당하지 않을 알 수 있다.
방송 수신 장치(100)는 앞서 설명한 바와 같이 서비스 프래그먼트가 나타내는 서비스의 종류에 기초하여 서비스를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 서비스 프래그먼트가 포함하는 서비스의 종류를 나타내는 엘리먼트에 기초하여 서비스를 표시할 수 있다. 구체적인 실시예에서 방송 수신 장치(100)는 방송 서비스의 가이드를 표시하는 메뉴를 통해 서비스 프래그먼트가 나타내는 서비스의 종류에 기초하여 서비스의 종류를 표시할 수 있다. 이때, 방송 서비스의 가이드를 표시하는 메뉴는 복수의 방송 서비스와 복수의 방송 서비스 각각이 포함하는 컨텐츠를 표시하는 메뉴일 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 서비스를 재생하는 화면에서 해당 방송 서비스의 정보를 표시하는 메뉴를 통해 서비스 프래그먼트가 나타내는 서비스의 종류에 기초하여 서비스의 종류를 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 방송 서비스를 재생하면서 서비스의 이름, 서비스가 제공되는 일정 및 서비스 프래그먼트가 나타내는 서비스의 종류를 화면의 하단 또는 상단에 위치하는 바(bar) 형태로 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 서비스와 방송 서비스를 나타내는 정보를 표시하는 서비스 리스트를 통해 서비스 프래그먼트가 나타내는 서비스의 종류에 기초하여 서비스의 종류를 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 서비스 리스트를 표시하면서 해당 서비스의 이름과 해당 서비스를 나타내는 가상(virtual) 채널 번호와 함께 서비스 프래그먼트가 나타내는 서비스의 종류를 표시할 수 있다. 구체적인 실시예 대해서는 다음의 도면들을 통해 설명한다.
도 29는 본 발명의 일 실시예에 따른 서비스 프래그먼트가 나타내는 서비스가 리니어 서비스인 경우, serviceType 엘리먼트를 나타내는 XML 데이터와 사용자 인터페이스를 보여준다.
도 29의 실시예에서 서비스 프래그먼트는 해당 서비스가 리니어 서비스임을 나타낸다. 이때, 방송 수신 장치(100)는 서비스를 재생하면서 리니어 서비스의 시작 시간과 종료 시간을 표시할 수 있다. 리니어 서비스가 포함하는 주된 컨텐츠는 방송사가 지정한 시작 시간과 종료 시간을 갖기 때문이다. 이를 통해 방송 수신 장치(100)는 별도의 추가 정보 없이 ESG 데이터의 서비스 프래그먼트에 기초하여 사용자에게 해당 서비스의 시작 시간과 종료 시간을 알릴 수 있다.
도 30은 본 발명의 일 실시예에 따른 서비스 프래그먼트가 나타내는 서비스가 리니어 서비스이면서 어플기반 서비스일 경우, serviceType 엘리먼트를 나타내는 XML 데이터와 사용자 인터페이스를 보여준다.
도 30의 실시예에서 서비스 프래그먼트는 해당 서비스가 리니어 서비스이면서 어플 기반 서비스임을 나타낸다. 이때, 방송 수신 장치(100)는 서비스를 재생하면서 해당 서비스가 포함하는 어플리케이션이 있음을 표시할 수 있다. 또한, 사용자로부터 어플리케이션 실행에 대한 사용자 입력을 수신하는 경우, 방송 수신 장치(100)는 해당 어플리케이션을 실행할 수 있다. 이를 통해 방송 수신 장치(100)는 별도의 추가 정보 없이 ESG 데이터의 서비스 프래그먼트에 기초하여 서비스와 관련된 어플리케이션이 있음을 표시할 수 있다.
도 31은 본 발명의 일 실시예에 따른 서비스 프래그먼트가 나타내는 서비스가 리니어 서비스이면서 연동서비스일 경우, serviceType 엘리먼트를 나타내는 XML 데이터와 사용자 인터페이스를 보여준다.
도 31의 실시예에서 서비스 프래그먼트는 해당 서비스가 리니어 서비스이면서 연동 장치 서비스임을 나타낸다. 이때, 방송 수신 장치(100)는 서비스를 재생하면서 해당 서비스를 연동 장치(300)를 통해서도 제공될 수 있음을 표시할 수 있다. 이를 통해 방송 수신 장치(100)는 별도의 추가 정보 없이 ESG 데이터의 서비스 프래그먼트에 기초하여 연동 장치(300)를 통해 해당 서비스가 제공될 수 있음을 표시할 수 있다.
방송 서비스는 방송 서비스를 구성하는 하나 또는 복수의 컴포넌트를 포함할수 있다. 컴포넌트는 방송 서비스가 포함하는 미디어 컨텐츠를 구성할 수 있다. 또한, 컴포넌트 방송 서비스와 관련된 특정 기능이나 정보를 제공할 수 있다. 예컨대, 방송 서비스와 연관된 정보를 제공하는 어플리케이션은 방송 서비스의 컴포넌트일 수 있다.
앞서 설명한 바와 같이 하이브리드 방송은 다양한 컴포넌트를 포함할 수 있다. 또한, 방송 서비스가 포함하는 컴포넌트는 방송 서비스가 포함하는 컨텐츠에 따라 변경될 수 있다. 또한, 방송 수신 장치(100)는 다양한 컴포넌트를 선택적으로 재생할 수 있다. 따라서 ESG 데이터에 이를 표시하여 사용자가 컴포넌트 정보를 보고 방송 서비스와 방송 서비스가 포함하는 컨텐츠를 선택할 수 있도록 할 필요가 있다. 다만, ESG 데이터가 방송 서비스의 컴포넌트를 나타내지 못 하는 경우, 방송 수신 장치(100)는 현재 방송중인 방송 서비스를 시그널링하는 방송 서비스 시그널링 정보를 통해서 컴포넌트에 대한 정보를 획득해야한다. 따라서 방송 수신 장치(100)가 방송 서비스가 포함하는 컴포넌트에 대한 정보를 효율적으로 획득하고, 현재 방송중인 컴포넌트에 대한 정보뿐만아니라 앞으로 방송될 컴포넌트에 대한 정보를 획득할 수 있도록 하는 것이 필요하다. 또한, 방송 수신 장치(100)가 컴포넌트가 방송되는 정확한 시간을 획득할 수 있는 것이 필요한다. 앞으로 방송될 컴포넌트에 대한 정보를 획득할 수 있도록 하는 것이 필요하다. 이를 위해 ESG 데이터가 방송 서비스가 포함하는 컴포넌트를 나타내는 컴포넌트 프래그먼트를 포함하는 것에 대하여 다음의 도면들을 통해 설명한다.
도 32는 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트의 XML 형식을 보여준다.
본 발명의 일 실시예에 따른 ESG 데이터는 컴포넌트 프래그먼트를 포함할 수 있다. 컴포넌트 프래그먼트는 방송 서비스 또는 컨텐츠의 일부인 컴포넌트에 관한 정보를 포함한다. 컴포넌트 프래그먼트는 구체적으로 컴포넌트 프래그먼트를 식별하는 식별자 엘리먼트를 포함할 수 있다. 또한, 컴포넌트 프래그먼트는 컴포넌트의 변경 여부를 나타내는 버전 엘리먼트를 포함할 수 있다. 또한, 컴포넌트 프래그먼트는 컴포넌트 프래그먼트의 유효기간을 나타내는 유효기간 엘리먼트를 포함할 수 있다. 컴포넌트 프래그먼트의 유효기간을 나타내는 엘리먼트는 유효기간의 시작 시간 및 종료 시간을 포함할 수 있다. 또한, 컴포넌트 프래그먼트는 컴포넌트의 종류를 나타내는 컴포넌트 타입 엘리먼트를 포함할 수 있다. 하나의 컴포넌트가 여러 특성을 동시에 포함할 수 있으므로, 하나의 컴포넌트 프래그먼트는 복수의 컴포넌트 타입 엘리먼트를 포함할 수 있다. 또한, 컴포넌트 프래그먼트는 컴포넌트가 포함하는 데이터의 종류를 나타내는 컴포넌트 데이터 엘리먼트를 포함할 수 있다. 또한, 컴포넌트 프래그먼트는 추후 확장 및 특정 어플리케이션을 위해 예비적으로 사용될 수 있는 확장 엘리먼트를 포함할 수 있다.
도 32와 같은 구체적인 실시예에서 식별자 엘리먼트는 id일 수 있다. 또한, 버전 엘리먼트는 version일 수 있다. 컴포넌트 프래그먼트의 유효기간의 시작 시간을 나타내는 엘리먼트는 validFrom이고, 유효기간의 종료 시간을 나타내는 엘리먼트는 validTo일 수 있다. 또한, 컴포넌트 타입 엘리먼트는 ComponentType 엘리먼트일 수 있다. 컴포넌트 데이터 엘리먼트는 ComponentData 엘리먼트일 수 있다. 또한, 확장 엘리먼트는 PrivateExt 엘리먼트일 수 있다.
컴포넌트 타입 엘리먼트가 나타낼 수 있는 컴포넌트의 종류에 대해서는 도 33을 통해 설명한다.
도 33은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 나타낼 수 있는 컴포넌트의 종류를 보여준다.
컴포넌트 프래그먼트는 다양한 종류의 컴포넌트를 나타낼 수 있다. 구체적을 컴포넌트 프래그먼트가 포함하는 컴포넌트 타입 엘리먼트를 통해 컴포넌트의 종류를 나타낼 수 있다. 이를 통해 방송 수신 장치(100)는 해당 컴포넌트의 종류를 판단할 수 있다.
구체적으로 컴포넌트 프래그먼트는 연속(continuous) 컴포넌트를 나타낼 수 있다. 연속 컴포넌트는 연속된 스트림상에서 재생되는 컴포넌트이다. 예컨대, 연속 컴포넌트는 오디오, 비디오 및 자막 중 어느 하나일 수 있다. 구체적인 실시예에서 컴포넌트 프래그먼트가 연속 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 1의 값을 가질 수 있다.
컴포넌트 프래그먼트는 기초(elementary) 컴포넌트를 나타낼 수 있다. 기초 컴포넌트는 하나의 인코딩만을 포함하는 연속 컴포넌트이다. 기초 컴포넌트는 오디오 컴포넌트일 수 있다. 구체적으로 기초 컴포넌트는 음성 시퀀스에 대한 하나의 인코딩일 수 있다. 또한 기초 컴포넌트는 비디오 컴포넌트일 수 있다. 구체적으로 영상 시퀀스에 대한 하나의 인코딩일 수 있다. 기초 커포넌트는 하나의 자막 트랙일 수 있다. 구체적인 실시예에서 컴포넌트 프래그먼트가 기초 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 2의 값을 가질 수 있다.
컴포넌트 프래그먼트는 컴포지트(composite) 컴포넌트를 나타낼 수 있다. 컴포지트 컴포넌트는 하나의 장면(scene)을 재생하기 위해 필요한 복수의 연속 컴포넌트들의 집합이다. 구체적으로 컴포지트(composite) 컴포넌트는 동일한 미디어 형태(type)를 가지고, 동일한 장면(scene)을 나타내며, 재생을 위해서는 일정한 조합으로 함께 재생되어야 하는 연속 컴포넌트들의 집합이다. 따라서 컴포지트 컴포넌트는 복수의 미디어 컴포넌트가 조합(combine)되어 하나의 장면을 나타내는 복수의 미디어 컴포넌트의 집합이다. 구체적으로 컴포지트 컴포넌트는 하나의 완전한 오디오를 위해 필요한 음악, 대화 및 특수효과일 수 있다. 또한 컴포지트 컴포넌트는 3D 영상을 재생하기 위해 필요한 3D 영상의 오른쪽 영상과 3D 영상의 왼쪽 영상일 수 있다. 구체적인 실시예에서 컴포넌트 프래그먼트가 컴포지트 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 3의 값을 가질 수 있다.
컴포넌트 프래그먼트는 픽원(PickOne) 컴포넌트를 나타낼 수 있다. 픽원 컴포넌트는 어느 하나의 장면을 나타내는 서로 대체 가능한 복수의 연속 컴포넌트의 집합이다. 픽원 컴포넌트의 픽원은 여러가지 대체가능한 복수의 연속 컴포넌트 중 어느 하나를 선택하여 재생할 수 있음을 나타낸다. 구체적으로 픽원 컴포넌트는 동일한 미디어 형태(type)이고, 동일한 장면(scene)을 나타내며, 재생을 위해 어느 하나가 선택되는 복수의 연속 컴포넌트들의 집합이다. 구체적으로 픽원 컴포넌트는 동일한 컨텐츠를 서로 다른 품질로 인코딩한 복수의 미디어 컴포넌트의 집합일 수 있다. 예컨대, 픽원 컴포넌트는 동일한 음성 시퀀스를 다른 비트레이트(bitrate)로 인코딩한 오디오 컴포넌트들의 집합일 수 있다. 또한 픽원 컴포넌트는 동일한 영상 시퀀스를 다른 비트레이트로 인코딩한 비디오 컴포넌트들의 집합일 수 있다. 또한 적응적 컴포넌트는 동일한 대화에 대한 일반적인 자막 트랙과 큰 글씨(easy reader) 자막일 수 있다. 구체적인 실시예에서 컴포넌트 프래그먼트가 픽원 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 4의 값을 가질 수 있다.
컴포넌트 프래그먼트는 컴플렉스 컴포넌트를 나타낼 수 있다. 컴플렉스 컴포넌트는 컴포지트 컴포넌트 또는 픽원 컴포넌트 중 어느 하나를 나타낸다. 구체적인 실시예에서 컴포넌트 프래그먼트가 컴플렉스 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 5의 값을 가질 수 있다.
컴포넌트 프래그먼트는 프레젠터블 컴포넌트를 나타낼 수 있다. 프레젠터블 컴포넌트는 방송 수신 장치(100)가 실질적으로 재생가능한 연속 컴포넌트를 나타낸다. 프레젠터블 검포넌트는 기초 컴포넌트일 수 있다. 또한, 프레젠터블 컴포넌트는 컴플렉스 컴포넌트일 수 있다. 구체적인 실시예에서 컴포넌트 프래그먼트가 프레젠터블 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 6의 값을 가질 수 있다.
컴포넌트 프래그먼트는 컴포넌트가 NRT(Non-Real Time) 파일임을 나타낼 수 있다. NRT 파일은 비실시간 전송되는 파일을 나타낸다. 구체적으로 해당 파일이 실행되기전에 방송 수신 장치(100)가 미리 다운로드하고, 해당 파일이 실행되는 시간에 실행하는 파일을 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 프래그먼트가 컴포넌트가 NRT 파일임를 나타내는 경우, 컴포넌트 타입 엘리먼트는 7의 값을 가질 수 있다.
컴포넌트 프래그먼트는 컴포넌트가 NRT 컨텐츠 아이템임을 나타낼 수 있다. NRT 컨텐츠 아이템은 서비스 제공자가 함께 소비되는 것으로 지정한 NRT 파일들의 집합이다. 구체적인 실시예에서 컴포넌트 프래그먼트가 컴포넌트가 NRT 컨텐츠 아이템임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 8의 값을 가질 수 있다.
컴포넌트 프래그먼트는 컴포넌트가 어플리케이션임을 나타낼 수 있다. 어플리케이션은 부가 서비스 또는 쌍방향(interactive) 서비스를 구성하는 도쿠먼트(document)의 집합일 수 있다. 구체적으로 도쿠먼트는 HTML, JavaScriptr, CSS, XML 및 멀티미디어 파일 중 적어도 어느 하나를 포함할 수 있다. 어플리케이션은 NRT 컨텐츠 아이템의 한 종류라 할 수 있다. 구체적인 실시예에서 컴포넌트 프래그먼트가 컴포넌트가 어플리케이션임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 9의 값을 가질 수 있다.
컴포넌트 프래그먼트는 컴포넌트가 ATSC 3.0 어플리케이션임을 나타낼 수 있다. ATSC 3.0 어플리케이션은 ATSC 3.0 표준에서 정환 환경에서 실행되는 어플리케이션을 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 프래그먼트가 컴포넌트가 ATSC 3.0 어플리케이션임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 10의 값을 가질 수 있다.
컴포넌트 프래그먼트는 컴포넌트가 사용자 요청 컴포넌트임을 나타낼 수 있다. 사용자 요청 컴포넌트는 사용자 요청에 의해 전송되는 컴포넌트를 나타낸다. 구체적인 실시예에서 컴포넌트 프래그먼트가 사용자 요청 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 11의 값을 가질 수 있다.
컴포넌트 프래그먼트는 컴포넌트가 노티피케이션(notification) 스트림임을 나타낼 수 있다. 노티피케이션 스트림은 선형적 기준 시간에따라 어플리케이션의 동작(action)을 동기화하기 위한 노티피케이션을 전송한다. 구체적인 실시예에서 컴포넌트 프래그먼트가 컴포넌트가 노티피케이션(notification) 스트림임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 12의 값을 가질 수 있다.
컴포넌트 프래그먼트는 컴포넌트가 어플 기반 인핸스먼트(App-based Enhancement)임을 나타낼 수 있다. 어플 기반 인핸스먼트는 하나 또는 복수의 노티피케이션 스트림을 포함할 수 있다. 어플 기반 인핸스먼트는 하나 또는 복수의 어플리케이션을 포함할 수 있다. 어플 기반 인핸스먼트는 NRT 컨텐츠 아이템을 포함할 수 있다. 이때, NRT 컨텐츠 아이템은 어플리케이션에 의해 실행될 수 있다. 어플 기반 인핸스먼트는 사용자 요청 컴포넌트를 포함할 수 있다. 이때, 사용자 요청 컴포넌트는 어플리케이션에 의해 관리될 수 있다. 구체적인 실시예에서 컴포넌트 프래그먼트가 컴포넌트가 어플 기반 인핸스먼트임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 13의 값을 가질 수 있다.
도 34는 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 ComponentRangeType 엘리먼트의 XML 형식을 보여준다.
또한, 컴포넌트 프래그먼트는 해당 컴포넌트가 가질 수 있는 컴포넌트 종류의 범위를 나타내는 엘리먼트를 포함할 수 있다. 해당 컴포넌트가 가질 수 있는 컴포넌트 형태의 범위를 나타내느 엘리먼트는 컴포넌트의 종류를 나타내는 엘리먼트가 가질 수 있는 값의 최소 값과 최대 값을 포함할 수 있다. 방송 전송 장치(10)는 해당 컴포넌트가 가질 수 있는 컴포넌트 종류의 범위를 나타내는 엘리먼트를 통하여 컴포넌트의 종류의 범위를 방송 수신 장치(100)에게 알릴 수 있다. 방송 수신 장치(100)는 해당 컴포넌트가 가질 수 있는 컴포넌트 종류의 범위를 나타내는 엘리먼트에 기초하여 해당 컴포넌트가 가질 수 있는 컴포넌트의 종류를 판단할 수 있다. 해당 컴포넌트가 가질 수 있는 서비스 형태의 범위를 나타내는 엘리먼트는 ComponentRangeType이라 할 수 있다. 이때, 컴포넌트의 종류를 나타내는 엘리먼트가 가질 수 있는 최소값은 minInclusive value라 할 수 있다. 또한, 컴포넌트의 종류를 나타내는 엘리먼트가 가질 수 있는 최대값은 maxInclusive value라 할 수 있다. 도 34의 실시예에서 ComponentRangeType은 minInclusive value 값으로 0을 갖고, maxInclusive value 값으로 13을 갖는다. 따라서 방송 수신 장치(100)는 해당 컴포넌트 프레그먼트가 나타내는 컴포넌트가 앞서 설명한 컴포넌트 종류 중 어느 하나인 것을 판단할 수 있다. 다만, 컴포넌트의 종류를 나타내는 컴포넌트 타입 엘리먼트는 컴포넌트가 포함하는 컨텐츠의 종류를 나타내지 못 한다. 또한, 포넌트 타입 엘리먼트가 컴포넌트가 포함하는 컨텐츠의 종류까지 표현하기 위해서는 포넌트 타입 엘리먼트가 가질 수 있는 값을 너무 많은 값을 정의해야한다. 따라서 컴포넌트가 포함하는 컨텐츠의 종류를 나타내는 컴포넌트 데이터 엘리먼트를 정의할 필요가 있다. 이에 대해서 도 35를 통해 설명한다.
도 35는 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 ComponentData 엘리먼트의 XML 형식을 보여준다.
앞서 설명한 바와 같이 컴포넌트 프래그먼트는 컴포넌트가 포함하는 컨텐츠의 종류를 나타내는 컴포넌트 데이터 엘리먼트를 포함할 수 있다. 이때, 컴포넌트 데이터 엘리먼트는 컴포넌트가 비디오를 포함하는 비디오 컴포넌트임 나타낼 수 있다. 또한, 컴포넌트 데이터 엘리먼트는 컴포넌트가 오디오를 포함하는 오디오 컴포넌트임을 나타낼 수 있다. 또한, 컴포넌트 데이터 엘리먼트는 컴포넌트가 자막을 포함하는 자막 컴포먼트임을 나타낼 수 있다. 또한, 컴포넌트 데이터 엘리먼트는 컴포넌트가 포함하는 컨텐츠의 종류에 따라 하위 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 컴포넌트가 비디오 컴포넌트인 경우를 나타내는 엘리먼트는 VideoComponent일 수 있다. 또 다른 구체적인 실시예에서 컴포넌트가 오디오 컴포넌트인 경우를 나타내는 엘리먼트는 AudioComponent일 수 있다. 또 다른 구체적인 실시예에서 컴포넌트가 자막 컴포넌트인 경우를 나타내는 엘리먼트는 CCComponent일 수 있다. 컴포넌트 데이터 엘리먼트가 포함하는 하위 엘리먼트에 대해서는 다음의 도면들을 통해 구체적으로 설명한다.
도 36은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 VideoDataType 엘리먼트의 XML 형식을 보여준다.
컴포넌트가 비디오 컴포넌트인 경우, 컴포넌트 데이터 엘리먼트는 비디오의 역할을 나타내는 비디오 롤 엘리먼트를 포함할 수 있다. 비디오 롤 엘리먼트가 가지는 값은 정수일 수 있다. 비디오 롤 엘리먼트는 컴포넌트가 프레젠터블 컴포넌트인 경우 기본(default) 비디오를 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 1일 수 있다. 또한, 비디오 롤 엘리먼트는 컴포넌트가 프레젠터블 컴포넌트인 경우 대체 시점 화면(alternative camera view)을 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 2일 수 있다. 또한, 비디오 롤 엘리먼트는 컴포넌트가 프레젠터블 컴포넌트인 경우 대체 비디오 컴포넌트를 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 3일 수 있다. 비디오 롤 엘리먼트는 컴포넌트가 프레젠터블 컴포넌트인 경우 수화 화면을 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 4일 수 있다. 또한, 비디오 롤 엘리먼트는 컴포넌트가 프레젠터블 컴포넌트인 경우 팔로우 서브젝트 비디오(follow subject video) 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 5일 수 있다. 또한, 비디오 롤 엘리먼트는 컴포넌트가 컴포지트 컴포넌트인 경우 가변적 비디오 인코딩(scalable video encoding)을 베이스 계층임을 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 6일 수 있다. 또한, 비디오 롤 엘리먼트는 컴포넌트가 컴포지트 컴포넌트인 경우 가변적 비디오 인코딩(scalable video encoding)을 위한 인핸스먼트 계층(enhacement layer)계층임을 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 7일 수 있다. 비디오 롤 엘리먼트는 컴포넌트가 컴포지트 컴포넌트인 경우 미디어 컴포넌트가 3D 영상의 왼쪽 영상임을 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 8일 가질 수 있다. 비디오 롤 엘리먼트는 컴포넌트가 컴포지트 컴포넌트인 경우 미디어 컴포넌트가 3D 영상의 오른쪽 영상을 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 9일 수 있다. 비디오 롤 엘리먼트는 컴포넌트가 컴포지트 컴포넌트인 경우 3D 영상의 깊이 정보를 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 10일 수 있다. 비디오 롤 엘리먼트는 컴포넌트가 컴포지트 컴포넌트인 경우 미디어 컴포넌트가 복수의 영역으로 분할된 화면의 특정 위치의 비디오임을 나타낼 수 있다. 이때, 비디오 롤 엘리먼트의 값은 11일 수 있다. 비디오 롤 엘리먼트는 컴포넌트가 컴포지트 컴포넌트인 경우 특정 피사체(subject)를 따라 보여지는 화면인 팔로우 -서브젝트(Follow-Subject) 메타데이터일 수 있다. 이때, 비디오 롤 엘리먼트의 값은 12일 수 있다. 이러한 팔로우-서브젝트 메타데이터는 피사체의 이름, 피사체의 위치 및 피사체의 크기 중 적어도 어느 하나를 포함할 수 있다. 팔로우-서브젝트 기능이 스트림의 프레임 단위의 메타데이터에 의하여 지원되는 경우, 팔로우-서브젝트 메타데이터는 피사체가 포커스되는 메인 비디오 컴포넌트의 영역을 나타낼 수 있다. 구체적인 실시예에서 비디오의 역할을 나타내는 비디오 롤 엘리먼트는 VideoRole이라할 수 있다.
또한, 컴포넌트가 비디오 컴포넌트인 경우, 컴포넌트 데이터 엘리먼트는 비디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 컴포넌트의 종류에 따라서 비디오 컴포넌트의 역할이 상이해 질 수 있다. 따라서 비디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 비디오 컴포넌트가 프레젠터블 비디오 일 경우 비디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 또한, 비디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 비디오 컴포넌트가 컴포지트 비디오일 경우 비디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 또한, 비디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 비디오 컴포넌트가 컴포지트 비디오 또는 프레젠터블 비디오일 경우 비디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 비디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 VideoRoleRangeType일 수 있다.
또한, 컴포넌트 데이터 엘리먼트는 해당 컴포넌트가 타겟팅하는 사용자를 나타내는 타겟 사용자 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 타겟 사용자 엘리먼트는 TargetUserProfile일 수 있다. 또한, 해당 컴포넌트가 타겟팅하는 장치를 나타내는 타겟 디바이스 엘리먼트를 포함할 수 있다. 타겟 디바이스 엘리먼트는 연동 서비스에서 방송 서비스를 수신하는 주(primary) 장치, 연동(companion) 장치, 주 장치와 연동 장치를 모두 포함하는 것 중 적어도 어느 하나를 나타낼 수 있다. 구체적인 실시예에서 타겟 장치 엘리먼트는 TargetDevice일 수 있다.
도 37은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 AudioDataType 엘리먼트의 XML 형식을 보여준다.
컴포넌트가 오디오 컴포넌트인 경우, 컴포넌트 데이터 엘리먼트는 오디오의 역할을 나타내는 오디오 롤 엘리먼트를 포함할 수 있다. 오디오 롤 엘리먼트는 정수 값을 가질 수 있다. 오디오 롤 엘리먼트는 오디오 컴포넌트가 완전한 메인(complete main)을 나타낼 수 있다. 이때, 오디오 롤 엘리먼트의 값은 1일 수 있다. 오디오 롤 엘리먼트는 오디오 컴포넌트가 음악임을 나타낼 수 있다. 이때, 오디오 롤 엘리먼트의 값은 2일 수 있다. 오디오 롤 엘리먼트는 오디오 컴포넌트가 대화(dialog)임을 나타낼 수 있다. 이때, 오디오 롤 엘리먼트의 값은 3일 수 있다. 오디오 롤 엘리먼트는 오디오 컴포넌트가 효과음(effects)임을 나타낼 수 있다. 이때, 오디오 롤 엘리먼트의 값은 4일 수 있다. 오디오 롤 엘리먼트는 오디오 컴포넌트가 시각 장애인을 위한 오디오(visual impaired)임을 나타낼 수 있다. 이때, 오디오 롤 엘리먼트의 값은 5일 수 있다. 오디오 롤 엘리먼트는 오디오 컴포넌트가 청각 장애인을 위한 오디오(hearing impaired)임을 나타낼 수 있다. 이때, 오디오 롤 엘리먼트의 값은 6일 수 있다. 오디오 롤 엘리먼트는 오디오 컴포넌트가 코멘터리임을 나타낼 수 있다. 이때, 오디오 롤 엘리먼트의 값은 7일 수 있다.
또한, 컴포넌트가 오디오 컴포넌트인 경우, 컴포넌트 데이터 엘리먼트는 오디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 오디오 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 AudioRoleRangeType일 수 있다.
또한, 컴포넌트 데이터 엘리먼트는 해당 컴포넌트가 타겟팅하는 사용자를 나타내는 타겟 사용자 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 타겟 사용자 엘리먼트는 TargetUserProfile일 수 있다. 또한, 해당 컴포넌트가 타겟팅하는 장치를 나타내는 타겟 디바이스 엘리먼트를 포함할 수 있다. 타겟 디바이스 엘리먼트는 연동 서비스에서 방송 서시브를 수신하는 주(primary) 장치, 연동(companion) 장치, 주 장치와 연동 장치를 모두 포함하는 것 중 적어도 어느 하나를 나타낼 수 있다. 구체적인 실시예에서 타겟 장치 엘리먼트는 TargetDevice일 수 있다.
또한, 컴포넌트 데이터 엘리먼트는 프레젠터블 비디오 컴포넌트와 연관되는(associated to)지를 나타내는 연관 엘리먼트를 포함할 수 있다. 구체적으로 비디오 컴포넌트와 연관되는 컴포넌트는 비디오 컴포넌트와 함께 재생되는 컴포넌트를 나타낼 수 있다. 또한, 비디오 컴포넌트와 연관되는 컴포넌트는 비디오 컴포넌트와 함께 동기화되어 재생되는 컴포넌트를 나타낼 수 있다. 연관 엘리먼트는 연관된 프레젠터블 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트를 식별하는 식별자를 포함할 수 있다. 구체적인 실시예에서 연관 엘리먼트는 associatedTo일 수 있다.
또한, 컴포넌트 데이터 엘리먼트는 오디오 컴포넌트가 포함하는 채널의 수를 나타내는 오디오 채널 수 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 오디오 채널 수 엘리먼트는 NumberOfAudioChannels일 수 있다.
도 38은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 포함하는 CCDataType 엘리먼트의 XML 형식을 보여준다.
컴포넌트가 자막 컴포넌트인 경우, 컴포넌트 데이터 엘리먼트는 자막의 역할을 나타내는 자막 롤 엘리먼트를 포함할 수 있다. 자막 롤 엘리먼트는 정수 값을 가질 수 있다. 자막 롤 엘리먼트는 자막 컴포넌트가 보통(normal)의 자막임을 나타낼 수 있다. 이때, 자막 롤 엘리먼트의 값은 1일 수 있다. 자막 롤 엘리먼트는 자막 컴포넌트가 유 초등학생을 위한 자막인 이지 리더(easy-reader) 자막임을 나타낼 수 있다. 이때, 자막 롤 엘리먼트의 값은 2일 수 있다.
또한, 컴포넌트가 자막 컴포넌트인 경우, 컴포넌트 데이터 엘리먼트는 자막 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 자막 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 CCRoleRangeType일 수 있다.
또한, 컴포넌트 데이터 엘리먼트는 해당 컴포넌트가 타겟팅하는 사용자를 나타내는 타겟 사용자 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 타겟 사용자 엘리먼트는 TargetUserProfile일 수 있다. 또한, 해당 컴포넌트가 타겟팅하는 장치를 나타내는 타겟 디바이스 엘리먼트를 포함할 수 있다. 타겟 디바이스 엘리먼트는 연동 서비스에서 방송 서시브를 수신하는 주(primary) 장치, 연동(companion) 장치, 주 장치와 연동 장치를 모두 포함하는 것 중 적어도 어느 하나를 나타낼 수 있다. 구체적인 실시예에서 타겟 장치 엘리먼트는 TargetDevice일 수 있다.
또한, 컴포넌트 데이터 엘리먼트는 프레젠터블 비디오 컴포넌트와 연관되는(associated to)지를 나타내는 연관 엘리먼트를 포함할 수 있다. 구체적으로 비디오 컴포넌트와 연관 여부는 비디오 컴포넌트와 함께 재생되는지 여부를 나타낼 수 있다. 또한, 비디오 컴포넌트와 연관되는 컴포넌트는 비디오 컴포넌트와 함께 동기화되어 재생되는지 여부를 나타낼 수 있다. 연관 엘리먼트는 관련된 프레젠터블 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트를 식별하는 식별자를 포함할 수 있다. 구체적인 실시예에서 연관 엘리먼트는 associatedTo일 수 있다.
방송 수신 장치(100)는 위에 설명한 컴포넌트 프래그먼트에 기초하여 컴포넌트의 역할을 판단할 수 있다. 또한, 방송 수신 장치(100)는 컴포넌트 데이터 엘리먼트에 기초하여 컴포넌트의 역할을 표시할 수 있다. 구체적인 실시예에서 방송 수신 장치(100)는 서비스 가이드 메뉴에서 각 컨텐츠가 포함하는 컴포넌트의 역할을 표시할 수 있다. 방송 수신 장치(100)는 컴포넌트 프래그먼트에 기초하여 컴포넌트 프래그먼트의 역할을 화면의 하단 또는 상단에 위치하는 바(bar) 형태의 메뉴에 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 컴포넌트 프래그먼트에 기초하여 방송 서비스를 나타내는 정보를 표시하는 서비스 리스트에 통해 서비스 프래그먼트가 나타내는 컴포넌트의 역할을 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 서비스 리스트를 표시하면서 해당 서비스의 이름과 해당 서비스를 나타내는 가상(virtual) 채널 번호와 함께 해당 서비스에서 현재 방송 중인 컴포넌트의 역할을 표시할 수 있다.
또한, 방송 수신 장치(100)는 컴포넌트 데이터 엘리먼트에 기초하여 각 컴포넌트가 타겟팅하는 장치 및 타겟팅하는 사용자 프로파일 중 적어도 어느 하나를 판단할 수 있다. 또한, 방송 수신 장치(100)는 컴포넌트 데이터 엘리먼트에 기초하여 컴포넌트의 역할을 표시할 수 있다. 구체적인 실시예에서 방송 수신 장치(100)는 서비스 가이드 메뉴에서 타겟팅하는 장치 및 타겟팅하는 사용자 프로파일 중 적어도 어느 하나에 기초하여 해당 컴포넌트에 대한 정보를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 방송 수신 장치(100)가 타겟팅에 해당하지 않는 경우 해당 컴포넌트를 다른 컴포넌트와 다르게 표시할 수 있다. 예컨대, 방송 수신 장치(100)가 3D 영상을 지원하지 않는 경우 ESG에서 3D 영상을 위한 비디오 컴포넌트를 회색으로 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 수신 장치(100)가 타겟팅에 해당하지 않는 경우 해당 컴포넌트를 표시하지 않을 수 있다. 구체적인 실시예에서 방송 수신 장치(100)는 서비스 가이드 메뉴에 해당 컴포넌트가 타겟팅하는 사용자 프로파일을 나타내는 아이콘, 텍스트, 및 그래픽 형상 중 적어도 어느 하나를 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 수신 장치(100)의 사용자가 해당 컴포넌트가 타겟팅하는 사용자 프로파일과 일치하지 않는 경우 서비스 가이드 메뉴에 해당 컴포넌트를 다른 컴포넌트와 다르게 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 수신 장치(100)의 사용자가 해당 컴포넌트가 타겟팅하는 사용자 프로파일과 일치하지 않는 경우 서비스 가이드 메뉴에 해당 컴포넌트를 표시하지 않을 수 있다.
구체적인 실시예에서 방송 수신 장치(100)는 방송 서비스를 재생 중인 화면의 하단 또는 상단에 위치하는 바(bar) 형태의 메뉴에 타겟팅하는 장치 및 타겟팅하는 사용자 프로파일 중 적어도 어느 하나에 기초하여 해당 컴포넌트에 대한 정보를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 방송 수신 장치(100)가 타겟팅에 해당하지 않는 경우 방송 서비스를 재생 중인 화면의 하단 또는 상단에 위치하는 바(bar) 형태의 메뉴에 해당 컴포넌트를 다른 컴포넌트와 다르게 표시할 수 있다. 예컨대, 방송 수신 장치(100)가 3D 영상을 지원하지 않는 경우 방송 서비스를 재생 중인 화면의 하단 또는 상단에 위치하는 바(bar) 형태의 메뉴에서 3D 영상을 위한 비디오 컴포넌트를 회색으로 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 수신 장치(100)가 타겟팅에 해당하지 않는 경우 해당 컴포넌트를 방송 서비스를 재생 중인 화면의 하단 또는 상단에 위치하는 바(bar) 형태의 메뉴에 표시하지 않을 수 있다. 구체적인 실시예에서 방송 수신 장치(100)는 방송 서비스를 재생 중인 화면의 하단 또는 상단에 위치하는 바(bar) 형태의 메뉴에 해당 컴포넌트가 타겟팅하는 사용자 프로파일을 나타내는 아이콘, 텍스트, 및 그래픽 형상 중 적어도 어느 하나를 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 수신 장치(100)의 사용자가 해당 컴포넌트가 타겟팅하는 사용자 프로파일과 일치하지 않는 경우 방송 서비스를 재생 중인 화면의 하단 또는 상단에 위치하는 바(bar) 형태의 메뉴에 해당 컴포넌트를 다른 컴포넌트와 다르게 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 수신 장치(100)의 사용자가 해당 컴포넌트가 타겟팅하는 사용자 프로파일과 일치하지 않는 경우 방송 서비스를 재생 중인 화면의 하단 또는 상단에 위치하는 바(bar) 형태의 메뉴에 해당 컴포넌트를 표시하지 않을 수 있다.
또 다른 구체적인 실시예에서 방송 수신 장치(100)는 컴포넌트 프래그먼트에 기초하여 방송 서비스를 나타내는 정보를 표시하는 서비스 리스트에 통해 서비스 프래그먼트가 나타내는 컴포넌트의 역할을 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 서비스 리스트를 표시하면서 해당 서비스의 이름과 해당 서비스를 나타내는 가상(virtual) 채널 번호와 함께 해당 서비스에서 현재 방송 중인 컴포넌트의 역할을 표시할 수 있다.
구체적인 실시예에서 방송 수신 장치(100)는 서비스 리스트에 타겟팅하는 장치 및 타겟팅하는 사용자 프로파일 중 적어도 어느 하나에 기초하여 해당 컴포넌트에 대한 정보를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 방송 수신 장치(100)가 타겟팅에 해당하지 않는 경우 방송 서비스 리스트에 해당 컴포넌트를 다른 컴포넌트와 다르게 표시할 수 있다. 예컨대, 방송 수신 장치(100)가 3D 영상을 지원하지 않는 경우 방송 서비스 리스트에서 3D 영상을 위한 비디오 컴포넌트를 회색으로 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 수신 장치(100)가 타겟팅에 해당하지 않는 경우 해당 컴포넌트를 방송 서비스 리스트에 표시하지 않을 수 있다. 구체적인 실시예에서 방송 수신 장치(100)는 방송 서비스 리스트에 해당 컴포넌트가 타겟팅하는 사용자 프로파일을 나타내는 아이콘, 텍스트, 및 그래픽 형상 중 적어도 어느 하나를 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 수신 장치(100)의 사용자가 해당 컴포넌트가 타겟팅하는 사용자 프로파일과 일치하지 않는 경우 방송 서비스 리스트에 해당 컴포넌트를 다른 컴포넌트와 다르게 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 수신 장치(100)의 사용자가 해당 컴포넌트가 타겟팅하는 사용자 프로파일과 일치하지 않는 경우 방송 서비스 리스트에 해당 컴포넌트를 표시하지 않을 수 있다.
도 39는 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 컴포지트 비디오 컴포넌트를 나타내는 실시예를 보여준다.
도 39의 실시예의 컴포넌트 프래그먼트는 식별자가 bcast://lge.com/Component/1인 컴포지트 컴포넌트가 식별자가 bcast://lge.com/Component/2인 기초 컴포넌트와 식별자가bcast://lge.com/Component/3인 기초 컴포넌트를 포함하는 것을 나타낸다. 또한, 컴포넌트 프래그먼트의 컴포넌트 데이터 엘리먼트는 식별자가 bcast://lge.com/Component/2인 기초 컴포넌트가 가변적 비디오 인코딩의 베이스 계층임을 나타내고, 식별자가 bcast://lge.com/Component/3인 기초 컴포넌트가 가변적 비디오 인코딩의 인해스먼트 계층임을 나타낸다.
도 40은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 컴포지트 비디오 컴포넌트를 나타내는 또 다른 실시예를 보여준다.
도 40의 실시예에서 컴포넌트 프래그먼트는 식별자가 bcast://lge.com/Component/1인 컴포지트 컴포넌트가 식별자가 bcast://lge.com/Component/2인 픽원 컴포넌트와 식별자가bcast://lge.com/Component/3인 픽원 컴포넌트를 포함하는 것을 나타낸다. 또한, 컴포넌트 프래그먼트의 컴포넌트 데이터 엘리먼트는 식별자가 bcast://lge.com/Component/2인 기초 컴포넌트가 3D 영상의 좌 영상을 나타내고, 식별자가 bcast://lge.com/Component/3인 기초 컴포넌트가 3D 영상의 우 영상임을 나타낸다.
도 41은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 픽원 오디오 컴포넌트를 나타내는 또 다른 실시예를 보여준다.
도 41의 실시예에서 컴포넌트 프래그먼트는 식별자가 bcast://lge.com/Component/1인 픽원 컴포넌트가 서로 대체 가능한 식별자가 bcast://lge.com/Component/2인 픽원 컴포넌트와 식별자가bcast://lge.com/Component/3인 컴포지트 컴포넌트를 포함하는 것을 보여준다. 또한, 컴포넌트 프래그먼트의 컴포넌트 데이터 엘리먼트는 식별자가 bcast://lge.com/Component/2인 픽원 컴포넌트가 완전한 메인 오디오임을 나타낸다. 또한, 컴포넌트 프래그먼트의 컴포넌트 데이터 엘리먼트는 bcast://lge.com/Component/3인 컴포지트 컴포넌트는 식별자가 bcast://lge.com/Component/4인 픽원 컴포넌트와 식별자가 bcast://lge.com/Component/5인 픽원 컴포넌트를 포함함을 나타낸다. 이때, 컴포넌트 프래그먼트의 컴포넌트 데이터 엘리먼트는 식별자가 bcast://lge.com/Component/4인 픽원 컴포넌트는 음악임을 나타낸다. 또한, 컴포넌트 프래그먼트의 컴포넌트 데이터 엘리먼트는 식별자가 bcast://lge.com/Component/5인 픽원 컴포넌트는 대화임을 나타낸다.
이상에서 ESG 데이터가 별도의 컴포넌트 프래그먼트를 포함하여 방송 전송 장치(10)가 컴포넌트 정보를 전송하고, 방송 수신 장치(100)가 컴포넌트 정보를 수신하는 것을 설명하였다. 다만, 각 컴포넌트들은 유기적인 연관성을 갖고 있는 경우가 있고, 방송 수신 장치(100)는 컴포넌트들간의 연관성을 고려하여 컴포넌트를 재생해야한다. 따라서 컴포넌트들 간의 관계를 나타낼 수 있는 방법이 필요한다. 이에 대해서는 아래의 도면들을 통해 설명한다.
도 42는 본 발명의 또 다른 실시예에 따라 컴포넌트에 관한 정보가 컨텐츠 프래그먼트의 엘리먼트로 포함되는 경우 컨텐츠 프래그먼트의 XML 형식을 보여준다.
컨텐츠 프래그먼트는 확장성을 위한 확장 엘리먼트를 포함한다. 방송 전송 장치(10)는 확장 엘리먼트에 컴포넌트 정보를 나타내는 컴포넌트 엘리먼트를 삽입할 수 있다. 컨텐츠 프래그먼트는 컴포넌트 엘리먼트를 시퀀스(sequence) 형태로 포함할 수 있다. 구체적으로 컴포넌트 엘리먼트가 포함하는 정보는 앞서 설명한 컴포넌트 프래그먼트가 포함하는 정보와 동일할 수 있다. 구체적으로 컴포넌트가 비디오 컴포넌트인 경우, 비디오의 역할을 나타내는 엘리먼트, 컴포넌트가 타겟팅하는 사용자의 프로필을 나타내는 타겟 사용자 프로필 엘리먼트, 컴포넌트가 타겟팅하는 장치를 나타는 타겟 장치 엘리먼트를 중 적어도 어느 하나를 포함할 수 있다. 또한, 컴포넌트가 오디오 컴포넌트인 경우, 오디오의 역할을 나타내는 엘리먼트, 컴포넌트가 타겟팅하는 사용자의 프로필을 나타내는 타겟 사용자 프로필 엘리먼트, 컴포넌트가 타겟팅하는 장치를 나타는 타겟 장치 엘리먼트를 중 적어도 어느 하나를 포함할 수 있다. 또한, 컴포넌트가 자막 컴포넌트인 경우, 자막의 역할을 나타내는 엘리먼트, 컴포넌트가 타겟팅하는 사용자의 프로필을 나타내는 타겟 사용자 프로필 엘리먼트, 컴포넌트가 타겟팅하는 장치를 나타는 타겟 장치 엘리먼트를 중 적어도 어느 하나를 포함할 수 있다.
도 43과 도 44는 본 발명의 또 다른 실시예에 따라 컴포넌트에 관한 정보가 컨텐츠 프래그먼트의 엘리먼트로 포함되는 경우 컨텐츠 프래그먼트의 일 실시예의 XML 형식을 보여준다.
도 43의 실시예에서 방송 수신 장치(100)는 컨텐츠 프래그먼트에 기초하여 비디오 컴포넌트, 오디어 컴포넌트, 및 자막 컴포넌트의 정보를 획득할 수 있다. 따라서 방송 수신 장치(100)는 컨텐츠 프래그먼트가 나타내는 컨텐츠를 재생하기 위해 필요한 비디오 컴포넌트, 오디오 컴포넌트, 및 자막 컴포넌트의 정보를 획득할 수 있다. 이에 따라 방송 수신 장치(100)는 별도의 정보 없이 해당 비디오 컴포넌트, 오디오 컴포넌트 및 자막 컴포넌트가 함께 재생되어야함을 알 수 있다.
도 44의 실시예에서 방송 수신 장치(100)는 컨텐츠 프래그먼트에 기초하여 비디오 컴포넌트, 오디어 컴포넌트, 및 자막 컴포넌트의 정보를 획득할 수 있다. 특히, 방송 수신 장치(100)는 컨텐츠 프래그먼트에 기초하여 해당 컨텐츠가 3D 영상의 좌 영상을 포함하는 컴포넌트와 3D 영상의 우 영상을 포함하는 컴포넌트를 포함함을 알 수 있다.
컨텐츠 프래그먼트가 컨텐츠가 포함하는 모든 컴포넌트의 정보를 엘리먼트로 포함하는 경우, 방송 수신 장치(100)는 별도의 연관 관계에 대한 엘리먼트 없이 컨텐츠가 포함하는 컴포넌트를 모두 알 수 있다. 또한, 방송 수신 장치(100)는 별도의 정보없이 각각의 컴포넌트와 연관된 다른 컴포넌트를 판단할 수 있다.
또한, 기존 방송 수신 장치는 컴포넌트 프래그먼트를 지원하지 않으므로 컴포넌트 프래그먼트라는 새로운 프래그먼트가 추가될 경우 오작동을 일으킬 우려가 있다. 도 42 내지 도 44와 같이 컨텐츠 프래그먼트가 컴포넌트 정보를 포함할 경우 이러한 문제를 해결할 수 있다.
각각의 컴포넌트간의 관계를 나타내기 위하여, 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 비디오 컴포넌트를 나타내는 프로래그먼트를 참조할 수 있다. 이에 대해서는 도 45 내지 도 46을 통해 설명한다.
도 45는 본 발명의 일 실시예에 따라 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 비디오 컴포넌트를 나타내는 프로래그먼트를 참조하는 경우 컴포넌트 프래그먼트의 XML 형식을 보여준다.
오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트는 관련된 비디오 컴포넌트의 프래그먼트를 나타내는 연관 엘리먼트를 포함할 수 있다. 구체적으로 관련된 비디오 컴포넌트는 자막 컴포넌트와 함께 재생되는 컴포넌트를 나타낼 수 있다. 또한, 관련된 비디오 컴포넌트는 자막 컴포넌트와 함께 동기화되어 재생되는 비디오 컴포넌트를 나타낼 수 있다. 연관 엘리먼트는 관련된 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트를 식별하는 식별자를 값으로 가질 수 있다. 구체적인 실시예에서 연관 엘리먼트는 associatedTo일 수 있다.
도 46은 본 발명의 일 실시예에 따라 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 비디오 컴포넌트를 나타내는 프로래그먼트를 참조하는 경우 컴포넌트 프래그먼트간의 관계를 보여준다.
도 46의 실시예에서 bcast://lge.com/Component/2를 식별자로 갖는 오디오 컴포넌트의 컴포넌트 프래그먼트는 bcast://lge.com/Component/1를 식별자로 갖는 비디오 컴포넌트의 컴포넌트 프래그먼트를 참조한다. 또한, bcast://lge.com/Component/3을 식별자로 갖는 자막 컴포넌트의 컴포넌트 프래그먼트는 bcast://lge.com/Component/1를 식별자로 갖는 비디오 컴포넌트의 컴포넌트 프래그먼트를 참조한다. 따라서 방송 수신 장치(100)는 오디오 컴포넌트의 컴포넌트 프래그먼트에 기초하여 오디오 컴포넌트와 연관된 비디오 컴포넌트의 정보를 획득할 수 있다. 또한, 방송 수신 장치(100)는 자막 컴포넌트의 컴포넌트 프래그먼트에 기초하여 자막 컴포넌트와 연관된 비디오 컴포넌트의 정보를 획득할 수 있다.
도 47은 본 발명의 일 실시예에 따라 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 관련된 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조하는 경우 컴포넌트 프래그먼트의 XML 형식을 보여준다.
비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 관련된 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트를 나타내는 연관 엘리먼트를 포함할 수 있다. 관련된 오디오 컴포넌트와 관련된 자막 컴포넌트는 비디오 컴포넌트와 함께 재생되는 오디오 컴포넌트와 자막 컴포넌트를 각각 나타낼 수 있다. 구체적으로 관련된 오디오 컴포넌트와 관련된 자막 컴포넌트는 비디오 컴포넌트와 함께 동기화되어 재생되는 오디오 컴포넌트와 자막 컴포넌트를 각각 나타낼 수 있다. 연관 엘리먼트는 비디오 컴포넌트와 관련된 오디오 컴포넌트 또는 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트를 식별하는 식별자를 값으로 가질 수 있다. 구체적인 실시예에서 연관 엘리먼트는 associatedTo일 수 있다.
도 48은 본 발명의 일 실시예에 따라 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트가 관련된 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 관련된 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조하는 경우 컴포넌트 프래그먼트간의 관계를 보여준다.
도 48의 실시예에서 bcast://lge.com/Component/1를 식별자로 갖는 비디오 컴포넌트의 컴포넌트 프래그먼트는 bcast://lge.com/Component/2를 식별자로 갖는 오디오 컴포넌트의 프래그먼트와 bcast://lge.com/Component/3을 식별자로 갖는 자막 컴포넌트의 컴포넌트를 참조한다. 따라서 방송 수신 장치(100)는 비디오 컴포넌의 컴포넌트 프래그먼트에 기초하여 비디오 컴포넌트와 연관된 오디오 컴포넌트와 자막 컴포넌트의 정보를 획득할 수 있다.
방송 수신 장치(100)가 ESG 데이터에 포함된 프래그먼트에 기초하여 서비스 가이드를 생성하기 위해서는 프래그먼트간의 참조(reference) 관계가 필요하다. 이에 대해서 도 49 내지 도 63을 통해 설명한다.
도 49는 본 발명의 일 실시예에 따른 프래그먼트간의 참조 관계를 보여준다.
컨텐츠를 나타내는 컨테츠 프래그먼트는 컨텐츠를 포함하는 서비스를 나타내는 프래그먼트를 참조할 수 있다. 또한, 컴포넌트를 나타내는 컴포넌트 프래그먼트는 컴포넌트를 포함하는 컨텐츠를 나타내는 컨텐츠 프래그먼트를 참조할 수 있다. 또한, 컴포넌트를 나타내는 컴포넌트 프래그먼트는 컴포넌트를 포함하는 서비스를 나타내는 서비스 프래그먼트를 참조할 수 있다. 스케줄 컴포넌트는 스케줄에 해당하는 서비스를 나타내는 서비스 프래그먼트, 스케줄에 해당하는 컨텐츠를 나타내는 컨텐츠 프래그먼트, 스케줄에 해당하는 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조할 수 있다.
이를 위해 컴포넌트 프래그먼트는 앞서 설명한 엘리먼트 이외에 추가 컴포넌트를 포함하여한다. 이에 대해서는 도 50을 통해 설명한다.
도 50은 본 발명의 일 실시예에 따른 컴포넌트 프래그먼트가 상위의 컴포넌트 프래그먼트, 컨텐츠 프래그먼트, 및 서비스 프래그먼트를 참조하는 경우 컴포넌트 프래그먼트의 XML 형식을 보여준다.
컴포넌트를 나타내는 컴포넌트 프래그먼트는 컴포넌트를 포함하는 서비스의 서비스 프래그먼트를 나타내는 참조 서비스 엘리먼트를 포함할 수 있다. 참조 서비스 엘리먼트는 참조하는 서비스를 나타내는 서비스 프래그먼트를 식별하는 식별자 값을 가질 수 있다. 구체적인 실시예에서 참조 서비스 엘리먼트는 ServiceReference라 할 수 있다.
또한, 컴포넌트를 나타내는 컴포넌트 프래그먼트는 컴포넌트를 포함하는 컨텐츠의 컨텐츠 프래그먼트를 나타내는 참조 컨텐츠 엘리먼트를 포함할 수 있다. 참조 컨텐츠 엘리먼트는 참조하는 컨텐츠를 나타내는 컨텐츠 프래그먼트를 식별하는 식별자 값을 가질 수 있다. 구체적인 실시예에서 참조 컨텐츠 엘리먼트는 ContentReference라 할 수 있다.
또한, 컴포넌트를 나타내는 컴포넌트 프래그먼트는 컴포넌트를 포함하는 상위 컴포넌트의 컴포넌트 프래그먼트를 나타내는 참조 컴포넌트 엘리먼트를 포함할 수 있다. 참조 컴포넌트 엘리먼트는 참조하는 컴포넌트를 나타내는 컴포넌트 프래그먼트를 식별하는 식별자 값을 가질 수 있다. 구체적인 실시예에서 참조 컴포넌트 엘리먼트는 CompoonentReference라 할 수 있다.
따라서 방송 수신 장치(100)는 컴포넌트 프래그먼트에 기초하여 컴포넌트 프래그먼트가 나타내는 컴포넌트를 포함하는 상위 컴포넌트, 컨텐츠, 및 서비스의 정보를 획득할 수 있다.
컴포넌트 프래그먼트가 추가됨에 따라 스케줄 프래그먼트도 컴포넌트 프래그먼트를 참조하기 위한 엘리먼트를 포함할 수 있다. 이에 대해서는 도 51을 통해 설명한다.
도 51은 본 발명의 일 실시예에 따른 스제줄 프래그먼트가 컴포넌트 프래그먼트, 컨텐츠 프래그먼트, 및 서비스 프래그먼트 참조하는 경우 스케줄 프래그먼트의 XML 형식을 보여준다.
스케줄을 나타내는 스케줄 프래그먼트는 스케줄에 해당하는 컴포넌트의 컴포넌트 프래그먼트를 나타내는 참조 컴포넌트 엘리먼트를 포함할 수 있다. 참조 컴포넌트 엘리먼트는 스케줄 프래그먼트가 참조하는 컴포넌트 프래그먼트를 식별하는 식별자 값을 가질 수 있다. 구체적인 실시예에서 참조 컴포넌트 엘리먼트는 ComponentReference라 할 수 있다.
따라서 방송 수신 장치(100)는 스케줄 프래그먼트에 기초하여 스케줄 프래그먼트가 나타내는 스케줄에 해당하는 컴포넌트, 컨텐츠, 및 서비스의 정보를 획득할 수 있다.
도 52는 본 발명의 일 실시예에 따른 서비스 프래그먼트, 컨텐츠 프래그먼트, 프레젠터블 비디오 컴포넌트, 프레젠터블 오디오 컴포넌트, 및 프레젠터블 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트와의 참조관계를 보여준다.
서비스는 컨텐츠를 포함하고, 컨텐츠는 프레전터블 비디오 컴포넌트, 프레전터블 오디오 컴포넌트, 및 프레젠터블 자막 컴포넌트를 포함할 수 있다. 도 52의 실시예의 서비스 프래그먼트, 컨텐츠 프래그먼트 및 복수의 컴포넌트 프래그먼트는 이러한 포함관계를 나타낸다. 프레젠터블 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트, 프레젠터블 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트, 및 프레젠터블 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트가 프레젠터블 자막 컴포넌트, 프레젠터블 비디오 컴포넌트, 및 프레젠터블 오디오 컴포넌트를 포함하는 컨텐츠를 나타내는 컨텐츠 프래그먼트를 참조한다. 또한, 프레젠터블 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트 및 프레젠터블 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트는 프레젠터블 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 연관되어 있음을 나타낸다. 또한, 컨텐츠를 나타내는 컨텐츠 프래그먼트는 컨텐츠를 포함하는 서비스를 나타내는 서비스 프래그먼트를 참조한다.
따라서 방송 수신 장치(100)는 컴포넌트 프래그먼트에 기초하여 컴포넌트간의 연관관계와 컴포넌트를 포함하는 컨텐츠의 정보를 획득할 수 있다. 또한, 방송 수신 장치(100)는 컨텐츠를 나타내는 컨탠츠 프래그먼트에 기초하여 컨텐츠를 포함하는 서비스의 정보를 획득할 수 있다.
도 53은 본 발명의 일 실시예에 따른 컴포지트 컴포넌트를 나타내는 컴포넌트 프래그먼트와 하위 컴포넌트를 나타내는 컴포넌트 프래그먼트간의 참조관계를 보여준다.
컴포지트 컴포넌트는 하나의 장면을 구성하는 복수의 컴포넌트를 포함할 수 있다. 도 53의 실시예의 복수의 컴포넌트 프래그먼트는 이러한 포함관계를 나타낸다. 구체적으로 도 53의 실시예에서 가변적 비디오 인코딩을 위한 제2 인핸스먼트 계층의 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트는 제1 인핸스먼트 계층의 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다. 또한, 제1 인핸스먼트 계층의 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트는 베이스 계층의 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다. 또한, 베이스 계층의 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트는 컴포지트 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다.
이를 통해 방송 수신 장치(100)는 가변적 비디오 코딩을 위한 복수의 컴포넌트를 나타내는 복수의 컴포넌트 프래그먼트에 기초하여 컴포지트 컴포넌트를 구성하는 컴포넌트간의 관계에 대한 정보를 획득할 수 있다. 구체적으로 방송 수신 장치(100)는 제2 인핸스먼트 계층의 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트에 기초하여 제2 인핸스먼트 계층의 비디오 컴포넌트를 재생하기 위해서는 제1 인핸스먼트 계층의 비디오 컴포넌트가 필요함을 인식할 수 있다. 또한, 방송 수신 장치(100)는 제1 인핸스먼트 계층의 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트에 기초하여 제1 인핸스먼트 계층의 비디오 컴포넌트를 재생하기 위해서는 베이스 계층의 비디오 컴포넌트가 필요함을 인식할 수 있다.
도 54는 본 발명의 일 실시예에 따른 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트와 하위 컴포넌트를 나타내는 컴포넌트 프래그먼트간의 참조 관계를 보여준다.
앞서 설명한 바와 같이 어플 기반 인핸스먼트 컴포넌트는 NRT 컨텐츠 아이템 컴포넌트를 포함할 수 있다. 이때, NRT 컨텐츠 아이템 컴포넌트는 NRT 파일 컴포넌트를 포함할 수 있다. 또한, 어플 기반 인핸스먼트 컴포넌트는 어플리케이션 컴포넌트를 포함할 수 있다. 또한, 어플 기반 인핸스먼트 컴포넌트는 사용자 요청 컴포넌트를 포함할 수 있다. 도 54의 실시예의 복수의 컴포넌트 프래그먼트는 이러한 포함관계를 나타낸다. 구체적으로 도 54의 실시예에서 NRT 파일 컴포넌트를 나타내는 컴포넌트 프래그먼트는 NRT 컨텐츠 아이템 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다. 또한, NRT 컨텐츠 아이템 컴포넌트를 나타내는 컴포넌트 프래그먼트는 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다. 또한, 어플리케이션 컴포넌트를 나타내는 컴포넌트 프래그먼트는 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다. 또한, 사용자 요청 컴포넌트를 나타내는 컴포넌트 프래그먼트는 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다.
이를 통해 방송 수신 장치(100)는 어플 기반 인핸스먼트 컴포넌트에 포함되는 컴포넌트를 나타내는 컴포넌트 프래그먼트에 기초하여 어플 기반 인핸스먼트 컴포넌트와 어플 기반 인핸스먼트 컴포넌트가 포함하는 컴포넌트간의 관계에 대한 정보를 획득할 수 있다. 구체적으로 방송 수신 장치(100)는 어플 기반 인핸스먼트 컴포넌트가 NRT 컨테츠 아이템을 포함함을 인식할 수 있다. 또한, 방송 수신 장치(100)는 NRT 컨텐츠 아이템을 실행하기 위해 필요한 NRT 파일 컴포넌트를 인식할 수 있다.
단순히 서비스가 복수의 프로그램을 포함하던 기존 방송과 달리, 하이브리드 방송에서 서비스는 다양한 종류의 컨테츠를 포함할 수 있다. 예컨대, 하이브리드 방송에서 서비스는 프로그램, 사용자 요청 컨텐츠, 및 비실시간 컨텐츠를 중 적어도 어느 하나를 포함할 수 있다. 따라서 컨텐츠 프래그먼트가 서비스 프래그먼트를 참조하면서 이러한 관계를 나타낼 필요가 있다. 이에 대해서 다음의 도면들을 통해 설명한다.
도 55는 본 발명의 또 다른 실시예에 따른 컨텐츠 프래그먼트가 서비스를 참조하는 경우 컨텐츠 프래그먼트의 XML 형식을 보여준다.
컨텐츠 프래그먼트는 참조하는 서비스 프래그먼트와의 관계를 나타내는 관계 엘리먼트를 포함할 수 있다. 관계 엘리먼트는 해당 컨텐츠가 참조 하는 서비스 프래그먼트가 나타내는 서비스의 프로그램임을 나타낼 수 있다. 이때, 관계 엘리먼트의 값은 1일 수 있다. 또한, 관계 엘리먼트는 해당 컨텐츠가 참조 하는 서비스 프래그먼트가 나타내는 서비스의 컨텐츠 아이템임을 나타낼 수 있다. 이때, 관계 엘리먼트의 값은 2일 수 있다. 또한, 관계 엘리먼트는 해당 컨텐츠가 참조 하는 서비스 프래그먼트가 나타내는 서비스의 사용자 요청 컨텐츠 임을 나타낼 수 있다. 사용자 요청 컨텐츠는 사용자 요청에 의해 실행되는 컨텐츠를 나타낸다. 이때, 관계 엘리먼트의 값은 3일 수 있다. 구체적인 실시예에서 관계 엘리먼트는 relationship 이라 할 수 있다. 방송 수신 장치(100)는 관계 엘리먼트에 기초하여 컨텐츠가 참조하는 서비스와 어떤 관계를 갖는지 인식할 수 있다.
또한, 컨텐츠 프래그먼트는 관계 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 텐츠 프래그먼트는 관계 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 RelationshipRangeType이라 할 수 있다. 방송 수신 장치(100)는 관계 엘리먼트에 기초하여 컨텐츠가 참조하는 서비스와 어떤 관계를 가질 수 있는지 인식할 수 있다.
또한, 참조하는 서비스 프래그먼트와의 중요도를 나타내는 가중치 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 가중치 엘리먼트는 weight라 할 수 있다. 방송 수신 장치(100)는 가중치 엘리먼트에 기초하여 서비스가 포함하는 컨텐츠의 중요도를 판단할 수 있다. 또한, 방송 수신 장치(100)는 서비스가 포함하는 컨텐츠를 가중치 엘리먼트에 기초하여 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 서비스가 포함하는 컨텐츠를 표시하면서 가중치 엘리먼트가 나타내는 중요도가 클수록 우선하여 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 서비스가 포함하는 컨텐츠를 가중치 일리먼트의 값에 따라 정렬하여 표시할 수 있다.
도 56은 본 발명의 또 다른 실시예에 따라 컨텐츠 프래그먼트가 서비스 프래그먼트간의 참조 관계를 보여준다.
식별자가 bcast://lge.com/Content/1인 컨텐츠 프래그먼트는 식별자가bcast://lge.com/Service/1인 서비스 프래그먼트를 참조하면서 관계 엘리먼트의 값으로 1을 갖는다. 따라서 방송 수신 장치(100)는 컨텐츠 프래그먼트를 통해 식별자가 bcast://lge.com/Content/1인 컨텐츠 프래그먼트가 나타내는 컨텐츠는 식별자가bcast://lge.com/Service/1인 서비스 프래그먼트가 나타내는 서비스의 프로그램임을 인식할 수 있다.
또한, 식별자가 bcast://lge.com/Content/2인 컨텐츠 프래그먼트는 식별자가bcast://lge.com/Service/1인 서비스 프래그먼트를 참조하면서 관계 엘리먼트의 값으로 2를 갖는다. 따라서 방송 수신 장치(100)는 컨텐츠 프래그먼트를 통해 식별자가 bcast://lge.com/Content/2인 컨텐츠 프래그먼트가 나타내는 컨텐츠는 식별자가bcast://lge.com/Service/1인 서비스 프래그먼트가 나타내는 서비스의 컨텐츠 아이템임을 인식할 수 있다.
또한, 식별자가 bcast://lge.com/Content/3인 컨텐츠 프래그먼트는 식별자가bcast://lge.com/Service/1인 서비스 프래그먼트를 참조하면서 관계 엘리먼트의 값으로 3을 갖는다. 따라서 방송 수신 장치(100)는 컨텐츠 프래그먼트를 통해 식별자가 bcast://lge.com/Content/3인 컨텐츠 프래그먼트가 나타내는 컨텐츠는 식별자가bcast://lge.com/Service/1인 서비스 프래그먼트가 나타내는 서비스의 사용자 요청 컨텐츠임을 인식할 수 있다.
이와 같이 방송 수신 장치(100)는 컨텐츠 프래그먼트에 기초하여 해당 컨텐츠와 해당 컨텐츠를 포함하는 서비스가 어떤 관계를 갖는지 인식할 수 있다. 따라서 방송 수신 장치(100)는 별도의 서비스 시그널링 정보 없이도 서비스와 컨텐츠의 관계를 ESG 데이터에 기초하여 인식할 수 있다.
다만, 이와 같이 하위 프래그먼트가 상위 프래그먼트를 참조하는 경우, 방송 수신 장치(100)가 하위 프래그먼트를 먼저 처리한 후에야 상위 프래그먼트와 하위 프래그먼트를 관계를 파악할 수 있다. 따라서 방송 수신 장치(100)가 일부 서비스만을 표시하고자 하는 경우에도 서비스가 포함하는 컨텐츠 및 컴포넌트를 나타내느 프래그먼트 뿐만 아니라 다른 프래그먼트도 모두 확인해야한다. 방송 수신 장치(100)는 서비스를 중심으로 컨텐츠를 표시하는 것이 보통임을 고려할 때 이는 비효율적일 수 있다. 따라서 상위 프래그먼트가 하위 프래그먼트를 참조하는 것에 대해서 다음의 도면들을 통해 설명한다.
도 57은 본 발명의 또 다른 실시예에 따른 프래그먼트간의 참조 관계를 보여준다.
본 발명의 또 다른 실시예에서 컨텐츠를 포함하는 서비스를 나타내는 프래그먼트는 컨텐츠를 나타내는 컨테츠 프래그먼트를 참조할 수 있다. 또한, 컴포넌트를 포함하는 컨텐츠를 나타내는 컨텐츠 프래그먼트는 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조할 수 있다. 또한, 컴포넌트를 나타내는 컴포넌트 프래그먼트는 컴포넌트를 포함하는 서비스를 나타내는 서비스 프래그먼트를 참조할 수 있다. 스케줄 컴포넌트는 스케줄에 해당하는 서비스를 나타내는 서비스 프래그먼트, 스케줄에 해당하는 컨텐츠를 나타내는 컨텐츠 프래그먼트, 스케줄에 해당하는 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조할 수 있다.
이를 위해 서비스 프래그먼트, 컨텐츠 프래그먼트, 및 컴포넌트 프래그먼트는 앞서 설명한 엘리먼트 이외에 추가 컴포넌트를 포함하여한다. 이에 대해서는 도 58 내지 도 63을 통해 설명한다.
도 58은 본 발명의 또 다른 실시예에 따른 서비스 프래그먼트의 XML 형식을 보여준다.
서비스 프래그먼트는 서비스 프래그먼트가 나타내는 서비스가 포함하는 컨텐츠의 컨텐츠 프래그먼트를 나타내는 컨텐츠 참조 엘리먼트를 포함할 수 있다. 이때, 컨텐츠 참조 엘리먼트는 서비스가 포함하는 컨텐츠를 나타내는 컨텐츠 프래그먼트를 식별하는 식별자 값을 가질 수 있다. 구체적인 실시예에서 컨텐츠 참조 엘리먼트는 ContentReference일 수 있다.
서비스 프래그먼트는 서비스 프래그먼트가 나타내는 서비스가 포함하는 컴포넌트의 컴포넌트 프래그먼트를 나타내는 컴포넌트 참조 엘리먼트를 포함할 수 있다. 이때, 컴포넌트 참조 엘리먼트는 서비스가 포함하는 컨텐츠를 나타내는 컴포넌트 프래그먼트를 식별하는 식별자 값을 가질 수 있다. 구체적인 실시예에서 컴포넌트 참조 엘리먼트는 ComponentReference일 수 있다.
이러한 서비스 프래그먼트를 통해, 방송 수신 장치(100)는 서비스 프래그먼트에 기초하여 서비스 프래그먼트가 나타내는 서비스가 포함하는 컨텐츠의 정보를 획득할 수 있다. 또한, 방송 수신 장치(100)는 서비스 프래그먼트에 기초하여 서비스 프래그먼트가 나타내는 서비스가 포함하는 컴포넌트의 정보를 획득할 수 있다.
도 59는 본 발명의 또 다른 실시예에 따른 컨텐츠 프래그먼트의 XML 형식을 보여준다.
컨텐츠 프래그먼트는 컨텐츠 프래그먼트가 나타내는 컨텐츠가 포함하는 컴포넌트의 컴포넌트 프래그먼트를 나타내는 컴포넌트 참조 엘리먼트를 포함할 수 있다. 이때, 컴포넌트 참조 엘리먼트는 컨텐츠가 포함하는 컴포넌트를 나타내는 컴포넌트 프래그먼트를 식별하는 식별자 값을 가질 수 있다. 구체적인 실시예에서 컴포넌트 참조 엘리먼트는 CompoentReference일 수 있다.
이러한 컨텐츠 프래그먼트를 통해, 방송 수신 장치(100)는 컨텐츠 프래그먼트에 기초하여 컨텐츠 프래그먼트가 나타내는 컨테츠가 포함하는 컴포넌트의 정보를 획득할 수 있다.
도 60은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트의 XML 형식을 보여준다.
컴포넌트 프래그먼트는 컴포넌트 프래그먼트가 나타내는 컴포넌트가 포함하는 컴포넌트의 컴포넌트 프래그먼트를 나타내는 컴포넌트 참조 엘리먼트를 포함할 수 있다. 이때, 컴포넌트 참조 엘리먼트는 컴포넌트가 포함하는 컴포넌트를 나타내는 컴포넌트 프래그먼트를 식별하는 식별자 값을 가질 수 있다. 구체적인 실시예에서 컴포넌트 참조 엘리먼트는 CompoentReference일 수 있다.
이러한 컴포넌튼 프래그먼트를 통해, 방송 수신 장치(100)는 컴포넌트 프래그먼트에 기초하여 컴포넌트 프래그먼트가 나타내는 컴포넌트가 포함하는 컴포넌트의 정보를 획득할 수 있다.
도 61은 본 발명의 또 다른 실시예에 따른 서비스 프래그먼트, 컨텐츠 프래그먼트, 및 컴포넌트 프래그먼트와의 참조 관계를 보여준다.
서비스는 컨텐츠를 포함하고, 컨텐츠는 프레전터블 비디오 컴포넌트, 프레전터블 오디오 컴포넌트, 및 프레젠터블 자막 컴포넌트를 포함할 수 있다. 도 61의 실시예의 서비스 프래그먼트, 컨텐츠 프래그먼트, 및 복수의 컴포넌트 프래그먼트는 이러한 포함관계를 나타낸다. 서비스 프레그먼트는 서비스 프레그먼트가 나타내는 서비스가 포함하는 컨텐츠의 컨텐츠 프레그먼트를 참조한다. 컨텐츠 프레그먼트는 컨텐츠 프래그먼트가 나타내는 컨텐츠가 포함하는 프레젠터블 비디오 컴포넌트의 컴포넌트 프래그먼트를 참조한다. 도 61에서는 컨텐츠 프레그먼트는 프레젠터블 비디오 컴포넌트의 컴포넌트 프래그먼트만을 참조하나 컨텐츠 컴포넌트 프래그먼트 컨텐츠 프래그먼트가 나타내는 컨텐츠가 포함하는 프레젠터블 오디오 컴포넌트의 컴포넌트와 프레젠터블 자막 컴포넌트의 컴포넌트 프래그먼트를 참조할 수 있다. 프레젠터블 자막 컴포넌트를 나타내는 컴포넌트 프래그먼트 및 프레젠터블 오디오 컴포넌트를 나타내는 컴포넌트 프래그먼트는 프레젠터블 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트와 연관되어 있음을 나타낸다.
따라서 방송 수신 장치(100)는 서비스 프래그먼트에 기초하여 서비스가 포함하는 컨텐츠의 정보를 획득할 수 있다. 또한, 방송 수신 장치(100)는 컴포넌트 프래그먼트에 기초하여 컨텐츠가 포함하는 컴포넌트 프래그먼트를 획득할 수 있다.
도 62는 본 발명의 또 다른 실시예에 따른 컴포지트 컴포넌트를 나타내는 컴포넌트 프래그먼트와 하위 컴포넌트를 나타내는 컴포넌트 프래그먼트간의 참조관계를 보여준다.
컴포지트 컴포넌트는 하나의 장면을 구성하는 복수의 컴포넌트를 포함할 수 있다. 도 62의 실시예의 복수의 컴포넌트 프래그먼트는 이러한 포함관계를 나타낸다. 구체적으로 도 62의 실시예에서 컴포지트 컴포넌트의 컴포넌트 프래그먼트는 가변적 비디오 인코딩을 위한 베이스 계층 컴포넌트의 컴포넌트 프래그먼트를 참조한다. 또한, 가변적 비디오 인코딩을 위한 베이스 계층 컴포넌트의 컴포넌트 프래그먼트는 제1 인해스먼트 프래그먼트 컴포넌트의 컴포넌트 프래그먼트를 참조한다. 또한, 제1 인핸스먼트 계층 컴포넌트의 컴포넌트 프래그먼트는 제2 인해스먼트 프래그먼트 컴포넌트의 컴포넌트 프래그먼트를 참조한다.
이를 통해 방송 수신 장치(100)는 가변적 비디오 코딩을 위한 복수의 컴포넌트를 나타내는 복수의 컴포넌트 프래그먼트에 기초하여 컴포지트 컴포넌트를 구성하는 컴포넌트간의 관계에 대한 정보를 획득할 수 있다. 구체적으로 방송 수신 장치(100)는 베이스 계층의 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트에 기초하여 베이스 계층 비디오 컴포넌트와 제1 인핸스먼트 계층의 비디오 컴포넌트를 함께 재생할 수 있음을 인식할 수 있다. 구체적으로 방송 수신 장치(100)는 제1 인핸스먼트 계층의 비디오 컴포넌트를 나타내는 컴포넌트 프래그먼트에 기초하여 제1 인핸스먼트 계층의 비디오 컴포넌트와 제2 인핸스먼트 계층의 비디오 컴포넌트를 함께 재생할 수 있음을 인식할 수 있다.
도 63은 본 발명의 또 다른 실시예에 따른 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트와 하위 컴포넌트를 나타내는 컴포넌트 프래그먼트간의 참조 관계를 보여준다.
앞서 설명한 바와 같이 어플 기반 인핸스먼트 컴포넌트는 NRT 컨텐츠 아이템 컴포넌트를 포함할 수 있다. 이때, NRT 컨텐츠 아이템 컴포넌트는 NRT 파일 컴포넌트를 포함할 수 있다. 또한, 어플 기반 인핸스먼트 컴포넌트는 어플리케이션 컴포넌트를 포함할 수 있다. 또한, 어플 기반 인핸스먼트 컴포넌트는 사용자 요청 컴포넌트를 포함할 수 있다. 도 63의 실시예의 복수의 컴포넌트 프래그먼트는 이러한 포함관계를 나타낸다. 구체적으로 도 63의 실시예에서 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트는 NRT 컨텐츠 아이템 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다. 또한, NRT 컨텐츠 아이템 컴포넌트를 나타내는 컴포넌트 프래그먼트는 NRT 파일 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다. 또한, 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트는 어플리케이션 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다. 또한, 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트는 사용자 요청 컴포넌트를 나타내는 컴포넌트 프래그먼트를 참조한다.
이를 통해 방송 수신 장치(100)는 어플 기반 인핸스먼트 컴포넌트를 나타내는 컴포넌트 프래그먼트에 기초하여 어플 기반 인핸스먼트 컴포넌트와 어플 기반 인핸스먼트 컴포넌트가 포함하는 컴포넌트간의 관계에 대한 정보를 획득할 수 있다. 구체적으로 방송 수신 장치(100)는 어플 기반 인핸스먼트 컴포넌트가 NRT 컨테츠 아이템을 포함함을 인식할 수 있다. 또한, 방송 수신 장치(100)는 NRT 컨텐츠 아이템을 실행하기 위해 필요한 NRT 파일 컴포넌트를 인식할 수 있다.
이상에서 설명한 바와 같이 서비스 프래그먼트는 서비스 프래그먼트가 나타내는 서비스가 포함하는 컴포넌트의 컴포넌트 프래그먼트를 나타내는 컴포넌트 참조 엘리먼트를 포함할 수 있다. 또한, 컨텐츠 프래그먼트는 컨텐츠 프래그먼트가 나타내는 컨텐츠가 포함하는 컴포넌트의 컴포넌트 프래그먼트를 나타내는 컴포넌트 참조 엘리먼트를 포함할 수 있다. 또한, 컴포넌트 프래그먼트는 컴포넌트 프래그먼트가 나타내는 컴포넌트가 포함하는 컴포넌트의 컴포넌트 프래그먼트를 나타내는 컴포넌트 참조 엘리먼트를 포함할 수 있다. 이를 통해 방송 수신 장치(100)는 복수의 서비스 중 특정 서비스에 관한 정보를 표시하기 위해 특정 서비스 프래그먼트를 추출하고, 특정 서비스 프래그먼트가 참조하는 켄텐츠 프래그먼트와 컴포넌트 프래그먼트를 추출할 수 있다. 따라서 이를 통해 특정 서비스에 과한 정보를 표시하기 위해 방송 수신 장치(100)가 처리해야하는 ESG 데이터의 양을 줄여, 방송 수신 장치(100)의 ESG 데이터 처리 효율을 높일 수 있다.
도 64 내지 도 66은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트의 신택스를 보여준다.
본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트는 방송 서비스 또는 컨텐츠의 일부인 컴포넌트에 관한 정보를 포함한다.
컴포넌트 프래그먼트는 구체적으로 컴포넌트 프래그먼트를 식별하는 식별자 속성을 포함할 수 있다. 구체적인 실시예에서 식별자 속성은 id일 수 있다.
또한, 컴포넌트 프래그먼트는 컴포넌트의 변경 여부를 나타내는 버전 속성을 포함할 수 있다. 구체적인 실시예에서 버전 속성은 version일 수 있다.
또한, 컴포넌트 프래그먼트는 컴포넌트 프래그먼트의 유효기간을 나타내는 유효기간 속성을 포함할 수 있다. 컴포넌트 프래그먼트의 유효기간을 나타내는 속성은 유효기간의 시작 시간 및 종료 시간을 포함할 수 있다. 구체적인 실시예에서 유효기간의 시작 시간 속성은 validFrom일 수 있다. 구체적인 실시예에서 유효기간의 종료 시간 속성은 validTo일 수 있다.
컴포넌트 프래그먼트는 컴포넌트를 포함하는 서비스의 서비스 프르래그먼트를 나타내는 서비스 참조 엘리먼트를 포함할 수 있다. 서비스 참조 엘리먼트는 참조하는 서비스를 나타내는 서비스 프래그먼트를 식별하는 식별자 값을 식별자 속성으로 가질 수 있다. 구체적인 실시예에서 참조 서비스 엘리먼트는 ReferenceService라 할 수 있다. 구체적인 실시예에서 식별자 속성은 idRef라 할 수 있다.
또한, 컴포넌트 프래그먼트는 컴포넌트를 포함하는 컨텐츠의 컨텐츠 프르래그먼트를 나타내는 컨텐츠 참조 엘리먼트를 포함할 수 있다. 컨텐츠 참조 엘리먼트는 참조하는 컨텐츠를 나타내는 컨텐츠 프래그먼트를 식별하는 식별자 값을 식별자 속성으로 가질 수 있다. 구체적인 실시예에서 컨텐츠 참조 엘리먼트는 ReferenceContent라 할 수 있다. 구체적인 실시예에서 식별자 속성은 idRef라 할 수 있다.
또한, 컴포넌트 프래그먼트는 컴포넌트를 포함하는 상위 컴포넌트의 컴포넌트 프르래그먼트를 나타내는 컴포넌트 참조 엘리먼트를 포함할 수 있다. 컴포넌트 참조 엘리먼트는 참조하는 컴포넌트를 나타내는 컴포넌트 프래그먼트를 식별하는 식별자 값을 식별자 속성으로 가질 수 있다. 구체적인 실시예에서 컴포넌트 참조 엘리먼트는 ReferenceCompoonent라 할 수 있다. 구체적인 실시예에서 식별자 속성은 idRef라 할 수 있다.
또한, 컴포넌트 프래그먼트는 컴포넌트의 종류를 나타내는 컴포넌트 타입 엘리먼트를 포함할 수 있다. 하나의 컴포넌트가 여러 특성을 동시에 포함할 수 있으므로, 하나의 컴포넌트 프래그먼트는 복수의 컴포넌트 타입 엘리먼트를 포함할 수 있다.
앞서 설명한 바와 같이 컴포넌트 타입 엘리먼트는 다양한 종류의 컴포넌트를 나타낼 수 있다.
구체적으로 컴포넌트 타입 엘리먼트는 연속(continuous) 컴포넌트를 나타낼 수 있다. 연속 컴포넌트는 연속된 스트림상에서 재생되는 컴포넌트이다. 예컨대, 연속 컴포넌트는 오디오, 비디오 및 자막 중 어느 하나일 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 연속 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 1의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 기초(elementary) 컴포넌트를 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 기초 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 2의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 컴포지트(composite) 컴포넌트를 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 컴포지트 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 3의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 픽원(PickOne) 컴포넌트를 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 픽원 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 4의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 컴플렉스 컴포넌트를 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 컴플렉스 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 5의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 비디오 프레젠터블 컴포넌트를 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 프레젠터블 비디오 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 6의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 오디오 프레젠터블 컴포넌트를 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 프레젠터블 오디오 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 7의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 자막 프레젠터블 컴포넌트를 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 프레젠터블 자막 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 8의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 컴포넌트가 NRT(Non-Real Time) 파일임을 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 컴포넌트가 NRT 파일임를 나타내는 경우, 컴포넌트 타입 엘리먼트는 9의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 컴포넌트가 NRT 컨텐츠 아이템임을 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 컴포넌트가 NRT 컨텐츠 아이템임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 10의 값을 가질 수 있다. 또한, 컴포넌트 타입 엘리먼트는 컴포넌트가 어플리케이션임을 나타낼 수 있다. 어플리케이션은 부가 서비스 또는 쌍방향(interactive) 서비스를 구성하는 도쿠먼트(document)의 집합일 수 있다. 구체적으로 도쿠먼트는 HTML, JavaScriptr, CSS, XML 및 멀티미디어 파일 중 적어도 어느 하나를 포함할 수 있다. 어플리케이션은 NRT 컨텐츠 아이템의 한 종류라 할 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 컴포넌트가 어플리케이션임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 11의 값을 가질 수 있다. 컴포넌트 타입 엘리먼트는 컴포넌트가 ATSC 3.0 어플리케이션임을 나타낼 수 있다. ATSC 3.0 어플리케이션은 ATSC 3.0 표준에서 정환 환경에서 실행되는 어플리케이션을 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 컴포넌트가 ATSC 3.0 어플리케이션임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 12의 값을 가질 수 있다. 컴포넌트 타입 엘리먼트는 컴포넌트가 사용자 요청 컴포넌트임을 나타낼 수 있다. 사용자 요청 컴포넌트는 사용자 요청에 의해 전송되는 컴포넌트를 나타낸다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 사용자 요청 컴포넌트를 나타내는 경우, 컴포넌트 타입 엘리먼트는 13의 값을 가질 수 있다. 컴포넌트 타입 엘리먼트는 컴포넌트가 노티피케이션(notification) 스트림임을 나타낼 수 있다. 노티피케이션 스트림은 선형적 기준 시간에따라 어플리케이션의 동작(action)을 동기화하기 위한 노티피케이션을 전송한다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 컴포넌트가 노티피케이션(notification) 스트림임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 14의 값을 가질 수 있다. 컴포넌트 타입 엘리먼트는 컴포넌트가 어플 기반 인핸스먼트(App-based Enhancement)임을 나타낼 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 컴포넌트가 어플 기반 인핸스먼트임을 나타내는 경우, 컴포넌트 타입 엘리먼트는 15의 값을 가질 수 있다.
구체적인 실시예에서 컴포넌트 타입 엘리먼트는 ComponentType 이라할 수 있다.
또한, 컴포넌트 프래그먼트는 컴포넌트의 역할을 나타내는 컴포넌트 롤 엘리먼트를 포함할 수 있다. 컴포넌트 롤 엘리먼트가 가질 수 있는 값은 정수일수 있다. 또한, 하나의 컴포넌트가 여러 역할을 동시에 수행할 수 있으므로, 하나의 컴포넌트 프래그먼트는 복수의 컴포넌트 롤 엘리먼트를 포함할 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 기본(default) 비디오를 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 1일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 대체 시점 화면(alternative camera view)을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 2일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 대체 비디오 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 3일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 수화 화면을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 4일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 팔로우 서브젝트 비디오(follow subject video) 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 5일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 컴포지트 비디오 컴포넌트인 경우 가변적 비디오 인코딩(scalable video encoding)을 베이스 계층임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 6일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 컴포지트 비디오 컴포넌트인 경우 가변적 비디오 인코딩(scalable video encoding)을 위한 인핸스먼트 계층(enhacement layer)계층임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 7일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 컴포지트 비디오 컴포넌트인 경우 미디어 컴포넌트가 3D 영상의 왼쪽 영상임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 8일 가질 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 컴포지트 비디오 컴포넌트인 경우 미디어 컴포넌트가 3D 영상의 오른쪽 영상을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 9일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 컴포지트 비디오 컴포넌트인 경우 3D 영상의 깊이 정보를 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 10일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 컴포지트 비디오 컴포넌트인 경우 미디어 컴포넌트가 복수의 영역으로 분할된 화면의 특정 위치의 비디오임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 11일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 컴포지트 비디오 컴포넌트인 경우 특정 피사체(subject)를 따라 보여지는 화면인 팔로우-서브젝트(Follow-Subject) 메타데이터일 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 12일 수 있다. 이러한 팔로우-서브젝트 메타데이터는 피사체의 이름, 피사체의 위치 및 피사체의 크기 중 적어도 어느 하나를 포함할 수 있다. 팔로우-서브젝트 기능이 스트림의 프레임 단위의 메타데이터에 의하여 지원되는 경우, 팔로우-서브젝트 메타데이터는 피사체가 포커스되는 메인 비디오 컴포넌트의 영역을 나타낼 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 완전한 메인(complete main)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 13일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 음악임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 14일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 대화(dialog)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 15일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 효과음(effects)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 16일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 시각 장애인을 위한 오디오(visual impaired)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 17일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 청각 장애인을 위한 오디오(hearing impaired)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 18일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 코멘터리임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 19일 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 자막 컴포넌트인 경우, 컴포넌트가 보통(normal)의 자막임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 20일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 자막 컴포넌트인 경우, 컴포넌트가 유 초등학생을 위한 자막인 이지 리더(easy-reader) 자막임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 21일 수 있다.
또한, 컴포넌트 프래그먼트는 추후 확장 위한 예비적으로 사용될 수 있는 확장 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 확장 엘리먼트는 PrivateExt라 할 수 있다.
또한, 컴포넌트 프래그먼트는 특정 어플리케이션의 사용을 위한 소유주(proprietary) 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 소유주 엘리먼트는 ProprietartyElements라 할 수 있다.
도 67은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트의 XML 형식을 보여준다.
도 68의 실시예에서의 컴포넌트 프래그먼트는 도 65 내지 도 68을 통해 설명한 엘리먼트와 속성을 포함한다.
도 68은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 포함하는 ComponentRangeType의 XML 형식을 보여준다.
컴포넌트 프래그먼트가 포함하는 컴포넌트 타입 엘리먼트는 컴포넌트 타입 엘리먼트 타입 엘리먼트가 가질 수 있는 값의 범위를 나타내는 속성을 포함할 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트가 가질 수 있는 값의 범위를 나타내는 속성은 ComponentTypeRangeType이라할 수 있다.
도 69는 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 포함하는 ComponentRoleRangeType의 XML 형식을 보여준다.
컴포넌트 프래그먼트가 포함하는 컴포넌트 롤 엘리먼트는 컴포넌트 롤 엘리먼트 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 속성을 포함할 수 있다. 구체적인 실시예에서 컴포넌트 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 속성은 ComponentRoleRangeType이라할 수 있다.
도 70은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 가변적 비디오 인코딩을 사용하는 컴포지트 비디오 컴포넌트와 컴포지트 컴포넌트가 포함하는 컴포넌트들과의 관계를 나타내는 것을 보여준다.
도 70의 실시예의 컴포넌트 프래그먼트는 식별자가 bcast://lge.com/Component/1인 컴포지트 컴포넌트가 식별자가 bcast://lge.com/Component/2인 기초 컴포넌트와 식별자가bcast://lge.com/Component/3인 기초 컴포넌트를 포함하는 것을 나타낸다. 또한, 컴포넌트 프래그먼트의 컴포넌트 롤 엘리먼트는 식별자가 bcast://lge.com/Component/2인 기초 컴포넌트가 가변적 비디오 인코딩의 베이스 계층임을 나타내고, 식별자가 bcast://lge.com/Component/3인 기초 컴포넌트가 가변적 비디오 인코딩의 인해스먼트 계층임을 나타낸다.
도 71은 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 3D 영상을 포함하는 컴포지트 비디오 컴포넌트와 컴포지트 비디오 컴포넌트가 포함하는 컴포넌트들과의 관계를 나타내는 것을 보여준다.
도 71의 실시예에서 컴포넌트 프래그먼트는 식별자가 bcast://lge.com/Component/1인 컴포지트 컴포넌트가 식별자가 bcast://lge.com/Component/2인 픽원 컴포넌트와 식별자가bcast://lge.com/Component/3인 픽원 컴포넌트를 포함하는 것을 나타낸다. 또한, 컴포넌트 프래그먼트의 컴포넌트 롤 엘리먼트는 식별자가 bcast://lge.com/Component/2인 기초 컴포넌트가 3D 영상의 좌 영상을 나타내고, 식별자가 bcast://lge.com/Component/3인 기초 컴포넌트가 3D 영상의 우 영상임을 나타낸다.
도 72는 본 발명의 또 다른 실시예에 따른 컴포넌트 프래그먼트가 픽원 오디오 컴포넌트와 픽원 오디오 컴포넌트가 포함하는 컴포넌트들과의 관계를 나타내는 것을 보여준다.
도 72의 실시예에서 컴포넌트 프래그먼트는 식별자가 bcast://lge.com/Component/1인 픽원 컴포넌트가 서로 대체 가능한 식별자가 bcast://lge.com/Component/2인 픽원 컴포넌트와 식별자가bcast://lge.com/Component/3인 컴포지트 컴포넌트를 포함하는 것을 보여준다. 또한, 컴포넌트 프래그먼트의 컴포넌트 롤 엘리먼트는 식별자가 bcast://lge.com/Component/2인 픽원 컴포넌트가 완전한 메인 오디오임을 나타낸다. 또한, 컴포넌트 프래그먼트의 컴포넌트 롤 엘리먼트는 bcast://lge.com/Component/3인 컴포지트 컴포넌트는 식별자가 bcast://lge.com/Component/4인 픽원 컴포넌트와 식별자가 bcast://lge.com/Component/5인 픽원 컴포넌트를 포함함을 나타낸다. 이때, 컴포넌트 프래그먼트의 컴포넌트 롤 엘리먼트는 식별자가 bcast://lge.com/Component/4인 픽원 컴포넌트는 음악임을 나타낸다. 또한, 컴포넌트 프래그먼트의 컴포넌트 롤 엘리먼트는 식별자가 bcast://lge.com/Component/5인 픽원 컴포넌트는 대화임을 나타낸다.
앞서 설명한 바와 같이 ESG 데이터는 컴포넌트에 관한 정보를 컨텐츠 프래그먼트의 하위 엘리먼트로 포함할 수 있다. 아래의 도면들을 통해 이에 대해서 설명한다.
도 73 내지 도 75는 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 신택스를 보여준다.
컨텐츠 프래그먼트는 확장성을 위한 확장 엘리먼트를 포함한다. 컨텐츠 프래그먼트는 컨텐츠가 포함하는 컴포넌트에 대한 정보를 나타내는 컴포넌트 엘리먼트를 확장 엘리먼트의 하위 엘리먼트로 포함할 수 있다.
구체적으로 컴포넌트 엘리먼트는 컴포넌트의 종류를 나타내는 컴포넌트 타입 엘리먼트를 포함할 수 있다. 컴포넌트 타입 엘리먼트는 프렌젠터블 비디오 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 타입 엘리먼트가 갖는 값은 1일 수 있다. 컴포넌트 타입 엘리먼트는 프렌젠터블 오디오 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 타입 엘리먼트가 갖는 값은 2일 수 있다. 컴포넌트 타입 엘리먼트는 프렌젠터블 자막 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 타입 엘리먼트가 갖는 값은 3일 수 있다. 컴포넌트 타입 엘리먼트는 어플 기반 인핸스먼트 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 타입 엘리먼트가 갖는 값은 4일 수 있다. 구체적인 실시예에서 컴포넌트 타입 엘리먼트는 ComponentType이라 할 수 있다. 또한, 컴포넌트 타입 엘리먼트는 컴포넌트 타입 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 이때, 컴포넌트 타입 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 ComponentTypeRangeType이라 할 수 있다. 앞서 설명한 컴포넌트 프래그먼트에 비해 컴포넌트 타입 엘리먼트가 나타내는 컴포넌트의 종류가 적을 수 있다. 이는 컴포넌트를 포함하는 컨텐츠의 특성이 컨텐츠 프래그먼트에 의해 나타므로 이를 반복적으로 컨텐츠 프래그먼트에서 설명할 필요가 없기 때문이다.
또한, 컴포넌트 엘리먼트는 컴포넌트의 역할을 나타내는 엘리먼트 컴포넌트 롤 엘리먼트를 포함할 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 기본(default) 비디오를 나타낼 수 있다. 이때, 기본 비디오는 주(primary)된 비디오로 일컬 어질 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 1일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 대체 시점 화면(alternative camera view)을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 2일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 대체 비디오 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 3일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 수화 화면을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 4일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 팔로우 서브젝트 비디오(follow subject video) 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 5일 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 완전한 메인(complete main)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 6일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 음악임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 7일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 대화(dialog)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 8일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 효과음(effects)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 9일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 시각 장애인을 위한 오디오(visual impaired)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 10일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 청각 장애인을 위한 오디오(hearing impaired)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 11일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 코멘터리임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 12일 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 자막 컴포넌트인 경우, 컴포넌트가 보통(normal)의 자막임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 13일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 자막 컴포넌트인 경우, 컴포넌트가 유 초등학생을 위한 자막인 이지 리더(easy-reader) 자막임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 14일 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 어플리케이션임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 15일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 NRT 컨텐츠 아이템임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 16일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 사용자 요청 컴포넌트임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 17일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 노티피케이션 스트림 컴포넌트임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 18일 수 있다. 노티피케이션 스트림은 선형적 기준 시간에따라 어플리케이션의 동작(action)을 동기화하기 위한 노티피케이션을 전송한다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 스타트-오버(start-over) 컴포넌트임을 나타낼 수 있다. 스타트-오버 컴포넌트는 컨텐츠가 방송을 시작한뒤 사용자의 요청에 따라 해당 컨텐츠를 처음부터 볼 수 있는 기능을 제공하는 어플리케이션 컴포넌트를 나타낸다. 이때, 컴포넌트 롤 엘리먼트의 값은 19일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 방송 수신 장치(100)와 연동 하는 연동 장치(300)에서 소비될 수 있는 연동 스크린 컴포넌트임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 20일 수 있다. 구체적인 실시예에서 컴포넌트 롤 엘리먼트는 ComponentRole이라 할 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 이때, 컴포넌트 롤 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 ComponentRoleRangeType이라 할 수 있다.
컴포넌트 엘리먼트는 컴포넌트의 표시(display) 시작 시간을 나타내는 시작시간 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 시작 시간 엘리먼트는 StartTime이라 할 수 있다.
컴포넌트 엘리먼트는 컴포넌트의 표시(display) 종료 시간을 나타내는 종료 시간 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 시작 시간 엘리먼트는 EndTime이라 할 수 있다.
컴포넌트 엘리먼트는 컴포넌트의 표현 언어를 나타내는 언어 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 언어 엘리먼트는 Language라 할 수 있다.
컴포넌트 엘리먼트는 세션 기반 전송 프로토콜에 따라 컴포넌트가 전송될 경우 세션 디스크립에서 나타느는 언어를 나타내는 세션 디스크립션 언어 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 세션 디스크립션 언어 엘리먼트는 languageSDP라 할 수 있다.
컴포넌트 엘리먼트는 컴포넌트의 표시(display)되는는 시간(duration)을 나타내는 길이 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 길이 엘리먼트는 Length라 할 수 있다.
컴포넌트 엘리먼트는 컴포넌트의 권장 등급(parental rating)을 나타내는 권장 등급 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 권장 등급 엘리먼트는 ParentalRating이라 할 수 있다.
컴포넌트 엘리먼트는 컴포넌트를 재생하기 위해 필요한 방송 수신 장치(100)의 성능(capability)을 나타내는 성능 엘리먼트를 포함할 수 있다. 구체적으로 성능 엘리먼트는 컴포넌트 재생을 위해 통신망(baroadband)과 접속(connection)이 필요함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 1일 수 있다.
또한, 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우, 성능 엘리먼트는 SD(Simple Definition) 비디오 재생 성능을 필요함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 2일 수 있다. 또한, 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우, 성능 엘리먼트는 HD(High Definition) 비디오 재생 성능을 필요함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 3일 수 있다. 또한, 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우, 성능 엘리먼트는 해상도가 4K이상의 UHD(Ultra High Definition) 비디오 재생 성능을 필요함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 4일 수 있다. 또한, 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우, 성능 엘리먼트는 해상도가 8K이상의 비디오를 재생할 수 있는 성능을 필요함을 나타낼 수 있다. 때, 성능 엘리먼트의 값은 5일 수 있다. 또한, 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우, 성능 엘리먼트는 해상도가 3D 비디오를 재생할 수 있는 성능을 필요함을 나타낼 수 있다. 때, 성능 엘리먼트의 값은 6일 수 있다. 또한, 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우, 성능 엘리먼트는 해상도가 하이 다이나믹 레인지 이미징(High Dinamic Range Imageing) 비디오를 재생할 수 있는 성능을 필요함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 7일 수 있다. 또한, 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우, 성능 엘리먼트는 해상도가 와이드 컬러 가뭇 (Wide Color Gamut) 비디오를 재생할 수 있는 성능을 필요함을 나타낼 수 있다. 때, 성능 엘리먼트의 값은 8일 수 있다.
또한, 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 성능 엘리먼트는 2.0 채널 오디오를 재생할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 9일 수 있다. 또한, 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 성능 엘리먼트는 2.1 채널 오디오를 재생할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 10일 수 있다. 또한, 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 성능 엘리먼트는 5.1 채널 오디오를 재생할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 11일 수 있다. 또한, 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 성능 엘리먼트는 6.1 채널 오디오를 재생할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 12일 수 있다. 또한, 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 성능 엘리먼트는 7.1 채널 오디오를 재생할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 13일 수 있다. 또한, 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 성능 엘리먼트는 22.1 채널 오디오를 재생할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 14일 수 있다. 또한, 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 성능 엘리먼트는 3D 오디오를 재생할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 15일 수 있다. 또한, 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 성능 엘리먼트는 대화 레벨 조정(Dilogue Level adjustment)이 가능해야 함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 16일 수 있다.
또한, 성능 엘리먼트는 컴포넌트를 재생하기 위해서는 매직 리모콘(magic remote control) 입력을 수신할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 17일 수 있다. 또한, 성능 엘리먼트는 컴포넌트를 재생하기 위해서는 터치 스크린 입력을 수신할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 18일 수 있다. 또한, 성능 엘리먼트는 컴포넌트를 재생하기 위해서는 마우스 입력을 수신할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 19일 수 있다. 또한, 성능 엘리먼트는 컴포넌트를 재생하기 위해서는 키보드 입력을 수신할 수 있어야함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 20일 수 있다.
또한, 성능 엘리먼트는 어플리케이션 렌더링이 필요함을 나타낼 수 있다. 이때, 성능 엘리먼트의 값은 21일 수 있다.
구체적인 실시예에서 성능 엘리먼트는 DeviceCappability라 할 수 있다. 또한, 성능 엘리먼트는 성능 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 이때, 성능 타입 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 DeviceCappabilityRangeType이라 할 수 있다.
컴포넌트 엘리먼트는 컴포넌트가 타겟팅하는 장치를 나타는 타겟 장치 엘리먼트를 포함할 수 있다. 타겟 장치 엘리먼트는 방송 서비스를 수신하는 주(primart) 장치인 방송 수신 장치(100)의 화면을 통해 제공되는 컴포넌트임을 나타낼 수 있다. 이때, 타겟 장치 엘리먼트의 값은 1일 수 있다. 타겟 장치 엘리먼트는 방송 서비스를 수신하는 주(primart) 장치인 방송 수신 장치(100)와 연동 하는 연동 장치(300)의 화면을 통해 제공되는 컴포넌트임을 나타낼 수 있다. 이때, 타겟 장치 엘리먼트의 값은 2일 수 있다. 타겟 장치 엘리먼트는 방송 서비스를 수신하는 주(primart) 장치인 방송 수신 장치(100)의 전체 화면 중 일부를 통해 제공되는 컴포넌트임을 나타낼 수 있다. 이때, 타겟 장치 엘리먼트의 값은 3일 수 있다. 구체적인 실시예에서 타겟 장치 엘리먼트는 TargetDevice라 할 수 있다. 또한, 타겟 장치 엘리먼트는 탁겟 장치 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트를 포함할 수 있다. 이때, 탁겟 장치 엘리먼트가 가질 수 있는 값의 범위를 나타내는 엘리먼트는 TargetDeviceRangeType이라 할 수 있다
도 76 내지 도 80은 앞서 설명한 컴포넌트 엘리먼트의 XML 형식을 보여준다.
방송 수신 장치(100)는 컴포넌트 엘리먼트에 기초하여 컴포넌트 정보를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 컨텐츠가 포함하는 컴포넌트 정보를 표시할 수 있다. 이에 대해서는 다음의 도면들을 통해 구체적으로 설명한다.
도 81 내지 도 83은 본 발명의 또 다른 실시예에 따라 방송 수신 장치가 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 따라 컨텐츠가 포함하는 컴포넌트를 표시하는 것을 보여준다.
방송 수신 장치(100)는 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 컨텐츠가 포함하는 컴포넌트 정보를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 방송 수신 장치(100)가 재생할 수 있는 컴포넌트와 재생할 수 없는 컴포넌트를 구별되게 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 방송 수신 장치(100)가 재생할 수 있는 컴포넌트와 재생할 수 없는 컴포넌트를 다르게 표시할 수 있다. 구체적인 실시예에서 방송 수신 장치(100)는 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 방송 수신 장치(100)가 재생할 수 있는 컴포넌트와 재생할 수 없는 컴포넌트를 색상을 달리하여 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 방송 수신 장치(100)가 재생할 수 있는 컴포넌트를 흰색 바탕으로 표시하고, 방송 수신 장치(100)가 재생할 수 없는 컴포넌트를 회색 바탕으로 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 방송 수신 장치(100)가 재생할 수 있는 컴포넌트와 재생할 수 없는 컴포넌트를 다른 아이콘으로 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 방송 수신 장치(100)가 재생할 수 있는 컴포넌트와 재생할 수 없는 컴포넌트를 다른 텍스트로 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 방송 수신 장치(100)가 재생할 수 있는 컴포넌트와 재생할 수 없는 컴포넌트를 다른 그래픽 심볼로 표시할 수 있다. 방송 수신 장치(100)는 앞서 설명한 바와 같이 컴포넌트 정보를 서비스 가이드 메뉴에 표시할 수 있다. 또한, 방송 수신 장치(100) 컴포넌트 정보를 서비스 리스트 메뉴에 표시할 수 있다. 또한, 방송 수신 장치(100)는 컨텐츠가 재생되는 화면에서 화면의 하단 또는 상단에 위치하는 바(bar) 형태의 메뉴에 컴포넌트 정보를 표시할 수 있다.
도 81의 실시예에서 컨텐츠는 HD 비디오 재생을 필요로하는 컴포넌트와 5.1 채널의 오디오 재생을 필요로하는 컴포넌트를 포함한다. 방송 수신 장치(100)가 HD 비디오 재생과 5.1 채널의 오디오 재생을 지원하는 경우, 방송 수신 장치(100)는 도 81(b)에서와 같이 흰색 바탕에 컴포넌트 정보를 표시할 수 있다. 다만, 방송 수신 장치(100)가 5.1 채널의 오디오 재생을 지원하지 않는 경우, 방송 수신 장치(100)는 도 81(C)에서와 같이 회색 바탕(gray out)에 5.1 채널 재생을 필요로하는 오디오 컴포넌트 정보를 표시할 수 있다.
도 82의 실시예에서 컨텐츠는 UHD 비디오 재생을 필요로하는 컴포넌트, 영어를 포함하는 오디오 컴포넌트, 및 통신망(broadband) 접속(connection)을 필요로하는 스페인어를 포함하는 오디오 컴포넌트를 포함한다. 방송 수신 장치(100)가 통신 망 접속을 제공하지 않는 경우, 방송 수신 장치(100)는 도 82(b)의 실시예에서와 같이 스페인어를 포함하는 오디오 컴포넌트를 회색 바탕에 표시할 수 있다.
도 83의 실시예에서 컨텐츠는 UHD 비디오 재생을 필요로하는 컴포넌트, 5.1채널 재생을 필요로하는 오디오 컴포넌트, 및 와이드 컬러 가뭇을 필요로하는 비디오 컴포넌트를 포함한다. 방송 수신 장치(100)가 와이드 컬러 가뭇을 제공하지 않는 경우, 방송 수신 장치(100)는 도 83(c)의 실시예에서와 같이 와이드 컬러 가뭇을 필요로하는 비디오 컴포넌트를 회색 바탕에 표시할 수 있다.
방송 수신 장치(100)가 컴포넌트 엘리먼트가 포함하는 성능 엘리먼트에 기초하여 컴포넌트 정보를 제공할 경우, 사용자는 방송 수신 장치(100)가 해당 컨텐츠를 재생할 수 있는지 여부에 따라 컨텐츠를 선택할 수 있다. 구체적으로 사용자는 해당 컨텐츠를 방송 수신 장치(100)가 재생할 수 없음을 미리알 수 있다. 이를 통해 사용자가 방송 수신 장치(100)가 재생할 수 없는 컨텐츠를 기다리는 것을 방지할 수 있다. 하이브리드 방송에서 방송 컨텐츠의 종류가 다양해 지고, 필요로하는 장치의 성능이 많아짐을 고려할 때, 이러한 기능은 사용자의 편의성을 증대할 수 있다.
도 84 내지 도 85는 본 발명의 또 다른 실시예에 따른 컴포넌트 타입의 신택스를 보여준다.
앞서 설명한 바와 같이 컴포넌트 엘리먼트는 컴포넌트 종류를 나타내는 정보를 포함할 수 있다. 특히, 컴포넌트 엘리먼트는 컴포넌트의 종류를 나타내는 정보를 엘리먼트 형태로 포함할 수 있다. 다만, 컴포넌트 엘리먼트의 종류를 하나의 값으로 표현할 수 있는 경우, 컴포넌트 엘리먼트는 컴포넌트의 종류를 나타내는 정보를 엘리먼트 형태로 포함하지 않아도 된다. 따라서 컴포넌트 엘리먼트는 컴포넌트의 종류를 나타내는 정보를 컴포넌트 타입 속성으로 포함할 수 있다. 구체적으로 컴포넌트 타입 속성은 프렌젠터블 비디오 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 타입 속성이 갖는 값은 1일 수 있다. 컴포넌트 타입 속성은 프렌젠터블 오디오 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 타입 속성이 갖는 값은 2일 수 있다. 컴포넌트 타입 속성은 프렌젠터블 자막 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 타입 속성이 갖는 값은 3일 수 있다. 컴포넌트 타입 속성은 어플 기반 인핸스먼트 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 타입 속성이 갖는 값은 4일 수 있다.
또한, 앞서 설명한 바와 같이 컴포넌트 롤 엘리먼트는 정수 값을 가질 수 있다. 다만, 추후 데이터 추가의 편의를 위해 컴포넌트 롤 엘리먼트는 컴포넌트의 역할을 나타내는 스트링(string) 값을 가질 수 있다. 이때, 방송 수신 장치(100)는 컴포넌트 롤 엘리먼트가 갖는 스트링 값을 표시할 수 있다. 구체적으로 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 기본(default) 비디오임을 나타낼 수 있다. 이때, 기본 비디오는 주(primary)된 비디오로 지칭될 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Primary video"일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 대체 시점 화면(alternative camera view)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Alternative camera view"일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 대체 비디오 컴포넌트를 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Other alternative video component"일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 수화 화면임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Sign language inset"일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 비디오 컴포넌트인 경우 팔로우 서브젝트 비디오(follow subject video)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Follow subject video"일 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 완전한 메인(complete main)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Complete main"일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 음악임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Music"일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 대화(dialog)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Dialog"일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 효과음(effects)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Effects"일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 시각 장애인을 위한 오디오(visual impaired)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Visually impaired"일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 청각 장애인을 위한 오디오(hearing impaired)임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Hearing impaired"일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 오디오 컴포넌트인 경우, 컴포넌트가 코멘터리임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Commentary"일 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 자막 컴포넌트인 경우, 컴포넌트가 보통(normal)의 자막임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Normal"일 수 있다. 컴포넌트 롤 엘리먼트는 컴포넌트가 프레젠터블 자막 컴포넌트인 경우, 컴포넌트가 유 초등학생을 위한 자막인 이지 리더(easy-reader) 자막임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Easy reader"일 수 있다.
컴포넌트 롤 엘리먼트는 컴포넌트가 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 어플리케이션임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Application"일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 NRT 컨텐츠 아이템임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "NRT Content Item"일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 사용자 요청 컴포넌트임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "On demand"일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 노티피케이션 스트림 컴포넌트임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Notification Stream"일 수 있다. 노티피케이션 스트림은 선형적 기준 시간에따라 어플리케이션의 동작(action)을 동기화하기 위한 노티피케이션을 전송한다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 스타트-오버(start-over) 컴포넌트임을 나타낼 수 있다. 스타트-오버 컴포넌트는 컨텐츠가 방송을 시작한뒤 사용자의 요청에 따라 해당 컨텐츠를 처음부터 볼 수 있는 기능을 제공하는 어플리케이션 컴포넌트를 나타낸다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Start-over"일 수 있다. 또한, 컴포넌트 롤 엘리먼트는 어플 기반 인핸스먼트 컴포넌트인 경우, 컴포넌트가 방송 수신 장치(100)와 연동 하는 연동 장치(300)에서 소비될 수 있는 연동 스크린 컴포넌트임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Companion-Screen"일 수 있다.
도 86은 앞서 설명한 컴포넌트 엘리먼트의 XML 형식을 보여준다.
앞서 설명한 컴포넌트 엘리먼트는 컴포넌트 종류에 따른 구분 없이 컴포넌트에 대한 정보를 포함하였다. 컴포넌트 엘리먼트가 컴포넌트 종류에 따라 컴포넌트의 정보를 구분하여 포함하는 경우 중복된 하위 엘리먼트 및 속성의 사용을 줄일 수 있다. 이에 대해서는 다음의 도면들을 통해 설명한다.
도 87 내지 도 88은 본 발명의 또 다른 실시예에 따른 컴포넌트 엘리먼트의 신택스를 보여준다.
컴포넌트 엘리먼트는 검포넌트의 종류에 따라 컴포넌트 정보를 나타내는 하위 엘리먼트를 구분하여 포함할 수 있다. 컴포넌트 엘리먼트는 검포넌트의 종류에 따라 컴포넌트 역할을 나타내는 컴포넌트 롤 엘리먼트를 구분하여 포함할 수 있다.
구체적으로 컴포넌트 엘리먼트는 프레젠터블 비디오 컴포넌트의 역할을 나타내는 프레전터블 비디오 컴포넌트 엘리먼트를 포함할 수 있다. 이때, 프레전터블 비디오 컴포넌트 엘리먼트는 프레전터블 비디오 컴포넌트가 기본(default) 비디오 컴포넌트임을 나타낼 수 있다. 이때, 기본 비디오는 주(primary)된 비디오로 지칭될 수 있다. 이때, 프레전터블 비디오 컴포넌트 엘리먼트의 값은 "Primary video"일 수 있다. 또한, 프레전터블 비디오 컴포넌트 엘리먼트는 프레전터블 비디오 컴포넌트가 대체 시점 화면(alternative camera view)임을 나타낼 수 있다. 이때, 프레전터블 비디오 컴포넌트 엘리먼트의 값은 "Alternative camera view"일 수 있다. 또한, 프레전터블 비디오 컴포넌트 엘리먼트는 프레젠터블 비디오 컴포넌트가 대체 비디오 컴포넌트임를 나타낼 수 있다. 이때, 프레전터블 비디오 컴포넌트 엘리먼트의 값은 "Other alternative video component"일 수 있다. 프레전터블 비디오 컴포넌트 엘리먼트는는 프레전터블 비디오 컴포넌트가 수화 화면임을 나타낼 수 있다. 이때, 프레전터블 비디오 컴포넌트 엘리먼트의 값은 "Sign language inset"일 수 있다. 또한, 프레전터블 비디오 컴포넌트 엘리먼트는 프레전터블 비디오 컴포넌트가 팔로우 서브젝트 비디오(follow subject video)임을 나타낼 수 있다. 이때, 프레전터블 비디오 컴포넌트 엘리먼트의 값은 "Follow subject video"일 수 있다.
구체적으로 컴포넌트 엘리먼트는 프레젠터블 오디오 컴포넌트의 역할을 나타내는 프레전터블 오디오 컴포넌트 엘리먼트를 포함할 수 있다. 이때, 프레전터블 오디오 컴포넌트 엘리먼트는 프레젠터블 오디오 컴포넌트가 완전한 메인(complete main)임을 나타낼 수 있다. 이때, 프레전터블 오디오 컴포넌트 엘리먼트의 값은 "Complete main"일 수 있다. 프레전터블 오디오 컴포넌트 엘리먼트는 프레젠터블 오디오 컴포넌트가 음악임을 나타낼 수 있다. 이때, 프레전터블 오디오 컴포넌트 엘리먼트의 값은 "Music"일 수 있다. 프레전터블 오디오 컴포넌트 엘리먼트는 프레젠터블 오디오 컴포넌트가 대화(dialog)임을 나타낼 수 있다. 이때, 프레전터블 오디오 컴포넌트 엘리먼트의 값은 "Dialog"일 수 있다. 프레전터블 오디오 컴포넌트 엘리먼트는 프레젠터블 오디오 컴포넌트가 효과음(effects)임을 나타낼 수 있다. 이때, 프레전터블 오디오 컴포넌트 엘리먼트의 값은 "Effects"일 수 있다. 프레전터블 오디오 컴포넌트 엘리먼트는 프레젠터블 오디오 컴포넌트가 시각 장애인을 위한 오디오(visual impaired)임을 나타낼 수 있다. 이때, 프레전터블 오디오 컴포넌트 엘리먼트의 값은 "Visually impaired"일 수 있다. 프레전터블 오디오 컴포넌트 엘리먼트는 프레젠터블 오디오 컴포넌트가 청각 장애인을 위한 오디오(hearing impaired)임을 나타낼 수 있다. 이때, 프레전터블 오디오 컴포넌트 엘리먼트의 값은 "Hearing impaired"일 수 있다. 프레전터블 오디오 컴포넌트 엘리먼트는 프레젠터블 오디오 컴포넌트가 코멘터리임을 나타낼 수 있다. 이때, 프레전터블 오디오 컴포넌트 엘리먼트의 값은 "Commentary"일 수 있다.
구체적으로 컴포넌트 엘리먼트는 프레젠터블 자막 컴포넌트의 역할을 나타내는 프레전터블 자막 컴포넌트 엘리먼트를 포함할 수 있다. 프레전터블 자막 컴포넌트 엘리먼트는 프레젠터블 자막 컴포넌트가 보통(normal)의 자막임을 나타낼 수 있다. 이때, 프레전터블 자막 컴포넌트 엘리먼트의 값은 "Normal"일 수 있다. 프레전터블 자막 컴포넌트 엘리먼트는 프레젠터블 자막 컴포넌트가 유 초등학생을 위한 자막인 이지 리더(easy-reader) 자막임을 나타낼 수 있다. 이때, 프레전터블 자막 컴포넌트 엘리먼트의 값은 "Easy reader"일 수 있다.
구체적으로 컴포넌트 엘리먼트는 프레젠터블 어플 기반 앤핸스먼트 컴포넌트의 역할을 나타내는 프레전터블 어플 컴포넌트 엘리먼트를 포함할 수 있다. 프레전터블 어플 컴포넌트 엘리먼트는 컴어플 기반 인핸스먼트 컴포넌트가 어플리케이션임을 나타낼 수 있다. 이때, 컴포넌트 롤 엘리먼트의 값은 "Application"일 수 있다. 또한, 프레전터블 어플 컴포넌트 엘리먼트는 어플 기반 인핸스먼트 컴포넌트가 NRT 컨텐츠 아이템임을 나타낼 수 있다. 이때, 프레전터블 어플 컴포넌트 엘리먼트의 값은 "NRT Content Item"일 수 있다. 또한, 프레전터블 어플 컴포넌트 엘리먼트는 어플 기반 인핸스먼트 컴포넌트가 사용자 요청 컴포넌트임을 나타낼 수 있다. 이때, 프레전터블 어플 컴포넌트 엘리먼트의 값은 "On demand"일 수 있다. 또한, 프레전터블 어플 컴포넌트 엘리먼트는 어플 기반 인핸스먼트 컴포넌트가 노티피케이션 스트림 컴포넌트임을 나타낼 수 있다. 이때, 프레전터블 어플 컴포넌트 엘리먼트의 값은 "Notification Stream"일 수 있다. 또한, 프레전터블 어플 컴포넌트 엘리먼트는 어플 기반 인핸스먼트 컴포넌트가 스타트-오버(start-over) 컴포넌트임을 나타낼 수 있다. 스타트-오버 컴포넌트는 컨텐츠가 방송을 시작한뒤 사용자의 요청에 따라 해당 컨텐츠를 처음부터 볼 수 있는 기능을 제공하는 어플리케이션 컴포넌트를 나타낸다. 이때, 프레전터블 어플 컴포넌트 엘리먼트의 값은 "Start-over"일 수 있다. 또한, 프레전터블 어플 컴포넌트 엘리먼트는 어플 기반 인핸스먼트 컴포넌트가 방송 수신 장치(100)와 연동 하는 연동 장치(300)에서 소비될 수 있는 연동 스크린 컴포넌트임을 나타낼 수 있다. 이때, 프레전터블 어플 컴포넌트 엘리먼트의 값은 "Companion-Screen"일 수 있다.
도 89는 앞서 설명한 컴포넌트 엘리먼트와 컴포넌트 엘리먼트가 포함하는 프레전터블 비디오 컴포넌트 엘리먼트, 프레전터블 오디오 컴포넌트 엘리먼트, 프레전터블 자막 컴포넌트 엘리먼트, 및 프레전터블 어플 컴포넌트 엘리먼트의 XML 형식을 보여준다.
이와 같이 컴포넌트 엘리먼트는 컴포넌트의 종류를 나타내는 정보를 속성으로 포함할 수 있다. 또한, 컴포넌트 엘리먼트는 컴포넌트의 역할을 나타내는 엘리먼트의 값을 스트링으로 포함하여 추후 컴포넌트 역할 추가를 용이하게 할 수 있다. 또한, 방송 수신 장치(100)는 컴포넌트의 역할을 나타내는 엘리먼트의 값을 사용자에게 그대로 표시할 수 있다.
ESG 데이터가 포함하는 컴포넌트 정보는 컴포넌트를 재생하기 위해 필요한 장치의 성능을 나타내는 정보를 포함할 수 있다. 구체적으로 앞서 설명한 컴포넌트 프래그먼트는 컴포넌트를 재생하기 위해 필요한 장치 성능을 나타내는 정보를 엘리먼트로 포함할 수 있다. 또한, 앞서 설명한 컴포넌트 엘리먼트는 컴포넌트를 재생하기 위해 필요한 장치 성능을 나타내는 정보를 엘리먼트로 포함할 수 있다. 이에 대해서 다음의 도면들을 통해 설명한다.
도 90은 본 발명의 또 다른 실시예에 따른 성능 엘리먼트의 신택스를 보여준다.
성능 엘리먼트는 성능을 나타내는 값인 성능 코드를 포함할 수 있다. 구체적인 실시예에서 성능을 나타내는 값은 CapabilityCodes라 할 수 있다. 성능 코드가 나타낼 수 있는 의미에 대해서는 도 91을 통해 설명한다.
도 91은 본 발명의 또 다른 실시예에 따른 성능 엘리먼트가 포함하는 성능 코드 엘리먼트가 가질 수 있는 값을 보여준다.
성능 코드는 컴포넌트를 재생하기 위해서 통신망(Broadband)에 접속(connection)이 필요함을 나타낼 수 있다. 구체적으로 성능 코드는 컴포너트를 재생하기 위해서 통신망을 통한 다운로드가 필요함을 나타낼 수 있다. 이때, 성능 코드 값은 0x02일 수 있다.
또한, 성능 코드는 비디오 재생(rendering)에 필요한 장치의 성능을 나타낼 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 SD 비디오의 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0x80일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 HD 비디오의 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0x81일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 UHD 비디오의 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0x82일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 해상도가 8K이상의 E-UHD 비디오의 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0x83일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 3D 비디오의 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0x90일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 하이 다이나믹 레인지(High Dynamic Range) 비디오 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0x91일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 와이드 컬러 가뭇(Wide Coloer Gamut) 비디오의 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0x92일 수 있다.
또한, 성능 코드는 오디오 재생(rendering)에 필요한 장치의 성능을 나타낼 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 스테레오(2 채널) 오디오의 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0xA0일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 5.1 채널 오디오의 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0xA1일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 3D 오디오의 재생이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0xA2일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 대화 레벨 조정(Dilogue Level adjustment)이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0xB1일 수 있다.
또한, 성능 코드는 어플리케이션을 실행(rendering)하기 위해 필요한 장치의 성능을 나타낼 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 PVR(Personal Video Recoreder) 기능이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0xC0일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 다운로드 기능이 필요함을 나타낼 수 있다. 구체적으로 다운로드 기능은 영구 저장소(Persistent Storage)에 다운로드하는 것을 나타낼 수 있다. 이때, 성능 코드의 값은 0xC1일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 DRM 처리 기능이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0xC2일 수 있다. 구체적으로 성능 코드는 컴포넌트를 재생하기 위해서는 컨디셔날 액세스(Conditional Access, CA) 처리 기능이 필요함을 나타낼 수 있다. 이때, 성능 코드의 값은 0xC3일 수 있다.
다시 도 90을 통해 성능 엘리먼트에 대해 설명한다.
성능 엘리먼트는 컴포넌트를 재생하기 위해 필요한 서능을 나타내는 스트링을 나타내는 성능 스트링 엘리먼트를 포함할 수 있다. 방송 수신 장치(100)는 성능 스트링 엘리먼트에 기초하여 컴포넌트 재생에 필요한 성능을 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 성능 스트링 엘리먼트가 나타내는 스트링을 표시할 수 있다. 구체적인 실시예에서 성능 스트링 엘리먼트는 CapabilityString라 할 수 있다.
성능 엘리먼트는 성능 코드의 카테고리를 나타내는 카테고리 엘리먼트를 포함할 수 있다. 구체적인 실시예에서 카테고리 엘리먼트는 category라 할 수 있다. 이에 대해서는 도 92를 통해 설명한다.
도 92는 본 발명의 또 다른 실시예에 따른 성능 엘리먼트의 카테고리 엘리먼트가 나타낼 수 있는 값을 보여준다.
카테고리 엘리먼트는 컴포넌트를 재생하기 위해 필요한 다운로드 프로토콜을 나타낼 수 있다. 이때, 카테고리 엘리먼트 값은 0x01일 수 있다. 카테고리 엘리먼트는 컴포넌트를 재생하기 위해 필요한 FEC(Forward Error Correction) 알고리즘을 나타낼 수 있다. 이때, 카테고리 엘리먼트 값은 0x02일 수 있다. 카테고리 엘리먼트는 컴포넌트를 재생하기 위해 필요한 래퍼/아카이브 포맷(Warapper/Archive Format)을 나타낼 수 있다. 이때, 카테고리 엘리먼트 값은 0x03일 수 있다. 카테고리 엘리먼트는 컴포넌트를 재생하기 위해 필요한 압축 알고리즘을 나타낼 수 있다. 이때, 카테고리 엘리먼트 값은 0x04일 수 있다. 카테고리 엘리먼트는 컴포넌트를 재생하기 위해 필요한 미디어 형식을 나타낼 수 있다. 이때, 카테고리 엘리먼트 값은 0x05일 수 있다. 카테고리 엘리먼트는 컴포넌트를 재생하기 위해 필요한 재생 성능을 나타낼 수 있다. 이때, 카테고리 엘리먼트 값은 0x06일 수 있다.
하이브리드 방송에서는 다양한 형태의 컴포넌트를 포함하는 다양한 서비스의 전송이 가능하다. 또한, 각각의 방송 수신 장치(100)는 재생할 수 있는 성능이 차이를 보인다. 따라서 방송 수신 장치(100)는 앞서 설명한 바와 같이 성능 엘리먼트에 기초하여 각각의 컴포넌트를 재생할 수 있는지 표시할 수 있다. 이를 통해 사용자는 서비스가 포함하는 컴포넌트에 기초하여 컨텐츠를 선택할 수 있다.
방송사 또는 컨텐츠 제공자들은 컴포넌트 단위로 컨텐츠를 판매할 수 있다. 구체적으로 방송사 또는 컨텐츠 제공자들은 서비스에 포함된 일부의 컴포넌트를 별도로 판매할 수 있다. 구체적으로 방송사 또는 컨텐츠 제공자들은 페이-퍼-뷰(pay Per-View, PPV) 형태로 컴포넌트를 판매할 수 있다. 예컨대, 방송사 또는 컨텐츠 제공자들은 가변적 비디오 코딩의 베이스 계층 컴포넌트는 별도의 과금 없이 제공하고, 인핸스먼트 계층 컴포넌트는 별도의 과금을 받고 제공할 수 있다. 또한, 방송사 또는 컨텐츠 제공자들은 멀티-뷰 컨텐츠를 제공하면서 일부 시점의 컴포넌트를 별도의 과금을 받고 제공할 수 있다. . 또한, 방송사 또는 컨텐츠 제공자들은 HD 컴포넌트를 과금 없이 제공하면서 UHD 컴포넌트를 별도의 과금을 받고 제공할 수 있다. 또한, 방송사 또는 컨텐츠 제공자들은 스테레오 오디오 컴포넌트를 별도의 과금을 받고 제공할 수 있다. 또한, 방송사 또는 컨텐츠 제공자들은 오디션 관련 컨텐츠를 제공하면서, 오디션 관련 컨텐츠에 대한 투표 어플리케이션에 대해서 과금을 받고 제공할 수 있다. 이를 위해 방송 전송 장치(100)는 컴포넌트 별 과금 정보를 전송해야한다. 또한, 방송 수신 장치(100)는 컴포넌트 별 과금 정보를 표시하고, 컴포넌트 별로 구매할 수 있는 인터페이스를 제공해야한다. 이에 대해서 도 93과 도 94를 통해 설명한다.
도 93과 도 94는 본 발명의 일 실시예에 따라 컴포넌트 단위의 결재를 제공하는 사용자 인터페이스를 보여준다.
방송 전송 장치(10)는 앞서 설명한 컴포넌트에 대한 정보에 각 컴포넌트에 대한 과금 정보를 포함하여 전송할 수 있다. 구체적으로 방송 전송 장치(10)는 앞서 설명한 컴포넌트 엘리먼트에 각 컴포넌트에 대한 과금 정보를 포함하여 전송할 수 있다. 또한, 방송 전송 장치(10)는 앞서 설명한 컴포넌트 프래그먼트에 각 컴포넌트에 대한 과금 정보를 포함하여 전송할 수 있다.
방송 수신 장치(100)는 컴포넌트에 대한 정보에 기초하여 각 컴포넌트에 대한 과금 정보를 획득할 수 있다. 구체적으로 방송 수신 장치(100)는 컴포넌트 프래그먼트에 기초하여 각 컴포넌트에 대한 과금 정보를 획득할 수 있다. 또한, 방송 수신 장치(100)는 컴포넌트 엘리먼트에 기초하여 각 컴포넌트에 대한 과금 정보를 획득할 수 있다. 또한, 방송 수신 장치(100)는 서비스 가이드 메뉴에서 컴포넌트에 대한 과금 정보를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 서비스 가이드 메뉴에서 해당 컴포넌트를 재생하기 위해서는 구매가 필요함을 기재할 수 있다. 또한, 방송 수신 장치(100)는 서비스 가이드 메뉴에서 해당 컴포넌트의 구매 조건을 표시할 수 있다. 구매 조건은 가격을 포함할 수 있다. 또한, 구매 조건은 재생 가능 기간을 표시할 수 있다. 도 93의 실시예에서 방송 수신 장치(100)는 방송 컨텐츠의 대체 시점 뷰(alternative view)를 포함하는 컴포넌트를 재생하기 위해서는 구매가 필요함을 표시한다.
또한, 방송 수신 장치(100)는 해당 컨텐츠를 재생하면서 해당 컨텐츠가 포함하는 컴포넌트를 재생하기 위해서는 과금이 필요함을 표시할 수 있다. 또한, 방송 수신 장치(100)는 해당 컴포넌트를 구매하는 사용자 인터페이스를 제공할 수 있다. 예컨대, 방송 수신 장치(100)는 해당 컨텐츠를 재생하면서 해당 컨텐츠가 포함하는 컴포넌트를 재생하기 위해서는 과금이 필요함을 메시지 박스 형태로 표시할 수 있다. 또한, 방송 수신 장치(100)는 사용자 입력에 기초하여 해당 컴포넌트의 구매 절차를 진행할 수 있다. 도 94의 실시예에서 방송 수신 장치(100)는 유료 결재를 하면 야구경기의 다른 시점 화면을 시청할 수 있음을 표시한다. 다른 시점 화면에 대한 사용자 입력을 수시한 경우, 방송 수신 장치(100)는 다른 시점 화면을 포함하는 컴포넌트를 재생한다.
도 95는 본 발명의 일 실시예에 따른 방송 전송 장치의 동작을 보여준다.
방송 전송 장치(10)는 컴포넌트에 대한 정보를 획득한다(S101). 방송 전송 장치(10)는 제어부를 통하여 컴포넌트에 대한 정보를 획득할 수 있다. 구체적으로 방송 전송 장치(10)는 컴포넌트의 종류, 컴포넌트 재생을 위해 필요한 장치 성능, 컴포넌트의 역할, 다른 컴포넌트와의 관계, 컴포넌트를 포함하는 서비스에 대한 정보, 컴포넌트를 포함함하는 컨텐츠에 대한 정보, 컴포넌트가 타겟팅하는 장치 정보, 컴포넌트가 타겟팅하는 사용자 정보, 컴포넌트의 유효 기간 정보, 컴포넌트의 표시 시작 시간, 컴포넌트의 표시 종료 시간, 및 컴포넌트의 권장 등급 중 적어도 어느 하나를 획득할 수 있다.
방송 전송 장치(10)는 컴포넌트에 한 정보에 기초하여 ESG 데이터를 생성한다(S103). 방송 전송 장치(10)는 제어부를 통하여 컴포넌트에 한 정보에 기초하여 ESG 데이터를 생성할 수 있다. 구체적으로 방송 전송 장치(10)는 컴포넌트에 기초하여 앞서 설명한 컴포넌트 프래그먼트를 생성할 수 있다. 또 다른 구체적인 실시예에서 방송 전송 장치(100)는 컴포넌트에 기초하여 앞서 설명한 컴포넌트 엘리먼트를 생성할 수 있다.
방송 전송 장치(10)는 컴포넌트에 대한 정보에 기초하여 방송 신호를 전송한다(S105). 방송 전송 장치(10)는 전송부를 통하여 컴포넌트에 대한 정보에 기초하여 방송 신호를 전송할 수 있다. 구체적으로 방송 전송 장치(10)는 ESG 데이터를 포함하는 방송 신호를 전송할 수 있다. 또 다른 구체적인 실시예에서 방송 전송 장치(10)는 ESG 데이터를 수신을 위한 정보인 ESG 데이터 시그널링 정보를 포함하는 방송 신호를 전송할 수 있다. 이때, 컨텐츠 서버(50)는 ESG 데이터를 통신망을 통하여 별도로 전송할 수 있다.
도 96은 본 발명의 일 실시예에 따른 방송 수신 장치의 동작을 보여준다.
방송 수신 장치(100)는 방송 신호를 수신한다(S201). 방송 수신 장치(100)는 방송 수신부(110)를 통하여 방송 신호를 수신할 수 있다.
방송 수신 장치(100)는 방송 신호에 기초하여 ESG 데이터를 획득한다(S203). 방송 수신 장치(100)는 제어부(150)를 통하여 방송 신호에 기초하여 ESG 데이터를 획득할 수 있다. 구체적으로 방송 수신 장치(100)는 방송 신호로부터 ESG 데이터를 획득할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 방송 신호로부터 ESG 데이터를 수신을 위한 정보인 ESG 데이터 시그널링 정보를 추출할 수 있다. 또한, 방송 수신 장치(100)는 ESG 데이터 시그널링 정보에 기초하여 컨텐츠 서버(50)로부터 ESG 데이터를 획득할 수 있다.
방송 수신 장치(100)는 ESG 데이터에 기초하여 컴포넌트에 대한 정보를 획득한다(S205). 방송 수신 장치(100)는 제어부(150)를 통하여 ESG 데이터에 기초하여 컴포넌트에 대한 정보를 획득할 수 있다. 컴포넌트에 대한 정보는 앞서 설명한 바와 같이 컴포넌트의 종류, 컴포넌트 재생을 위해 필요한 장치 성능, 컴포넌트의 역할, 다른 컴포넌트와의 관계, 컴포넌트를 포함하는 서비스에 대한 정보, 컴포넌트를 포함함하는 컨텐츠에 대한 정보, 컴포넌트가 타겟팅하는 장치 정보, 컴포넌트가 타겟팅하는 사용자 정보, 컴포넌트의 유효 기간 정보, 컴포넌트의 표시 시작 시간, 컴포넌트의 표시 종료 시간, 및 컴포넌트의 권장 등급 중 적어도 어느 하나를 포함할 수 있다.
방송 수신 장치(100)는 컴포넌트에 대한 정보를 표시한다(S207). 방송 수신 장치(100)는 제어부(150)를 통하여 컴포넌트에 대한 정보를 표시할 수 있다. 구체적으로 방송 수시 잔치(100)는 서비스 가이드 메뉴에 컴포넌트에 대한 정보를 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 서비스 가이드 메뉴에 컨텐츠가 포함하는 컴포넌트의 역할을 표시할 수 있다. 또한, 방송 수신 장치(100)는 서비스 가이드 메뉴에 컨텐츠가 포함하는 컴포넌트의 과금 정보를 표시할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 컨텐츠 재생화면에서 컴포넌트의 정보를 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 컨텐츠 재생화면의 하단 또는 상단에 위치하는 메시지 박스로 컴포넌트의 역할을 표시할 수 있다. 또한, 방송 수신 장치(100)는 컨텐츠 재생화면의 하단 또는 상단에 위치하는 메시지 박스로 컴포넌트의 역할을 표시할 수 있다. 또한, 방송 수신 장치(100)는 서비스 리스트에서 컴포넌트에 대한 정보를 표시할 수 있다.
방송 수신 장치(100)는 컴포넌트에 대한 사용자 입력을 수신한다(S209). 방송 수신 장치(100)는 제어부(150)를 통하여 컴포넌트에 대한 사용자 입력을 수신할 수 있다. 구체적으로 방송 수신 장치(100)는 컴포넌트를 예약 시청하기 위한 사용자 입력을 수신할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 컴포넌트를 예약 녹화하기 위한 사용자 입력을 수신할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 컴포넌트를 시청하기 위한 사용자 입력을 수신할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 컴포넌트를 녹화하기 위한 사용자 입력을 수신할 수 있다.
방송 수신 장치(100)는 사용자 입력에 기초하여 컴포넌트를 재생한다(S211). 방송 수신 장치(100)는 제어부(150)를 통하여 사용자 입력에 기초하여 컴포넌트를 재생할 수 있다. 구체적으로 방송 수신 장치(100)는 사용자 입력에 해당하는 컴포넌트를 재생할 수 있다. 구체적인 실시예에서 방송 수신 장치(100)는 사용자가 입력에 해당하는 컴포넌트를 예약 시청 시간에 재생할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 사용자 입력에 해당하는 컴포넌트를 즉시 재생할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 사용자 입력에 해당하는 컴포넌트를 즉시 녹화할 수 있다. 또 다른 구체적인 실시예에서 방송 수신 장치(100)는 사용자 입력에 해당하는 컴포넌트를 예약 녹화 시간에 녹화할 수 있다. 방송 수신 장치(100)의 동작에 관한 구체적인 실시예에 대해서는 다음의 도면들을 통해 설명한다.
도 97은 본 발명의 일 실시예에 따른 방송 수신 장치의 컨텐츠 재생화면을 보여분다.
앞서 설명한 바와 같이 하이브리드 방송의 서비스 또는 컨텐츠는 복수의 컴포넌트를 포함할 수 있다. 또한, 복수의 컴포넌트가 동시에 재생될 수 있다. 도 97에서는 영화를 포함하는 검포넌트, 화면의 일부에 표시되는 수화 화면을 포함하는 컴포넌트, 및 팔로우 서브젝트 비디오를 포함하는 컴포넌트가 동시에 재생되는 것을 보여준다.
도 98은 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴를 보여준다.
앞서 설명한 바와 같이 방송 수신 장치(100)는 컴포넌트에 대한 정보를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 서비스가 포함하는 컴포넌트에 대한 정보를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 컨텐츠가 포함하는 컴포넌트에 대한 정보를 표시할 수 있다. 구체적인 실시예에서 방송 수신 장치(100)는 서비스 가이드 메뉴에서 컴포넌트에 대한 정보를 표시할 수 있다. 예컨대, 도 98(b)의 실시예와 같이 컨텐츠가 포함하는 컴포넌트의 역할을 표시할 수 있다. 또한, 방송 수신 장치(100)는 사용자 입력에 기초하여 서비스 가이드 메뉴에서 컴포넌트에 대한 정보를 표시할 수 있다. 예컨대, 방송 수신 장치(100)는 97(b)와 같이 컴포넌테에 대한 정보의 표시 없이 서비스 가이드 메뉴를 표시 할 수 있다. 이때, 컴포넌트에 대한 정보 표시에 대한 사용자 입력을 수신하는 경우, 방송 수신 장치(100)는 도 98(b)의 실시예에서와 같이 서비스 가이드 메뉴에 컴포넌트에 대한 정보를 표시할 수 있다. 또한, 구체적인 실시예에서 방송 수신 장치(100)는 컨텐츠 데이터 종류에 기초하여 컴포넌트를 표시할 수 있다. 구체적으로 방송 수신 장치(100)는 사용자가 선택한 종류의 데이터를 포함하는 컴포넌트에 대한 정보를 표시할 수 있다. 예컨대, 비디오 컴포넌트를 선택하는 사용자 입력을 수신한 경우, 방송 수신 장치(100)는 서비스 가이드 메뉴에서 비디오 컴포넌트의 역할을 표시할 수 있다. 또한, 오디오 컴포넌트를 선택하는 사용자 입력을 수신한 경우, 방송 수신 장치(100)는 서비스 가이드 메뉴에서 오디오 컴포넌트의 역할을 표시할 수 있다. 또한, 자막 컴포넌트를 선택하는 사용자 입력을 수신한 경우, 방송 수신 장치(100)는 서비스 가이드 메뉴에서 자막 컴포넌트의 역할을 표시할 수 있다. 또한, 어플 기반 인핸스먼트 컴포넌트를 선택하는 사용자 입력을 수신한 경우, 방송 수신 장치(100)는 서비스 가이드 메뉴에서 어플 기반 인핸스먼트 컴포넌트의 역할을 표시할 수 있다. 이를 통해 사용자는 컨텐츠 또는 서비스가 포함하는 컴포넌트를 기준으로 컨텐츠를 선택할 수 있다.
도 99 내지 도 105는 본 발명의 일 실시예에 따른 방송 수신 장치의 서비스 가이드 메뉴에서 예약 시청을 하는 것을 보여준다.
도 99 내지 도 101의 실시예에서와 같이, 방송 수신 장치(100)는 컨텐츠가 포함하는 비디오 컴포넌트에 대한 정보를 서비스 가이드 메뉴에서 표시할 수 있다.
구체적으로 도 99의 실시예에서와 같이, 방송 수신 장치(100)는 서비스 가이드 메뉴에서 수화 화면을 포함하는 컴포넌트를 포함하는 컨텐츠 예약 시청에 대한 사용자 입력을 수신할 수 있다. 방송 수신 장치(100)는 서비스 가이드 메뉴에 예약 시청이 설정되었음을 표시할 수 있다. 또한, 방송 수신 장치(100)는 예약 시청 시간에 해당 컨텐츠를 재생할 수 있다.
방송 수신 장치(100)는 사용자가 예약 시청을 설정한 컴포넌트를 연동 장치(300)에서 재생하게 할 수 있다. 구체적으로 방송 수신 장치(100)는 예약 시청이 설정된 컴포넌트에 대한 정보를 연동 장치(300)에게 전달할 수 있다. 이때, 연동 장치(300)는 예약 시청이 설정된 컴포넌트에 대한 정보에 기초하여 해당 컴포넌트를 재생할 수 있다.
도 100의 실시예에서와 같이 방송 수신 장치(100)는 서비스 가이드 메뉴에서 대체 시점 화면을 위한 컴포넌트를 포함하는 컨텐츠 예약 시청에 대한 사용자 입력을 수신할 수 있다. 방송 수신 장치(100)는 서비스 가이드 메뉴에 예약 시청이 설정되었음을 표시할 수 있다. 또한, 방송 수신 장치(100)는 연동 장치(300)에게 해당 컴포넌트에 대한 정보를 전달할 수 있다. 연동 장치(300)는 예약 시청 시간에 해당 컨텐츠를 재생할 수 있다.
또한, 도 101의 실시예에서와 같이 방송 수신 장치(100)는 서비스 가이드 메뉴에서 팔로우 서브젝트 비디오를 위한 컴포넌트를 포함하는 컨텐츠 예약 시청에 대한 사용자 입력을 수신할 수 있다. 앞서 설명한 바와 같이 연동 장치(300)는 예약 시청 시간에 해당 컨텐츠를 재생할 수 있다.
또한, 도 102의 실시예에서와 같이 방송 수신 장치(100)는 서비스 가이드 메뉴에서 팔로우 서브젝트 비디오를 위한 컴포넌트를 포함하는 컨텐츠 예약 시청에 대한 사용자 입력을 수신할 수 있다.
도 102 내지 도 104의 실시예에서와 같이, 방송 수신 장치(100)는 컨텐츠가 포함하는 오디오 컴포넌트에 대한 정보를 서비스 가이드 메뉴에서 표시할 수 있다.
구체적으로 도 102의 실시예에서와 같이, 방송 수신 장치(100)는 서비스 가이드 메뉴에서 음악을 포함하는 컴포넌트를 포함하는 컨텐츠 예약 시청에 대한 사용자 입력을 수신할 수 있다. 또한, 103의 실시예에서와 같이, 방송 수신 장치(100)는 서비스 가이드 메뉴에서 대화 레벨 조정 기능을 포함하는 컴포넌트를 포함하는 컨텐츠 예약 시청에 대한 사용자 입력을 수신할 수 있다. 또한, 도 104의 실시예서와 같이 방송 수신 장치(100)는 서비스 가이드 메뉴에서 시각 장애인을 위한 오디오를 위한 컴포넌트를 포함하는 컨텐츠 예약 시청에 대한 사용자 입력을 수신할 수 있다. 방송 수신 장치(100)는 서비스 가이드 메뉴에 예약 시청이 설정되었음을 표시할 수 있다. 또한, 방송 수신 장치(100)는 예약 시청 시간에 해당 컨텐츠를 재생할 수 있다.
도 105의 실시예에서와 같이, 방송 수신 장치(100)는 컨텐츠가 포함하는 자막 컴포넌트에 대한 정보를 서비스 가이드 메뉴에서 표시할 수 있다. 또한, 도 105의 실시예서와 같이 방송 수신 장치(100)는 서비스 가이드 메뉴에서 유 초등생을 위한 자막 컴포넌트를 포함하는 컨텐츠 예약 시청에 대한 사용자 입력을 수신할 수 있다. 방송 수신 장치(100)는 서비스 가이드 메뉴에 예약 시청이 설정되었음을 표시할 수 있다. 또한, 방송 수신 장치(100)는 예약 시청 시간에 해당 컨텐츠를 재생할 수 있다.
또한, 방송 수신 장치(100)는 컨텐츠가 포함하는 어플 기반 인해스먼트 컴포넌트에 대한 정보를 서비스 가이드 메뉴에서 표시할 수 있다.
이와 같이 하이 브리드 방송이 제공하는 다양한 컴포넌트들에 대한 정보를 방송 수신 장치(100)가 ESG 데이터에 기초하여 제공할 수 있다. 이를 통해 방송 수신 장치(100)는 사용자들의 컨텐츠 또는 서비스 선택의 편의성을 증대할 수 있다. 특히, 방송 수신 장치(100)는 현재 재생되고 있는 서비스나 컨텐츠 뿐만 아니라 미래에 방송이 예정된 컨텐츠 또는 서비스 정보까지 제공하여 사용자가 용이하게 컨텐츠 또는 서비스를 선택할 수 있게할 수 있다.
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (20)

  1. 방송 신호를 수신하는 방송 수신부; 및
    방송 신호에 기초하여 방송 서비스 가이드에 대한 정보를 포함하는 전자 서비스 가이드(Electrical Service Guide, ESG) 데이터를 수신하고, 상기 ESG 데이터에 기초하여 방송 서비스 및 방송 컨텐츠 중 적어도 어느 하나가 포함하는 컴포넌트에 관한 정보를 획득하는 제어부를 포함하는
    방송 수신 장치.
  2. 제1항에서,
    상기 컴포넌트에 관한 정보는
    상기 컴포넌트를 재생하기 위해 필요한 장치 성능을 나타내는 장치 성능 정보를 포함하는
    방송 수신 장치.
  3. 제2항에서,
    상기 제어부는
    상기 장치 성능 정보에 기초하여 상기 컴포넌트에 대한 정보를 표시하는
    방송 수신 장치.
  4. 제3항에서,
    상기 제어부는
    상기 방송 수신 장치가 재생할 수 있는 컴포넌트에 관한 정보와 상기 방송 수신 장치 재생할 수 있는 컴포넌트에 관한 정보를 구별되게 표시하는
    방송 수신 장치.
  5. 제1항에서,
    상기 컴포넌트에 관한 정보는
    상기 컴포넌트와 다른 컴포넌트, 상기 컴포넌트와 상기 방송 컨텐츠, 및 상기 컴포넌트와 상기 방송 서비스의 포함 관계를 나타내는 참조 정보를 포함하는 참조 정보를 포함하는
    방송 수신 장치.
  6. 제1항에서,
    상기 컴포넌트에 관한 정보는
    연관된 컴포넌트를 연관 정보를 포함하는
    방송 수신 장치.
  7. 제6항에서,
    상기 연관된 컴포넌트는 상기 컴포넌트와 함께 재생되는 컴포넌트를 나타내는
    방송 수신 장치.
  8. 제1항에서,
    상기 ESG 데이터는
    정보의 단위인 프래그먼트로 구분되고,
    상기 방송 서비스에 대한 정보를 포함하는 서비스 프래그먼트 및 상기 방송서비스가 포함하는 컨텐츠에 대한 정보를 포함하는 컨텐츠 프래그먼트를 포함하는
    방송 수신 장치.
  9. 제8항에서,
    상기 컨텐츠에 대한 정보는
    상기 ESG 데이터가 포함하는 컨텐츠 프래그먼트인
    방송 수신 장치.
  10. 제8항에서,
    상기 컴포넌트에 관한 정보는
    상기 컨텐츠 프래그먼트가 포함하는 컴포넌트 엘리먼트인
    방송 수신 장치.
  11. 제1항에서,
    상기 컴포넌트에 관한 정보는
    상기 컴포넌트에 대한 과금 정보를 포함하는
    방송 수신 장치.
  12. 제1항에서,
    상기 제어부는
    상기 컴포넌트에 관한 정보를 서비스 가이드 메뉴에 표시하는
    방송 수신 장치.
  13. 제12항에서,
    상기 제어부는
    상기 컴포넌트의 역할을 서비스 가이드 메뉴에 표시하는
    방송 수신 장치.
  14. 제12항에서,
    상기 제어부는
    상기 컴포넌트의 과금 정보를 서비스 가이드 메뉴에 표시하는
    방송 수신 장치.
  15. 제12항에서
    상기 제어부는
    상기 컴포넌트가 포함하는 데이터 종류에 기초하여 상기 컴포넌트에 관한 정보를 표시하는
    방송 수신 장치.
  16. 제15항에 있어서,
    상기 제어부는
    사용자가 선택한 종류의 데이터를 포함하는 상기 컴포넌트에 관한 정보를 표시하는
    방송 수신 장치.
  17. 방송 수신 장치의 동작 방법에서,
    방송 신호를 수신하는 단계;
    방송 신호에 기초하여 방송 서비스 가이드에 대한 정보를 포함하는 전자 서비스 가이드(Electrical Service Guide, ESG) 데이터를 수신하는 단계; 및
    상기 ESG 데이터에 기초하여 방송 서비스 및 방송 컨텐츠 중 적어도 어느 하나가 포함하는 컴포넌트에 관한 정보를 획득하는 단계를 포함하는
    동작 방법.
  18. 제17항에서,
    상기 컴포넌트에 관한 정보는
    상기 컴포넌트를 재생하기 위해 필요한 장치 성능을 나타내는 장치 성능 정보를 포함하는
    동작 방법.
  19. 제18항에서,
    상기 장치 성능 정보에 기초하여 상기 컴포넌트에 대한 정보를 표시하는 단계를 더 포함하는
    동작 방법.
  20. 방송 서비스 및 방송 컨텐츠 중 적어도 어느 하나가 포함하는 컴포넌트에 관한 정보를 획득하고, 상기 컴포넌트에 관한 정보에 기초하여 방송 서비스 가이드에 대한 정보를 포함하는 전자 서비스 가이드(Electrical Service Guide, ESG) 데이터를 생성하는 제어부; 및
    상기 ESG 데이터에 기초하여 방송 신호를 전송하는 전송부를 포함하는
    방송 전송 장치.
PCT/KR2015/004162 2014-04-27 2015-04-27 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법 WO2015167184A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020167030472A KR101865299B1 (ko) 2014-04-27 2015-04-27 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법
US15/306,975 US20170188099A1 (en) 2014-04-27 2015-04-27 Broadcast transmitting apparatus, method of operating broadcast transmitting apparatus, broadcast receiving apparatus and method of operating broadcast receiving apparatus

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201461984854P 2014-04-27 2014-04-27
US61/984,854 2014-04-27
US201461991624P 2014-05-12 2014-05-12
US61/991,624 2014-05-12
US201462000515P 2014-05-19 2014-05-19
US62/000,515 2014-05-19
US201462003039P 2014-05-27 2014-05-27
US62/003,039 2014-05-27

Publications (1)

Publication Number Publication Date
WO2015167184A1 true WO2015167184A1 (ko) 2015-11-05

Family

ID=54358852

Family Applications (5)

Application Number Title Priority Date Filing Date
PCT/KR2015/004171 WO2015167187A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
PCT/KR2015/004179 WO2015167189A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
PCT/KR2015/004162 WO2015167184A1 (ko) 2014-04-27 2015-04-27 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법
PCT/KR2015/004184 WO2015167190A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
PCT/KR2015/004169 WO2015167186A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Family Applications Before (2)

Application Number Title Priority Date Filing Date
PCT/KR2015/004171 WO2015167187A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
PCT/KR2015/004179 WO2015167189A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Family Applications After (2)

Application Number Title Priority Date Filing Date
PCT/KR2015/004184 WO2015167190A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
PCT/KR2015/004169 WO2015167186A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Country Status (8)

Country Link
US (13) US9888271B2 (ko)
EP (4) EP3139618A4 (ko)
JP (2) JP6599864B2 (ko)
KR (6) KR101801594B1 (ko)
CN (7) CN110267068B (ko)
CA (3) CA2941597C (ko)
MX (1) MX357843B (ko)
WO (5) WO2015167187A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101801594B1 (ko) * 2014-04-27 2017-11-27 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US20170085921A1 (en) * 2014-05-19 2017-03-23 Sharp Kabushiki Kaisha Method for decoding a service guide
WO2015178036A1 (en) * 2014-05-22 2015-11-26 Sharp Kabushiki Kaisha Method for decoding
WO2015194195A1 (en) * 2014-06-20 2015-12-23 Sharp Kabushiki Kaisha Methods for xml representation of device capabilities
CA2959353A1 (en) * 2014-09-05 2016-03-10 Sharp Kabushiki Kaisha Syntax and semantics for device capabilities
WO2016048090A1 (ko) * 2014-09-25 2016-03-31 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
CN108024120B (zh) * 2016-11-04 2020-04-17 上海动听网络科技有限公司 音频生成、播放、接听方法及装置和音频传输系统
KR101967299B1 (ko) * 2017-12-19 2019-04-09 엘지전자 주식회사 방송 신호를 수신하는 차량용 수신 장치 및 방송 신호를 수신하는 차량용 수신 방법
US11360466B2 (en) * 2019-01-04 2022-06-14 Gracenote, Inc. Generation of media station previews using a secondary tuner
CN112990120B (zh) * 2021-04-25 2022-09-16 昆明理工大学 一种利用相机风格分离域信息的跨域行人重识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070120135A (ko) * 2005-03-18 2007-12-21 노키아 코포레이션 브로드캐스트 네트워크에서의 esg­데이터 우선순위화
KR20080033539A (ko) * 2005-08-26 2008-04-16 노키아 코포레이션 디지털 방송 서비스 가이드에서 메시징 템플릿들을전달하기 위한 방법
KR20080055551A (ko) * 2006-12-15 2008-06-19 삼성전자주식회사 Dvb-h 시스템에서 방송 데이터 서비스의 어플리케이션정보를 제공하기 위한 방법 및 이를 위한 시스템
KR20110105092A (ko) * 2010-03-18 2011-09-26 삼성전자주식회사 휴대방송 시스템에서 서비스 접속 정보를 제공하기 위한 장치 및 방법
US20120324488A1 (en) * 2000-05-04 2012-12-20 Cisco Technology, Inc. Configuration of Presentations of Selectable TV Services According to Usage

Family Cites Families (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5900908A (en) * 1995-03-02 1999-05-04 National Captioning Insitute, Inc. System and method for providing described television services
JP4221624B2 (ja) 1998-02-12 2009-02-12 ソニー株式会社 Epg送信装置および方法、epg受信装置および方法、並びに記録媒体
GB2377846B (en) 1998-06-12 2003-03-05 British Sky Broadcasting Ltd Improvements in receivers for television signals
US6732370B1 (en) * 1998-11-30 2004-05-04 Diva Systems Corporation Service provider side interactive program guide encoder
KR100828884B1 (ko) 1999-03-05 2008-05-09 캐논 가부시끼가이샤 데이터베이스 주석 및 검색
KR100391179B1 (ko) * 2000-08-02 2003-07-12 한국전력공사 고방사성미세분진폐기물 원격조종이동형청소장치
US20020078459A1 (en) * 2000-08-30 2002-06-20 Mckay Brent Interactive electronic directory service, public information and general content delivery system and method
US20020170053A1 (en) * 2000-10-26 2002-11-14 General Instrument, Inc. ECM and EMM distribution for multimedia multicast content
US20020170068A1 (en) 2001-03-19 2002-11-14 Rafey Richter A. Virtual and condensed television programs
US7035468B2 (en) 2001-04-20 2006-04-25 Front Porch Digital Inc. Methods and apparatus for archiving, indexing and accessing audio and video data
US7110664B2 (en) 2001-04-20 2006-09-19 Front Porch Digital, Inc. Methods and apparatus for indexing and archiving encoded audio-video data
US7512964B2 (en) * 2001-06-29 2009-03-31 Cisco Technology System and method for archiving multiple downloaded recordable media content
US7908628B2 (en) 2001-08-03 2011-03-15 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator content coding and formatting
US7092888B1 (en) 2001-10-26 2006-08-15 Verizon Corporate Services Group Inc. Unsupervised training in natural language call routing
US20040017831A1 (en) * 2002-04-05 2004-01-29 Jian Shen System and method for processing SI data from multiple input transport streams
US7774815B1 (en) 2002-09-30 2010-08-10 Arris Group, Inc. Context-sensitive interactive television ticker
US8712218B1 (en) 2002-12-17 2014-04-29 At&T Intellectual Property Ii, L.P. System and method for providing program recommendations through multimedia searching based on established viewer preferences
GB0307451D0 (en) * 2003-03-31 2003-05-07 Matsushita Electric Ind Co Ltd Digital receiver with aural interface
GB2405557A (en) 2003-08-27 2005-03-02 Nokia Corp Service identification data relating services at a given frequency to services and identifying their media format
KR100565614B1 (ko) * 2003-09-17 2006-03-29 엘지전자 주식회사 캡션 송수신 방법
US7418472B2 (en) 2003-09-30 2008-08-26 Microsoft Corporation Systems and methods for determining remote device media capabilities
US20050188411A1 (en) 2004-02-19 2005-08-25 Sony Corporation System and method for providing content list in response to selected closed caption word
US7469979B2 (en) 2004-03-19 2008-12-30 Steelcase Inc. Pedestal system
CN1674645A (zh) * 2004-03-24 2005-09-28 乐金电子(沈阳)有限公司 数字电视及其电子节目单的表示方法
KR100617128B1 (ko) * 2004-11-17 2006-08-31 엘지전자 주식회사 디지털 방송 방법 및 장치
US20070124788A1 (en) 2004-11-25 2007-05-31 Erland Wittkoter Appliance and method for client-sided synchronization of audio/video content and external data
TW200704183A (en) * 2005-01-27 2007-01-16 Matrix Tv Dynamic mosaic extended electronic programming guide for television program selection and display
US8387089B1 (en) * 2005-05-06 2013-02-26 Rovi Guides, Inc. Systems and methods for providing a scan
AU2006277101C1 (en) * 2005-08-11 2010-11-25 Samsung Electronics Co., Ltd. Method and apparatus for transmitting/receiving access information of broadcast service in a broadcasting system, and system thereof
US7738863B2 (en) 2005-08-25 2010-06-15 Nokia Corporation IP datacasting middleware
US8024768B2 (en) 2005-09-15 2011-09-20 Penthera Partners, Inc. Broadcasting video content to devices having different video presentation capabilities
CN101305534A (zh) * 2005-10-14 2008-11-12 诺基亚公司 用服务指南声明终端供应
EP1943837A4 (en) 2005-11-01 2010-08-04 Nokia Corp IDENTIFICATION OF THE SCOPE OF FRAGMENTS OF A SERVICE ELECTRONIC GUIDE AND HIERARCHISATION IN THE FIELD OF APPLICATION
US8763036B2 (en) 2005-11-04 2014-06-24 Nokia Corporation Method for indicating service types in the service guide
KR100871243B1 (ko) * 2005-11-07 2008-11-28 삼성전자주식회사 휴대 방송 시스템에서 서비스 가이드 소스 전송 방법 및 장치
US20070110057A1 (en) 2005-11-07 2007-05-17 Sung-Oh Hwang Method and apparatus for transmitting service guide source in a mobile broadcast system
US7801910B2 (en) 2005-11-09 2010-09-21 Ramp Holdings, Inc. Method and apparatus for timed tagging of media content
EP1951287A2 (de) * 2005-11-22 2008-08-06 Universität Leipzig Arzneimittel zur behandlung von fertilitäts- und schwangerschaftsstörungen, autoimmunerkrankungen und zur induktion einer immunologischen toleranz bei transplantationspatienten und verfahren zur herstellung
JP2009518884A (ja) 2005-11-29 2009-05-07 グーグル・インコーポレーテッド マスメディアのソーシャル及び相互作用的なアプリケーション
KR101179828B1 (ko) 2005-12-16 2012-09-04 삼성전자주식회사 디지털 비디오 방송 시스템에서 전자 서비스 가이드의데이터 모델과 서비스 데이터 스트림과의 연결관계에 따른전자 서비스 가이드의 구성 방법 및 장치
KR100890037B1 (ko) 2006-02-03 2009-03-25 삼성전자주식회사 휴대 방송 시스템에서 서비스 가이드 또는 서비스 가이드프레그먼트에 대한 공유 방법 및 시스템
US8458753B2 (en) 2006-02-27 2013-06-04 Time Warner Cable Enterprises Llc Methods and apparatus for device capabilities discovery and utilization within a content-based network
US8115869B2 (en) 2007-02-28 2012-02-14 Samsung Electronics Co., Ltd. Method and system for extracting relevant information from content metadata
CN101094434B (zh) 2006-06-19 2011-02-02 华为技术有限公司 在移动广播系统中订阅业务相关通知的方法
KR100793801B1 (ko) * 2006-07-06 2008-01-11 엘지전자 주식회사 티브이의 방송 프로그램 안내 표시 방법 및 장치
CN101132292A (zh) 2006-08-22 2008-02-27 华为技术有限公司 一种传输电子节目指南的方法及系统
US20080091713A1 (en) 2006-10-16 2008-04-17 Candelore Brant L Capture of television metadata via OCR
US7689613B2 (en) 2006-10-23 2010-03-30 Sony Corporation OCR input to search engine
US7814524B2 (en) 2007-02-14 2010-10-12 Sony Corporation Capture of configuration and service provider data via OCR
US8296808B2 (en) 2006-10-23 2012-10-23 Sony Corporation Metadata from image recognition
DE202007001277U1 (de) * 2007-01-23 2008-03-13 Dbt Gmbh Führungsschuh für einen Walzenlader und Verschleißeinsätze für Führungsschuhe
US8282564B2 (en) * 2007-05-16 2012-10-09 Massachusetts Institute Of Technology Systems and methods for model-based estimation of cardiac output and total peripheral resistance
KR101377951B1 (ko) 2007-05-18 2014-03-25 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보수신 장치
KR101356499B1 (ko) 2007-05-18 2014-01-29 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보송수신 장치
JP4345848B2 (ja) 2007-05-25 2009-10-14 船井電機株式会社 デジタル放送受信機
KR20080107137A (ko) 2007-06-05 2008-12-10 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보송수신 장치
KR101461958B1 (ko) * 2007-06-29 2014-11-14 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101486373B1 (ko) 2007-07-29 2015-01-26 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101420871B1 (ko) * 2007-08-21 2014-07-17 삼성전자주식회사 휴대 방송 서비스에서 멀티 콘텐츠를 제공하는 방법 및장치와 그 시스템
WO2009028855A1 (en) * 2007-08-24 2009-03-05 Lg Electronics Inc. Digital broadcasting system and method of processing data in digital broadcasting system
US20090070659A1 (en) * 2007-09-11 2009-03-12 Legend Silicon Corp. Ldpc decoder with an improved llr update method using a set of relative values free from a shifting action
KR101418591B1 (ko) 2007-10-05 2014-07-10 삼성전자주식회사 휴대 방송 시스템에서의 서비스 가이드 제공 방법 및 장치
KR20090069689A (ko) 2007-12-26 2009-07-01 엘지전자 주식회사 서비스 가이드 정보 처리 방법 및 서비스 가이드 정보 처리장치
CN101500135A (zh) 2008-02-03 2009-08-05 北京视博数字电视科技有限公司 条件接收系统的节目定购方法、系统及其终端
US9503691B2 (en) 2008-02-19 2016-11-22 Time Warner Cable Enterprises Llc Methods and apparatus for enhanced advertising and promotional delivery in a network
JP5225456B2 (ja) * 2008-03-25 2013-07-03 オートリブ ディベロップメント エービー シートベルトテンショナ
US20090249392A1 (en) * 2008-03-28 2009-10-01 Lg Electronics Inc. Digital broadcast receiver and method for processing caption thereof
US20090253416A1 (en) * 2008-04-04 2009-10-08 Samsung Electronics Co. Ltd. Method and system for providing user defined bundle in a mobile broadcast system
EP2109313B1 (en) 2008-04-09 2016-01-13 Sony Computer Entertainment Europe Limited Television receiver and method
CN101583092A (zh) * 2008-05-14 2009-11-18 三星电子株式会社 数据再现设备和数据再现方法
US8272022B2 (en) 2008-11-18 2012-09-18 Lg Electronics Inc. Method for receiving a broadcast signal and broadcast receiver
JP5225037B2 (ja) * 2008-11-19 2013-07-03 株式会社東芝 番組情報表示装置および方法
US8599242B2 (en) * 2008-12-02 2013-12-03 Lg Electronics Inc. Method for displaying 3D caption and 3D display apparatus for implementing the same
US8161512B2 (en) * 2008-12-09 2012-04-17 Lg Electronics Inc. Method for processing targeting descriptor in non-real-time receiver
US8423363B2 (en) 2009-01-13 2013-04-16 CRIM (Centre de Recherche Informatique de Montréal) Identifying keyword occurrences in audio data
WO2010082782A2 (en) * 2009-01-15 2010-07-22 Samsung Electronics Co., Ltd. Rich media-enabled service guide provision method and system for broadcast service
KR20100084104A (ko) 2009-01-15 2010-07-23 삼성전자주식회사 디지털 방송 시스템에서 리치미디어를 이용한 서비스 가이드 제공 방법 및 이를 위한 시스템
JP2010200087A (ja) * 2009-02-26 2010-09-09 Funai Electric Co Ltd 映像機器
KR101076587B1 (ko) 2009-03-03 2011-10-26 엘지전자 주식회사 방송망을 통해 전달되는 서비스 가이드를 통해 선별적으로 컨텐트를 수신하는 방법 및 이를 이용한 단말
JP5440836B2 (ja) * 2009-03-24 2014-03-12 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
US20100250764A1 (en) * 2009-03-31 2010-09-30 Nokia Corporation Method and Apparatus for Signaling Layer Information of Scalable Media Data
US8621520B2 (en) 2009-05-19 2013-12-31 Qualcomm Incorporated Delivery of selective content to client applications by mobile broadcast device with content filtering capability
KR20100124966A (ko) * 2009-05-20 2010-11-30 삼성전자주식회사 복수의 형식을 가지는 디지털 방송 송수신 방법 및 장치
KR20100127162A (ko) * 2009-05-25 2010-12-03 엘지전자 주식회사 단말 내에서 브로드캐스트 서비스를 통해 관련된 콘텐츠를 검색하고 주문하는 방법 및 장치
US20100316131A1 (en) 2009-06-12 2010-12-16 Motorola, Inc. Macroblock level no-reference objective quality estimation of video
US8438600B2 (en) * 2009-08-20 2013-05-07 Lg Electronics Inc. Method of processing EPG metadata in network device and network device for controlling the same
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
JP2011091619A (ja) 2009-10-22 2011-05-06 Sony Corp 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
US8914835B2 (en) 2009-10-28 2014-12-16 Qualcomm Incorporated Streaming encoded video data
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR101179826B1 (ko) 2010-02-26 2012-09-04 고려대학교 산학협력단 열량조절이 가능한 전기로 및 이를 이용한 금속 및 실리콘의 용융방법
US9215493B2 (en) * 2010-03-11 2015-12-15 Lg Electronics Inc. Non-real-time broadcast service processing system and processing method thereof
US8730301B2 (en) * 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
US8572488B2 (en) 2010-03-29 2013-10-29 Avid Technology, Inc. Spot dialog editor
KR20110111335A (ko) * 2010-04-02 2011-10-11 삼성전자주식회사 2차원 컨텐트와 3차원 컨텐트를 제공하기 위한 디지털 방송 컨텐트 전송 방법 및 그 장치, 디지털 방송 컨텐트 수신 방법 및 그 장치
KR20130080777A (ko) 2010-04-16 2013-07-15 엘지전자 주식회사 Iptv 상품에 대한 구매 트랜잭션 방법 및 그를 이용한 iptv 수신기
US20110289533A1 (en) 2010-05-18 2011-11-24 Rovi Technologies Corporation Caching data in a content system
US8694533B2 (en) 2010-05-19 2014-04-08 Google Inc. Presenting mobile content based on programming context
WO2011146276A2 (en) 2010-05-19 2011-11-24 Google Inc. Television related searching
KR20120014509A (ko) * 2010-08-09 2012-02-17 삼성모바일디스플레이주식회사 액정 표시 패널 및 액정 표시 패널 제조 방법
US8898723B2 (en) * 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
CN105554551A (zh) 2011-03-02 2016-05-04 华为技术有限公司 3d格式描述信息的获取方法和装置
US8670505B2 (en) * 2011-03-31 2014-03-11 Subrahmanya Kondageri Shankaraiah Early detection of segment type using BPSK and DBPSK modulated carriers in ISDB-T receivers
EP2695161B1 (en) * 2011-04-08 2014-12-17 Dolby Laboratories Licensing Corporation Automatic configuration of metadata for use in mixing audio programs from two encoded bitstreams
EP2705661A4 (en) 2011-05-01 2014-11-26 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR TRANSMITTING / RECEIVING BROADCAST SERVICE IN DIGITAL BROADCASTING SYSTEM, AND SYSTEM THEREFOR
TWI562560B (en) 2011-05-09 2016-12-11 Sony Corp Encoder and encoding method providing incremental redundancy
US9723362B2 (en) 2011-06-07 2017-08-01 Lg Electronics Inc. Method for transmitting and receiving broadcast service and receiving device thereof
US9584238B2 (en) * 2011-06-24 2017-02-28 Nokia Corporation Accessing service guide information in a digital video broadcast system
CN104025479B (zh) * 2011-10-13 2018-10-19 三星电子株式会社 用于发送和接收多媒体服务的方法和装置
KR101877974B1 (ko) 2011-10-13 2018-07-12 삼성전자주식회사 방송 시스템에서의 제어 메시지 구성 장치 및 방법
US9106265B2 (en) * 2011-11-04 2015-08-11 Silicon Laboratories Inc. Receive data flow path using a single FEC decoder
US9113230B2 (en) * 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
EP2618532A1 (en) * 2012-01-19 2013-07-24 Panasonic Corporation Improved Component Interleaving for Rotated Constellations
US9071799B2 (en) * 2012-02-17 2015-06-30 Echostar Technologies L.L.C. Channel tuning redirect
US9936231B2 (en) 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
KR101915128B1 (ko) 2012-05-17 2018-11-05 엘지전자 주식회사 전자 장치 및 서비스 프로바이더에 대한 정보를 제공하는 방법
WO2014025207A1 (en) * 2012-08-07 2014-02-13 Lg Electronics Inc. A method and an apparatus for processing a broadcast signal including an interactive broadcast service
AU2014214477B2 (en) 2013-02-11 2017-12-21 Bang & Clean Gmbh Method and device for cleaning interiors of tanks and systems
KR102061044B1 (ko) * 2013-04-30 2020-01-02 삼성전자 주식회사 수화 번역 및 화면 해설 서비스 방법 및 시스템
KR101500135B1 (ko) 2013-09-04 2015-03-06 주식회사 포스코 블로우 튜브의 패킹 조립장치
CA2924065C (en) 2013-09-13 2018-05-15 Arris Enterprises, Inc. Content based video content segmentation
CN103848358B (zh) 2014-03-24 2017-03-01 谢国贤 一种塔吊塔身双油缸顶升机构
US9882665B2 (en) 2014-04-21 2018-01-30 Sharp Kabushiki Kaisha Method for decoding a service guide
KR101801594B1 (ko) * 2014-04-27 2017-11-27 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015178036A1 (en) * 2014-05-22 2015-11-26 Sharp Kabushiki Kaisha Method for decoding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120324488A1 (en) * 2000-05-04 2012-12-20 Cisco Technology, Inc. Configuration of Presentations of Selectable TV Services According to Usage
KR20070120135A (ko) * 2005-03-18 2007-12-21 노키아 코포레이션 브로드캐스트 네트워크에서의 esg­데이터 우선순위화
KR20080033539A (ko) * 2005-08-26 2008-04-16 노키아 코포레이션 디지털 방송 서비스 가이드에서 메시징 템플릿들을전달하기 위한 방법
KR20080055551A (ko) * 2006-12-15 2008-06-19 삼성전자주식회사 Dvb-h 시스템에서 방송 데이터 서비스의 어플리케이션정보를 제공하기 위한 방법 및 이를 위한 시스템
KR20110105092A (ko) * 2010-03-18 2011-09-26 삼성전자주식회사 휴대방송 시스템에서 서비스 접속 정보를 제공하기 위한 장치 및 방법

Also Published As

Publication number Publication date
US11070859B2 (en) 2021-07-20
EP3139618A1 (en) 2017-03-08
WO2015167189A1 (ko) 2015-11-05
MX2016010117A (es) 2016-10-07
WO2015167187A1 (ko) 2015-11-05
US20200329261A1 (en) 2020-10-15
JP6360184B2 (ja) 2018-08-01
CN110234021B (zh) 2021-07-23
KR20180014223A (ko) 2018-02-07
CN105981374B (zh) 2019-08-09
CN110267068B (zh) 2021-11-02
KR101944834B1 (ko) 2019-02-01
US10306277B2 (en) 2019-05-28
CN106170983A (zh) 2016-11-30
KR20160105835A (ko) 2016-09-07
CN110267068A (zh) 2019-09-20
US10306278B2 (en) 2019-05-28
CN105981374A (zh) 2016-09-28
US20170188099A1 (en) 2017-06-29
US20200245005A1 (en) 2020-07-30
US20170171635A1 (en) 2017-06-15
EP3139526A4 (en) 2017-10-11
CN106134213A (zh) 2016-11-16
CA2941597A1 (en) 2015-11-05
CA3077488A1 (en) 2015-11-05
JP2017507506A (ja) 2017-03-16
CA2941597C (en) 2020-05-05
CA3077439C (en) 2023-04-25
KR101801592B1 (ko) 2017-11-27
US20190098342A1 (en) 2019-03-28
WO2015167190A1 (ko) 2015-11-05
KR20160142851A (ko) 2016-12-13
US11570494B2 (en) 2023-01-31
EP3139618A4 (en) 2017-10-11
US10939147B2 (en) 2021-03-02
EP3139623A4 (en) 2017-10-11
CN110177290B (zh) 2021-10-26
JP6599864B2 (ja) 2019-11-06
CN110234021A (zh) 2019-09-13
US20190246150A1 (en) 2019-08-08
JP2017514329A (ja) 2017-06-01
CA3077439A1 (en) 2015-11-05
US10284886B2 (en) 2019-05-07
CN106134112B (zh) 2019-03-08
US20210105511A1 (en) 2021-04-08
EP3073730A4 (en) 2017-08-16
KR101801594B1 (ko) 2017-11-27
US9888271B2 (en) 2018-02-06
US20180146220A1 (en) 2018-05-24
US10887635B2 (en) 2021-01-05
US20170180761A1 (en) 2017-06-22
CN106134213B (zh) 2019-07-12
US10743044B2 (en) 2020-08-11
CA3077488C (en) 2022-08-16
WO2015167186A1 (ko) 2015-11-05
US10567815B2 (en) 2020-02-18
KR101865299B1 (ko) 2018-06-07
US10848797B2 (en) 2020-11-24
CN106134112A (zh) 2016-11-16
EP3073730A1 (en) 2016-09-28
US10666993B2 (en) 2020-05-26
EP3139526A1 (en) 2017-03-08
KR20160106095A (ko) 2016-09-09
US20160269792A1 (en) 2016-09-15
CN106170983B (zh) 2019-07-16
KR101825000B1 (ko) 2018-03-22
KR20160071405A (ko) 2016-06-21
US20190222870A1 (en) 2019-07-18
US20170013285A1 (en) 2017-01-12
US20200137430A1 (en) 2020-04-30
EP3139623A1 (en) 2017-03-08
KR20160102509A (ko) 2016-08-30
CN110177290A (zh) 2019-08-27
KR101801593B1 (ko) 2017-11-27
MX357843B (es) 2018-07-26

Similar Documents

Publication Publication Date Title
WO2015178603A1 (ko) 방송 전송 장치, 방송 전송 장치의 동작 방법. 방송 수신 장치 및 방송 수신 장치의 동작 방법
WO2015167184A1 (ko) 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법
WO2015084004A1 (en) Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
WO2016010404A1 (ko) 방송 송신 장치, 방송 송신 장치의 데이터 처리 방법, 방송 수신 장치 및 방송 수신 장치의 데이터 처리 방법
WO2015122747A1 (en) Apparatus for processing a hybrid broadcast service, and method for processing a hybrid broadcast service
WO2015156625A1 (ko) 방송 전송 장치, 방송 수신 장치, 방송 전송 장치의 동작 방법 및 방송 수신 장치의 동작 방법
WO2016028119A1 (ko) 방송 신호 송신 방법, 방송 신호 송신 장치, 방송 신호 수신 방법 및 방송 신호 수신 장치
WO2016028052A2 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016111526A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015190791A1 (ko) 서비스 가이드 정보 송신 방법, 서비스 가이드 정보 수신 방법, 서비스 가이드 정보 송신 장치 및 서비스 가이드 정보 수신 장치
WO2015105400A1 (en) Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks
WO2016126116A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015178690A1 (ko) 방송 신호 송/수신 처리 방법 및 장치
WO2015156607A1 (ko) 방송 신호 송/수신 처리 방법 및 장치
WO2015167177A1 (ko) 방송 전송 장치, 방송 수신 장치, 방송 전송 장치의 동작 방법 및 방송 수신 장치의 동작 방법
WO2016068564A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015088217A1 (en) A receiver and a method for processing a broadcast signal including a broadcast content and an application related to the broadcast content
WO2015156618A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016129904A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016048090A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015102394A1 (en) Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof
WO2015088292A1 (en) Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof
WO2015199439A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2016036167A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015111905A1 (en) Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15786723

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15306975

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20167030472

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 15786723

Country of ref document: EP

Kind code of ref document: A1