WO2016171496A1 - 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 - Google Patents

방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 Download PDF

Info

Publication number
WO2016171496A1
WO2016171496A1 PCT/KR2016/004174 KR2016004174W WO2016171496A1 WO 2016171496 A1 WO2016171496 A1 WO 2016171496A1 KR 2016004174 W KR2016004174 W KR 2016004174W WO 2016171496 A1 WO2016171496 A1 WO 2016171496A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
content
service
audio
watermark
Prior art date
Application number
PCT/KR2016/004174
Other languages
English (en)
French (fr)
Inventor
양승률
곽민성
문경수
고우석
홍성룡
권우석
이장원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020167020611A priority Critical patent/KR101805538B1/ko
Priority to EP16775062.9A priority patent/EP3288277A4/en
Priority to CN201680001083.3A priority patent/CN106304851A/zh
Priority to JP2016555355A priority patent/JP6294503B2/ja
Priority to KR1020177034595A priority patent/KR101838084B1/ko
Priority to US15/122,818 priority patent/US20170078765A1/en
Publication of WO2016171496A1 publication Critical patent/WO2016171496A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2665Gathering content from different sources, e.g. Internet and satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • H04N21/4725End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8352Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking

Definitions

  • the present invention relates to a broadcast signal transmission apparatus, a broadcast signal reception apparatus, and a broadcast signal transmission and reception method.
  • the digital broadcast signal may include a larger amount of video / audio data than the analog broadcast signal, and may further include various types of additional data as well as the video / audio data.
  • the digital broadcasting system may provide high definition (HD) images, multichannel audio, and various additional services.
  • HD high definition
  • data transmission efficiency for a large amount of data transmission, robustness of a transmission / reception network, and network flexibility in consideration of a mobile receiving device should be improved.
  • the present invention provides a system and an associated signaling scheme that can effectively support next-generation broadcast services in an environment that supports next-generation hybrid broadcasting using terrestrial broadcasting networks and Internet networks. Suggest.
  • the present invention can effectively support the next generation broadcast service in an environment supporting the next generation hybrid broadcast using the terrestrial broadcast network and the Internet network.
  • the present invention proposes a structure and method for efficiently utilizing the video WM, audio WM.
  • FIG. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a service discovery process according to an embodiment of the present invention.
  • LLS low level signaling
  • SLT service list table
  • FIG. 4 illustrates a USBD and an S-TSID delivered to ROUTE according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a USBD delivered to MMT according to an embodiment of the present invention.
  • FIG. 6 illustrates a link layer operation according to an embodiment of the present invention.
  • FIG. 7 illustrates a link mapping table (LMT) according to an embodiment of the present invention.
  • FIG. 8 is a block diagram illustrating a network topology according to an embodiment of the present invention.
  • FIG. 9 is a block diagram illustrating a watermark based network topology according to an embodiment of the present invention.
  • FIG. 10 is a ladder diagram illustrating a data flow in a watermark based network topology according to an embodiment of the present invention.
  • FIG. 11 illustrates a watermark based content recognition timing according to an embodiment of the present invention.
  • FIG. 12 is a block diagram illustrating a fingerprint based network topology according to an embodiment of the present invention.
  • FIG. 13 is a ladder diagram illustrating a data flow in a fingerprint based network topology according to an embodiment of the present invention.
  • FIG. 14 illustrates an XML schema diagram of an ACR-Resulttype containing a query result according to an embodiment of the present invention.
  • 15 is a block diagram illustrating a watermark and fingerprint based network topology according to an embodiment of the present invention.
  • FIG. 16 is a ladder diagram illustrating a data flow in a watermark and fingerprint based network topology according to an embodiment of the present invention.
  • FIG. 17 is a block diagram of a video display device according to an embodiment of the present invention.
  • FIG. 18 is a flowchart illustrating a method of synchronizing a reproduction time of a main audio and video content and a reproduction time of an additional service according to an embodiment of the present invention.
  • 19 is a conceptual diagram illustrating a method of synchronizing a play time of a main audio and video content and a play time of an additional service according to an embodiment of the present invention.
  • FIG. 20 is a block diagram illustrating a structure of a fingerprint based video display device according to another embodiment of the present invention.
  • FIG. 21 is a block diagram illustrating a structure of a watermark based video display device according to another embodiment.
  • FIG. 21 is a block diagram illustrating a structure of a watermark based video display device according to another embodiment.
  • FIG. 22 illustrates data that can be delivered through a watermarking technique according to an embodiment of the present invention.
  • FIG. 23 is a diagram illustrating meanings of respective values of a time stamp type field according to an embodiment of the present invention.
  • 24 is a diagram illustrating meanings of respective values of a URL protocol type field according to an embodiment of the present invention.
  • 25 is a flowchart illustrating a process of processing a URL protocol type field according to an embodiment of the present invention.
  • FIG. 26 is a diagram illustrating meanings of respective values of an event field according to an embodiment of the present invention.
  • 27 is a diagram illustrating meanings of respective values of a destination type field according to an embodiment of the present invention.
  • FIG. 28 is a diagram showing a data structure to be inserted into a WM according to embodiment # 1 of the present invention.
  • FIG. 28 is a diagram showing a data structure to be inserted into a WM according to embodiment # 1 of the present invention.
  • FIG. 29 is a flowchart of processing a data structure to be inserted into a WM according to embodiment # 1 of the present invention.
  • FIG. 30 is a diagram showing a data structure to be inserted into a WM according to embodiment # 2 of the present invention.
  • FIG. 31 is a flowchart of processing a data structure to be inserted into a WM according to embodiment # 2 of the present invention.
  • FIG. 32 is a diagram showing a data structure to be inserted into a WM according to embodiment # 3 of the present invention.
  • FIG 33 is a diagram showing a data structure to be inserted into a WM according to embodiment # 4 of the present invention.
  • FIG. 34 is a diagram showing a data structure to be inserted into a first WM in embodiment # 4 of the present invention.
  • FIG. 35 is a diagram showing a data structure to be inserted into a second WM in embodiment # 4 of the present invention.
  • FIG. 36 is a flowchart for processing a data structure to be inserted into a WM according to embodiment # 4 of the present invention.
  • FIG. 37 is a diagram illustrating a structure of a watermark based video display device according to another embodiment of the present invention.
  • FIG. 38 illustrates a data structure according to an embodiment of the present invention in a fingerprinting method.
  • 39 is a flowchart illustrating processing of a data structure according to an embodiment of the present invention in a fingerprinting method.
  • FIG. 40 is a diagram showing the structure of a watermark payload according to another embodiment of the present invention.
  • FIG. 41 is a view showing a modification of a watermark payload structure using service / content information according to an embodiment of the present invention.
  • FIG. 42 illustrates a modification of a watermark payload structure using an NSC field according to an embodiment of the present invention.
  • FIG. 43 illustrates a watermark payload structure for linking between video and audio watermarks according to an embodiment of the present invention.
  • FIG. 44 illustrates an operation using a linked video-audio watermark according to an embodiment of the present invention.
  • 45 is a diagram illustrating a broadcast content processing method according to an embodiment of the present invention.
  • 46 is a diagram illustrating a broadcast content processing apparatus according to an embodiment of the present invention.
  • the present invention provides an apparatus and method for transmitting and receiving broadcast signals for next generation broadcast services.
  • the next generation broadcast service includes a terrestrial broadcast service, a mobile broadcast service, a UHDTV service, and the like.
  • a broadcast signal for a next generation broadcast service may be processed through a non-multiple input multiple output (MIMO) or MIMO scheme.
  • MIMO multiple input multiple output
  • the non-MIMO scheme may include a multiple input single output (MISO) scheme, a single input single output (SISO) scheme, and the like.
  • FIG. 1 is a diagram illustrating a protocol stack according to an embodiment of the present invention.
  • the service may be delivered to the receiver through a plurality of layers.
  • the transmitting side can generate service data.
  • the delivery layer on the transmitting side performs processing for transmission to the service data, and the physical layer encodes it as a broadcast signal and transmits it through a broadcasting network or broadband.
  • the service data may be generated in a format according to ISO BMFF (base media file format).
  • the ISO BMFF media file may be used in broadcast network / broadband delivery, media encapsulation and / or synchronization format.
  • the service data is all data related to the service, and may include a concept including service components constituting the linear service, signaling information thereof, non real time (NRT) data, and other files.
  • the delivery layer will be described.
  • the delivery layer may provide a transmission function for service data.
  • the service data may be delivered through a broadcast network and / or broadband.
  • the first method may be to process service data into Media Processing Units (MPUs) based on MPEG Media Transport (MMT) and transmit the data using MMM protocol (MMTP).
  • MPUs Media Processing Units
  • MMT MPEG Media Transport
  • MMTP MMM protocol
  • the service data delivered through the MMTP may include service components for linear service and / or service signaling information thereof.
  • the second method may be to process service data into DASH segments based on MPEG DASH and transmit it using Real Time Object Delivery over Unidirectional Transport (ROUTE).
  • the service data delivered through the ROUTE protocol may include service components for the linear service, service signaling information and / or NRT data thereof. That is, non-timed data such as NRT data and files may be delivered through ROUTE.
  • Data processed according to the MMTP or ROUTE protocol may be processed into IP packets via the UDP / IP layer.
  • a service list table (SLT) may also be transmitted through a broadcasting network through a UDP / IP layer.
  • the SLT may be included in the LLS (Low Level Signaling) table and transmitted. The SLT and the LLS table will be described later.
  • IP packets may be treated as link layer packets at the link layer.
  • the link layer may encapsulate data of various formats delivered from an upper layer into a link layer packet and then deliver the data to the physical layer. The link layer will be described later.
  • At least one or more service elements may be delivered via a broadband path.
  • the data transmitted through the broadband may include service components in a DASH format, service signaling information and / or NRT data thereof. This data can be processed via HTTP / TCP / IP, passed through the link layer for broadband transmission, and delivered to the physical layer for broadband transmission.
  • the physical layer may process data received from a delivery layer (upper layer and / or link layer) and transmit the data through a broadcast network or a broadband. Details of the physical layer will be described later.
  • a service can be a collection of service components that are shown to the user as a whole, a component can be of multiple media types, a service can be continuous or intermittent, a service can be real or non-real time, and a real time service can be a sequence of TV programs It can be configured as.
  • the service may be a linear audio / video or audio only service that may have app-based enhancements.
  • the service may be an app-based service whose reproduction / configuration is controlled by the downloaded application.
  • the service may be an ESG service that provides an electronic service guide (ESG).
  • ESG electronic service guide
  • EA Emergency Alert
  • the service component may be delivered by (1) one or more ROUTE sessions or (2) one or more MMTP sessions.
  • the service component When a linear service with app-based enhancement is delivered through a broadcast network, the service component may be delivered by (1) one or more ROUTE sessions and (2) zero or more MMTP sessions.
  • data used for app-based enhancement may be delivered through a ROUTE session in the form of NRT data or other files.
  • linear service components (streaming media components) of one service may not be allowed to be delivered using both protocols simultaneously.
  • the service component may be delivered by one or more ROUTE sessions.
  • the service data used for the app-based service may be delivered through a ROUTE session in the form of NRT data or other files.
  • some service components or some NRT data, files, etc. of these services may be delivered via broadband (hybrid service delivery).
  • the linear service components of one service may be delivered through the MMT protocol.
  • the linear service components of one service may be delivered via a ROUTE protocol.
  • the linear service component and NRT data (NRT service component) of one service may be delivered through the ROUTE protocol.
  • linear service components of one service may be delivered through the MMT protocol, and NRT data (NRT service components) may be delivered through the ROUTE protocol.
  • some service component or some NRT data of a service may be delivered over broadband.
  • the data related to the app-based service or the app-based enhancement may be transmitted through a broadcast network according to ROUTE or through broadband in the form of NRT data.
  • NRT data may also be referred to as locally cashed data.
  • Each ROUTE session includes one or more LCT sessions that deliver, in whole or in part, the content components that make up the service.
  • an LCT session may deliver an individual component of a user service, such as an audio, video, or closed caption stream.
  • Streaming media is formatted into a DASH segment.
  • Each MMTP session includes one or more MMTP packet flows carrying an MMT signaling message or all or some content components.
  • the MMTP packet flow may carry a component formatted with an MMT signaling message or an MPU.
  • an LCT session For delivery of NRT user service or system metadata, an LCT session carries a file based content item.
  • These content files may consist of continuous (timed) or discrete (non-timed) media components of an NRT service, or metadata such as service signaling or ESG fragments.
  • Delivery of system metadata, such as service signaling or ESG fragments, can also be accomplished through the signaling message mode of the MMTP.
  • the tuner can scan frequencies and detect broadcast signals at specific frequencies.
  • the receiver can extract the SLT and send it to the module that processes it.
  • the SLT parser can parse the SLT, obtain data, and store it in the channel map.
  • the receiver may acquire bootstrap information of the SLT and deliver it to the ROUTE or MMT client. This allows the receiver to obtain and store the SLS. USBD or the like can be obtained, which can be parsed by the signaling parser.
  • FIG. 2 is a diagram illustrating a service discovery process according to an embodiment of the present invention.
  • the broadcast stream delivered by the broadcast signal frame of the physical layer may carry LLS (Low Level Signaling).
  • LLS data may be carried through the payload of an IP packet delivered to a well known IP address / port. This LLS may contain an SLT depending on its type.
  • LLS data may be formatted in the form of an LLS table. The first byte of every UDP / IP packet carrying LLS data may be the beginning of the LLS table. Unlike the illustrated embodiment, the IP stream carrying LLS data may be delivered to the same PLP along with other service data.
  • the SLT enables the receiver to generate a service list through a fast channel scan and provides access information for locating the SLS.
  • the SLT includes bootstrap information, which enables the receiver to obtain Service Layer Signaling (SLS) for each service.
  • SLS Service Layer Signaling
  • the bootstrap information may include destination IP address and destination port information of the ROUTE session including the LCT channel carrying the SLS and the LCT channel.
  • the bootstrap information may include a destination IP address and destination port information of the MMTP session carrying the SLS.
  • the SLS of service # 1 described by the SLT is delivered via ROUTE, and the SLT includes bootstrap information (sIP1, dIP1, dPort1) for the ROUTE session including the LCT channel to which the SLS is delivered. can do.
  • SLS of service # 2 described by the SLT is delivered through MMT, and the SLT may include bootstrap information (sIP2, dIP2, and dPort2) for an MMTP session including an MMTP packet flow through which the SLS is delivered.
  • the SLS is signaling information describing characteristics of a corresponding service and may include information for acquiring a corresponding service and a service component of the corresponding service, or may include receiver capability information for reproducing the corresponding service significantly. Having separate service signaling for each service allows the receiver to obtain the appropriate SLS for the desired service without having to parse the entire SLS delivered in the broadcast stream.
  • the SLS When the SLS is delivered through the ROUTE protocol, the SLS may be delivered through a dedicated LCT channel of a ROUTE session indicated by the SLT.
  • the SLS may include a user service bundle description (USBD / USD), a service-based transport session instance description (S-TSID), and / or a media presentation description (MPD).
  • USBD / USD user service bundle description
  • S-TSID service-based transport session instance description
  • MPD media presentation description
  • USBD to USD is one of the SLS fragments and may serve as a signaling hub for describing specific technical information of a service.
  • the USBD may include service identification information, device capability information, and the like.
  • the USBD may include reference information (URI reference) to other SLS fragments (S-TSID, MPD, etc.). That is, USBD / USD can refer to S-TSID and MPD respectively.
  • the USBD may further include metadata information that enables the receiver to determine the transmission mode (broadcast network / broadband). Details of the USBD / USD will be described later.
  • the S-TSID is one of the SLS fragments, and may provide overall session description information for a transport session carrying a service component of a corresponding service.
  • the S-TSID may provide transport session description information for the ROUTE session to which the service component of the corresponding service is delivered and / or the LCT channel of the ROUTE sessions.
  • the S-TSID may provide component acquisition information of service components related to one service.
  • the S-TSID may provide a mapping between the DASH Representation of the MPD and the tsi of the corresponding service component.
  • the component acquisition information of the S-TSID may be provided in the form of tsi, an identifier of an associated DASH representation, and may or may not include a PLP ID according to an embodiment.
  • the component acquisition information enables the receiver to collect audio / video components of a service and to buffer, decode, and the like of DASH media segments.
  • the S-TSID may be referenced by the USBD as described above. Details of the S-TSID will be described later.
  • the MPD is one of the SLS fragments and may provide a description of the DASH media presentation of the service.
  • the MPD may provide a resource identifier for the media segments and may provide contextual information within the media presentation for the identified resources.
  • the MPD may describe the DASH representation (service component) delivered through the broadcast network, and may also describe additional DASH representations delivered through the broadband (hybrid delivery).
  • the MPD may be referenced by the USBD as described above.
  • the SLS When the SLS is delivered through the MMT protocol, the SLS may be delivered through a dedicated MMTP packet flow of an MMTP session indicated by the SLT.
  • packet_id of MMTP packets carrying SLS may have a value of 00.
  • the SLS may include a USBD / USD and / or MMT Package (MP) table.
  • USBD is one of the SLS fragments, and may describe specific technical information of a service like that in ROUTE.
  • the USBD here may also include reference information (URI reference) to other SLS fragments.
  • the USBD of the MMT may refer to the MP table of the MMT signaling.
  • the USBD of the MMT may also include reference information on the S-TSID and / or the MPD.
  • the S-TSID may be for NRT data transmitted through the ROUTE protocol. This is because NRT data can be delivered through the ROUTE protocol even when the linear service component is delivered through the MMT protocol.
  • MPD may be for a service component delivered over broadband in hybrid service delivery. Details of the USBD of the MMT will be described later.
  • the MP table is a signaling message of the MMT for MPU components and may provide overall session description information for an MMTP session carrying a service component of a corresponding service.
  • the MP table may also contain descriptions for assets delivered via this MMTP session.
  • the MP table is streaming signaling information for MPU components, and may provide a list of assets corresponding to one service and location information (component acquisition information) of these components. Specific contents of the MP table may be in a form defined in MMT or a form in which modifications are made.
  • Asset is a multimedia data entity, which may mean a data entity associated with one unique ID and used to generate one multimedia presentation. Asset may correspond to a service component constituting a service.
  • the MP table may be used to access a streaming service component (MPU) corresponding to a desired service.
  • the MP table may be referenced by the USBD as described above.
  • MMT signaling messages may be defined. Such MMT signaling messages may describe additional information related to the MMTP session or service.
  • ROUTE sessions are identified by source IP address, destination IP address, and destination port number.
  • the LCT session is identified by a transport session identifier (TSI) that is unique within the scope of the parent ROUTE session.
  • MMTP sessions are identified by destination IP address and destination port number.
  • the MMTP packet flow is identified by a unique packet_id within the scope of the parent MMTP session.
  • the S-TSID, the USBD / USD, the MPD, or the LCT session carrying them may be referred to as a service signaling channel.
  • the S-TSID, the USBD / USD, the MPD, or the LCT session carrying them may be referred to as a service signaling channel.
  • MMT signaling messages or packet flow carrying them may be called a service signaling channel.
  • one ROUTE or MMTP session may be delivered through a plurality of PLPs. That is, one service may be delivered through one or more PLPs. Unlike shown, components constituting one service may be delivered through different ROUTE sessions. In addition, according to an embodiment, components constituting one service may be delivered through different MMTP sessions. According to an embodiment, components constituting one service may be delivered divided into a ROUTE session and an MMTP session. Although not shown, a component constituting one service may be delivered through a broadband (hybrid delivery).
  • LLS low level signaling
  • SLT service list table
  • An embodiment t3010 of the illustrated LLS table may include information according to an LLS_table_id field, a provider_id field, an LLS_table_version field, and / or an LLS_table_id field.
  • the LLS_table_id field may identify a type of the corresponding LLS table, and the provider_id field may identify service providers related to services signaled by the corresponding LLS table.
  • the service provider is a broadcaster using all or part of the broadcast stream, and the provider_id field may identify one of a plurality of broadcasters using the broadcast stream.
  • the LLS_table_version field may provide version information of a corresponding LLS table.
  • the corresponding LLS table includes the above-described SLT, a rating region table (RRT) including information related to a content advisory rating, a SystemTime information providing information related to system time, and an emergency alert. It may include one of the CAP (Common Alert Protocol) message that provides information related to. According to an embodiment, other information other than these may be included in the LLS table.
  • RRT rating region table
  • CAP Common Alert Protocol
  • One embodiment t3020 of the illustrated SLT may include an @bsid attribute, an @sltCapabilities attribute, a sltInetUrl element, and / or a Service element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @bsid attribute may be an identifier of a broadcast stream.
  • the @sltCapabilities attribute can provide the capability information required to decode and significantly reproduce all services described by the SLT.
  • the sltInetUrl element may provide base URL information used to obtain ESG or service signaling information for services of the corresponding SLT through broadband.
  • the sltInetUrl element may further include an @urlType attribute, which may indicate the type of data that can be obtained through the URL.
  • the service element may be an element including information on services described by the corresponding SLT, and a service element may exist for each service.
  • the Service element contains the @serviceId property, the @sltSvcSeqNum property, the @protected property, the @majorChannelNo property, the @minorChannelNo property, the @serviceCategory property, the @shortServiceName property, the @hidden property, the @broadbandAccessRequired property, the @svcCapabilities property, the BroadcastSvcSignaling element, and / or the svcInetUrl element. It may include.
  • the @serviceId attribute may be an identifier of a corresponding service, and the @sltSvcSeqNum attribute may indicate a sequence number of SLT information for the corresponding service.
  • the @protected attribute may indicate whether at least one service component necessary for meaningful playback of the corresponding service is protected.
  • the @majorChannelNo and @minorChannelNo attributes may indicate the major channel number and the minor channel number of the corresponding service, respectively.
  • the @serviceCategory attribute can indicate the category of the corresponding service.
  • the service category may include a linear A / V service, a linear audio service, an app-based service, an ESG service, and an EAS service.
  • the @shortServiceName attribute may provide a short name of the corresponding service.
  • the @hidden attribute can indicate whether the service is for testing or proprietary use.
  • the @broadbandAccessRequired attribute may indicate whether broadband access is required for meaningful playback of the corresponding service.
  • the @svcCapabilities attribute can provide the capability information necessary for decoding and meaningful reproduction of the corresponding service.
  • the BroadcastSvcSignaling element may provide information related to broadcast signaling of a corresponding service. This element may provide information such as a location, a protocol, and an address with respect to signaling through a broadcasting network of a corresponding service. Details will be described later.
  • the svcInetUrl element may provide URL information for accessing signaling information for a corresponding service through broadband.
  • the sltInetUrl element may further include an @urlType attribute, which may indicate the type of data that can be obtained through the URL.
  • the aforementioned BroadcastSvcSignaling element may include an @slsProtocol attribute, an @slsMajorProtocolVersion attribute, an @slsMinorProtocolVersion attribute, an @slsPlpId attribute, an @slsDestinationIpAddress attribute, an @slsDestinationUdpPort attribute, and / or an @slsSourceIpAddress attribute.
  • the @slsProtocol attribute can indicate the protocol used to deliver the SLS of the service (ROUTE, MMT, etc.).
  • the @slsMajorProtocolVersion attribute and @slsMinorProtocolVersion attribute may indicate the major version number and the minor version number of the protocol used to deliver the SLS of the corresponding service, respectively.
  • the @slsPlpId attribute may provide a PLP identifier for identifying a PLP that delivers the SLS of the corresponding service. According to an embodiment, this field may be omitted, and the PLP information to which the SLS is delivered may be identified by combining information in the LMT to be described later and bootstrap information of the SLT.
  • the @slsDestinationIpAddress attribute, @slsDestinationUdpPort attribute, and @slsSourceIpAddress attribute may indicate a destination IP address, a destination UDP port, and a source IP address of a transport packet carrying an SLS of a corresponding service, respectively. They can identify the transport session (ROUTE session or MMTP session) to which the SLS is delivered. These may be included in the bootstrap information.
  • FIG. 4 illustrates a USBD and an S-TSID delivered to ROUTE according to an embodiment of the present invention.
  • One embodiment t4010 of the illustrated USBD may have a bundleDescription root element.
  • the bundleDescription root element may have a userServiceDescription element.
  • the userServiceDescription element may be an instance of one service.
  • the userServiceDescription element may include an @globalServiceID attribute, an @serviceId attribute, an @serviceStatus attribute, an @fullMPDUri attribute, an @sTSIDUri attribute, a name element, a serviceLanguage element, a capabilityCode element, and / or a deliveryMethod element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @globalServiceID attribute is a globally unique identifier of the service and can be used to link with ESG data (Service @ globalServiceID).
  • the @serviceId attribute is a reference corresponding to the corresponding service entry of the SLT and may be the same as service ID information of the SLT.
  • the @serviceStatus attribute may indicate the status of the corresponding service. This field may indicate whether the corresponding service is active or inactive.
  • the @fullMPDUri attribute can refer to the MPD fragment of the service. As described above, the MPD may provide a reproduction description for a service component delivered through a broadcast network or a broadband.
  • the @sTSIDUri attribute may refer to the S-TSID fragment of the service.
  • the S-TSID may provide parameters related to access to the transport session carrying the service as described above.
  • the name element may provide the name of the service.
  • This element may further include an @lang attribute, which may indicate the language of the name provided by the name element.
  • the serviceLanguage element may indicate the available languages of the service. That is, this element may list the languages in which the service can be provided.
  • the capabilityCode element may indicate capability or capability group information of the receiver side necessary for significantly playing a corresponding service. This information may be compatible with the capability information format provided by the service announcement.
  • the deliveryMethod element may provide delivery related information with respect to contents accessed through a broadcasting network or a broadband of a corresponding service.
  • the deliveryMethod element may include a broadcastAppService element and / or a unicastAppService element. Each of these elements may have a basePattern element as its child element.
  • the broadcastAppService element may include transmission related information on the DASH presentation delivered through the broadcast network.
  • These DASH representations may include media components across all periods of the service media presentation.
  • the basePattern element of this element may represent a character pattern used by the receiver to match the segment URL. This can be used by the DASH client to request segments of the representation. Matching may imply that the media segment is delivered over the broadcast network.
  • the unicastAppService element may include transmission related information on the DASH representation delivered through broadband. These DASH representations may include media components across all periods of the service media presentation.
  • the basePattern element of this element may represent a character pattern used by the receiver to match the segment URL. This can be used by the DASH client to request segments of the representation. Matching may imply that the media segment is delivered over broadband.
  • An embodiment t4020 of the illustrated S-TSID may have an S-TSID root element.
  • the S-TSID root element may include an @serviceId attribute and / or an RS element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @serviceId attribute is an identifier of a corresponding service and may refer to a corresponding service of USBD / USD.
  • the RS element may describe information on ROUTE sessions through which service components of a corresponding service are delivered. Depending on the number of such ROUTE sessions, there may be a plurality of these elements.
  • the RS element may further include an @bsid attribute, an @sIpAddr attribute, an @dIpAddr attribute, an @dport attribute, an @PLPID attribute, and / or an LS element.
  • the @bsid attribute may be an identifier of a broadcast stream through which service components of a corresponding service are delivered. If this field is omitted, the default broadcast stream may be a broadcast stream that includes a PLP that carries the SLS of the service. The value of this field may be the same value as the @bsid attribute of SLT.
  • the @sIpAddr attribute, the @dIpAddr attribute, and the @dport attribute may indicate a source IP address, a destination IP address, and a destination UDP port of the corresponding ROUTE session, respectively. If these fields are omitted, the default values may be the source IP address, destination IP address, and destination UDP port values of the current, ROUTE session carrying that SLS, that is, carrying that S-TSID. For other ROUTE sessions that carry service components of the service but not the current ROUTE session, these fields may not be omitted.
  • the @PLPID attribute may indicate PLP ID information of a corresponding ROUTE session. If this field is omitted, the default value may be the PLP ID value of the current PLP to which the corresponding S-TSID is being delivered. According to an embodiment, this field is omitted, and the PLP ID information of the corresponding ROUTE session may be confirmed by combining information in the LMT to be described later and IP address / UDP port information of the RS element.
  • the LS element may describe information on LCT channels through which service components of a corresponding service are delivered. Depending on the number of such LCT channels, there may be a plurality of these elements.
  • the LS element may include an @tsi attribute, an @PLPID attribute, an @bw attribute, an @startTime attribute, an @endTime attribute, an SrcFlow element, and / or a RepairFlow element.
  • the @tsi attribute may represent tsi information of a corresponding LCT channel. Through this, LCT channels through which a service component of a corresponding service is delivered may be identified.
  • the @PLPID attribute may represent PLP ID information of a corresponding LCT channel. In some embodiments, this field may be omitted.
  • the @bw attribute may indicate the maximum bandwidth of the corresponding LCT channel.
  • the @startTime attribute may indicate the start time of the LCT session, and the @endTime attribute may indicate the end time of the LCT channel.
  • the SrcFlow element may describe the source flow of ROUTE.
  • the source protocol of ROUTE is used to transmit the delivery object, and can establish at least one source flow in one ROUTE session. These source flows can deliver related objects as an object flow.
  • the RepairFlow element may describe the repair flow of ROUTE. Delivery objects delivered according to the source protocol may be protected according to Forward Error Correction (FEC).
  • FEC Forward Error Correction
  • the repair protocol may define a FEC framework that enables such FEC protection.
  • FIG. 5 is a diagram illustrating a USBD delivered to MMT according to an embodiment of the present invention.
  • One embodiment of the illustrated USBD may have a bundleDescription root element.
  • the bundleDescription root element may have a userServiceDescription element.
  • the userServiceDescription element may be an instance of one service.
  • the userServiceDescription element may include an @globalServiceID attribute, an @serviceId attribute, a Name element, a serviceLanguage element, a content advisoryRating element, a Channel element, an mpuComponent element, a routeComponent element, a broadbandComponent element, and / or a ComponentInfo element.
  • Each field may be omitted or may exist in plurality, depending on the value of the illustrated Use column.
  • the @globalServiceID attribute, the @serviceId attribute, the Name element and / or the serviceLanguage element may be the same as the corresponding fields of the USBD delivered to the above-described ROUTE.
  • the contentAdvisoryRating element may indicate the content advisory rating of the corresponding service. This information may be compatible with the content advisory rating information format provided by the service announcement.
  • the channel element may include information related to the corresponding service. The detail of this element is mentioned later.
  • the mpuComponent element may provide a description for service components delivered as an MPU of a corresponding service.
  • This element may further include an @mmtPackageId attribute and / or an @nextMmtPackageId attribute.
  • the @mmtPackageId attribute may refer to an MMT package of service components delivered as an MPU of a corresponding service.
  • the @nextMmtPackageId attribute may refer to an MMT package to be used next to the MMT package referenced by the @mmtPackageId attribute in time.
  • the MP table can be referenced through the information of this element.
  • the routeComponent element may include a description of service components of the corresponding service delivered to ROUTE. Even if the linear service components are delivered in the MMT protocol, the NRT data may be delivered according to the ROUTE protocol as described above. This element may describe information about such NRT data. The detail of this element is mentioned later.
  • the broadbandComponent element may include a description of service components of the corresponding service delivered over broadband.
  • some service components or other files of a service may be delivered over broadband. This element may describe information about these data.
  • This element may further include the @fullMPDUri attribute. This attribute may refer to an MPD that describes service components delivered over broadband.
  • the element when the broadcast signal is weakened due to driving in a tunnel or the like, the element may be needed to support handoff between the broadcast network and the broadband band. When the broadcast signal is weakened, while acquiring the service component through broadband, and when the broadcast signal is stronger, the service continuity may be guaranteed by acquiring the service component through the broadcast network.
  • the ComponentInfo element may include information on service components of a corresponding service. Depending on the number of service components of the service, there may be a plurality of these elements. This element may describe information such as the type, role, name, identifier, and protection of each service component. Detailed information on this element will be described later.
  • the aforementioned channel element may further include an @serviceGenre attribute, an @serviceIcon attribute, and / or a ServiceDescription element.
  • the @serviceGenre attribute may indicate the genre of the corresponding service
  • the @serviceIcon attribute may include URL information of an icon representing the corresponding service.
  • the ServiceDescription element provides a service description of the service, which may further include an @serviceDescrText attribute and / or an @serviceDescrLang attribute. Each of these attributes may indicate the text of the service description and the language used for that text.
  • the aforementioned routeComponent element may further include an @sTSIDUri attribute, an @sTSIDDestinationIpAddress attribute, an @sTSIDDestinationUdpPort attribute, an @sTSIDSourceIpAddress attribute, an @sTSIDMajorProtocolVersion attribute, and / or an @sTSIDMinorProtocolVersion attribute.
  • the @sTSIDUri attribute may refer to an S-TSID fragment. This field may be the same as the corresponding field of USBD delivered to ROUTE described above. This S-TSID may provide access related information for service components delivered in ROUTE. This S-TSID may exist for NRT data delivered according to the ROUTE protocol in the situation where linear service components are delivered according to the MMT protocol.
  • the @sTSIDDestinationIpAddress attribute, the @sTSIDDestinationUdpPort attribute, and the @sTSIDSourceIpAddress attribute may indicate a destination IP address, a destination UDP port, and a source IP address of a transport packet carrying the aforementioned S-TSID, respectively. That is, these fields may identify a transport session (MMTP session or ROUTE session) carrying the aforementioned S-TSID.
  • the @sTSIDMajorProtocolVersion attribute and the @sTSIDMinorProtocolVersion attribute may indicate a major version number and a minor version number of the transport protocol used to deliver the aforementioned S-TSID.
  • ComponentInfo element may further include an @componentType attribute, an @componentRole attribute, an @componentProtectedFlag attribute, an @componentId attribute, and / or an @componentName attribute.
  • the @componentType attribute may indicate the type of the corresponding component. For example, this property may indicate whether the corresponding component is an audio, video, or closed caption component.
  • the @componentRole attribute can indicate the role (role) of the corresponding component. For example, this property can indicate whether the main audio, music, commentary, etc., if the corresponding component is an audio component. If the corresponding component is a video component, it may indicate whether it is primary video. If the corresponding component is a closed caption component, it may indicate whether it is a normal caption or an easy reader type.
  • the @componentProtectedFlag attribute may indicate whether a corresponding service component is protected, for example, encrypted.
  • the @componentId attribute may represent an identifier of a corresponding service component.
  • the value of this attribute may be a value such as asset_id (asset ID) of the MP table corresponding to this service component.
  • the @componentName attribute may represent the name of the corresponding service component.
  • FIG. 6 illustrates a link layer operation according to an embodiment of the present invention.
  • the link layer may be a layer between the physical layer and the network layer.
  • the transmitter may transmit data from the network layer to the physical layer
  • the receiver may transmit data from the physical layer to the network layer (t6010).
  • the purpose of the link layer may be to compress all input packet types into one format for processing by the physical layer, to ensure flexibility and future scalability for input packet types not yet defined. have.
  • the link layer may provide an option of compressing unnecessary information in the header of the input packet, so that the input data may be efficiently transmitted. Operations such as overhead reduction and encapsulation of the link layer may be referred to as a link layer protocol, and a packet generated using the corresponding protocol may be referred to as a link layer packet.
  • the link layer may perform functions such as packet encapsulation, overhead reduction, and / or signaling transmission.
  • the link layer ALP may perform an overhead reduction process on input packets and then encapsulate them into link layer packets.
  • the link layer may encapsulate the link layer packet without performing an overhead reduction process.
  • the use of the link layer protocol can greatly reduce the overhead for data transmission on the physical layer, and the link layer protocol according to the present invention can provide IP overhead reduction and / or MPEG-2 TS overhead reduction. have.
  • the link layer may sequentially perform IP header compression, adaptation, and / or encapsulation. In some embodiments, some processes may be omitted.
  • the RoHC module performs IP packet header compression to reduce unnecessary overhead, and context information may be extracted and transmitted out of band through an adaptation process.
  • the IP header compression and adaptation process may be collectively called IP header compression.
  • IP packets may be encapsulated into link layer packets through an encapsulation process.
  • the link layer may sequentially perform an overhead reduction and / or encapsulation process for the TS packet. In some embodiments, some processes may be omitted.
  • the link layer may provide sync byte removal, null packet deletion and / or common header removal (compression).
  • Sync byte elimination can provide overhead reduction of 1 byte per TS packet. Null packet deletion can be performed in a manner that can be reinserted at the receiving end. In addition, common information between successive headers can be deleted (compressed) in a manner that can be recovered at the receiving side. Some of each overhead reduction process may be omitted. Thereafter, TS packets may be encapsulated into link layer packets through an encapsulation process.
  • the link layer packet structure for encapsulation of TS packets may be different from other types of packets.
  • IP header compression will be described.
  • the IP packet has a fixed header format, but some information required in a communication environment may be unnecessary in a broadcast environment.
  • the link layer protocol may provide a mechanism to reduce broadcast overhead by compressing the header of the IP packet.
  • IP header compression may include a header compressor / decompressor and / or adaptation module.
  • the IP header compressor (RoHC compressor) may reduce the size of each IP packet header based on the RoHC scheme.
  • the adaptation module may then extract the context information and generate signaling information from each packet stream.
  • the receiver may parse signaling information related to the packet stream and attach context information to the packet stream.
  • the RoHC decompressor can reconstruct the original IP packet by recovering the packet header.
  • the decompressor In the case of transmissions on the unidirectional link, if the receiver does not have the context information, the decompressor cannot recover the received packet headers until it receives the complete context. This can result in channel change delays and turn-on delays. Therefore, the configuration parameter and context information between the compressor / decompressor can be transmitted out of band through the adaptation function.
  • the context information is extracted from the compressed IP packets, and various methods may be used according to the adaptation mode.
  • Mode # 1 is a mode in which no operation is performed on the compressed packet stream, and may be a mode in which the adaptation module operates as a buffer.
  • Mode # 2 may be a mode for extracting context information (static chain) by detecting IR packets in the compressed packet stream. After extraction, the IR packet is converted into an IR-DYN packet, and the IR-DYN packet can be transmitted in the same order in the packet stream by replacing the original IR packet.
  • context information static chain
  • Mode # 3 t6020 may be a mode for detecting IR and IR-DYN packets and extracting context information from the compressed packet stream.
  • Static chains and dynamic chains can be extracted from IR packets and dynamic chains can be extracted from IR-DYN packets.
  • the IR and IR-DYN packets can be converted into regular compressed packets.
  • the switched packets can be sent in the same order within the packet stream, replacing the original IR and IR-DYN packets.
  • the remaining packets after the context information is extracted may be encapsulated and transmitted according to the link layer packet structure for the compressed IP packet.
  • the context information may be transmitted by being encapsulated according to a link layer packet structure for signaling information as link layer signaling.
  • the extracted context information may be included in the RoHC-U Description Table (RTT) and transmitted separately from the RoHC packet flow.
  • the context information may be transmitted through a specific physical data path along with other signaling information.
  • a specific physical data path may mean one of general PLPs, a PLP to which LLS (Low Level Signaling) is delivered, a dedicated PLP, or an L1 signaling path. path).
  • the RDT may be signaling information including context information (static chain and / or dynamic chain) and / or information related to header compression.
  • the receiver may first select the PLP to acquire signaling information such as SLT and RDT. Once the signaling information is obtained, the PLP carrying the corresponding packet stream may be selected.
  • the adaptation module can parse the context information and merge it with the compressed packets. This allows the packet stream to be recovered, which can be delivered to the RoHC decompressor. Decompression can then begin.
  • the link layer protocol may encapsulate all types of input packets, such as IP packets and TS packets, into link layer packets. This allows the physical layer to process only one packet format independently of the protocol type of the network layer (here, consider MPEG-2 TS packet as a kind of network layer packet). Each network layer packet or input packet is transformed into a payload of a generic link layer packet.
  • Segmentation may be utilized in the packet encapsulation process. If the network layer packet is too large to be processed by the physical layer, the network layer packet may be divided into two or more segments.
  • the link layer packet header may include fields for performing division at the transmitting side and recombination at the receiving side. Each segment may be encapsulated into a link layer packet in the same order as the original position.
  • Concatenation may also be utilized in the packet encapsulation process. If the network layer packet is small enough that the payload of the link layer packet includes several network layer packets, concatenation may be performed.
  • the link layer packet header may include fields for executing concatenation. In the case of concatenation, each input packet may be encapsulated into the payload of the link layer packet in the same order as the original input order.
  • the link layer packet may include a header and a payload, and the header may include a base header, an additional header, and / or an optional header.
  • the additional header may be added depending on the chaining or splitting, and the additional header may include necessary fields according to the situation.
  • an optional header may be further added to transmit additional information.
  • Each header structure may be predefined. As described above, when the input packet is a TS packet, a link layer header structure different from other packets may be used.
  • Link layer signaling may operate at a lower level than the IP layer.
  • the receiving side can acquire the link layer signaling faster than the IP level signaling such as LLS, SLT, SLS, and the like. Therefore, link layer signaling may be obtained before session establishment.
  • Link layer signaling may include internal link layer signaling and external link layer signaling.
  • Internal link layer signaling may be signaling information generated in the link layer.
  • the above-described RDT or LMT to be described later may correspond to this.
  • the external link layer signaling may be signaling information received from an external module, an external protocol, or an upper layer.
  • the link layer may encapsulate link layer signaling into a link layer packet and deliver it.
  • a link layer packet structure (header structure) for link layer signaling may be defined, and link layer signaling information may be encapsulated according to this structure.
  • FIG. 7 illustrates a link mapping table (LMT) according to an embodiment of the present invention.
  • the LMT may provide a list of higher layer sessions carried by the PLP.
  • the LMT may also provide additional information for processing link layer packets carrying higher layer sessions.
  • Information on which IP streams and which transport sessions are being transmitted through a PLP can be obtained through LMT. Conversely, information on which PLP a specific transport session is delivered to may be obtained.
  • the PLP identifier information in the above-described SLT, SLS, etc. may be utilized, so that information on which PLP the specific transmission session indicated by the SLT, SLS is transmitted may be confirmed.
  • the PLP identifier information in the above-described SLT, SLS, etc. may be omitted, and the PLP information for the specific transport session indicated by the SLT, SLS may be confirmed by referring to the information in the LMT.
  • the receiver may identify the PLP to know by combining LMT and other IP level signaling information.
  • PLP information in SLT, SLS, and the like is not omitted, and may remain in the SLT, SLS, and the like.
  • the LMT according to the illustrated embodiment may include a signaling_type field, a PLP_ID field, a num_session field, and / or information about respective sessions.
  • a PLP loop may be added to the LMT according to an embodiment, so that information on a plurality of PLPs may be described.
  • the signaling_type field may indicate the type of signaling information carried by the corresponding table.
  • the value of the signaling_type field for the LMT may be set to 0x01.
  • the PLP_ID field may identify a PLP corresponding to the corresponding LMT.
  • the num_session field may indicate the number of upper layer sessions delivered to the PLP identified by the PLP_ID field.
  • information about each session may be included.
  • This information may include an src_IP_add field, a dst_IP_add field, a src_UDP_port field, a dst_UDP_port field, a SID_flag field, a compressed_flag field, a SID field, and / or a context_id field.
  • the src_IP_add field, dst_IP_add field, src_UDP_port field, and dst_UDP_port field are the source IP address, destination IP address, source UDP port, destination UDP port for the transport session among the upper layer sessions forwarded to the PLP identified by the PLP_ID field. Can be represented.
  • the SID_flag field may indicate whether a link layer packet carrying a corresponding transport session has an SID field in its optional header.
  • a link layer packet carrying an upper layer session may have an SID field in its optional header, and the SID field value may be the same as an SID field in an LMT to be described later.
  • the compressed_flag field may indicate whether header compression has been applied to data of a link layer packet carrying a corresponding transport session.
  • the existence of the context_id field to be described later may be determined according to the value of this field.
  • the SID field may indicate a sub stream ID (SID) for link layer packets carrying a corresponding transport session.
  • the context_id field may provide a reference to a context id (CID) in the RDT.
  • the CID information of the RDT may indicate the context ID for the corresponding compressed IP packet stream.
  • the RDT may provide context information for the compressed IP packet stream. RDT and LMT may be associated with this field.
  • each field, element, or attribute may be omitted or replaced by another field, and additional fields, elements, or attributes may be added according to an embodiment. .
  • service components of one service may be delivered through a plurality of ROUTE sessions.
  • the SLS may be obtained through the bootstrap information of the SLT.
  • the SLS's USBD allows the S-TSID and MPD to be referenced.
  • the S-TSID may describe transport session description information for other ROUTE sessions to which service components are delivered, as well as a ROUTE session to which an SLS is being delivered.
  • all service components delivered through a plurality of ROUTE sessions may be collected. This may be similarly applied when service components of a service are delivered through a plurality of MMTP sessions.
  • one service component may be used simultaneously by a plurality of services.
  • bootstrapping for ESG services may be performed by a broadcast network or broadband.
  • URL information of the SLT may be utilized. ESG information and the like can be requested to this URL.
  • one service component of one service may be delivered to the broadcasting network and one to the broadband (hybrid).
  • the S-TSID may describe components delivered to a broadcasting network, so that a ROUTE client may acquire desired service components.
  • USBD also has base pattern information, which allows you to describe which segments (which components) are to be routed to which path. Therefore, the receiver can use this to know what segment to request to the broadband server and what segment to find in the broadcast stream.
  • scalable coding for a service may be performed.
  • the USBD may have all the capability information needed to render the service. For example, when a service is provided in HD or UHD, the capability information of the USBD may have a value of “HD or UHD”.
  • the receiver may know which component should be played in order to render the UHD or HD service using the MPD.
  • app components to be used for app-based enhancement / app-based service may be delivered through a broadcast network or through broadband as an NRT component.
  • app signaling for app-based enhancement may be performed by an application signaling table (AST) delivered with SLS.
  • an event which is a signaling of an operation to be performed by the app, may be delivered in the form of an event message table (EMT) with SLS, signaled in an MPD, or in-band signaled in a box in a DASH representation. . AST, EMT, etc. may be delivered via broadband.
  • App-based enhancement may be provided using the collected app components and such signaling information.
  • a CAP message may be included in the aforementioned LLS table for emergency alerting. Rich media content for emergency alerts may also be provided. Rich media may be signaled by the CAP message, and if rich media is present it may be provided as an EAS service signaled by the SLT.
  • the linear service components may be delivered through a broadcasting network according to the MMT protocol.
  • NRT data for example, an app component
  • data on the service may be delivered through a broadcasting network according to the ROUTE protocol.
  • data on the service may be delivered through broadband.
  • the receiver can access the MMTP session carrying the SLS using the bootstrap information of the SLT.
  • the USBD of the SLS according to the MMT may refer to the MP table so that the receiver may acquire linear service components formatted with the MPU delivered according to the MMT protocol.
  • the USBD may further refer to the S-TSID to allow the receiver to obtain NRT data delivered according to the ROUTE protocol.
  • the USBD may further reference the MPD to provide a playback description for the data delivered over the broadband.
  • the receiver may transmit location URL information for obtaining a streaming component and / or a file content item (such as a file) to the companion device through a method such as a web socket.
  • An application of a companion device may request the component, data, and the like by requesting the URL through an HTTP GET.
  • the receiver may transmit information such as system time information and emergency alert information to the companion device.
  • FIG. 8 is a block diagram illustrating a network topology according to an embodiment of the present invention.
  • the network topology includes a content providing server 10, a content recognizing service providing server 20, a multi-channel video distribution server 30, and an additional service information providing server ( 40, a plurality of additional service providing servers 50, a broadcast receiving device 60, a network 70, and a video display device 100.
  • the content providing server 10 may correspond to a broadcasting station and broadcasts a broadcast signal including main audio-visual content.
  • the broadcast signal may further include an additional service.
  • the supplementary service may or may not be related to the main audiovisual content.
  • Additional services include service information, metadata, additional data, compiled executables, web applications, Hypertext Markup Language (HTML) documents, XML documents, cascading style sheet (CSS) documents, audio files, and video.
  • File ATSC 2.0 content, address, such as a Uniform Resource Locator (URL).
  • URL Uniform Resource Locator
  • the content recognizing service providing server 20 provides a content recognizing service that enables the video display device 100 to recognize content based on the main audio and video content.
  • the content recognizing service providing server 20 may or may not modify the main audio and video content.
  • One or more content recognition service providing servers may exist.
  • the content recognizing service providing server 20 may be a watermark server for modifying the main audiovisual content to insert a visible watermark such as a logo into the main audiovisual content.
  • the watermark server may watermark the content provider's logo on the upper left or upper right of each frame of the main audiovisual content.
  • the content recognizing service providing server 20 may be a watermark server for modifying the main AV content and inserting the content information into the main AV content as an invisible watermark.
  • the content recognizing service providing server 20 may be a fingerprint server that extracts and stores feature information from some frames or some audio samples of the main audio and video content. This feature information is also called signature.
  • the multi-channel video distribution server 30 receives and multiplexes broadcast signals from a plurality of broadcast stations and provides the multiplexed signals to the broadcast receiving device 60.
  • the multi-channel video distribution server 30 performs demodulation and channel decoding on the received broadcast signal to extract the main AV content and the additional service, and then performs channel encoding on the extracted main AV content and the extracted additional service. It is possible to generate multiplexed signals for distribution.
  • the multi-channel video distribution server 30 may exclude the extracted additional service or add another additional service, the broadcasting station may not provide a broadcaster-led service.
  • the broadcast receiving device 60 tunes a channel selected by a user, receives a signal of a tuned channel, performs demodulation and channel decoding on the received signal, and extracts main audio and video content.
  • the broadcast receiving device 60 extracts the extracted main audio and video content from H.264 / MPEG-4 Moving Picture Experts Group-4 advanced video coding (DVC), Dolby AC-3, and MPEG-2 Moving Picture Experts Group-2 Advanced.
  • Decoding is performed using an audio coding algorithm to generate uncompressed main AV content.
  • the broadcast receiving device 60 provides the generated uncompressed main audio and video content to the video display device 100 through an external input port of the video display device 100.
  • the supplementary service information providing server 40 provides supplementary service information for one or more available supplementary services related to the main AV content in response to a request of the video display device. There may be one or more additional service address providing servers. The additional service information providing server 40 may provide additional service information for the highest priority additional service among a plurality of available additional services.
  • the additional service providing server 50 may provide one or more additional services that may be used in connection with the main audio and video content in response to a request of the video display device. There may be one or more additional service providing servers.
  • the video display device 100 may be a display unit such as a television, a laptop, a mobile phone, a smartphone, or the like.
  • the video display device 100 may receive uncompressed main audio and video content from the broadcast reception device 60 and broadcast including main audio and video content encoded from the content providing server 10 or the multichannel video distribution server 30. You can also receive a signal.
  • the video display device 100 may be provided with a content recognition service from the content recognition service providing server 20 through the network 70, and may receive main audiovisual content from the additional service information providing server 40 through the network 70. Receive the address of one or more additional services available in relation to, and may receive one or more additional services available in connection with the main audio-visual content from the additional service providing server 50.
  • At least two of the content providing server 10, the content recognizing service providing server 20, the multichannel video distribution server 30, the additional service information providing server 40, and the plurality of additional service providing servers 50 are one server. It may be combined in the form of or may be operated by one operator.
  • FIG. 9 is a block diagram illustrating a watermark based network topology according to an embodiment of the present invention.
  • the network topology according to the embodiment of the present invention further includes a watermark server 21.
  • the watermark server 21 as shown in FIG. 9 applies modification to the main audio and video content to insert the content information into the main audio and video content.
  • the multichannel video distribution server 30 receives and distributes a broadcast signal including the modified main AV content.
  • the watermark server may use a digital watermarking technique as described below.
  • Digital watermarks are the process of embedding information in digital signals in a way that is difficult to delete.
  • the digital signal can be audio, photo, or video.
  • the inserted information is also contained in the copy.
  • One digital signal can carry several different watermarks at the same time.
  • the inserted information is discernible to the eye in the picture or video.
  • the inserted information is text or a logo that identifies the owner of the media.
  • a television station adds its logo to the corner of the video being sent, this is an eye identifiable watermark.
  • the copying device may obtain a watermark from the digital media before copying the digital media, and may decide whether to copy or not based on the content of the watermark.
  • Another application of watermarking is in tracking the source of digital media. At each point on the distribution path, a watermark is embedded in the digital media. If such digital media is found later, a watermark can be extracted from the digital media and the source of the distribution can be grasped from the content of the watermark.
  • the file format for digital media may include additional information called metadata, which is distinguished from metadata in that digital watermarks are conveyed in the audiovisual signal of digital media itself.
  • Watermarking methods include spread spectrum, quantization, and amplitude modulation.
  • the watermarking method corresponds to spread spectrum.
  • Spread-spectrum watermarks are known to be quite robust, but they do not carry much information because they interfere with the embedded host signal.
  • the watermarking method corresponds to the quantization type. Quantization watermarks are less robust, but can carry quite a bit of information.
  • the watermarking method corresponds to an amplitude modulation.
  • FIG. 10 is a ladder diagram illustrating a data flow in a watermark based network topology according to an embodiment of the present invention.
  • the content providing server 10 transmits a broadcast signal including the main audio and video content and the additional service (S101).
  • the watermark server 21 receives a broadcast signal provided by the content providing server 10 and applies a modification to the main audiovisual content to insert a visible watermark such as a logo into the main audiovisual content, or to the main audiovisual content.
  • the watermark information is inserted as an invisible watermark, and the watermarked main AV content and the supplementary service are provided to the MVPD 30 (S103).
  • the watermark information inserted through the invisible watermark may include one or more of watermark usage, content information, additional service information, and available additional services.
  • the watermark usage may indicate one of unauthorized copy protection, audience rating research, and additional service acquisition.
  • the content information may include identification information of a content provider that provides main audio and video content, main audio and video content identification information, main audio and video content rating information, time information of a content section used to acquire content information, a name of a channel on which main audio and video content is broadcast, and main Among the logo of the channel on which the audiovisual content is broadcast, the description of the channel on which the main audiovisual content is broadcast, the usage information reporting address, the usage information reporting period, the minimum usage time for obtaining the usage information, and additional service information available in connection with the main audiovisual content. It may include one or more.
  • the time information of the content section used to acquire the content information may be time information of the content section in which the used watermark is embedded. If the video display device 100 uses the fingerprint for obtaining the content information, the time information of the content section used for obtaining the content information may be time information of the content section from which the feature information is extracted.
  • the time information of the content section used to acquire the content information includes the start time of the content section used to acquire the content information, the duration of the content section used to acquire the content information, and the end time of the content section used to acquire the content information. It may include one or more of.
  • the usage information report address may include at least one of a main AV content viewing information report address and an additional service usage information report address.
  • the usage information reporting period may include one or more of a main audio and video content viewing information reporting period and an additional service usage information reporting period.
  • the minimum usage time for acquiring the usage information may include at least one of a minimum viewing time for acquiring the main AV content viewing information and a minimum usage time for extracting additional service usage information.
  • the video display device 100 Based on the case in which the main audio and video content is watched for a minimum viewing time or more, the video display device 100 obtains the viewing information of the main audio and video content, and the viewing information extracted as the main audio and video content viewing information report address in the main audio and video content viewing information reporting period. Can report.
  • the video display device 100 may obtain the additional service usage information and report the usage information extracted to the additional service usage information report address in the additional service usage information reporting period. .
  • the supplementary service information includes information on whether an supplementary service exists, an supplementary service address providing server address, an acquisition path of each available supplementary service, an address for each available supplementary service, a start time of each available supplementary service, End time of each available supplementary service, lifetime of each available supplementary service, acquisition mode of each available supplementary service, request period for each available supplementary service, of each available supplementary service
  • One or more of priority information, a description of each available additional service, a category of each available additional service, a usage information reporting address, a usage information reporting period, and a minimum usage time for obtaining usage information. have.
  • the acquisition path of the available additional service may indicate IP or Advanced Television Systems Committee-Mobile / Handheld (ATSC M / H).
  • ATSC M / H Advanced Television Systems Committee-Mobile / Handheld
  • the additional service information may further include frequency information and channel information.
  • the acquisition mode of each available supplementary service may indicate Push or Pull.
  • the watermark server 21 may insert watermark information as an invisible watermark in the logo of the main audio and video content.
  • the watermark server 21 may insert a barcode at a predetermined position of the logo.
  • the predetermined position of the logo may correspond to the bottom 1 line of the area where the logo is displayed.
  • the image display apparatus 100 may not display the barcode.
  • the watermark server 21 may insert watermark information in the form of metadata of a logo. At this time, the shape of the logo can be maintained.
  • the watermark server 21 may insert N-bit watermark information into each of the logos of the M frames. That is, the watermark server 21 may insert M * N watermark information through M frames.
  • the MVPD 30 receives a broadcast signal including watermarked main AV content and an additional service, generates a multiplexed signal, and provides the multiplexed signal to the broadcast receiving device 60 in operation S105.
  • the multiplexed signal may exclude the received additional service or include a new additional service.
  • the broadcast receiving device 60 tunes a channel selected by a user, receives a signal of a tuned channel, demodulates the received broadcast signal, performs channel decoding, and performs AV decoding to perform an uncompressed main AV. After generating the content, the generated uncompressed main AV content is provided to the video display device 100 in operation S106.
  • the content providing server 10 also broadcasts a broadcast signal including main AV content through a wireless channel (S107).
  • the MVPD 30 may transmit a broadcast signal including main AV content to the video display device 100 directly without passing through the broadcast receiving device 60 (S108).
  • the video display device 100 may receive uncompressed main audio and video content through the set top box 60. Alternatively, the video display device 100 may obtain a main audio and video content by receiving a broadcast signal through a wireless channel and demodulating and decoding the received broadcast signal. Alternatively, the video display device 100 may receive a broadcast signal from the MVPD 30, and demodulate and decode the received broadcast signal to receive main AV content. The video display device 100 extracts watermark information from audio frames of some frames or sections of the obtained main audio and video content. If the watermark information corresponds to a logo, the video display device 100 checks the watermark server address corresponding to the logo extracted from the correspondence between the plurality of logos and the plurality of watermark server addresses.
  • the video display device 100 cannot identify the main audio and video content using only the logo.
  • the video display device 100 may not identify the main audio and video content, but the watermark information may include content provider identification information or a watermark server address.
  • the video display device 100 may include a watermark server address corresponding to content provider identification information extracted from a correspondence between the plurality of content provider identification information and the plurality of watermark server addresses. You can check.
  • the video display device 100 accesses the watermark server 21 corresponding to the obtained watermark server address and transmits the first query. S109).
  • the watermark server 21 provides a first response to the first query in operation S111.
  • the first response may include one or more of content information, additional service information, and available additional services.
  • the video display device 100 may not obtain the additional service. However, the watermark information and the first response may include the additional service address providing server address. As such, if the video display device 100 does not acquire the additional service address or the additional service through the watermark information and the first response, and obtains the additional service address providing server address, the video display device 100 obtains the acquired additional information.
  • the second query including the content information is transmitted by accessing the additional service information providing server 40 corresponding to the service address providing server address (S119).
  • the supplementary service information providing server 40 retrieves one or more available supplementary services related to the content information of the second query. Thereafter, the supplementary service information providing server 40 provides supplementary service information for one or more available supplementary services to the video display device 100 as a second response to the second query in operation S121.
  • the video display device 100 obtains one or more available additional service addresses through the watermark information, the first response, or the second response, the video display device 100 accesses the one or more available additional service addresses and requests additional services (S123). In step S125, an additional service is obtained.
  • FIG. 11 illustrates a watermark based content recognition timing according to an embodiment of the present invention.
  • the broadcast receiving device 60 is turned on and the channel is tuned, and the video display device 100 is the main audiovisual of the channel tuned from the broadcast receiving device 60 through the external input port 111.
  • the video display device 100 may detect the content provider identifier (or broadcaster identifier) from the watermark of the main AV content. Thereafter, the video display device 100 may detect content information from the watermark of the main AV content based on the detected content provider identifier.
  • the detectable period of the content provider identifier and the detectable period of the content information may be different.
  • the detectable period of the content provider identifier may be shorter than the detectable period of the content information.
  • FIG. 12 is a block diagram illustrating a fingerprint based network topology according to an embodiment of the present invention.
  • the network topology according to an embodiment of the present invention further includes a fingerprint server 22.
  • the fingerprint server 22 as shown in FIG. 12 does not modify the main audio and video content, and extracts and stores feature information from audio samples of some frames or sections of the main audio and video content. Subsequently, when the fingerprint server 22 receives the characteristic information from the image display apparatus 100, the fingerprint server 22 provides the identifier and time information of the audiovisual content corresponding to the received characteristic information.
  • FIG. 13 is a ladder diagram illustrating a data flow in a fingerprint based network topology according to an embodiment of the present invention.
  • the content providing server 10 transmits a broadcast signal including the main audio and video content and the additional service (S201).
  • the fingerprint server 22 receives a broadcast signal provided by the content providing server 10, extracts a plurality of feature information from a plurality of frame sections or a plurality of audio sections of the main audio and video content, and adds the plurality of feature information to each of the plurality of feature information.
  • a database for a plurality of corresponding query results is constructed (S203).
  • the query result may include one or more of content information, additional service information, and available additional services.
  • the MVPD 30 receives a broadcast signal including main AV content and an additional service, generates a multiplexed signal, and provides the multiplexed signal to the broadcast receiving device 60 in operation S205.
  • the multiplexed signal may exclude the received additional service or include a new additional service.
  • the broadcast receiving device 60 tunes a channel selected by a user, receives a signal of a tuned channel, demodulates the received broadcast signal, performs channel decoding, and performs AV decoding to perform an uncompressed main AV. After generating the content, the generated uncompressed main AV content is provided to the video display device 100 in operation S206.
  • the content providing server 10 also broadcasts a broadcast signal including main AV content through a wireless channel (S207).
  • the MVPD 30 may transmit a signal including main AV content to the video display device 100 directly without passing through the broadcast receiving device 60 (S208).
  • the video display device 100 may receive uncompressed main audio and video content through the set top box 60. Alternatively, the video display device 100 may obtain a main audio and video content by receiving a broadcast signal through a wireless channel and demodulating and decoding the received broadcast signal. Alternatively, the video display device 100 may receive a broadcast signal from the MVPD 30, and demodulate and decode the received broadcast signal to receive main AV content. The video display device 100 extracts feature information from audio frames of some frames or some sections of the acquired main audio and video content in operation S213.
  • the video display device 100 accesses the fingerprint server 22 corresponding to the preset fingerprint server address and transmits a first query including the extracted feature information (S215).
  • the fingerprint server 22 provides a query result as a first response to the first query (S217). If the first response corresponds to a failure, the video display device 100 may access the fingerprint server 22 corresponding to another fingerprint server address and transmit a first query including the extracted feature information.
  • the fingerprint server 22 may provide an Extensible Markup Language (XML) document as a query result.
  • XML Extensible Markup Language
  • An example of an XML document containing a query result is described below.
  • FIG. 14 illustrates an XML schema diagram of an ACR-Resulttype containing a query result according to an embodiment of the present invention.
  • an ACR-Resulttype containing a query result has a ResultCode attribute, ContentID, NTPTimestamp, SignalingChannelInformation, and ServiceInformation elements.
  • the ResultCode attribute has a value of 200, this may mean that the query result is successful. If the ResultCode attribute has a value of 404, this may mean that the query result has failed.
  • the SignalingChannelInformation element has a SignalingChannelURL element, and the SignalingChannelURL element has UpdateMode and PollingCycle attributes.
  • the UpdateMode property may have a Pull value or a Push value.
  • the ServiceInformation element has a ServiceName, ServiceLogo, and ServiceDescription element.
  • an ATSC content identifier as shown in the table below may be used.
  • the ATSC content identifier has a structure consisting of a TSID and a house number.
  • the 16 bit unsigned integer TSID carries a transport stream identifier.
  • the 5-bit unsigned integer end_of_day is set to the hour of the day when broadcast is over and the content_id value can be reused.
  • the 9-bit unsigned integer unique_for is set to the number of days for which the content_id value cannot be reused.
  • content_id represents a content identifier.
  • the video display device 100 may decrement unique_for by 1 at a time corresponding to end_of_day every day, and may consider that content_id is unique if unique_for is not zero.
  • a Global service identifier for an ATSC-M / H service as described below may be used.
  • the global service identifier has the form
  • ⁇ region> is a two letter international country code as defined by ISO 639-2.
  • ⁇ Xsid> for local service is a decimal number of TSID as defined in ⁇ region>, and ⁇ xsid> for local service (major> 69) is "0".
  • ⁇ serviceid> is defined as ⁇ major> or ⁇ minor>. ⁇ major> represents a major channel number, and ⁇ minor> represents a minor channel number.
  • an ATSC content identifier as described below may be used.
  • the ATSC Content Identifier has the following form:
  • ⁇ region> is a two letter international country code as defined by ISO 639-2.
  • ⁇ Xsid> for local service is a decimal number of TSID as defined in ⁇ region>, which may be followed by ".”
  • ⁇ Xsid> for regional service is ⁇ serviceid>.
  • ⁇ content_id> is the base64 code of the content_id field defined in the table
  • ⁇ unique_for> is the decimal sign of the unique_for field defined in the table
  • ⁇ end_of_day> is the decimal sign of the end_of_day field defined in the table.
  • FIG. 13 will be described again.
  • the video display device 100 provides the additional service information providing server 40 corresponding to the obtained additional service address providing server address.
  • a second query including content information is transmitted.
  • the supplementary service information providing server 40 retrieves one or more available supplementary services related to the content information of the second query. Thereafter, the supplementary service information providing server 40 provides supplementary service information for one or more available supplementary services to the video display device 100 as a second response to the second query in operation S221.
  • the video display device 100 obtains one or more available additional service addresses through the first response or the second response, the video display device 100 accesses the one or more available additional service addresses and requests additional services (S223). Acquire (S225).
  • the video display device 100 transmits an HTTP request to the supplementary service providing server 50 through SignalingChannelURL and sends an HTTP response including a PSIP binary stream in response thereto. 50).
  • the video display device 100 may transmit an HTTP request according to the polling period specified by the PollingCycle property.
  • the SignalingChannelURL element may have an update time attribute. In this case, the video display device 100 may transmit an HTTP request at the update time specified by the update time attribute.
  • the video display device 100 may asynchronously receive the update from the server by using the XMLHTTPRequest API. After the video display device 100 makes an asynchronous request to the server through the XMLHTTPRequest object, the server provides the signaling information as a response through this channel when there is a change in the signaling information. If there is a limit in the waiting time of the session, a session timeout respond is generated, and the receiver can recognize and re-request it so that the signaling channel between the receiver and the server can be maintained at all times.
  • 15 is a block diagram illustrating a watermark and fingerprint based network topology according to an embodiment of the present invention.
  • the network topology according to the embodiment of the present invention further includes a watermark server 21 and a fingerprint server 22.
  • the watermark server 21 as shown in FIG. 15 inserts content provider identification information into the main audiovisual content.
  • the watermark server 21 may insert the content provider identification information into the main audio and video content as a watermark that looks like a logo, or insert the content provider identification information into the main audio and video content as an invisible watermark.
  • the fingerprint server 22 does not modify the main audio and video content, and extracts and stores feature information from audio samples of some frames or sections of the main audio and video content. Subsequently, when the fingerprint server 22 receives the characteristic information from the image display apparatus 100, the fingerprint server 22 provides the identifier and time information of the audiovisual content corresponding to the received characteristic information.
  • FIG. 16 is a ladder diagram illustrating a data flow in a watermark and fingerprint based network topology according to an embodiment of the present invention.
  • the content providing server 10 transmits a broadcast signal including the main audio and video content and the additional service (S301).
  • the watermark server 21 receives a broadcast signal provided by the content providing server 10 and applies a modification to the main audiovisual content to insert a visible watermark such as a logo into the main audiovisual content, or to the main audiovisual content.
  • the watermark information is inserted as an invisible watermark, and the watermarked main AV content and the additional service are provided to the MVPD 30 (S303).
  • the watermark information inserted through the invisible watermark may include one or more of content information, additional service information, and available additional services.
  • the content information and the additional service information are as described above.
  • the MVPD 30 receives a broadcast signal including watermarked main AV content and an additional service, generates a multiplexed signal, and provides the multiplexed signal to the broadcast receiving device 60 in operation S305.
  • the multiplexed signal may exclude the received additional service or include a new additional service.
  • the broadcast receiving device 60 tunes a channel selected by a user, receives a signal of a tuned channel, demodulates the received broadcast signal, performs channel decoding, and performs AV decoding to perform an uncompressed main AV. After the content is generated, the generated uncompressed main AV content is provided to the video display device 100 in operation S306.
  • the content providing server 10 also broadcasts a broadcast signal including main AV content through a wireless channel (S307).
  • the MVPD 30 may transmit a signal including main AV content to the video display device 100 directly without passing through the broadcast receiving device 60 (S308).
  • the video display device 100 may receive uncompressed main audio and video content through the set top box 60. Alternatively, the video display device 100 may obtain a main audio and video content by receiving a broadcast signal through a wireless channel and demodulating and decoding the received broadcast signal. Alternatively, the video display device 100 may receive a broadcast signal from the MVPD 30, and demodulate and decode the received broadcast signal to receive main AV content. The video display device 100 extracts watermark information from audio frames of some frames or sections of the obtained main audio and video content. If the watermark information corresponds to a logo, the video display device 100 checks the watermark server address corresponding to the logo extracted from the correspondence between the plurality of logos and the plurality of watermark server addresses.
  • the video display device 100 cannot identify the main audio and video content using only the logo.
  • the video display device 100 may not identify the main audio and video content, but the watermark information may include content provider identification information or a watermark server address.
  • the video display device 100 may include a watermark server address corresponding to content provider identification information extracted from a correspondence between the plurality of content provider identification information and the plurality of watermark server addresses. You can check.
  • the video display device 100 accesses the watermark server 21 corresponding to the obtained watermark server address and transmits the first query. S309).
  • the watermark server 21 provides a first response to the first query in operation S311.
  • the first response may include one or more of a fingerprint server address, content information, additional service information, and available additional services.
  • the content information and the additional service information are as described above.
  • the video display device 100 extracts feature information from audio frames of some frames or some sections of the main audio and video content (S313).
  • the video display device 100 connects to the fingerprint server 22 corresponding to the fingerprint server address in the first response and transmits a second query including the extracted feature information (S315).
  • the fingerprint server 22 provides a query result as a second response to the second query in operation S317.
  • the video display device 100 provides the additional service information providing server 40 corresponding to the obtained additional service address providing server address.
  • a third query including content information is transmitted.
  • the supplementary service information providing server 40 retrieves one or more available supplementary services related to the content information of the third query. Thereafter, the additional service information providing server 40 provides the video display device 100 with additional service information for one or more available additional services in a third response to the third query in operation S321.
  • the video display device 100 obtains one or more available additional service addresses through the first response, the second response, or the third response, the video display device 100 accesses the one or more available additional service addresses and requests additional services (S323). In step S325, an additional service is acquired.
  • FIG. 17 is a block diagram of a video display device according to an embodiment of the present invention.
  • the video display device 100 includes a broadcast signal receiver 101, a demodulator 103, a channel decoder 105, a demultiplexer 107, and an audiovisual It includes a decoder 109, an external input port 111, a playback controller 113, a playback device 120, an additional service manager 130, a data transceiver 141, and a memory 150.
  • the broadcast signal receiving unit 101 receives a broadcast signal from the content providing server 10 or the MVPD 30.
  • the demodulator 103 demodulates the received broadcast signal to generate a demodulated signal.
  • the channel decoder 105 performs channel decoding on the demodulated signal to generate channel decoded data.
  • the demultiplexer 107 separates the main AV content and the supplementary service from the channel decoded data.
  • the separated additional service is stored in the additional service storage unit 152.
  • the audio-visual decoding unit 109 audio-decodes the separated main audio-visual content to generate uncompressed main audio-visual content.
  • the external input port 111 receives uncompressed main audio and video content from the broadcast receiving device 60, the digital versatile disk (DVD) player, the Blu-ray disc player, or the like.
  • the external input port 111 may include one or more of a DSUB port, a high definition multimedia interface (HDMI) port, a digital visual interface (DVI) port, a composite port, a component port, and an S-video port. have.
  • HDMI high definition multimedia interface
  • DVI digital visual interface
  • the reproduction control unit 113 reproduces at least one of the uncompressed main audio and video content generated by the audiovisual decoder 109 or the uncompressed main audio and video content received from the external input port 111 on the reproduction device 120 by user selection. do.
  • the playback device 120 includes a display 121 and a speaker 123.
  • the display unit 121 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), or a flexible display (flexible). and at least one of a 3D display.
  • the additional service manager 130 obtains content information of the main AV content and obtains an available additional service based on the obtained content information.
  • the additional service manager 130 may obtain identification information of the main AV content based on an audio sample of some frame or a section of the uncompressed main AV content.
  • ACR automatic contents recognition
  • the data transceiver 141 may include an ATSC-M / H (Advanced Television Systems Committee-Mobile / Handheld) channel transceiver 141a and an IP transceiver 141b.
  • ATSC-M / H Advanced Television Systems Committee-Mobile / Handheld
  • the memory 150 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk.
  • the video display device 100 may operate in association with a web storage that performs a storage function of the memory 150 on the Internet.
  • the memory 150 includes a content information storage unit 151, an additional service storage unit 152, a logo storage unit 153, a setting information storage unit 154, a bookmark storage unit 155, and a user information storage unit 156.
  • the usage information storage unit 157 may be included.
  • the content information storage unit 151 stores a plurality of content information corresponding to the plurality of feature information.
  • the additional service storage unit 152 may store a plurality of additional services corresponding to the plurality of feature information, or may store a plurality of additional services corresponding to the plurality of content information.
  • the logo storage unit 153 stores a plurality of logos.
  • the logo storage unit may further store a content provider identifier corresponding to the plurality of logos or a watermark server address corresponding to the plurality of logos.
  • the setting information storage unit 154 stores setting information for the ACR.
  • the bookmark storage unit 155 stores the bookmark.
  • the user information storage unit 156 stores user information.
  • the user information may include one or more of one or more account information, local information, family member information, preferred genre information, video display device information, and usage information providing range for one or more services.
  • the one or more account information may include account information for the usage information measuring server and account information of a social network service such as twitter and facebook.
  • Area information may include address information, postal code.
  • Family member information may include the number of family members, the age of each member, the gender of each member, the religion of each member, the occupation of each member, and the like.
  • Preferred genre information may be set to one or more of sports, movies, dramas, education, news, entertainment, and other genres.
  • the video display device information may include information about a type, a manufacturer, a firmware version, a resolution, a model name, an OS, a browser, a storage device, a storage device capacity, and a network speed.
  • the video display device 100 may collect and report main audio and video content viewing information and additional service usage information within the set range.
  • the usage information providing range may be set for each virtual channel.
  • the usage information measurement allowable range may be set for the entire physical channel.
  • the usage information storage unit 157 stores main audio and video content viewing information and additional service usage information collected by the video display device 100.
  • the video display device 100 may analyze the service usage pattern based on the collected main audio and video content viewing information and the collected additional service usage information, and store the analyzed service usage pattern in the usage information storage unit 157. .
  • the additional service manager 130 may obtain content information of the main AV content from the fingerprint server 22 or the content information storage unit 151. If there is no content information corresponding to the extracted feature information in the content information storage unit 151 or there is not enough content information, the additional service manager 130 may receive additional content information through the data transceiver 141. In addition, the additional service manager 130 may continuously update the content information.
  • the additional service manager 130 may obtain an additional service available from the additional service providing server 50 or the additional service storage unit 153. When there is no additional service in the additional service storage unit 153 or there is not enough additional service, the additional service manager 130 may update the additional service through the data transceiver 141. In addition, the additional service manager 130 may continuously update the additional service.
  • the additional service manager 130 may extract a logo from the main audio and video content, and query the logo storage unit 155 to obtain a content provider identifier or watermark server address corresponding to the extracted logo. If there is no logo matching the extracted logo in the logo storage unit 155 or there is not enough logo, the additional service manager 130 may receive the additional logo through the data transmission / reception unit 141. In addition, the additional service manager 130 may continuously update the logo.
  • the additional service manager 130 may perform various methods to reduce the burden of computation in comparing the logo extracted from the main audio and video content with the plurality of logos in the logo storage unit 155.
  • the additional service manager 130 may perform the comparison based on the color characteristics. That is, the additional service manager 130 may compare the color characteristics of the extracted logo with the color characteristics of the logo in the logo storage unit 155 to determine whether they match.
  • the additional service manager 130 may perform the comparison based on the character recognition. That is, the additional service manager 130 may compare the characters recognized from the extracted logo with the characters recognized from the logo in the logo storage unit 155 to determine whether they match.
  • the additional service manager 130 may perform the comparison based on the shape of the outline of the logo. That is, the additional service manager 130 may compare the contour shape of the extracted logo with the contour shape of the logo in the logo storage unit 155 to determine whether there is a match.
  • FIG. 18 is a flowchart illustrating a method of synchronizing a reproduction time of a main audio and video content and a reproduction time of an additional service according to an embodiment of the present invention.
  • the additional service information may include a start time of the additional service.
  • the video display device 100 needs to start an additional service at this start time.
  • the criterion of the playback time of the main audio and video content and the start time of the additional service are different from each other.
  • the video display device 100 receives the main audio and video content having time information, the criterion of the reproduction time of the main audio and video content and the start time of the additional service may be different from each other, such as rebroadcast. Therefore, the video display device 100 needs to synchronize the reference time of the main AV content with the reference time of the additional service. In particular, the video display device 100 needs to synchronize the playback time of the main AV content with the start time of the additional service.
  • the additional service manager 130 extracts a partial section of the main audio and video content (S801). Some sections of the main audio and video content may include one or more of some video frames and some audio sections of the main audio and video content.
  • Tn The time at which the additional service manager 130 extracts a part of the main AV content.
  • the additional service manager 130 obtains content information of the main AV content based on the extracted section (S803).
  • the additional service manager 130 may obtain content information by decoding information encoded with an invisible watermark in the extracted section.
  • the additional service manager 130 extracts feature information of the extracted section and obtains content information of the main AV content from the fingerprint server 22 or the content information storage unit 151 based on the extracted feature information. Can be.
  • the time that the additional service manager 130 acquires the content information is called Tm.
  • the content information includes the start time Ts of the extracted section.
  • the additional service manager 130 may regard the time elapsed from the content information acquisition time as Tp + Tx.
  • the additional service manager 130 obtains an additional service and a start time Ta of the additional service based on the acquired content information (S807).
  • the additional service manager 130 starts the acquired additional service (S809).
  • 19 is a conceptual diagram illustrating a method of synchronizing a play time of a main audio and video content and a play time of an additional service according to an embodiment of the present invention.
  • the video display device 100 extracts an audiovisual sample at a system time Tn.
  • the video display device 100 extracts feature information from the extracted audiovisual sample, and transmits a query including the extracted feature information to the fingerprint server 22 to receive a query result.
  • the video display device 100 checks at time Tm that the start time Ts of the audiovisual sample obtained by parsing the query result corresponds to 11000 ms.
  • the video display device regards the point in time at which the start time of the extracted audiovisual sample is confirmed as Ts + (Tm ⁇ Tn), and may synchronize the play time of the main audio and video content with the start time of the additional service.
  • FIG. 20 is a block diagram illustrating a structure of a fingerprint based video display device according to another embodiment of the present invention.
  • the tuner 501 extracts a symbol from an 8-VSB RF signal transmitted through an air channel.
  • the 8-VSB Demodulator 503 demodulates the 8-VSB Symbol extracted by the Tuner 501 to restore meaningful digital data.
  • the VSB Decoder 505 restores the ATSC main service and ATSC M / H service by decoding the digital data restored by the 8-VSB Demodulator 503.
  • the MPEG-2 TP Demux 507 filters the transport packet to be processed by the video display device 100 from the MPEG-2 Transport Packet or the MPEG-2 Transport Packet stored in the PVR storage through an 8-VSB signal, and then processes it appropriately. Relay to the module.
  • the PES decoder 539 buffers and restores the Packetized Elementary Stream transmitted through the MPEG-2 Transport Stream.
  • the PSI / PSIP decoder 541 buffers and analyzes PSI / PSIP Section Data transmitted through the MPEG-2 Transport Stream.
  • the analyzed PSI / PSIP data is collected by a service manager (not shown) and stored in a DB in the form of a service map and guide data.
  • the DSMCC Section Buffer / Handler 511 buffers and processes DSMCC Section Data for file transfer and IP datagram encapsulation transmitted through MPEG-2 TP.
  • the IP / UDP Datagram Buffer / Header Parser 513 analyzes the header of each Datagram by encapsulating through the DSMCC Addressable section and buffering and restoring the IP Datagram transmitted through the MPEG-2 TP. In addition, the IP / UDP Datagram Buffer / Header Parser 513 buffers and restores the UDP Datagram transmitted through the IP Datagram, and analyzes and processes the restored UDP Header.
  • the stream component handler 557 may include an ES Buffer / Handler, a PCR Handler, an STC Module, a Descrambler, a CA Stream Buffer / Handler, and a Service Signaling Section Buffer / Handler.
  • ES Buffer / Handler buffers and restores Elementary Streams such as Video and Audio data transmitted in PES format and delivers them to the appropriate A / V Decoder.
  • the PCR Handler processes PCR (Program Clock Reference) Data used for Time synchronization of Audio and Video Streams.
  • STC module performs Time Synchronization by correcting Clock values of A / V Decoders using Reference Clock value received through PCR Handler.
  • the descrambler restores the payload data by using the encryption key received from the CA stream handler.
  • CA Stream Buffer / Handler buffers and processes data such as key values for Descrambling such as EMM and ECM transmitted for Conditional Access function transmitted through MPEG-2 TS or IP Stream.
  • the output of CA Stream Buffer / Handler is delivered to Descrambler, which performs decryption of MPEG-2 TP or IP Datagram that transmits A / V Data and File Data.
  • Service Signaling Section Buffer / Handler buffers restores and analyzes NRT Service Signaling Channel Section Data transmitted in the form of IP Datagram.
  • Service Manager (not shown) collects the analyzed NRT Service Signaling Channel Section data and stores it in DB in the form of Service Map and Guide data.
  • the A / V Decoder 561 decodes the audio / video data received through the ES Handler and presents it to the user.
  • the MPEG-2 Service Demux may include an MPEG-2 TP Buffer / Parser, a Descrambler, and a PVR Storage Module.
  • the MPEG-2 TP Buffer / Parser (not shown) buffers and restores an MPEG-2 Transport Packet transmitted through an 8-VSB signal, and detects and processes a Transport Packet Header.
  • the descrambler restores the payload data using the encryption key received from the CA Stream Handler for the packet payload to which Scramble is applied among the MPEG-2 TPs.
  • the PVR storage module stores the received MPEG-2 TP using the 8-VSB signal according to the user's request and also outputs the MPEG-2 TP at the user's request.
  • the PVR Storage Module may be controlled by a PVR Manager (not shown).
  • the file handler 551 may include an ALC / LCT Buffer / Parser, an FDT Handler, an XML Parser, a File Reconstruction Buffer, a Decompressor, a File Decoder, and a File Storage.
  • ALC / LCT Buffer / Parser buffers and restores ALC / LCT data transmitted through UDP / IP stream and analyzes Header and Header extension of ALC / LCT.
  • the ALC / LCT Buffer / Parser may be controlled by an NRT Service Manager (not shown).
  • FDT Handler analyzes and processes File Description Table of FLUTE protocol transmitted through ALC / LCT session.
  • the FDT Handler may be controlled by an NRT Service Manager (not shown).
  • XML Parser analyzes XML Document transmitted through ALC / LCT session and delivers analyzed data to appropriate module such as FDT Handler, SG Handler.
  • File Reconstruction Buffer restores files transmitted to ALC / LCT, FLUTE session.
  • Decompressor performs a process of decompressing a file transmitted through an ALC / LCT or FLUTE session when it is compressed.
  • the File Decoder decodes a file restored from the File Reconstruction Buffer, a file extracted from the Decompressor, or a file extracted from File Storage.
  • File Storage saves or extracts restored files as needed.
  • the M / W Engine (not shown) processes data such as files, not A / V streams, which are transmitted through DSMCC Section, IP Datagram, etc.
  • the M / W Engine delivers the processed data to the Presentation Manager module.
  • the SG Handler (not shown) performs a process of collecting, analyzing, and delivering Service Guide data transmitted in the form of XML Document to the EPG Manager.
  • the Service Manager collects and analyzes PSI / PSIP Data transmitted through MPEG-2 Transport Stream and Service Signaling Section Data transmitted through IP Stream to produce a Service Map.
  • the Service Manager stores the created service map in the Service Map & Guide Database, and controls access to the service desired by the user. It is controlled by an Operation Controller (not shown), and controls Tuner 501, MPEG-2 TP Demux 507, and IP Datagram Buffer / Handler 513.
  • the NRT Service Manager (not shown) performs overall management of the NRT service transmitted in the form of object / file through a FLUTE session on the IP layer.
  • the NRT Service Manager (not shown) may control the FDT Handler, File Storage, and the like.
  • the Application Manager (not shown) performs overall management regarding the processing of Application data transmitted in the form of Object, file, and the like.
  • the UI manager (not shown) delivers the user's input to the operation controller through the user interface and starts the operation of the process for the service requested by the user.
  • An operation controller (not shown) processes a user's command received through a UI manager and allows a manager of a required module to perform a corresponding action.
  • Fingerprint Extractor 565 extracts fingerprint feature information from the Audio / Video stream.
  • the Fingerprint Comparator 567 compares the feature information extracted by the Fingerprint Extractor with a Reference fingerprint to find a matching content.
  • the Fingerprint Comparator 567 may use a Reference fingerprint DB stored locally, or may query a Fingerprint query server on the Internet and receive a result.
  • the result data matched with the comparison result may be delivered to the application and used.
  • the application 569 is an application module that provides enhanced services based on an ACR or a module that manages the ACR function.
  • the application 569 identifies extended broadcast content and provides an extended service associated with it.
  • FIG. 21 is a block diagram illustrating a structure of a watermark based video display device according to another embodiment.
  • FIG. 21 is a block diagram illustrating a structure of a watermark based video display device according to another embodiment.
  • the watermark-based image display device illustrated in FIG. 21 is similar to the fingerprint-based image display device illustrated in FIG. 20, but includes a fingerprint extractor 565 and a fingerprint printer 567 of the fingerprint-based image display device. Rather, it further comprises a Watermark Extractor (566).
  • the watermark extractor 566 extracts data inserted in the form of watermark from the audio / video stream.
  • the extracted data can be delivered to the application and used.
  • FIG. 22 illustrates data that can be delivered through a watermarking technique according to an embodiment of the present invention.
  • ACR over WM relates to additional services for content from uncompressed audio / video in environments where only uncompressed audio / video is accessible (i.e., received from cable / satellite / IPTV, etc.).
  • the purpose is to get information.
  • This environment may be called an ACR environment.
  • the receiver receives only uncompressed audio / video data, so it cannot know what content is currently being displayed. Accordingly, the receiver can identify the content being displayed and provide the interactive service by utilizing the content source ID delivered by the WM, the current time of broadcasting, and URL information of the related application.
  • the simplest situation may be a case where all the additional information is delivered by the WM.
  • all additional information is detected by the WM detector so that the receiver can process the detected information at once.
  • the goal is to insert as little data as possible into the WM.
  • the data structure used for the WM can be equally utilized in a fingerprinting scheme that is less influenced by the amount of data transmitted relatively.
  • data that can be delivered through a watermarking technique includes an ID of a content source, a timestamp, an URL of an interactive application, a type of a timestamp, a type of a URL protocol, and an application. There may be events, types of destinations, and the like. In addition, various kinds of data may be transmitted by the WM technique according to the present invention.
  • the present invention proposes a structure of data contained in the WM when ACR is performed through the WM technique. For each of the illustrated data types, the most efficient data structure can be proposed by the present invention.
  • an ID of a content source there may be an ID of a content source.
  • a receiver terminal, TV
  • MVPD delivers program related information through the set-top box. Therefore, a unique ID may be needed to identify a specific content source.
  • the ID type of the content source is not limited.
  • the ID of the content source may include the following embodiments.
  • the global program ID may be a global identifier for distinguishing each broadcast program.
  • the ID can be generated directly by the content provider, or it can be in a format specified by an authoritative organization. For example, there may be a TMSId of North American "TMS metadata" or an EIDR ID which is a movie / broadcast program identifier.
  • the global channel ID may be a channel identifier capable of identifying all channels irrelevant to the MVPD. Channel numbers may be different for each MVPD provided by the set-top box. In addition, even if the same MVPD, the channel number may be different according to the service specified by the user.
  • the global channel ID may be used as a global identifier not affected by the MVPD. According to an embodiment, the channel transmitted over the terrestrial wave may be identified as a major channel number & minor channel number. If only the program ID is used, a problem may occur when the same program is broadcasted by multiple broadcasting stations. Thus, the global channel ID may be used to designate a specific broadcasting station.
  • the ID of the content source to be inserted into the WM may be a program ID and a channel ID.
  • both a program ID and a channel ID may be inserted, a new type of ID combining the two IDs, or each ID may be inserted.
  • the amount of data may be reduced by hashing each ID or integrated ID.
  • time stamp there may be a time stamp.
  • the receiver should be able to know at what point in time the content being viewed is content.
  • This time related information may be called a time stamp and may be inserted into the WM.
  • the time related information may take the form of absolute time (UTC, GPS, etc.) or media time.
  • Time-related information may be transmitted in millisecond units for accuracy, and in some embodiments, may be transmitted in finer units.
  • the time stamp may have a variable length according to the type information of the time stamp to be described later.
  • a URL of the interactive application there may be a URL of the interactive application. If there is an interactive application related to the broadcast program currently being viewed, a URL for the corresponding application may be inserted into the WM. The receiver may detect the WM, obtain the corresponding URL, and execute the application through a browser.
  • FIG. 23 is a diagram illustrating meanings of respective values of a time stamp type field according to an embodiment of the present invention.
  • the present invention proposes a time stamp type field as one of data that can be delivered through a watermarking technique.
  • the present invention proposes an effective data structure of a time stamp type field.
  • the first two bits of the time stamp may indicate the size of the time stamp, and the remaining three bits may indicate a unit of time information indicated by the time stamp.
  • the first two bits may be called a timestamp size field and the remaining three bits may be called a timestamp unit field.
  • the actual time stamp information may be inserted into the WM as a variable amount.
  • the designer can select the size and units thereof assigned to the timestamp according to the level of accuracy of the timestamp. Increasing the accuracy of time stamps will enable interactive services to be delivered at the correct time, but at the same time increase the complexity of the system. In consideration of this trade-off, the size and unit thereof assigned to the timestamp may be selected.
  • the time stamp When the first two bits of the time stamp type field are 00, the time stamp may have a size of 1 byte. If the first two bits of the time stamp type field are 01, 10, or 11, the size of the time stamp may have sizes of 2, 4, and 8 bytes, respectively.
  • the time stamp When the last three bits of the time stamp type field are 000, the time stamp may have a unit of milliseconds. When the last three bits of the time stamp type field are 001, 010, and 011, the time stamp may have units of seconds, minutes, and hours, respectively. If the last three bits of the time stamp type field are values between 101 and 111, they can be reserved for future use.
  • a separate time code may be used as a unit instead of a specific time unit such as milliseconds or seconds.
  • a time code in the form of HH: MM: SS: FF which is a time code of SMPTE, may be inserted into the WM.
  • HH may be a time unit
  • MM may be a minute unit
  • SS may be a second unit.
  • FF is frame information, which simultaneously transmits frame information instead of time units, thereby providing a more sophisticated service.
  • the actual time stamp may be in the form of HHMMSSFF excluding the colon.
  • the time stamp size value may have 11 (8 bytes), and the time stamp unit value may have 100. How the time stamp is inserted in the case of the variable unit is not limited by the present invention.
  • the size of the time stamp may be 4 bytes, and the unit of the time stamp may be milliseconds.
  • the current time may be a time point 54 minutes 25.087 seconds have elapsed since the start of the program in which the WM was inserted.
  • the time stamp may serve as a wall time, and may indicate the time of the segment or the receiver itself regardless of the content.
  • 24 is a diagram illustrating meanings of respective values of a URL protocol type field according to an embodiment of the present invention.
  • the present invention proposes a URL protocol type field as one of data that can be delivered through a watermarking technique.
  • the present invention proposes an effective data structure of the URL protocol type field.
  • URLs are generally long and have a relatively large amount of data to be inserted.
  • the less data is inserted into the WM the more efficient the fixed part of the URL can be processed by the receiver.
  • the present invention may propose a field for the URL protocol type.
  • the URL protocol type field may have a size of 3 bits.
  • the service provider may set the URL protocol in the WM using the URL protocol type field. In this case, the URL of the interactive application may be inserted from the domain and transmitted to the WM.
  • the WM detector of the receiver may first parse the URL protocol type field to obtain URL protocol information, and then make the entire URL by pasting the protocol in front of the transmitted URL value.
  • the receiver can access the completed URL through a browser and execute the corresponding interactive application.
  • the URL protocol may be directly inserted into the URL field of the WM.
  • the URL protocol may be http: //, https: //, and ws: //, respectively. If the value of the URL protocol type field has a value between 100 and 111, it can be reserved for future use.
  • the application URL may itself be executable by the browser (in the form of a Web App).
  • it may be necessary to refer to the content source ID and the time stamp information.
  • the final URL may take the following form.
  • the application server may correspond to a remote server to be described later, according to an embodiment.
  • the content source ID is 123456 and the time stamp is 5005.
  • cid may mean a query identifier of a content source ID to be notified to the application server.
  • t may mean a request identifier of a current time point to be notified to the application server.
  • 25 is a flowchart illustrating a process of processing a URL protocol type field according to an embodiment of the present invention.
  • the service provider 47010 may deliver the content to the WM inserter 47020 (s47010).
  • the service provider 4710 may perform a function similar to the above-described content providing server.
  • the WM inserter 47020 may insert a WM into the received content (s47020).
  • the WM inserter 47020 may perform a function similar to the above-described watermark server.
  • the WM inserter 47020 may insert the WM as described above into the audio or video by the Zitz algorithm.
  • the inserted WM may include the above-described application URL information and content source ID information.
  • the inserted WM may include information such as the aforementioned time stamp type field, time stamp, content ID, and the like.
  • the aforementioned URL protocol type field may have a value of 001 and the URL information may have a value of atsc.org.
  • the values of the fields inserted into the WM are just one embodiment, and the present invention is not limited to this embodiment.
  • the WM inserter 47020 may transmit content in which the WM is inserted (s47030). The transmission of the content inserted with the WM may be performed by the service provider 47010.
  • the STB 4730 may receive the WM-inserted content and output uncompressed A / V data (or raw A / V data) (S47040).
  • the STB 47030 may refer to the above-described broadcast receiving apparatus or set-top box.
  • the STB 47030 may be installed outside or inside the receiver.
  • the WM detector 47040 may detect the inserted WM from the received uncompressed A / V data (s47050). The WM detector 47040 may detect the WM inserted by the WM inserter 4720, and then transfer the detected WM to the WM manager.
  • the WM manager 47050 may parse the detected WM (s47060).
  • the WM may have information that the URL protocol type field value is 001 and the URL value is atsc.org. Since the URL protocol type field value is 001, this may mean that the http: // protocol is used. Using this information, the WM manager 47050 may paste http: // and atsc.org to generate a full URL (s47070).
  • the WM manager 47050 may send the completed URL to the browser 47070 to launch the application (s47080).
  • an application may be launched in the form of.
  • the WM detector 47040 and the WM manager 47050 in the terminal may be integrated to perform their functions in one module.
  • the above-described processes of s47050, s47060, and s47070 may be processed in one module.
  • FIG. 26 is a diagram illustrating meanings of respective values of an event field according to an embodiment of the present invention.
  • the present invention proposes an event field as one of data that can be delivered through a watermarking technique.
  • the present invention also proposes an effective data structure of the event field.
  • the application can be launched.
  • the application can be controlled through more detailed events. Events that can control the application may be indicated and delivered by the event field. That is, when there is an interactive application related to the broadcast program currently being viewed, a URL for the corresponding application may be transmitted, and the application may be controlled using events.
  • the event field may have a size of 3 bits.
  • the value of the event field is 000, it may mean 'Prepare' command. Prepare is a preparation step before executing an application.
  • the receiver which has received this command, may download content items related to the application in advance.
  • the receiver may release resources necessary to execute the application. Releasing necessary resources may mean cleaning up memory or terminating other applications that have not yet been terminated.
  • the event field value When the event field value is 001, it may mean 'Execute' command. Execute may be a command to execute a corresponding application. If the event field value is 010, this may mean 'Suspend' command. Suspend may mean that the application that is already running is not running for a while. When the event field value is 011, this may mean 'Kill' command. Kill may be a command for terminating a corresponding application that is already running. If the event field value is between 100 and 111, it can be reserved for future use.
  • 27 is a diagram illustrating meanings of respective values of a destination type field according to an embodiment of the present invention.
  • the present invention proposes a destination type field as one of data that can be delivered through a watermarking technique.
  • the present invention proposes an effective data structure of the destination type field.
  • companion devices may not be able to receive broadcasts or, if possible, WM detection. Therefore, if there is an application that needs to be executed in the companion device among applications that provide additional services related to broadcast content that is currently being broadcasted, the related information should be able to be delivered to the companion device.
  • the present invention proposes a destination type field.
  • the destination type field may have a size of 3 bits.
  • the value of the destination type field is 0x00, this may mean that the application or data detected by the WM targets all devices.
  • the value of the destination type field is 0x01, this may mean that the application or data detected by the WM targets the TV receiver.
  • the value of the destination type field is 0x02, it may mean that an application or data detected by the WM targets a smartphone.
  • the value of the destination type field is 0x03, this may mean that the application or data detected by the WM targets the tablet device.
  • the value of the destination type field is 0x04, this may mean that the application or data detected by the WM targets the personal computer.
  • the value of the destination type field is 0x05, this may mean that the application or data detected by the WM targets the remote server. If the value of the destination type field has a value between 0x06 and 0xFF, it can be reserved for future use.
  • the remote server may mean a server having all additional information related to broadcasting.
  • This remote server may be located outside the terminal.
  • the URL inserted into the WM may indicate the URL of the remote server, not the URL of a specific application.
  • the receiver may communicate with the remote server through the URL of the remote server to receive additional information related to the broadcast program.
  • the additional information received at this time may be not only a URL of a related application but also various information such as genre, actor information, and plot of the current broadcast program.
  • the information that can be obtained can vary depending on the system.
  • the remote server may be an embodiment of the above-described application server.
  • each bit of the destination type field may be allocated for each device to indicate a destination of the application.
  • multiple destinations may be specified simultaneously via bitwise OR.
  • 0x01 is a TV receiver
  • 0x02 is a smartphone
  • 0x04 is a tablet
  • 0x08 is a PC
  • 0x10 is a remote server. Can be targeted.
  • the WM manager may deliver each application or data to the companion device.
  • the WM manager may transfer information related to each application or data to a module that processes the interworking with the companion device in the receiver.
  • FIG. 28 is a diagram showing a data structure to be inserted into a WM according to embodiment # 1 of the present invention.
  • FIG. 28 is a diagram showing a data structure to be inserted into a WM according to embodiment # 1 of the present invention.
  • the data inserted into the WM may have information such as a time stamp type field, a time stamp, a content ID, an event field, a destination type field, a URL protocol type field, and a URL.
  • the order of each data may be changed, and each data may be omitted according to an embodiment.
  • a time stamp size field of the time stamp type field may have a value of 01 and a time stamp unit field of 000. This may mean that 2 bits are allocated to the time stamp, respectively, and the time stamp has a unit of milliseconds.
  • the event field has a value of 001, which may mean that the corresponding application should be executed immediately.
  • the destination type field has a value of 0x02, which may mean that data transmitted by the WM should be delivered to the smartphone. Since the URL protocol type field has a value of 001 and a URL of atsc.org, it may mean that the additional information or the URL of the application is.
  • FIG. 29 is a flowchart of processing a data structure to be inserted into a WM according to embodiment # 1 of the present invention.
  • the service provider delivers the content to the WM inserter (s51010), the step of inserting the WM to the content received by the WM inserter (s51020), the WM inserter transmits the content inserted WM (s51030),
  • the STB receives the WM-embedded content and outputs uncompressed A / V data (s51040), the WM detector detects the WM (s51050), and the WM manager parses the detected WM (s51060).
  • And / or generating the full URL by the WM manager (s51070) may be the same as the above-described steps.
  • the WM manager may deliver related data to the companion device protocol module in the receiver according to the parsed type field of the WM (s51080).
  • the companion device protocol module may be a module that manages interworking and communication with the companion device in the receiver.
  • the companion device protocol module may be paired with the companion device.
  • the companion device protocol module may be a UPnP device.
  • the companion device protocol module may be located outside the terminal.
  • the companion device protocol module may transmit related data to the companion device according to the destination type field (s51090).
  • the value of the destination type field is 0x02
  • the data inserted into the WM may be data for the smartphone. Accordingly, the companion device protocol module can send the parsed data to the smartphone device.
  • the companion device may be a smartphone.
  • the WM manager or companion device protocol module may perform a data processing process before transferring data to the companion device.
  • Companion devices are generally more portable, which can result in relatively poor processing / computing capabilities or low amounts of memory. Accordingly, the receiver may perform data processing for the companion device instead, and then transfer the processed data to the companion device.
  • the WM manager or companion device protocol module may perform a task of selecting only data required by the companion device.
  • the event field contains a content to terminate the application
  • the application-related information may not be delivered.
  • the final information may be stored and combined to be delivered to the companion device. Instead of synchronizing with a time stamp, it may deliver an application-specific command that has already been synchronized or an interactive service that has already been synchronized so that the companion device only displays.
  • the time base may be maintained only in the receiver without transmitting time stamp related information, and related information may be transmitted to the companion device according to a time when an event should be activated. In this case, the companion device may perform an operation such as activating a corresponding event at the moment of receiving the related information without maintaining the time base.
  • the WM detector and the WM manager in the terminal may be integrated to perform their functions in one module.
  • the above-described processes of s51050, s51060, s51070, and s51080 may be processed in one module.
  • companion devices may also have a WM detector.
  • each companion device may directly detect the WM and then deliver it to another companion device.
  • the smartphone may detect and parse the WM to convey the relevant information to the TV.
  • the destination type field may have a value of 0x01.
  • FIG. 30 is a diagram showing a data structure to be inserted into a WM according to embodiment # 2 of the present invention.
  • the data inserted into the WM may have information such as a time stamp type field, a time stamp, a content ID, an event field, a destination type field, a URL protocol type field, and a URL.
  • the order of each data may be changed, and each data may be omitted according to an embodiment.
  • a time stamp size field of the time stamp type field may have a value of 01 and a time stamp unit field of 000. This may mean that 2 bits are allocated to the time stamp, respectively, and the time stamp has a unit of milliseconds.
  • the content ID may have a value of 123456.
  • the event field has a value of 001, which may mean that the corresponding application should be executed immediately.
  • the destination type field has a value of 0x05, which may mean that data transmitted by the WM should be delivered to the remote server.
  • the URL protocol type field has a value of 001 and a URL of remoteserver.com, it may mean that the additional information or the URL of the application is.
  • the remote server when a remote server is used, additional information about a broadcast program can be received from the remote server. At this time, you can request the remote server by inserting the content ID and time stamp as parameters in the URL of the remote server.
  • the remote server may obtain information about the current broadcast program through support of an API. At this time, the API enables the remote server to take the content ID and time stamp stored in the receiver, or deliver related additional information.
  • the entire URL may be equal to.
  • cid may be a request identifier of a content ID to inform the remote server.
  • t may be a request identifier of a current time point to inform the remote server.
  • FIG. 31 is a flowchart of processing a data structure to be inserted into a WM according to embodiment # 2 of the present invention.
  • the service provider delivers the content to the WM inserter (s53010), the step of inserting the WM to the content received by the WM inserter (s53020), the WM inserter transmits the content inserted WM (s53030),
  • the STB receives the WM-embedded content and outputs uncompressed A / V data (s53040), the WM detector detects the WM (s53050), and / or the WM manager parses the detected WM.
  • Step s53060 may be the same as each of the above-described steps.
  • the WM manager knows that it needs to communicate with the remote server through the parsed destination type field (0x05).
  • the WM manager may generate a URL called by using a value of a URL protocol type field and a URL value.
  • the URL of finally can be generated by using the content ID and time stamp values.
  • the WM manager may perform the request with this final URL (s53070).
  • the remote server may receive the request and transmit the URL of the relevant application for the broadcast program to the WM manager (s53080).
  • the WM manager may send the URL of the received application to the browser and launch the corresponding application (s53090).
  • the WM detector and the WM manager in the terminal may be integrated to perform their functions in one module.
  • the above-described processes of s53050, s53060, s53070, and s53090 may be processed in one module.
  • FIG. 32 is a diagram showing a data structure to be inserted into a WM according to embodiment # 3 of the present invention.
  • the present invention proposes a delivery type field as one of data that can be delivered through a watermarking technique.
  • the present invention proposes an effective data structure of the delivery type field.
  • the WM may be inserted in pieces.
  • a delivery type field may be used. Through the delivery type field, it is possible to distinguish whether broadcasting-related information can be acquired with one WM detection or whether multiple WMs should be detected.
  • the delivery type field When the delivery type field has a value of 0, it may mean that all data is inserted and transmitted in one WM. When the delivery type field has a value of 1, it may mean that data is divided and inserted into multiple WMs and then transmitted.
  • This embodiment may be a case where the value of the delivery type field is 0.
  • the data structure of the WM may be a form in which a delivery type field is added to the above-described data structure.
  • the delivery type field is located at the front, but may be located elsewhere according to the embodiment.
  • the WM manager or the WM detector may parse the WM with reference to the length of the WM when the delivery type field has a value of zero.
  • the length of the WM may be calculated in consideration of the number of bits of the predetermined field.
  • the length of the event field may be 3 bits.
  • the size of the content ID and the URL may vary, but the number of bits may be limited according to an embodiment.
  • FIG 33 is a diagram showing a data structure to be inserted into a WM according to embodiment # 4 of the present invention.
  • the value of the delivery type field may be 1. In this case, some fields may be added to the data structure of the WM.
  • the WMId field may serve as an identifier for identifying the WM. If data is transmitted in pieces to multiple WMs, the WM detector needs to identify each WM with the divided data. At this time, each WM having divided data may have the same WMId field value.
  • the WMId field may have a size of 8 bits.
  • the block number field may be a field indicating an identification number of the current WM among each WM having divided data.
  • the value may increase by 1 depending on the order in which the WMs having the divided data are transmitted. For example, in the case of the first WM of each WM having divided data, the value of the block number field may be 0x00.
  • the second and third WMs which are then transmitted may have values of 0x01, 0x02 ..., respectively.
  • the block number field may have a size of 8 bits.
  • the last block number field may be a field indicating an identification number of the last WM among each WM having divided data.
  • the WM detector or the WM manager may collect and parse the detected WMs until the values of the aforementioned block number field and the last block number field are the same.
  • the last block number field may have a size of 8 bits.
  • the block length field may indicate the total length of the corresponding WM.
  • the corresponding WM may mean one of each WM having divided data.
  • the block length field may have a size of 7 bits.
  • the Content Identifier Flag field may indicate whether the content ID is included in the payload of the current WM among the WMs having the divided data. When the content ID is included, the content ID flag field may be set to 1 and vice versa. The content ID flag field may have a size of 1 bit.
  • the event flag field may indicate whether the event field is included in the payload of the current WM among each WM having the divided data. If an event field is included, the event flag field may be set to 1 and vice versa. The event flag field may have a size of 1 bit.
  • the destination flag field may indicate whether the destination type field is included in the payload of the current WM among the respective WMs having the divided data. If the destination type field is included, the destination flag field may be set to 1 and vice versa. The destination flag field may have a size of 1 bit.
  • the URL protocol flag field may indicate whether the URL protocol type field is included in the payload of the current WM among each WM having divided data. If the URL protocol type field is included, the URL protocol flag field may be set to 1 and vice versa. The URL protocol flag field may have a size of 1 bit.
  • the URL flag field may indicate whether URL information is included in the payload of the current WM among each WM having divided data. If URL URL information is included, the URL flag field may be set to 1 and vice versa. The URL flag field may have a size of 1 bit.
  • the payload may contain actual data other than the above-described fields.
  • a time stamp may be inserted into each WM according to an embodiment.
  • the time stamp type field may also be inserted in the WM in which the time stamp is inserted. This is because it is necessary to know when the WM is inserted.
  • the receiver may store and utilize WM time stamp type information. The receiver may set the time sync based on the first time stamp, the last time stamp, or each time stamp.
  • the size of each WM may be adjusted using the flag fields. As described above, if the amount of data transmitted by the WM increases, the quality of the audio / video content may be affected. Therefore, the size of the WM inserted into the frame can be adjusted according to the situation of each audio / video frame transmitted. At this time, the size of the WM may be adjusted by the aforementioned flag fields.
  • one of the video frames of the content has a black screen only.
  • one video frame having only a black screen may be inserted.
  • a large amount of WM is inserted, so that the quality of content may or may not be reduced. That is, the user may not feel the quality deterioration.
  • a WM having a large amount of data may be inserted into the video frame.
  • most of the flag fields of the WM inserted into the corresponding video frame may have a value of 1.
  • the WM actually has most of the fields.
  • a URL field that occupies a large amount of data may be included in the WM.
  • a relatively small amount of data may be inserted into the WM inserted into another video frame.
  • the amount of data inserted into the WM may change according to the designer's intention.
  • FIG. 34 is a diagram showing a data structure to be inserted into a first WM in embodiment # 4 of the present invention.
  • the structure of the first WM may be as shown.
  • the value of the block number field may be 0x00.
  • the illustrated WM may not be the first WM.
  • the receiver can detect the first WM.
  • the detected WM can be parsed by the WM manager.
  • the transmission type field value of the WM is 1, and the value of the block number field is different from that of the last block number field. Therefore, the WM manager can store the parsed information until the remaining WM with WMId of 0x00.
  • the URL information atsc.org may also be stored.
  • the value of the last block number field is 0x01, it can be seen that if only one WM is received in the future, all WMs having a WMId of 0x00 will be received.
  • each flag field has a value of one. Therefore, it can be seen that the payload of this WM includes each information such as an event field. In addition, since the time stamp value is 5005, it can be seen that the start time of the portion where the WM is inserted is 5.005 seconds.
  • FIG. 35 is a diagram showing a data structure to be inserted into a second WM in embodiment # 4 of the present invention.
  • the structure of the second WM may be as shown.
  • the value of the block number field may be 0x01. According to an embodiment, when different values of the block number field are used, the illustrated WM may not be the second WM.
  • the receiver can detect the second WM.
  • the WM manager may parse the second WM detected. Since the value of the block number field and the last block number field are the same, it can be seen that this WM is the last WM among the WMs having the WMId value of 0x00.
  • the payload includes URL information. Since the value of the current block number field is 0x01, it can be combined with already stored information. In particular, the previously stored atsc.org part can be combined with the /apps/app1.html part included in the second WM. In addition, since the value of the URL protocol type field is 001 among the previously stored information, the final combined URL may be. This URL can be launched through the Browser.
  • the time at which the second WM is inserted is 10.005 seconds.
  • the receiver may set the time sync based on 5.005 seconds of the first WM and may set the time sync based on 10.005 seconds of the last WM.
  • This embodiment is an example of transmitting two WMs at intervals of five seconds. Since five seconds without the WM inserted therein, only audio / video can be transmitted completely, thereby preventing deterioration of content. In other words, even if data is transmitted by dividing into multiple WMs, quality degradation can be reduced.
  • the timing for inserting the WM separately may vary depending on the embodiment.
  • FIG. 36 is a flowchart for processing a data structure to be inserted into a WM according to embodiment # 4 of the present invention.
  • the service provider delivers the content to the WM inserter (s58010), the WM inserter inserts the WM # 1 into the delivered content (s58020), and the WM inserter sends the WM # 1 inserted content. (s58030), the STB receives the WM # 1-inserted content, outputs uncompressed A / V data (s58040), and / or the WM detector detects WM # 1 (s58050). It may be the same as each step.
  • WM # 1 means one of the WMs into which divided data is inserted, and may be the first WM in the above-described embodiment # 4 of the present invention.
  • the block number field of this WM may be 0x00, and the URL information may be atsc.org.
  • the WM manager may store the detected WM # 1 (s58060). At this time, the WM manager may perform parsing by referring to the number of bits of each predetermined field and the length of the entire WM. Since the block number field is different from the last block number field, and the transfer type field value is 1, the WM manager may parse and store the WM and wait for the next WM.
  • the service provider delivers the content to the WM inserter (s58070), the WM inserter inserts the WM # 2 into the received content (s58080), and the WM inserter sends the WM # 2-inserted content. (s58090), the STB receives the WM # 2-inserted content, outputs uncompressed A / V data (s58100), and / or the WM detector detects the WM # 2 (s58110). It may be the same as each step.
  • WM # 2 means one of the WMs into which divided data is inserted, and may be the second WM in the above-described embodiment # 4 of the present invention.
  • the block number field of this WM may be 0x01, and the URL information may be /apps/app1.html.
  • the WM manager may parse WM # 2 (s58120).
  • the entire URL can be generated by combining the information obtained by parsing the WM # 2 and the information obtained by parsing the previously stored WM # 1 (s58130). In this case, the full URL may be as described above.
  • the WM manager transmits the related data to the companion device protocol module in the receiver according to the destination type field (s58140), and the companion device protocol module delivers the related data to the companion device according to the destination type field.
  • S58150 may be the same as each step described above.
  • the destination type field may be transmitted by WM # 1. This is because the destination flag field value of the first WM of Embodiment # 4 of the present invention is 1. As described above, this destination type field value may have been parsed and stored. Since the value of the destination type field is 0x02, it can be seen that the data is for a smartphone.
  • the companion device protocol module may communicate with the companion device to process related information. This is as described above.
  • the WM detector and the WM manager may be integrated and included in one module, and the integrated module may perform both the WM detector and the WM manager.
  • FIG. 37 is a diagram illustrating a structure of a watermark based video display device according to another embodiment of the present invention.
  • the present embodiment is similar to the structure of the watermark-based image display apparatus described above, but a WM manager t59010 and a companion device protocol module t59020 are added below the watermark extractor t59030.
  • the other modules may be as described above.
  • the watermark extractor t59030 may correspond to the above-described WM detector.
  • the watermark extractor t59030 may be the same as the same name module of the structure of the above-described watermark-based image display apparatus.
  • the WM manager t59010 may correspond to the above-described WM manager and the companion device protocol module t59020 may correspond to the above-described companion device protocol module. The operation of each module is as described above.
  • FIG. 38 illustrates a data structure according to an embodiment of the present invention in a fingerprinting method.
  • the quality of the audio / video content may be less than that of the WM.
  • the quality deterioration may be relatively lower than that of the WM directly inserted in the content.
  • the data structure used in the WM may be utilized as it is. That is, the data structure proposed by the present invention can be used as it is in the FP method. Alternatively, depending on the embodiment, only some of the structures of the WM data structure may be taken and used.
  • the remaining fields may be as described above.
  • 39 is a flowchart illustrating processing of a data structure according to an embodiment of the present invention in a fingerprinting method.
  • the service provider may extract the fingerprint FP from the broadcast program to be transmitted (S61010).
  • the service provider may be the same as the service provider described above.
  • the service provider may extract a fingerprint for each content using a tool provided by an ACR vendor, or may extract a fingerprint using its own tool.
  • the service provider may extract the audio / video fingerprint.
  • the service provider may deliver the extracted fingerprint to the ACR server (s61020).
  • the delivered time may be before being broadcasted in the case of a pre-production program, or may be delivered to the ACR server as soon as the FP is extracted in real time in the case of a live program.
  • the service provider may assign a content ID for the content and may provide information such as a transmission type, a destination type, and a URL protocol type. At this time, the assigned information may be mapped to the FP extracted in real time and delivered to the ACR server.
  • the ACR server may store the received FP and related information in the ACR DB (s61030).
  • the receiver can extract the FP from the audio / video signal coming from the external input.
  • the audio / video signal may be an uncompressed signal.
  • This FP may be called a signature.
  • the receiver may send a request to the ACR server using the FP (s61040).
  • the ACR server can compare the received FP with the ACR DB.
  • the content being broadcast by the receiver can be recognized. If the content is recognized, the delivery type information, time stamp, content ID, event type information, destination type information, URL protocol type information, URL information, etc. may be sent to the receiver (s61050).
  • each piece of information may be transmitted in the aforementioned fields.
  • the destination type information may be transmitted in a destination type field.
  • the structure of the data to be transmitted may utilize the data structure used in the above-described WM.
  • the receiver may parse the information received from the ACR server.
  • the value of the destination type field is 0x01, it can be seen that the URL of the application should be executed on the TV.
  • the final URL in may be generated using a value of the URL protocol type field and URL information.
  • the URL generation process may be as described above.
  • the receiver may execute a broadcast related application through a browser using the corresponding URL (s61060).
  • the Browser may be the same as the Browser described above.
  • the processes of s61040, s61050, and s61060 may be repeated.
  • FIG. 40 is a diagram showing the structure of a watermark payload according to another embodiment of the present invention.
  • the watermark payload of the illustrated embodiment may include domain type information, server URL information, time stamp information, and / or trigger type information.
  • the illustrated watermark payload may be used as an audio or video watermark.
  • the watermark may be referred to as WM (Watermark).
  • the WM payload may have a size of 50 bits, and the WM system may deliver this 50 bits every 1.5 seconds.
  • the domain type information may indicate the type of the corresponding WM payload.
  • the domain type information may indicate how the sizes of the server URL information and the time stamp information of the corresponding payload are allocated. According to the domain type information, a scope of uniquness between the server code of the server URL field and the interval code of the time stamp field may be traded off.
  • the domain type information may indicate whether the corresponding payload has a small domain, a medium domain, or a large domain structure according to the size allocation of the fields. According to an embodiment, the domain type information may have a size of 1 bit. In this case, it may be indicated whether the corresponding payload has a small domain or a large domain.
  • the server URL information may include server code.
  • This server code may be a value for identifying a server operating as a starting point for supplementary content acquisition.
  • the server URL information or server code may be in the form of an Internet address or an IP address format from which additional content can be obtained, or a specific code mapped to these addresses.
  • Various additional contents can be obtained by accessing a URL known through server URL information.
  • the additional content may mean content that may be provided to the viewer beyond the service / content being transmitted to the receiver in the MVPD.
  • the additional content may include a service, content, timeline, application data, replacement component, or application related information.
  • the additional content may be referred to as interactive service information.
  • the additional content may include application property information for providing an interactive service for a broadcast service / content.
  • the additional content may include event information for a specific application.
  • the event information may be notification to signaling information that initiates actions to be performed by an application.
  • the time stamp information may include an interval code.
  • This interval code may be a value for identifying an interval of content in which a corresponding payload is embedded.
  • the time stamp information or interval code may identify the interval in which the corresponding payload is inserted, or identify the transmission time information in which the corresponding WM packet or the WM payload is inserted or the number of times the corresponding WM packet or the WM payload is included.
  • the time interval between the WM may be predetermined.
  • the time stamp information may be referred to as interval information.
  • Trigger type information may signal when an event is available.
  • the change in the value of the corresponding trigger type information in the consecutive WM payload may be an indication that the event is available / obtainable from the event server.
  • the event may be the above-described event information.
  • the event may be a dynamic event.
  • the dynamic event may mean an event when the start time of the corresponding event is known to be close to the event start time (at the last minute).
  • the event information on the live broadcast service may be a dynamic event.
  • the event server may be an HTTP server as a dynamic event server.
  • the trigger type information may be referred to as query information, query flag, or the like.
  • the trigger type information may indicate whether it is necessary to access the URL by the server URL information.
  • the trigger type information may indicate whether application characteristic information or event information can be obtained when the URL is accessed. Since the event information is time sensitive information, it may need to be distinguished from application characteristic information. This is to avoid wasting resources to obtain non-time sensitive information, and thus preventing you from obtaining the required time sensitive information.
  • the trigger type information may also indicate whether there is a change in the application characteristic information to be acquired. Details will be described later.
  • the server URL information and the time stamp information may have a size of 30 bits, 17 bits (small domain type), 22 bits, 25 bits (medium domain type), 18 bits, 29 bits, respectively. It may have a size (large domain type). Depending on the embodiment these values may be changed.
  • the small domain may have about 1 billion server codes and an interval code of about 54.6 hours
  • the medium domain may have about 4.2 million server codes and an interval code of about 1.59 years
  • the large domain In this case, it may have about 262,144 server codes and an interval code of about 25.5 years.
  • the server URL information and the time stamp information may have sizes of 31 bits and 17 bits (small domain type) or 23 bits and 25 bits, respectively (large domain type).
  • the domain type information may have a size of 1 bit and the trigger type information may have a size of 1 bit. Depending on the embodiment these values may be changed.
  • the trigger type information of the illustrated WM payload may have a size of 2 bits.
  • the trigger type information is 00, this may mean that the application characteristic information may be obtained by accessing the server URL, and this characteristic information may not be changed compared to the characteristic information that can be obtained from the server URL of the previous WM.
  • the trigger type information is 01, this may mean that the application characteristic information may be obtained by accessing the server URL, and this characteristic information may be changed compared to the characteristic information obtained from the server URL of the previous WM.
  • the trigger type information is 10
  • this may mean that event information may be obtained by accessing a server URL. If the trigger type information is 11, it can be reserved for future use.
  • the meanings of the values of the trigger type information may vary. For example, if the trigger type information is 00, this may mean that there are no additional apps, components or other information that can be obtained by making a request to the server at this interval. In this case, the request (query) may not be sent to the server. If the trigger type information is 01, this may mean that there may be additional app, component or other information that can be obtained by making a request to the server at this interval. In this case, a request (query) can be sent to the server. If the trigger type information is 10, this may mean that event information may be obtained by accessing a server URL. Therefore, in this case, the request may need to be performed again even if the request was recently made. If the trigger type information is 11, it can be reserved for future use.
  • the above-described structures of the WM payload may be combined with each other.
  • the allocated sizes of the pieces of information of the aforementioned WM payload may be combined with each other. For example, for the sizes of the server URL information and the time stamp information according to each small, medium, and large domain, trigger type information of 1 bit may be combined or trigger type information of 2 bits may be combined. In addition, for each case, domain type information of 1 bit may be combined or domain type information of 2 bits may be combined.
  • FIG. 41 is a view showing a modification of a watermark payload structure using service / content information according to an embodiment of the present invention.
  • the service information may be information related to a service in which the corresponding WM is inserted. This service information may be in the form of a service ID or a channel ID.
  • the server may selectively provide only additional content (interactive service) for a specific service / channel.
  • the interactive service of the previous service / channel may be quickly terminated.
  • the content information may be information related to content in which the corresponding WM is inserted. The content information may be in the form of a content ID.
  • the server may selectively provide only additional content (interactive service) for a specific content.
  • service information and / or content information has been added to one of the above-described WM payload structures.
  • the service information and / or content information is added after minimizing the aforementioned WM payload structure.
  • the domain type information is omitted, and the server URL information, time stamp information, and trigger type information are reduced to 18 bits, 17 bits, and 2 bits, respectively.
  • each service information and content information may have any size (x, y bits), depending on the relevant broadcast system. In some embodiments, only one of two pieces of information may be added.
  • FIG. 42 illustrates a modification of a watermark payload structure using an NSC field according to an embodiment of the present invention.
  • Modifications may be made to each of the above-described WM payload structures to add a No Supplemental Content (NSC) field.
  • the NSC field may indicate whether additional content is available.
  • the NSC field may operate as a flag as 1 bit. Additional content has been described above.
  • One bit for the NSC field may be obtained by reducing the size of the aforementioned domain type information.
  • the size of the domain type information may be reduced to 1 bit.
  • the domain type information indicates the type of the WM payload.
  • the domain type information may indicate two cases of whether the WM payload is a small domain or a large domain. That is, if two types of domains are sufficient, availability of additional content may be indicated by allocating 1 bit of domain type information to an NSC field.
  • an NSC field may be simply added to the above-described WM payload structures without reducing the size of the domain type information.
  • the server URL field in the case of the small domain, may be 22 bits and the time stamp field may be 25 bits. In the case of the large domain, the server URL field may be 18 bits and the time stamp field may be 29 bits. It may have about 4.2 million server codes and an interval code of about 1.59 years for the small domain, and about 262,144 server codes and about 25.5 years interval code for the large domain.
  • the trigger type information may have a size of 1 bit or 2 bits.
  • the receiver may send a query to the server.
  • the receiver receives the first watermarked segment and requests it, (2) additionally sends the request according to the request information of the additional content, and (3) the trigger described above.
  • a request is made as a correspondence according to the type information.
  • the request may not be performed when there is no additional content. For example, a request sent when a receiver first receives a watermark may not be performed. Therefore, in case of channel surfing, the addition of the NSC field may be efficient.
  • services / content may be marked (watermarked) for service usage reporting even when there is no additional content, and even in this case, adding an NSC field may be efficient. It may be more efficient, especially in the case of storage & use reporting delivery mechanisms. That is, in general, a large amount of content may be marked (watermarked) but there is no additional content.
  • watermarked content may be desirable. In this case, continuously marked content can help two SDOs determine a common WM solution.
  • FIG. 43 illustrates a watermark payload structure for linking between video and audio watermarks according to an embodiment of the present invention.
  • the present invention proposes a method for inserting a video WM and an audio WM simultaneously.
  • a portion of the video WM payload can be allocated for the audio WM payload.
  • Some (eg 50 bits) of the video WM payload (eg 30-60 bytes) may carry duplicates of the audio WM payload. This overlapping information is the same information as that of the audio WM payload and may be a copy.
  • the video WM and the audio WM may be synchronized with each other and transmitted.
  • the video WM may include at least one message block, one of which message blocks may have a WM payload of the corresponding structure.
  • the audio WM embedded in the audio of the service / content may have a WM payload like the video WM.
  • the first video frame of the message block carrying the video WM payload may be time aligned with the beginning of the corresponding audio WM. In some embodiments, both may be time aligned within a certain error.
  • the message block may include a plurality of video frames, each of which may have the same video WM payload repeated. Depending on the embodiment, some of the audio WM payloads may be allocated to carry a copy of the video WM payload.
  • a problem may occur when a user calls and displays an electronic service guide (ESG) from an MVPD set top box (STB).
  • ESG electronic service guide
  • STB MVPD set top box
  • the video WM client may recognize that the WM has disappeared and determine that the viewer has changed the channel or the interactive event has ended. Thus, even if the viewer attempts to turn off the ESG without changing the channel and resume the interactive service from a previous point in time, the associated application may have been terminated by the video WM client.
  • the video WM can inform the receiver that the main video is not currently focused on the screen (such as when ESG is used). Also, unlike video WMs, audio WMs can continue to provide WM information while ESG is in use. Accordingly, the receiver can track whether there are changes in the WMs or related additional content even during ESG operation.
  • the ESG is on the screen by the video WM, and the proper receiver operation can be continuously performed by the audio WM.
  • an application does not provide graphics (for example, a background app)
  • it can continue to run regardless of the ESG.
  • an application provides graphics, it can be suppressed until the ESG disappears.
  • the receiver can process it in the background until the ESG disappears. That is, by linking the audio WM and the video WM, this problem can be solved.
  • FIG. 44 illustrates an operation using a linked video-audio watermark according to an embodiment of the present invention.
  • the original service / content may be received from the broadcaster as an MVPD such as an STB (t505010).
  • An external input source such as an STB or a cable may transmit this to the receiver (t505020).
  • the AV content delivered here is in an uncompressed state and may have a linked audio WM and a video WM.
  • the receiver can detect the audio WM and video WM and perform the operations accordingly.
  • the user may request an ESG from the remote controller of the STB (t505030).
  • the STB can thus display the ESG on the TV screen (t505040).
  • the ESG may be overlaid with the AV content being played.
  • the TV receiver may now detect audio WM but not video WM (t505050). The receiver recognizes that the main video content is obscured by other graphics, such as ESG, and can access the linked audio WM to seamlessly perform the required operation.
  • the contents t505010 through t505020 that the AV receiver receives through the STB are as described above.
  • the user may request mute to the STB remote controller (t505030).
  • the STB may mute the AV content accordingly (t505040).
  • the TV receiver may now detect video WM but not audio WM (t505050).
  • the receiver may recognize that the main audio content is muted and may acquire corresponding audio WM payload data through the linked video WM payload. This allows the receiver to seamlessly perform the required operations.
  • 45 is a diagram illustrating a broadcast content processing method according to an embodiment of the present invention.
  • a broadcast content processing method comprises the steps of receiving broadcast content from an external input source, extracting an audio or video watermark from the broadcast content, and adding additional content of the broadcast content to a URL generated from the watermark. Requesting and / or acquiring additional content from the server.
  • the receiving unit of the receiver may receive broadcast content from an external input source.
  • the external input source may mean an MVPD such as an STB, a cable, and a satellite.
  • the broadcast content is derived from the broadcast stream and may be uncompressed AV content.
  • This broadcast content includes audio and / or video components, which may be inserted with audio WM and video WM, respectively.
  • the extractor of the receiver may extract at least one of audio WM and video WM from broadcast content.
  • the network interface of the receiver may request additional content from the server specified by the URL generated from the audio / video WM.
  • the additional content is related to broadcast content, and details are described above.
  • the URL may be derived from server code or server URL information of the WM payload.
  • the network interface may obtain additional content from the server.
  • the audio / video WM can be used for the delivery of supplemental data related to broadcast content.
  • At least one of the audio WMs includes an audio WM payload
  • the audio WM payload includes domain type information, server information, interval information, and / or It can include query information. These information may in turn be the aforementioned domain type information, server URL information, time stamp information and / or trigger type information.
  • the domain type information specifies a type of an audio WM payload
  • the server information identifies a server for acquiring additional content
  • the interval information is an audio WM payload.
  • the query information may signal whether event signaling is available from the server. This information has been described in detail above. Event signaling may correspond to the above-described event information for starting the operation of the application.
  • At least one video WM of the video WMs includes a video WM payload, and the video WM payload includes at least the same information as the audio WM payload. It can contain one message block.
  • the video WM payload may include a space for allocating a space for the audio WM payload.
  • a video WM including information such as an audio WM payload may be time-aligned with an audio WM carrying an audio WM payload.
  • the link between the audio / video WM has been described in detail above.
  • the additional content may include this component information and / or other component information.
  • the disc component information may describe information about a service component in which a corresponding WM payload used to request the corresponding additional content is detected.
  • the additional content may be requested by server information / interval information of the corresponding WM payload.
  • the other component information may describe a component having a WM payload that matches the corresponding WM payload among components other than the component described by the disc component information.
  • This WM payload may be a video or audio WM.
  • the extractor of the receiver to recognize that either the audio or video WM is missing; And extracting another WM that has not disappeared from the corresponding component. This may be for recognizing that the video or audio WM has disappeared when the ESG is displayed or muted on the screen as described above, and accessing the WM having the same payload to perform normal operation without interruption. .
  • a broadcast content processing method (transmission side) according to an embodiment of the present invention will be described. This method is not shown in the figure.
  • a service data generation module generates a broadcast service having a video / audio component, and a WM insertion module inserts a video / audio WM into a video / audio component. And generating, by the service data generating module, signaling information related to the broadcast service, and / or transmitting, by the transmitting unit, the broadcast service data and the signaling information to the MVPD.
  • the service data generation module may further include generating additional content for the broadcast service, delivering it to the additional content server, and the WM embedding module including information related to the server and the additional content in the WM. Can be.
  • the broadcast content processing methods (transmission side) according to the embodiments of the present invention may correspond to the broadcast content processing methods according to the above-described embodiments of the present invention.
  • the broadcast content processing method (transmission side) may have embodiments corresponding to the above-described embodiments of the broadcast content processing method.
  • 46 is a diagram illustrating a broadcast content processing apparatus according to an embodiment of the present invention.
  • the broadcast content processing apparatus may include the above-described receiving unit, extractor and / or network interface. Each block, module is as described above.
  • the broadcast content processing apparatus and its internal modules / blocks according to an embodiment of the present invention may perform the above-described embodiments of the broadcast content processing method of the present invention.
  • a broadcast content processing apparatus (transmission side) according to an embodiment of the present invention will be described. This device is not shown in the figure.
  • the broadcast content processing apparatus (transmission side) according to an embodiment of the present invention may include the aforementioned service data generation module, WM insertion module and / or transmission unit. Each block, module is as described above.
  • the broadcast content processing apparatus (transmission side) and its internal modules / blocks according to an embodiment of the present invention may perform the above-described embodiments of the broadcast content processing method (transmission side) of the present invention.
  • the above-described blocks / modules in the device may be processors for executing consecutive processes stored in a memory, and according to embodiments, may be hardware elements located in / outside the device.
  • the above-described modules may be omitted or replaced by other modules performing similar / same operations according to the embodiment.
  • the module or unit may be processors that execute successive procedures stored in a memory (or storage unit). Each of the steps described in the above embodiments may be performed by hardware / processors. Each module / block / unit described in the above embodiments can operate as a hardware / processor.
  • the methods proposed by the present invention can be executed as code. This code can be written to a processor readable storage medium and thus read by a processor provided by an apparatus.
  • Apparatus and method according to the present invention is not limited to the configuration and method of the embodiments described as described above, the above-described embodiments may be selectively all or part of each embodiment so that various modifications can be made It may be configured in combination.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor.
  • Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet.
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
  • the present invention is used in the field of providing a series of broadcast signals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 방송 신호를 전송하는 방법을 제안한다. 본 발명에 따른 방송 신호를 전송하는 방법은, 지상파 방송망과 인터넷 망을 사용하는 차세대 하이브리드 방송을 지원하는 환경에서 차세대 방송 서비스를 지원할 수 있는 시스템을 제안한다. 또한, 차세대 하이브리드 방송을 지원하는 환경에서, 지상파 방송망과 인터넷 망을 모두 아우를 수 있는 효율적인 시그널링 방안을 제안한다.

Description

방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
본 발명은 방송 신호 송신 장치, 방송 신호 수신 장치, 및 방송 신호 송수신 방법에 관한 것이다.
아날로그 방송 신호 송신이 종료됨에 따라, 디지털 방송 신호를 송수신하기 위한 다양한 기술이 개발되고 있다. 디지털 방송 신호는 아날로그 방송 신호에 비해 더 많은 양의 비디오/오디오 데이터를 포함할 수 있고, 비디오/오디오 데이터뿐만 아니라 다양한 종류의 부가 데이터를 더 포함할 수 있다.
즉, 디지털 방송 시스템은 HD(High Definition) 이미지, 멀티채널(multi channel, 다채널) 오디오, 및 다양한 부가 서비스를 제공할 수 있다. 그러나, 디지털 방송을 위해서는, 많은 양의 데이터 전송에 대한 데이터 전송 효율, 송수신 네트워크의 견고성(robustness), 및 모바일 수신 장치를 고려한 네트워크 유연성(flexibility)이 향상되어야 한다.
본 발명의 목적에 따라, 여기에 포함되고 대략적으로 기재된 바와 같이, 본 발명은 지상파 방송망과 인터넷 망을 사용하는 차세대 하이브리드 방송을 지원하는 환경에서 차세대 방송 서비스를 효과적으로 지원할 수 있는 시스템 및 관련된 시그널링 방안을 제안한다.
본 발명은 지상파 방송망과 인터넷 망을 사용하는 차세대 하이브리드 방송을 지원하는 환경에서 차세대 방송 서비스를 효과적으로 지원할 수 있다. 또한 본 발명은 비디오 WM, 오디오 WM 를 효율적으로 활용하기 위한 구조 및 방안을 제안한다.
본 발명에 대해 더욱 이해하기 위해 포함되며 본 출원에 포함되고 그 일부를 구성하는 첨부된 도면은 본 발명의 원리를 설명하는 상세한 설명과 함께 본 발명의 실시예를 나타낸다.
도 1 은 본 발명의 일 실시예에 따른 프로토콜 스택을 도시한 도면이다.
도 2 는 본 발명의 일 실시예에 따른 서비스 디스커버리 과정을 도시한 도면이다.
도 3 은 본 발명의 일 실시예에 따른 LLS (Low Level Signaling) 테이블 및 SLT (Service List Table)를 도시한 도면이다.
도 4 는 본 발명의 일 실시예에 따른, ROUTE 로 전달되는 USBD 및 S-TSID 를 도시한 도면이다.
도 5 는 본 발명의 일 실시예에 따른, MMT 로 전달되는 USBD 를 도시한 도면이다.
도 6 은 본 발명의 일 실시예에 따른 링크 레이어(Link Layer) 동작을 도시한 도면이다.
도 7 은 본 발명의 일 실시예에 따른 LMT (Link Mapping Table) 를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 네트워크 토폴로지를 보여주는 블록도이다.
도 9는 본 발명의 일 실시예에 따른 워터마크 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 10은 본 발명의 일 실시예에 따른 워터마크 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
도 11는 본 발명의 일 실시예에 따른 워터마크 기반의 컨텐츠 인식 타이밍을 보여준다.
도 12는 본 발명의 일 실시예에 따른 핑거프린트 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 13은 본 발명의 일 실시예에 따른 핑거프린트 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
도 14은 본 발명의 일 실시예에 따른 질의 결과를 담는 ACR-Resulttype의 XML 스키마 다이어그램(schema diagram)을 보여준다.
도 15은 본 발명의 일 실시예에 따른 워터마크와 핑거프린트 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 16은 본 발명의 일 실시예에 따른 워터마크와 핑거프린트 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
도 17은 본 발명의 실시예에 따른 영상 표시 장치의 블록도이다.
도 18는 본 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 보여주는 흐름도이다.
도 19은 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 보여주는 개념도이다.
도 20은 본 발명의 또 다른 실시예에 따른 핑거프린트 기반의 영상 표시 장치의 구조를 보여주는 블록도이다.
도 21은 본 발명의 또 다른 실시예에 따른 워트마크 기반의 영상 표시 장치의 구조를 보여주는 블록도이다.
도 22 는 본 발명의 일 실시예에 따른 워터마킹 기법을 통해 전달될 수 있는 데이터들을 예시한 도면이다.
도 23 는 본 발명의 일 실시예에 따른 타임 스탬프 타입 필드의 각 값들의 의미를 도시한 도면이다.
도 24 은 본 발명의 일 실시예에 따른 URL 프로토콜 타입 필드의 각 값들의 의미를 도시한 도면이다.
도 25 은 본 발명의 일 실시예에 따른 URL 프로토콜 타입 필드의 처리과정을 순서도로 도시한 도면이다.
도 26 은 본 발명의 일 실시예에 따른 이벤트 필드의 각 값들의 의미를 도시한 도면이다.
도 27 은 본 발명의 일 실시예에 따른 데스티네이션 타입 필드의 각 값들의 의미를 도시한 도면이다.
도 28 은 본 발명의 실시예 #1 에 따른 WM 에 삽입될 데이터 구조를 도시한 도면이다.
도 29 은 본 발명의 실시예 #1 에 따른 WM 에 삽입될 데이터 구조를 처리하는 순서도를 도시한 도면이다.
도 30 는 본 발명의 실시예 #2 에 따른 WM 에 삽입될 데이터 구조를 도시한 도면이다.
도 31 은 본 발명의 실시예 #2 에 따른 WM 에 삽입될 데이터 구조를 처리하는 순서도를 도시한 도면이다.
도 32 는 본 발명의 실시예 #3 에 따른 WM 에 삽입될 데이터 구조를 도시한 도면이다.
도 33 는 본 발명의 실시예 #4 에 따른 WM 에 삽입될 데이터 구조를 도시한 도면이다.
도 34 는 본 발명의 실시예 #4 에서, 첫번째 WM 에 삽입될 데이터 구조를 도시한 도면이다.
도 35 는 본 발명의 실시예 #4 에서, 두번째 WM 에 삽입될 데이터 구조를 도시한 도면이다.
도 36 은 본 발명의 실시예 #4 에 따른 WM 에 삽입될 데이터 구조를 처리하는 순서도를 도시한 도면이다.
도 37 는 본 발명의 또 다른 실시예에 따른 워터마크 기반의 영상 표시 장치의 구조를 도시한 도면이다.
도 38 은 핑거프린팅 방식에 있어서, 본 발명의 일 실시예에 따른 데이터 구조를 도시한 도면이다.
도 39 은 핑거프린팅 방식에 있어서, 본 발명의 일 실시예에 따른 데이터 구조를 처리하는 순서도를 도시한 도면이다.
도 40 은 본 발명의 또 다른 실시예에 따른 워터마크 페이로드의 구조를 도시한 도면이다.
도 41 는 본 발명의 일 실시예에 따른, 서비스/컨텐츠 정보를 이용한 워터마크 페이로드 구조의 변형을 도시한 도면이다.
도 42 은 본 발명의 일 실시예에 따른, NSC 필드를 이용한 워터마크 페이로드 구조의 변형을 도시한 도면이다.
도 43 는 본 발명의 일 실시예에 따른, 비디오-오디오 워터마크 간의 링킹(linking) 을 위한 워터마크 페이로드 구조를 도시한 도면이다.
도 44 는 본 발명의 일 실시예에 따른, 링크된 비디오-오디오 워터마크를 이용한 동작을 도시한 도면이다.
도 45 은 본 발명의 일 실시예에 따른 방송 컨텐트 처리 방법을 도시한 도면이다.
도 46 는 본 발명의 일 실시예에 따른 방송 컨텐트 처리 장치를 도시한 도면이다.
본 발명의 바람직한 실시예에 대해 구체적으로 설명하며, 그 예는 첨부된 도면에 나타낸다. 첨부된 도면을 참조한 아래의 상세한 설명은 본 발명의 실시예에 따라 구현될 수 있는 실시예만을 나타내기보다는 본 발명의 바람직한 실시예를 설명하기 위한 것이다. 다음의 상세한 설명은 본 발명에 대한 철저한 이해를 제공하기 위해 세부 사항을 포함한다. 그러나 본 발명이 이러한 세부 사항 없이 실행될 수 있다는 것은 당업자에게 자명하다.
본 발명에서 사용되는 대부분의 용어는 해당 분야에서 널리 사용되는 일반적인 것들에서 선택되지만, 일부 용어는 출원인에 의해 임의로 선택되며 그 의미는 필요에 따라 다음 설명에서 자세히 서술한다. 따라서 본 발명은 용어의 단순한 명칭이나 의미가 아닌 용어의 의도된 의미에 근거하여 이해되어야 한다.
본 발명은 차세대 방송 서비스에 대한 방송 신호 송신 및 수신 장치 및 방법을 제공한다. 본 발명의 일 실시예에 따른 차세대 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 포함한다. 본 발명은 일 실시예에 따라 비-MIMO (non-Multiple Input Multiple Output) 또는 MIMO 방식을 통해 차세대 방송 서비스에 대한 방송 신호를 처리할 수 있다. 본 발명의 일 실시예에 따른 비-MIMO 방식은 MISO (Multiple Input Single Output) 방식, SISO (Single Input Single Output) 방식 등을 포함할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 프로토콜 스택을 도시한 도면이다.
서비스는 복수개의 레이어를 거쳐 수신기로 전달될 수 있다. 먼저 송신측에서는 서비스 데이터를 생성할 수 있다. 송신측의 딜리버리 레이어에서는 서비스 데이터에 전송을 위한 처리를 수행하고, 피지컬 레이어에서는 이를 방송 신호로 인코딩하여 방송망 또는 브로드밴드를 통해 전송할 수 있다.
여기서 서비스 데이터들은 ISO BMFF (base media file format) 에 따른 포맷으로 생성될 수 있다. ISO BMFF 미디어 파일은 방송망/브로드밴드 딜리버리, 미디어 인캡슐레이션(media encapsulation) 및/또는 동기화 포맷(synchronization format) 으로 사용될 수 있다. 여기서 서비스 데이터는 서비스와 관련된 모든 데이터로서, 리니어 서비스를 이루는 서비스 컴포넌트들, 그에 대한 시그널링 정보, NRT (Non Real Time) 데이터, 기타 파일들 등을 포함하는 개념일 수 있다.
딜리버리 레이어에 대해 설명한다. 딜리버리 레이어는 서비스 데이터에 대한 전송 기능을 제공할 수 있다. 서비스 데이터는 방송망및/또는 브로드밴드를 통해 전달될 수 있다.
방송망을 통한 서비스 딜리버리(broadcast service delivery)에 있어 두가지 방법이 있을 수 있다.
첫번째 방법은 MMT (MPEG Media Transport) 에 근거하여, 서비스 데이터들을 MPU (Media Processing Units) 들로 처리하고, 이를 MMTP (MMT protocol) 를 이용하여 전송하는 것일 수 있다. 이 경우, MMTP 를 통해 전달되는 서비스 데이터에는, 리니어 서비스를 위한 서비스 컴포넌트들 및/또는 그에 대한 서비스 시그널링 정보 등이 있을 수 있다.
두번째 방법은 MPEG DASH 에 근거하여, 서비스 데이터들을 DASH 세그먼트들로 처리하고, 이를 ROUTE (Real time Object delivery over Unidirectional Transport) 를 이용하여 전송하는 것일 수 있다. 이 경우, ROUTE 프로토콜을 통해 전달되는 서비스 데이터에는, 리니어 서비스를 위한 서비스 컴포넌트들, 그에 대한 서비스 시그널링 정보 및/또는 NRT 데이터 등이 있을 수 있다. 즉, NRT 데이터 및 파일 등의 논 타임드(non timed) 데이터는 ROUTE 를 통해서 전달될 수 있다.
MMTP 또는 ROUTE 프로토콜에 따라 처리된 데이터는 UDP / IP 레이어를 거쳐 IP 패킷들로 처리될 수 있다. 방송망을 통한 서비스 데이터 전달에 있어서, SLT (Service List Table) 역시 UDP / IP 레이어를 거쳐 방송망을 통해 전달될 수 있다. SLT 는 LLS (Low Level Signaling) 테이블에 포함되어 전달될 수 있는데, SLT, LLS 테이블에 대해서는 후술한다.
IP 패킷들은 링크 레이어에서 링크 레이어 패킷들로 처리될 수 있다. 링크 레이어는 상위 레이어에서 전달되는 다양한 포맷의 데이터를, 링크 레이어 패킷으로 인캡슐레이션한 후, 피지컬 레이어에 전달할 수 있다. 링크 레이어에 대해서는 후술한다.
하이브리드 서비스 딜리버리(hybrid service delivery) 에 있어서는, 적어도 하나 이상의 서비스 엘레멘트가 브로드밴드 패쓰(path) 를 통해 전달될 수 있다. 하이브리드 서비스 딜리버리의 경우, 브로드밴드로 전달되는 데이터에는, DASH 포맷의 서비스 컴포넌트들, 그에 대한 서비스 시그널링 정보 및/또는 NRT 데이터 등이 있을 수 있다. 이 데이터들은 HTTP/TCP/IP 를 거쳐 처리되고, 브로드밴드 전송을 위한 링크 레이어를 거쳐, 브로드밴드 전송을 위한 피지컬 레이어로 전달될 수 있다.
피지컬 레이어는 딜리버리 레이어(상위 레이어 및/또는 링크 레이어)로부터 전달받은 데이터를 처리하여, 방송망 또는 브로드밴드를 통하여 전송할 수 있다. 피지컬 레이어에 대한 자세한 사항은 후술한다.
서비스에 대해 설명한다. 서비스는 전체적으로 사용자에게 보여주는 서비스 컴포넌트의 컬렉션일 수 있고, 컴포넌트는 여러 미디어 타입의 것일 수 있고, 서비스는 연속적이거나 간헐적일 수 있으며, 서비스는 실시간이거나 비실시간일 수 있고, 실시간 서비스는 TV 프로그램의 시퀀스로 구성될 수 있다.
서비스는 여러 타입을 가질 수 있다. 첫 번째로 서비스는 앱 기반 인헨스먼트를 가질 수 있는 리니어 오디오/비디오 또는 오디오만의 서비스일 수 있다. 두 번째로 서비스는 다운로드된 어플리케이션에 의해 그 재생/구성 등이 제어되는 앱 기반 서비스일 수 있다. 세 번째로 서비스는 ESG (Electronic Service Guide) 를 제공하는 ESG 서비스일 수 있다. 네 번째로 긴급 경보 정보를 제공하는 EA (Emergency Alert) 서비스일 수 있다.
앱 기반 인헨스먼트가 없는 리니어 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 (1) 하나 이상의 ROUTE 세션 또는 (2) 하나 이상의 MMTP 세션에 의해 전달될 수 있다.
앱 기반 인헨스먼트가 있는 리니어 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 (1) 하나 이상의 ROUTE 세션 및 (2) 0개 이상의 MMTP 세션에 의해 전달될 수 있다. 이 경우 앱 기반 인핸스먼트에 사용되는 데이터는 NRT 데이터 또는 기타 파일 등의 형태로 ROUTE 세션을 통해 전달될 수 있다. 본 발명의 일 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트(스트리밍 미디어 컴포넌트)들이 두 프로토콜을 동시에 사용해 전달되는 것이 허용되지 않을 수 있다.
앱 기반 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 하나 이상의 ROUTE 세션에 의해 전달될 수 있다. 이 경우, 앱 기반 서비스에 사용되는 서비스 데이터는 NRT 데이터 또는 기타 파일 등의 형태로 ROUTE 세션을 통해 전달될 수 있다.
또한, 이러한 서비스의 일부 서비스 컴포넌트 또는 일부 NRT 데이터, 파일 등은 브로드밴드를 통해 전달될 수 있다(하이브리드 서비스 딜리버리).
즉, 본 발명의 일 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 MMT 프로토콜을 통해 전달될 수 있다. 본 발명의 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 ROUTE 프로토콜을 통해 전달될 수 있다. 본 발명의 또 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트 및 NRT 데이터(NRT 서비스 컴포넌트)들은 ROUTE 프로토콜을 통해 전달될 수 있다. 본 발명의 또 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 MMT 프로토콜을 통해 전달되고, NRT 데이터(NRT 서비스 컴포넌트)들은 ROUTE 프로토콜을 통해 전달될 수 있다. 전술한 실시예들에서, 서비스의 일부 서비스 컴포넌트 또는 일부 NRT 데이터들은 브로드밴드를 통해 전달될 수 있다. 여기서 앱 기반 서비스 내지 앱 기반 인핸스먼트에 관한 데이터들은 NRT 데이터 형태로, ROUTE 에 따른 방송망을 통해 전달되거나 브로드밴드를 통해 전달될 수 있다. NRT 데이터는 로컬리 캐쉬드 데이터(Locally cashed data) 등으로 불릴 수도 있다.
각각의 ROUTE 세션은 서비스를 구성하는 컨텐츠 컴포넌트를 전체적으로 또는 부분적으로 전달하는 하나 이상의 LCT 세션을 포함한다. 스트리밍 서비스 딜리버리에서, LCT 세션은 오디오, 비디오, 또는 클로즈드 캡션 스트림과 같은 사용자 서비스의 개별 컴포넌트를 전달할 수 있다. 스트리밍 미디어는 DASH 세그먼트로 포맷된다.
각각의 MMTP 세션은 MMT 시그널링 메시지 또는 전체 또는 일부 컨텐츠 컴포넌트를 전달하는 하나 이상의 MMTP 패킷 플로우를 포함한다. MMTP 패킷 플로우는 MMT 시그널링 메시지 또는 MPU 로 포맷된 컴포넌트를 전달할 수 있다.
NRT 사용자 서비스 또는 시스템 메타데이터의 딜리버리를 위해, LCT 세션은 파일 기반의 컨텐츠 아이템을 전달한다. 이들 컨텐츠 파일은 NRT 서비스의 연속적 (타임드) 또는 이산적 (논 타임드) 미디어 컴포넌트, 또는 서비스 시그널링이나 ESG 프레그먼트와 같은 메타데이터로 구성될 수 있다. 서비스 시그널링이나 ESG 프레그먼트와 같은 시스템 메타데이터의 딜리버리 또한 MMTP의 시그널링 메시지 모드를 통해 이루어질 수 있다.
수신기에서는 튜너가 주파수들을 스캐닝하다가, 특정 주파수에서 방송 시그널을 감지할 수 있다. 수신기는 SLT 를 추출해 이를 처리하는 모듈로 보낼 수 있다. SLT 파서는 SLT 를 파싱하고 데이터를 획득해 채널 맵에 저장할 수 있다. 수신기는 SLT 의 부트스트랩 정보를 획득하고 ROUTE 또는 MMT 클라이언트에 전달해줄 수 있다. 수신기는 이를 통해 SLS 를 획득할 수 있고, 저장할 수 있다. USBD 등이 획득될 수 있고, 이는 시그널링 파서에 의해 파싱될 수 있다.
도 2 는 본 발명의 일 실시예에 따른 서비스 디스커버리 과정을 도시한 도면이다.
피지컬 레이어의 방송 신호 프레임이 전달하는 브로드캐스트 스트림은 LLS (Low Level Signaling) 을 운반할 수 있다. LLS 데이터는 웰 노운(well known) IP 어드레스/포트 로 전달되는 IP 패킷의 페이로드를 통해서 운반될 수 있다. 이 LLS 는 그 타입에 따라 SLT 를 포함할 수 있다. LLS 데이터는 LLS 테이블의 형태로 포맷될 수 있다. LLS 데이터를 운반하는 매 UDP/IP 패킷의 첫번째 바이트는 LLS 테이블의 시작일 수 있다. 도시된 실시예와 달리 LLS 데이터를 전달하는 IP 스트림은, 다른 서비스 데이터들과 함께 같은 PLP 로 전달될 수도 있다.
SLT 는 빠른 채널 스캔을 통하여 수신기가 서비스 리스트를 생성할 수 있게 하고, SLS 를 로케이팅(locating) 하기 위한 액세스 정보를 제공한다. SLT 는 부트스트랩 정보를 포함하는데, 이 부트스트랩 정보는 수신기가 각각의 서비스에 대한 SLS (Service Layer Signaling) 을 획득할 수 있도록 한다. SLS, 즉 서비스 시그널링 정보가 ROUTE 를 통해 전달되는 경우, 부트스트랩 정보는 SLS 를 운반하는 LCT 채널 내지 그 LCT 채널을 포함하는 ROUTE 세션의 데스티네이션 IP 어드레스 및 데스티네이션 포트 정보를 포함할 수 있다. SLS 가 MMT 를 통해 전달되는 경우, 부트스트랩 정보는 SLS 를 운반하는 MMTP 세션의 데스티네이션 IP 어드레스 및 데스티네이션 포트 정보를 포함할 수 있다.
도시된 실시예에서, SLT 가 기술하는 서비스 #1 의 SLS 는 ROUTE 를 통해 전달되고, SLT 는 해당 SLS 가 전달되는 LCT 채널을 포함하는 ROUTE 세션에 대한 부트스트랩 정보(sIP1, dIP1, dPort1) 를 포함할 수 있다. SLT 가 기술하는 서비스 #2 의 SLS 는 MMT 를 통해 전달되고, SLT 는 해당 SLS 가 전달되는 MMTP 패킷 플로우를 포함하는 MMTP 세션에 대한 부트스트랩 정보(sIP2, dIP2, dPort2) 를 포함할 수 있다.
SLS 는 해당 서비스에 대한 특성을 기술하는 시그널링 정보로서, 해당 서비스 및 해당 서비스의 서비스 컴포넌트를 획득하기 위한 정보를 제공하거나, 해당 서비스를 유의미하게 재생하기 위한 수신기 캐패빌리티 정보 등을 포함할 수 있다. 각 서비스에 대해 별개의 서비스 시그널링을 가지면 수신기는 브로드캐스트 스트림 내에서 전달되는 전체 SLS을 파싱할 필요 없이 원하는 서비스에 대한 적절한 SLS를 획득하면 된다.
SLS 가 ROUTE 프로토콜을 통해 전달되는 경우, SLS 는 SLT 가 지시하는 ROUTE 세션의 특정(dedicated) LCT 채널을 통해 전달될 수 있다. 실시예에 따라 이 LCT 채널은 tsi = 0 로 식별되는 LCT 채널일 수 있다. 이 경우 SLS 는 USBD/USD (User Service Bundle Description / User Service Description), S-TSID (Service-based Transport Session Instance Description) 및/또는 MPD (Media Presentation Description) 를 포함할 수 있다.
여기서 USBD 내지 USD 는 SLS 프래그먼트 중 하나로서, 서비스의 구체적 기술적 정보들을 기술하는 시그널링 허브로서 역할할 수 있다. USBD 는 서비스 식별 정보, 디바이스 캐패빌리티 정보 등을 포함할 수 있다. USBD 는 다른 SLS 프래그먼트(S-TSID, MPD 등) 에의 레퍼런스 정보(URI 레퍼런스)를 포함할 수 있다. 즉, USBD/USD 는 S-TSID 와 MPD 를 각각 레퍼런싱할 수 있다. 또한 USBD 는 수신기가 전송 모드(방송망/브로드밴드)를 결정할 수 있게 해주는 메타데이터 정보를 더 포함할 수 있다. USBD/USD 의 구체적 내용들에 대해서는 후술한다.
S-TSID 는 SLS 프래그먼트 중 하나로서, 해당 서비스의 서비스 컴포넌트를 운반하는 전송 세션에 대한 전체적인 세션 디스크립션 정보를 제공할 수 있다. S-TSID 는 해당 서비스의 서비스 컴포넌트가 전달되는 ROUTE 세션 및/또는 그 ROUTE 세션들의 LCT 채널에 대한 전송 세션 디스크립션 정보를 제공할 수 있다. S-TSID 는 하나의 서비스와 관련된 서비스 컴포넌트들의 컴포넌트 획득(acquisition) 정보를 제공할 수 있다. S-TSID 는, MPD 의 DASH 레프리젠테이션(Representation) 과 해당 서비스 컴포넌트의 tsi 간의 매핑을 제공할 수 있다. S-TSID 의 컴포넌트 획득 정보는 tsi, 관련 DASH 레프리젠테이션의 식별자의 형태로 제공될 수 있으며, 실시예에 따라 PLP ID 를 포함하거나 포함하지 않을 수 있다. 컴포넌트 획득 정보를 통해 수신기는 한 서비스의 오디오/비디오 컴포넌트들을 수집하고 DASH 미디어 세그먼트들의 버퍼링, 디코딩 등을 수행할 수 있다. S-TSID 는 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다. S-TSID 의 구체적 내용들에 대해서는 후술한다.
MPD 는 SLS 프래그먼트 중 하나로서, 해당 서비스의 DASH 미디어 프리젠테이션에 관한 디스크립션을 제공할 수 있다. MPD 는 미디어 세그먼트들에 대한 리소스 식별자(resource identifier) 를 제공하고, 식별된 리소스들에 대한 미디어 프리젠테이션 내에서의 컨텍스트 정보를 제공할 수 있다. MPD 는 방송망을 통해 전달되는 DASH 레프리젠테이션(서비스 컴포넌트)를 기술하고, 또한 브로드밴드를 통해 전달되는 추가적인 DASH 레프리젠테이션을 기술할 수 있다(하이브리드 딜리버리). MPD 는 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다.
SLS 가 MMT 프로토콜을 통해 전달되는 경우, SLS 는 SLT 가 지시하는 MMTP 세션의 특정(dedicated) MMTP 패킷 플로우을 통해 전달될 수 있다. 실시예에 따라 SLS 를 전달하는 MMTP 패킷들의 packet_id 는 00 의 값을 가질 수 있다. 이 경우 SLS 는 USBD/USD 및/또는 MMT Package (MP) 테이블을 포함할 수 있다.
여기서 USBD 는 SLS 프래그먼트의 하나로서, ROUTE 에서의 그것과 같이 서비스의 구체적 기술적 정보들을 기술할 수 있다. 여기서의 USBD 역시 다른 SLS 프래그먼트에의 레퍼런스 정보(URI 레퍼런스)를 포함할 수 있다. MMT 의 USBD 는 MMT 시그널링의 MP 테이블을 레퍼런싱할 수 있다. 실시예에 따라 MMT 의 USBD 는 S-TSID 및/또는 MPD 에의 레퍼런스 정보 또한 포함할 수 있다. 여기서의 S-TSID 는 ROUTE 프로토콜을 통해 전달되는 NRT 데이터를 위함일 수 있다. MMT 프로토콜을 통해 리니어 서비스 컴포넌트가 전달되는 경우에도 NRT 데이터는 ROUTE 프로토콜을 통해 전달될 수 있기 때문이다. MPD 는 하이브리드 서비스 딜리버리에 있어서, 브로드밴드로 전달되는 서비스 컴포넌트를 위함일 수 있다. MMT 의 USBD 의 구체적 내용들에 대해서는 후술한다.
MP 테이블은 MPU 컴포넌트들을 위한 MMT 의 시그널링 메시지로서, 해당 서비스의 서비스 컴포넌트를 운반하는 MMTP 세션에 대한 전체적인 세션 디스크립션 정보를 제공할 수 있다. 또한 MP 테이블은 이 MMTP 세션을 통해 전달되는 에셋(Asset) 에 대한 디스크립션을 포함할 수 있다. MP 테이블은 MPU 컴포넌트들을 위한 스트리밍 시그널링 정보로서, 하나의 서비스에 해당하는 에셋들의 리스트와 이 컴포넌트들의 로케이션 정보(컴포넌트 획득 정보)를 제공할 수 있다. MP 테이블의 구체적인 내용은 MMT 에서 정의된 형태이거나, 변형이 이루어진 형태일 수 있다. 여기서 Asset 이란, 멀티미디어 데이터 엔티티로서, 하나의 유니크 ID 로 연합되고 하나의 멀티미디어 프리젠테이션을 생성하는데 사용되는 데이터 엔티티를 의미할 수 있다. Asset 은 하나의 서비스를 구성하는 서비스 컴포넌트에 해당할 수 있다. MP 테이블을 이용하여 원하는 서비스에 해당하는 스트리밍 서비스 컴포넌트(MPU) 에 접근할 수 있다. MP 테이블은 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다.
기타 다른 MMT 시그널링 메시지가 정의될 수 있다. 이러한 MMT 시그널링 메시지들에 의해 MMTP 세션 내지 서비스에 관련된 추가적인 정보들이 기술될 수 있다.
ROUTE 세션은 소스 IP 어드레스, 데스티네이션 IP 어드레스, 데스티네이션 포트 넘버에 의해 식별된다. LCT 세션은 페어런트 ROUTE 세션의 범위 내에서 유일한 TSI (transport session identifier)에 의해 식별된다. MMTP 세션은 데스티네이션 IP 어드레스 및 데스티네이션 포트 넘버에 의해 식별된다. MMTP 패킷 플로우는 페어런트 MMTP 세션의 범위 내에서 유일한 packet_id에 의해 식별된다.
ROUTE 의 경우 S-TSID, USBD/USD, MPD 또는 이 들을 전달하는 LCT 세션을 서비스 시그널링 채널이라 부를 수도 있다. MMTP 의 경우, USBD/UD, MMT 시그널링 메시지들 또는 이들을 전달하는 패킷 플로우를 서비스 시그널링 채널이라 부를 수도 있다.
도시된 실시예와는 달리, 하나의 ROUTE 또는 MMTP 세션은 복수개의 PLP 를 통해 전달될 수 있다. 즉, 하나의 서비스는 하나 이상의 PLP 를 통해 전달될 수도 있다. 도시된 것과 달리 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 서로 다른 ROUTE 세션들을 통해 전달될 수도 있다. 또한, 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 서로 다른 MMTP 세션들을 통해 전달될 수도 있다. 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 ROUTE 세션과 MMTP 세션에 나뉘어 전달될 수도 있다. 도시되지 않았으나, 하나의 서비스를 구성하는 컴포넌트가 브로드밴드를 통해 전달(하이브리드 딜리버리)되는 경우도 있을 수 있다.
도 3 은 본 발명의 일 실시예에 따른 LLS (Low Level Signaling) 테이블 및 SLT (Service List Table)를 도시한 도면이다.
도시된 LLS 테이블의 일 실시예(t3010) 은, LLS_table_id 필드, provider_id 필드, LLS_table_version 필드 및/또는 LLS_table_id 필드에 따른 정보들을 포함할 수 있다.
LLS_table_id 필드는 해당 LLS 테이블의 타입을 식별하고, provider_id 필드는 해당 LLS 테이블에 의해 시그널링되는 서비스들과 관련된 서비스 프로바이더를 식별할 수 있다. 여기서 서비스 프로바이더는 해당 브로드캐스트 스트림의 전부 또는 일부를 사용하는 브로드캐스터로서, provider_id 필드는 해당 브로드캐스트 스트림을 사용중인 복수의 브로드캐스터들 중 하나를 식별할 수 있다. LLS_table_version 필드는 해당 LLS 테이블의 버전 정보를 제공할 수 있다.
LLS_table_id 필드의 값에 따라, 해당 LLS 테이블은 전술한 SLT, 컨텐트 어드바이저리 레이팅(Content advisory rating) 에 관련된 정보를 포함하는 RRT(Rating Region Table), 시스템 타임과 관련된 정보를 제공하는 SystemTime 정보, 긴급 경보와 관련된 정보를 제공하는 CAP (Common Alert Protocol) 메시지 중 하나를 포함할 수 있다. 실시예에 따라 이들 외에 다른 정보가 LLS 테이블에 포함될 수도 있다.
도시된 SLT 의 일 실시예(t3020) 는, @bsid 속성, @sltCapabilities 속성, sltInetUrl 엘레멘트 및/또는 Service 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.
@bsid 속성은 브로드캐스트 스트림의 식별자일 수 있다. @sltCapabilities 속성은 해당 SLT 가 기술하는 모든 서비스들을 디코딩하고 유의미하게 재생하는데 요구되는 캐패빌리티 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 해당 SLT 의 서비스들을 위한 ESG 내지 서비스 시그널링 정보를 브로드밴드를 통해 얻기 위해 사용되는 베이스 URL 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 @urlType 속성을 더 포함할 수 있는데, 이는 해당 URL 을 통해 얻을 수 있는 데이터의 타입을 지시할 수 있다.
Service 엘레멘트는 해당 SLT 가 기술하는 서비스들에 대한 정보를 포함하는 엘레멘트일 수 있으며, 각각의 서비스들에 대해 Service 엘레멘트가 존재할 수 있다. Service 엘레멘트는 @serviceId 속성, @sltSvcSeqNum 속성, @protected 속성, @majorChannelNo 속성, @minorChannelNo 속성, @serviceCategory 속성, @shortServiceName 속성, @hidden 속성, @broadbandAccessRequired 속성, @svcCapabilities 속성, BroadcastSvcSignaling 엘레멘트 및/또는 svcInetUrl 엘레멘트를 포함할 수 있다.
@serviceId 속성은 해당 서비스의 식별자이고, @sltSvcSeqNum 속성은 해당 서비스에 대한 SLT 정보의 시퀀스 넘버를 나타낼 수 있다. @protected 속성은 해당 서비스의 유의미한 재생을 위해 필요한 적어도 하나의 서비스 컴포넌트가 보호(protected)되고 있는지 여부를 지시할 수 있다. @majorChannelNo 속성과 @minorChannelNo 속성은 각각 해당 서비스의 메이저 채널 넘버와 마이너 채널 넘버를 지시할 수 있다.
@serviceCategory 속성은 해당 서비스의 카테고리를 지시할 수 있다. 서비스의 카테고리로는 리니어 A/V 서비스, 리니어 오디오 서비스, 앱 기반 서비스, ESG 서비스, EAS 서비스 등이 있을 수 있다. @shortServiceName 속성은 해당 서비스의 짧은 이름(Short name)을 제공할 수 있다. @hidden 속성은 해당 서비스가 테스팅 또는 독점적(proprietary) 사용을 위한 서비스인지 여부를 지시할 수 있다. @broadbandAccessRequired 속성은 해당 서비스의 유의미한 재생을 위하여 브로드밴드 억세스가 필요한지 여부를 지시할 수 있다. @svcCapabilities 속성은 해당 서비스의 디코딩과 유의미한 재생을 위하여 필요한 캐패빌리티 정보를 제공할 수 있다.
BroadcastSvcSignaling 엘레멘트는 해당 서비스의 브로드캐스트 시그널링에 관련된 정보들을 제공할 수 있다. 이 엘레멘트는 해당 서비스의 방송망을 통한 시그널링에 대하여, 로케이션, 프로토콜, 어드레스 등의 정보를 제공할 수 있다. 자세한 사항은 후술한다.
svcInetUrl 엘레멘트는 해당 서비스를 위한 시그널링 정보를 브로드밴드를 통해 액세스하기 위한 URL 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 @urlType 속성을 더 포함할 수 있는데, 이는 해당 URL 을 통해 얻을 수 있는 데이터의 타입을 지시할 수 있다.
전술한 BroadcastSvcSignaling 엘레멘트는 @slsProtocol 속성, @slsMajorProtocolVersion 속성, @slsMinorProtocolVersion 속성, @slsPlpId 속성, @slsDestinationIpAddress 속성, @slsDestinationUdpPort 속성 및/또는 @slsSourceIpAddress 속성을 포함할 수 있다.
@slsProtocol 속성은 해당 서비스의 SLS 를 전달하는데 사용되는 프로토콜을 지시할 수 있다(ROUTE, MMT 등). @slsMajorProtocolVersion 속성 및 @slsMinorProtocolVersion 속성은 각각 해당 서비스의 SLS 를 전달하는데 사용되는 프로토콜의 메이저 버전 넘버 및 마이너 버전 넘버를 지시할 수 있다.
@slsPlpId 속성은 해당 서비스의 SLS 를 전달하는 PLP 를 식별하는 PLP 식별자를 제공할 수 있다. 실시예에 따라 이 필드는 생략될 수 있으며, SLS 가 전달되는 PLP 정보는 후술할 LMT 내의 정보와, SLT 의 부트스트랩 정보를 조합하여 확인될 수도 있다.
@slsDestinationIpAddress 속성, @slsDestinationUdpPort 속성 및 @slsSourceIpAddress 속성은 각각 해당 서비스의 SLS 를 전달하는 전송 패킷의 데스티네이션 IP 어드레스, 데스티네이션 UDP 포트 및 소스 IP 어드레스 를 지시할 수 있다. 이들은 SLS 가 전달되는 전송세션(ROUTE 세션 또는 MMTP 세션)을 식별할 수 있다. 이들은 부트스트랩 정보에 포함될 수 있다.
도 4 는 본 발명의 일 실시예에 따른, ROUTE 로 전달되는 USBD 및 S-TSID 를 도시한 도면이다.
도시된 USBD 의 일 실시예(t4010) 은, bundleDescription 루트 엘레멘트를 가질 수 있다. bundleDescription 루트 엘레멘트는 userServiceDescription 엘레멘트를 가질 수 있다. userServiceDescription 엘레멘트는 하나의 서비스에 대한 인스턴스일 수 있다.
userServiceDescription 엘레멘트는 @globalServiceID 속성, @serviceId 속성, @serviceStatus 속성, @fullMPDUri 속성, @sTSIDUri 속성, name 엘레멘트, serviceLanguage 엘레멘트, capabilityCode 엘레멘트 및/또는 deliveryMethod 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.
@globalServiceID 속성은 해당 서비스의 글로벌하게 유니크한(globally unique) 식별자로서, ESG 데이터와 링크되는데 사용될 수 있다(Service@globalServiceID). @serviceId 속성은 SLT 의 해당 서비스 엔트리와 대응되는 레퍼런스로서, SLT 의 서비스 ID 정보와 동일할 수 있다. @serviceStatus 속성은 해당 서비스의 상태를 지시할 수 있다. 이 필드는 해당 서비스가 액티브인지 인액티브(inactive) 상태인지 여부를 지시할 수 있다.
@fullMPDUri 속성은 해당 서비스의 MPD 프래그먼트를 레퍼런싱할 수 있다. MPD 는 전술한 바와 같이 방송망 또는 브로드밴드를 통해 전달되는 서비스 컴포넌트에 대한 재생 디스크립션을 제공할 수 있다. @sTSIDUri 속성은 해당 서비스의 S-TSID 프래그먼트를 레퍼런싱할 수 있다. S-TSID 는 전술한 바와 같이 해당 서비스를 운반하는 전송 세션에의 액세스와 관련된 파라미터들을 제공할 수 있다.
name 엘레멘트는 해당 서비스의 이름을 제공할 수 있다. 이 엘레멘트는 @lang 속성을 더 포함할 수 있는데, 이 필드는 name 엘레멘트가 제공하는 이름의 언어를 지시할 수 있다. serviceLanguage 엘레멘트는 해당 서비스의 이용 가능한(available) 언어들을 지시할 수 있다. 즉, 이 엘레멘트는 해당 서비스가 제공될 수 있는 언어들을 나열할 수 있다.
capabilityCode 엘레멘트는 해당 서비스를 유의미하게 재생하기 위해 필요한 수신기 측의 캐패빌리티 또는 캐패빌리티 그룹 정보를 지시할 수 있다. 이 정보들은 서비스 아나운스먼트(announccement) 에서 제공되는 캐패빌리티 정보 포맷과 호환될 수 있다.
deliveryMethod 엘레멘트는 해당 서비스의 방송망 또는 브로드밴드를 통해 액세스되는 컨텐츠들에 대하여, 전송 관련 정보들을 제공할 수 있다. deliveryMethod 엘레멘트는 broadcastAppService 엘레멘트 및/또는 unicastAppService 엘레멘트를 포함할 수 있다. 이 엘레멘트들은 각각 basePattern 엘레멘트를 하위 엘레멘트로 가질 수 있다.
broadcastAppService 엘레멘트는 방송망을 통해 전달되는 DASH 레프리젠테이션에 대한 전송 관련 정보를 포함할 수 있다. 이 DASH 레프리젠테이션들은 해당 서비스 미디어 프리젠테이션의 모든 피리오드(Period)에 걸친 미디어 컴포넌트들을 포함할 수 있다.
이 엘레멘트의 basePattern 엘레멘트는 수신기가 세그먼트 URL 과 매칭하는데 사용되는 캐릭터 패턴을 나타낼 수 있다. 이는 DASH 클라이언트가 해당 레프리젠테이션의 세그먼트들을 요청하는데 사용될 수 있다. 매칭된다는 것은 해당 미디어 세그먼트가 방송망을 통해 전달된다는 것을 암시할 수 있다.
unicastAppService 엘레멘트는 브로드밴드를 통해 전달되는 DASH 레프리젠테이션에 대한 전송 관련 정보를 포함할 수 있다. 이 DASH 레프리젠테이션들은 해당 서비스 미디어 프리젠테이션의 모든 피리오드(Period)에 걸친 미디어 컴포넌트들을 포함할 수 있다.
이 엘레멘트의 basePattern 엘레멘트는 수신기가 세그먼트 URL 과 매칭하는데 사용되는 캐릭터 패턴을 나타낼 수 있다. 이는 DASH 클라이언트가 해당 레프리젠테이션의 세그먼트들을 요청하는데 사용될 수 있다. 매칭된다는 것은 해당 미디어 세그먼트가 브로드밴드를 통해 전달된다는 것을 암시할 수 있다.
도시된 S-TSID 의 일 실시예(t4020) 은, S-TSID 루트 엘레멘트를 가질 수 있다. S-TSID 루트 엘레멘트는 @serviceId 속성 및/또는 RS 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.
@serviceId 속성은 해당 서비스의 식별자로서, USBD/USD 의 해당 서비스를 레퍼런싱할 수 있다. RS 엘레멘트는 해당 서비스의 서비스 컴포넌트들이 전달되는 ROUTE 세션들에 대한 정보를 기술할 수 있다. 이러한 ROUTE 세션의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. RS 엘레멘트는 @bsid 속성, @sIpAddr 속성, @dIpAddr 속성, @dport 속성, @PLPID 속성 및/또는 LS 엘레멘트를 더 포함할 수 있다.
@bsid 속성은 해당 서비스의 서비스 컴포넌트들이 전달되는 브로드캐스트 스트림의 식별자일 수 있다. 이 필드가 생략된 경우, 디폴트 브로드캐스트 스트림은 해당 서비스의 SLS 를 전달하는 PLP 를 포함하는 브로드캐스트 스트림일 수 있다. 이 필드의 값은 SLT 의 @bsid 속성과 같은 값일 수 있다.
@sIpAddr 속성, @dIpAddr 속성 및 @dport 속성은 각각 해당 ROUTE 세션의 소스 IP 어드레스, 데스티네이션 IP 어드레스 및 데스티네이션 UDP 포트를 나타낼 수 있다. 이 필드들이 생략되는 경우, 디폴트 값들은 해당 SLS 를 전달하는, 즉 해당 S-TSID 를 전달하고 있는 현재의, ROUTE 세션의 소스 IP 어드레스, 데스티네이션 IP 어드레스 및 데스티네이션 UDP 포트값들일 수 있다. 현재 ROUTE 세션이 아닌, 해당 서비스의 서비스 컴포넌트들을 전달하는 다른 ROUTE 세션에 대해서는, 본 필드들이 생략되지 않을 수 있다.
@PLPID 속성은 해당 ROUTE 세션의 PLP ID 정보를 나타낼 수 있다. 이 필드가 생략되는 경우, 디폴트 값은 해당 S-TSID 가 전달되고 있는 현재 PLP 의 PLP ID 값일 수 있다. 실시예에 따라 이 필드는 생략되고, 해당 ROUTE 세션의 PLP ID 정보는 후술할 LMT 내의 정보와, RS 엘레멘트의 IP 어드레스 / UDP 포트 정보들을 조합하여 확인될 수도 있다.
LS 엘레멘트는 해당 서비스의 서비스 컴포넌트들이 전달되는 LCT 채널들에 대한 정보를 기술할 수 있다. 이러한 LCT 채널의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. LS 엘레멘트는 @tsi 속성, @PLPID 속성, @bw 속성, @startTime 속성, @endTime 속성, SrcFlow 엘레멘트 및/또는 RepairFlow 엘레멘트를 포함할 수 있다.
@tsi 속성은 해당 LCT 채널의 tsi 정보를 나타낼 수 있다. 이를 통해 해당 서비스의 서비스 컴포넌트가 전달되는 LCT 채널들이 식별될 수 있다. @PLPID 속성은 해당 LCT 채널의 PLP ID 정보를 나타낼 수 있다. 실시예에 따라 이 필드는 생략될 수 있다. @bw 속성은 해당 LCT 채널의 최대 대역폭를 나타낼 수 있다. @startTime 속성은 해당 LCT 세션의 스타트 타임을 지시하고, @endTime 속성은 해당 LCT 채널의 엔드 타임을 지시할 수 있다.
SrcFlow 엘레멘트는 ROUTE 의 소스 플로우에 대해 기술할 수 있다. ROUTE 의 소스 프로토콜은 딜리버리 오브젝트를 전송하기 위해 사용되며, 한 ROUTE 세션 내에서 적어도 하나 이상의 소스 플로우를 설정(establish)할 수 있다. 이 소스 플로우들은 관련된 오브젝트들을 오브젝트 플로우로서 전달할 수 있다.
RepairFlow 엘레멘트는 ROUTE 의 리페어 플로우에 대해 기술할 수 있다. 소스 프로토콜에 따라 전달되는 딜리버리 오브젝트들은 FEC (Forward Error Correction) 에 따라 보호될 수 있는데, 리페어 프로토콜은 이러한 FEC 프로텍션을 가능케 하는 FEC 프레임워크(framework)를 정의할 수 있다.
도 5 는 본 발명의 일 실시예에 따른, MMT 로 전달되는 USBD 를 도시한 도면이다.
도시된 USBD 의 일 실시예는, bundleDescription 루트 엘레멘트를 가질 수 있다. bundleDescription 루트 엘레멘트는 userServiceDescription 엘레멘트를 가질 수 있다. userServiceDescription 엘레멘트는 하나의 서비스에 대한 인스턴스일 수 있다.
userServiceDescription 엘레멘트는 @globalServiceID 속성, @serviceId 속성, Name 엘레멘트, serviceLanguage 엘레멘트, contentAdvisoryRating 엘레멘트, Channel 엘레멘트, mpuComponent 엘레멘트, routeComponent 엘레멘트, broadbandComponent 엘레멘트 및/또는 ComponentInfo 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.
@globalServiceID 속성, @serviceId 속성, Name 엘레멘트 및/또는 serviceLanguage 엘레멘트는 전술한 ROUTE 로 전달되는 USBD 의 해당 필드들과 같을 수 있다. contentAdvisoryRating 엘레멘트는 해당 서비스의 컨텐트 어드바이저리(advisory) 레이팅을 나타낼 수 있다. 이 정보들은 서비스 아나운스먼트(announccement) 에서 제공되는 컨텐트 어드바이저리 레이팅 정보 포맷과 호환될 수 있다. Channel 엘레멘트는 해당 서비스와 관련된 정보들을 포함할 수 있다. 이 엘레멘트의 자세한 내용에 대해서는 후술한다.
mpuComponent 엘레멘트는 해당 서비스의 MPU 로서 전달되는 서비스 컴포넌트들에 대한 디스크립션을 제공할 수 있다. 이 엘레멘트는 @mmtPackageId 속성 및/또는 @nextMmtPackageId 속성을 더 포함할 수 있다. @mmtPackageId 속성은 해당 서비스의 MPU 로서 전달되는 서비스 컴포넌트들의 MMT 패키지(Package) 를 레퍼런싱할 수 있다. @nextMmtPackageId 속성은 시간상 @mmtPackageId 속성이 레퍼런싱하는 MMT 패키지 다음으로 사용될 MMT 패키지를 레퍼런싱할 수 있다. 이 엘레멘트의 정보들을 통해 MP 테이블이 레퍼런싱될 수 있다.
routeComponent 엘레멘트는 ROUTE 로 전달되는 해당 서비스의 서비스 컴포넌트들에 대한 디스크립션을 포함할 수 있다. 리니어 서비스 컴포넌트들이 MMT 프로토콜로 전달되는 경우라 하더라도, NRT 데이터들은 전술한 바와 같이 ROUTE 프로토콜에 따라 전달될 수 있다. 이 엘레멘트는 이러한 NRT 데이터들에 대한 정보들을 기술할 수 있다. 이 엘레멘트의 자세한 내용에 대해서는 후술한다.
broadbandComponent 엘레멘트는 브로드밴드로 전달되는 해당 서비스의 서비스 컴포넌트들에 대한 디스크립션을 포함할 수 있다. 하이브리드 서비스 딜리버리에 있어서, 한 서비스의 일부 서비스 컴포넌트 또는 기타 파일들은 브로드밴드를 통해 전달될 수 있다. 이 엘레멘트는 이러한 데이터들에 대한 정보들을 기술할 수 있다. 이 엘레멘트는 @fullMPDUri 속성을 더 포함할 수 있다. 이 속성은 브로드밴드로 전달되는 서비스 컴포넌트들에 대해 기술하는 MPD 를 레퍼런싱할 수 있다. 하이브리드 서비스 딜리버리 이외에도, 터널 내의 주행 등으로 인해 방송 신호가 약화되는 경우에 있어, 방송망-브로드밴드 간의 핸드오프(handoff) 를 지원하기 위해 본 엘레멘트가 필요할 수 있다. 방송 신호가 약해지는 경우, 브로드밴드를 통해 서비스 컴포넌트를 획득하다가, 다시 방송 신호가 강해지면 방송망을 통해 서비스 컴포넌트를 획득하여 서비스의 연속성이 보장될 수 있다.
ComponentInfo 엘레멘트는 해당 서비스의 서비스 컴포넌트들에 대한 정보를 포함할 수 있다. 서비스의 서비스 컴포넌트들의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. 이 엘레멘트는 각 서비스 컴포넌트의 타입, 롤(role), 이름, 식별자, 프로텍션 여부 등의 정보들을 기술할 수 있다. 이 엘레멘트의 자세한 정보에 대해서는 후술한다.
전술한 Channel 엘레멘트는 @serviceGenre 속성, @serviceIcon 속성 및/또는 ServiceDescription 엘레멘트를 더 포함할 수 있다. @serviceGenre 속성은 해당 서비스의 장르를 지시하고, @serviceIcon 속성은 해당 서비스를 대표하는 아이콘(icon) 의 URL 정보를 포함할 수 있다. ServiceDescription 엘레멘트는 해당 서비스의 서비스 디스크립션을 제공하는데, 이 엘레멘트는 @serviceDescrText 속성 및/또는 @serviceDescrLang 속성을 더 포함할 수 있다. 이 속성들은 각각 해당 서비스 디스크립션의 텍스트 및 그 텍스트에 사용되는 언어를 지시할 수 있다.
전술한 routeComponent 엘레멘트는 @sTSIDUri 속성, @sTSIDDestinationIpAddress 속성, @sTSIDDestinationUdpPort 속성, @sTSIDSourceIpAddress 속성, @sTSIDMajorProtocolVersion 속성 및/또는 @sTSIDMinorProtocolVersion 속성을 더 포함할 수 있다.
@sTSIDUri 속성은 S-TSID 프래그먼트를 레퍼런싱할 수 있다. 이 필드는 전술한 ROUTE 로 전달되는USBD 의 해당 필드와 같을 수 있다. 이 S-TSID 는 ROUTE 로 전달되는 서비스 컴포넌트들에 대한 액세스 관련 정보를 제공할 수 있다. 이 S-TSID 는 MMT 프로토콜에 따라 리니어 서비스 컴포넌트들이 전달되는 상황에서, ROUTE 프로토콜에 따라 전달되는 NRT 데이터들을 위해 존재할 수 있다.
@sTSIDDestinationIpAddress 속성, @sTSIDDestinationUdpPort 속성 및 @sTSIDSourceIpAddress 속성은 각각 전술한 S-TSID 를 운반하는 전송 패킷의 데스티네이션 IP 어드레스, 데스티네이션 UDP 포트, 소스 IP 어드레스를 나타낼 수 있다. 즉, 이 필드들은 전술한 S-TSID 를 운반하는 전송 세션(MMTP 세션 또는 ROUTE 세션)을 식별할 수 있다.
@sTSIDMajorProtocolVersion 속성 및 @sTSIDMinorProtocolVersion 속성은 전술한 S-TSID 를 전달하는데 사용되는 전송 프로토콜의 메이저 버전 넘버 및 마이너 버전 넘버를 지시할 수 있다.
전술한 ComponentInfo 엘레멘트는 @componentType 속성, @componentRole 속성, @componentProtectedFlag 속성, @componentId 속성 및/또는 @componentName 속성을 더 포함할 수 있다.
@componentType 속성은 해당 컴포넌트의 타입을 지시할 수 있다. 예를 들어 이 속성은 해당 컴포넌트가 오디오, 비디오, 클로즈드캡션 컴포넌트인지를 지시할 수 있다. @componentRole 속성은 해당 컴포넌트의 롤(역할)을 지시할 수 있다. 예를 들어 이 속성은 해당 컴포넌트가 오디오 컴포넌트인 경우 메인 오디오, 뮤직, 코멘터리 등인지를 지시할 수 있다. 해당 컴포넌트가 비디오 컴포넌트인 경우 프라이머리 비디오인지 등을 지시할 수 있다. 해당 컴포넌트가 클로즈드 캡션 컴포넌트인 경우 노말 캡션인지 이지리더(easy reader) 타입인지 등을 지시할 수 있다.
@componentProtectedFlag 속성은 해당 서비스 컴포넌트가 프로텍티드되었는지, 예를 들어 암호화되었는지를 지시할 수 있다. @componentId 속성은 해당 서비스 컴포넌트의 식별자를 나타낼 수 있다. 이 속성의 값은 이 서비스 컴포넌트에 해당하는 MP 테이블의 asset_id (에셋 ID) 와 같은 값일 수 있다. @componentName 속성은 해당 서비스 컴포넌트의 이름을 나타낼 수 있다.
도 6 은 본 발명의 일 실시예에 따른 링크 레이어(Link Layer) 동작을 도시한 도면이다.
링크 레이어는 피지컬 레이어와 네트워크 레이어 사이의 레이어일 수 있다. 송신 측에서는 네트워크 레이어에서 피지컬 레이어로 데이터를 전송하고, 수신 측에서는 피지컬 레이어에서 네트워크 레이어로 데이터를 전송할 수 있다(t6010). 링크 레이어의 목적은 피지컬 레이어에 의한 처리를 위해 모든 입력 패킷 타입을 하나의 포맷으로 압축(abstracting)하는 것, 아직 정의되지 않은 입력 패킷 타입에 대한 유연성(flexibility) 및 추후 확장 가능성을 보장하는 것일 수 있다. 또한 링크 레이어는 입력 패킷의 헤더의 불필요한 정보를 압축하는 옵션을 제공함으로써, 입력 데이터가 효율적으로 전송될 수 있도록 할 수 있다. 링크 레이어의 오버헤드 리덕션, 인캡슐레이션 등의 동작은 링크 레이어 프로토콜이라 불리고, 해당 프로토콜을 이용하여 생성된 패킷은 링크 레이어 패킷이라 불릴 수 있다. 링크 레이어는 패킷 인캡슐레이션(packet encapsulation), 오버헤드 리덕션(Overhead Reduction) 및/또는 시그널링 전송(Signaling Transmission) 등의 기능을 수행할 수 있다.
송신측 기준으로, 링크 레이어(ALP)는 입력 패킷에 대하여 오버헤드 리덕션 과정을 수행한 후 이들을 링크 레이어 패킷으로 인캡슐레이션할 수 있다. 또한 실시예에 따라 링크 레이어는 오버헤드 리덕션 과정을 수행하지 아니하고, 링크 레이어 패킷으로 인캡슐레이션할 수도 있다. 링크 레이어 프로토콜의 사용으로 인해 피지컬 레이어 상에서 데이터의 전송에 대한 오버헤드가 크게 감소할 수 있으며, 본 발명에 따른 링크 레이어 프로토콜은 IP 오버헤드 리덕션 및/또는 MPEG-2 TS 오버헤드 리덕션을 제공할 수 있다.
도시된, IP 패킷이 입력패킷으로 입력되는 경우에 있어서(t6010), 링크 레이어는 IP 헤더 압축, 어댑테이션 및/또는 인캡슐레이션 과정을 차례로 수행할 수 있다. 실시예에 따라 일부 과정은 생략될 수 있다. 먼저, RoHC 모듈이 IP 패킷 헤더 압축을 수행하여 불필요한 오버헤드를 줄이고, 어댑테이션 과정을 통해 컨텍스트 정보가 추출되고 대역 외로 전송될 수 있다. IP 헤더 압축과 어댑테이션 과정을 통칭하여 IP 헤더 압축이라 부를 수도 있다. 이 후 인캡슐레이션 과정을 통해 IP 패킷들이 링크 레이어 패킷들로 인캡슐레이션될 수 있다.
MPEG 2 TS 패킷이 입력패킷으로 입력되는 경우에 있어서, 링크 레이어는 TS 패킷에 대한 오버헤드 리덕션 및/또는 인캡슐레이션 과정을 차례로 수행할 수 있다. 실시예에 따라 일부 과정은 생략될 수 있다. 오버헤드 리덕션에 있어, 링크 레이어는 싱크 바이트 제거, 널 패킷 삭제 및/또는 공통(common) 헤더 제거 (압축)을 제공할 수 있다. 싱크 바이트 제거를 통해 TS 패킷당 1 바이트의 오버헤드 리덕션이 제공될 수 있다. 수신측에서 재삽입될 수 있는 방식으로 널 패킷 삭제가 수행될 수 있다. 또한 연속된 헤더들 간의 공통되는 정보들이 수신측에서 복구될 수 있는 방식으로 삭제(압축)될 수 있다. 각 오버헤드 리덕션 과정 중 일부는 생략될 수 있다. 이 후 인캡슐레이션 과정을 통해 TS 패킷들이 링크 레이어 패킷들로 인캡슐레이션될 수 있다. TS 패킷의 인캡슐레이션에 대한 링크 레이어 패킷 구조는 다른 타입의 패킷들과는 다를 수 있다.
먼저 IP 헤더 압축(IP Header Compression) 에 대해서 설명한다.
IP 패킷은 고정된 헤더 포맷을 가지고 있으나, 통신 환경에서 필요한 일부 정보는 브로드캐스트 환경에서 불필요할 수 있다. 링크 레이어 프로토콜은 IP 패킷의 헤더를 압축함으로써 브로드캐스트 오버헤드를 줄이는 메커니즘을 제공할 수 있다.
IP 헤더 압축은 헤더 컴프레서/디컴프레서 및/또는 어댑테이션 모듈을 포함할 수 있다. IP 헤더 컴프레서(RoHC 컴프레서)는 RoHC 방식에 기초하여 각 IP 패킷 헤더의 크기를 감소시킬 수 있다. 이 후 어댑테이션 모듈은 컨텍스트 정보를 추출하고 각 패킷 스트림으로부터 시그널링 정보를 생성할 수 있다. 수신기는 해당 패킷 스트림에 관련된 시그널링 정보를 파싱하고 컨텍스트 정보를 그 패킷 스트림에 붙일(attach) 수 있다. RoHC 디컴프레서는 패킷 헤더를 복구하여 원래의 IP 패킷을 재구성할 수 있다.
이하, 어댑테이션(Adaptation) 에 대해서 설명한다.
단방향 링크를 통한 전송의 경우, 수신기가 컨텍스트의 정보를 갖고 있지 않으면, 디컴프레서는 완전한 컨텍스트를 수신할 때까지 수신된 패킷 헤더를 복구할 수 없다. 이는 채널 변경 지연 및 턴 온 딜레이 (turn-on delay)를 초래할 수 있다. 따라서 어댑테이션 기능을 통해, 컴프레서/디컴프레서 간의 컨피규레이션 파라미터와 컨텍스트 정보가 대역 외로 전송될 수 있다.
압축된 IP 패킷들로부터 컨텍스트 정보가 추출되는데, 어댑테이션 모드에 따라 다양한 방법이 사용될 수 있다.
모드 #1 은 압축된 패킷 스트림에 대해 어떠한 동작도 수행하지 않는 모드로서, 어댑테이션 모듈이 버퍼로서 동작하는 모드일 수 있다.
모드 #2 는 압축된 패킷 스트림 중, IR 패킷을 검출하여 컨텍스트 정보(스태틱 체인)을 추출하는 모드일 수 있다. 추출후 IR 패킷은 IR-DYN 패킷으로 전환되고, IR-DYN 패킷은 원래의 IR 패킷을 대체하여 패킷 스트림 내에서 같은 순서로 전송될 수 있다.
모드 #3 (t6020) 는 압축된 패킷 스트림 중, IR 및 IR-DYN 패킷을 검출하고 컨텍스트 정보를 추출하는 모드일 수 있다. IR 패킷으로부터 스태틱 체인 및 다이나믹 체인이, IR-DYN 패킷으로부터 다이나믹 체인이 추출될 수 있다. 추출후 IR 및 IR-DYN 패킷은 일반 압축 패킷으로 전환될 수 있다. 전환된 패킷은 원래의 IR 및 IR-DYN 패킷을 대체하여 패킷 스트림 내에서 같은 순서로 전송될 수 있다.
각 모드에서, 컨텍스트 정보가 추출되고 남은 패킷들은, 압축된 IP 패킷을 위한 링크 레이어 패킷 구조에 따라 인캡슐레이션 되어 전송될 수 있다. 컨텍스트 정보들은, 링크 레이어 시그널링으로서, 시그널링 정보를 위한 링크 레이어 패킷 구조에 따라 인캡슐레이션 되어 전송될 수 있다.
추출된 컨텍스트 정보는 RDT (RoHC-U Description Table) 에 포함되어 RoHC 패킷 플로우와 별도로 전송될 수 있다. 컨텍스트 정보는 다른 시그널링 정보와 함께 특정(specific) 피지컬 데이터 경로를 통해 전송될 수 있다. 특정 피지컬 데이터 경로란, 실시예에 따라, 일반적인 PLP 중 하나를 의미할 수도 있고, LLS (Low Level Signaling) 이 전달되는 PLP 를 의미할 수도 있고, 지정된(dedicated) PLP 일 수도 있고, L1 시그널링 패쓰(path)를 의미할 수도 있다. 여기서 RDT 는 컨텍스트 정보(스태틱 체인 및/또는 다이나믹 체인) 및/또는 헤더 컴프레션과 관련된 정보를 포함하는 시그널링 정보일 수 있다.
수신기는 패킷 스트림을 획득하기 앞서, 최초 PLP 를 선택해 SLT, RDT 등의 시그널링 정보를 먼저 획득할 수 있다. 시그널링 정보가 획득되면, 해당 패킷 스트림을 운반하는 PLP 가 선택될 수 있다. 어댑테이션 모듈은 컨텍스트 정보를 파싱하고 이를 압축된 패킷들과 합칠 수 있다. 이를 통해 패킷 스트림이 복구될 수 있고, 이는 RoHC 디컴프레서로 전달될 수 있다. 이후 디컴프레션이 시작될 수 있다.
이하, 패킷 인캡슐레이션에 대해서 설명한다.
링크 레이어 프로토콜은 IP 패킷, TS 패킷 등의 모든 타입의 인풋 패킷들을 링크 레이어 패킷으로인캡슐레이션할 수 있다. 이를 통해 피지컬 레이어는 네트워크 레이어의 프로토콜 타입과는 독립적으로 하나의 패킷 포맷만 처리하면 된다(여기서 네트워크 레이어 패킷의 일종으로 MPEG-2 TS 패킷을 고려). 각 네트워크 레이어 패킷 또는 입력 패킷은 제네릭 링크 레이어 패킷의 페이로드로 변형된다.
패킷 인캡슐레이션 과정에서 분할(segmentation) 이 활용될 수 있다. 네트워크 레이어 패킷이 지나치게 커서 피지컬 레이어에서 처리하지 못하는 경우, 네트워크 레이어 패킷은 두 개 이상의 세그먼트들로 나누어질 수 있다. 링크 레이어 패킷 헤더는 송신 측에서 분할을 실행하고 수신 측에서 재결합을 실행하기 위한 필드들을 포함할 수 있다. 각 세그먼트들은 원래 위치와 같은 순서로 링크 레이어 패킷으로 인캡슐레이션될 수 있다.
패킷 인캡슐레이션 과정에서 연쇄(concatenation) 또한 활용될 수 있다. 링크 레이어 패킷의 페이로드가 여러 네트워크 레이어 패킷을 포함할 정도로 네트워크 레이어 패킷이 충분히 작은 경우, 연쇄가 수행될 수 있다. 링크 레이어 패킷 헤더는 연쇄를 실행하기 위한 필드들을 포함할 수 있다. 연쇄의 경우 각 입력 패킷들은 원래의 입력 순서와 같은 순서로 링크 레이어 패킷의 페이로드로 인캡슐레이션될 수 있다.
링크 레이어 패킷은 헤더와 페이로드를 포함할 수 있고, 헤더는 베이스 헤더, 추가(additional) 헤더 및/또는 옵셔널 헤더가 포함될 수 있다. 추가 헤더는 연쇄나 분할 등의 상황에 따라 더 추가될 수 있는데, 추가헤더에는 상황에 맞춘 필요한 필드들이 포함될 수 있다. 또한 추가적인 정보의 전달을 위해 옵셔널 헤더가 더 추가될 수도 있다. 각각의 헤더 구조는 기 정의되어 있을 수 있다. 전술한 바와 같이 입력 패킷이 TS 패킷인 경우에는, 다른 패킷들과는 다른 링크 레이어 헤더 구조가 사용될 수 있다.
이하, 링크 레이어 시그널링에 대해서 설명한다.
링크 레이어 시그널링은 IP 레이어보다 하위 레벨에서 동작할 수 있다. 수신측에서는 LLS, SLT, SLS 등의 IP 레벨 시그널링보다, 링크 레이어 시그널링을 더 빠르게 획득할 수 있다. 따라서 링크 레이어 시그널링은 세션 설정(establishment) 이전에 획득될 수 있다.
링크 레이어 시그널링에는 인터널 링크 레이어 시그널링과 익스터널 링크 레이어 시그널링이 있을 수 있다. 인터널 링크 레이어 시그널링은 링크 레이어에서 생성된 시그널링 정보일 수 있다. 전술한 RDT 나 후술할 LMT 등이 여기에 해당할 수 있다. 익스터널 링크 레이어 시그널링은 외부 모듈 또는 외부 프로토콜, 상위 레이어로부터 전달받은 시그널링 정보일 수 있다. 링크 레이어는 링크 레이어 시그널링을 링크 레이어 패킷으로 인캡슐레이션하여 전달할 수 있다. 링크 레이어 시그널링을 위한 링크 레이어 패킷 구조(헤더 구조)가 정의될 수 있는데, 이 구조에 따라 링크 레이어 시그널링 정보가 인캡슐레이션될 수 있다.
도 7 은 본 발명의 일 실시예에 따른 LMT (Link Mapping Table) 를 도시한 도면이다.
LMT 는 PLP 로 운반되는 상위 레이어 세션들의 리스트를 제공할 수 있다. 또한 LMT 는 상위 레이어 세션들을 전달하는 링크 레이어 패킷들을 프로세싱하기 위한 추가적인 정보들을 제공할 수 있다.
LMT 를 통해 한 PLP 를 통해 어떠한 IP 스트림들, 어떠한 전송 세션들이 전송되고 있는지에 대한정보가 획득될 수 있다. 반대로 특정 전송 세션이 어느 PLP 로 전달되는지에 대한 정보를 획득할 수 있다.
실시예에 따라 전술한 SLT, SLS 등에서의 PLP 식별자 정보가 활용되어, SLT, SLS 가 지시하는 특정전송 세션이 어느 PLP 로 전송되고 있는지에 대한 정보가 확인될 수 있다.
다른 실시예에 따라 전술한 SLT, SLS 등에서의 PLP 식별자 정보는 생략되고, SLT, SLS 가 지시하는 특정 전송 세션에 대한 PLP 정보는 LMT 내의 정보를 참조함으로써 확인될 수 있다. 이 경우 수신기는 LMT 와 다른 IP 레벨 시그널링 정보들을 조합하여, 알고자 하는 PLP 를 식별할 수 있다. 이 실시예에 있어서도 SLT, SLS 등에서의 PLP 정보는 생략되지 않고, SLT, SLS 등에 남아있을 수 있다.
도시된 실시예에 따른 LMT 는, signaling_type 필드, PLP_ID 필드, num_session 필드 및/또는 각각의 세션들에 대한 정보들을 포함할 수 있다. 도시된 실시예의 LMT 는 하나의 PLP 에 대해서, 그 PLP 로 전송되는 IP 스트림들을 기술하고 있지만, 실시예에 따라 LMT 에 PLP 루프가 추가되어, 복수개의 PLP 에 대한 정보가 기술될 수도 있다.
signaling_type 필드는 해당 테이블에 의해 전달되는 시그널링 정보의 타입을 지시할 수 있다. LMT 에 대한 signaling_type 필드의 값은 0x01로 설정될 수 있다. PLP_ID 필드는 해당 LMT 에 해당하는 PLP 를 식별할 수 있다. num_session 필드는 PLP_ID 필드에 의해 식별되는 PLP 로 전달되는 상위 레이어 세션들의 개수를 나타낼 수 있다.
num_session 필드가 나타내는 개수에 따라, 각각의 세션들에 대한 정보들이 포함될 수 있다. 이정보에는 src_IP_add 필드, dst_IP_add 필드, src_UDP_port 필드, dst_UDP_port 필드, SID_flag 필드, compressed_flag 필드, SID 필드 및/또는 context_id 필드가 있을 수 있다.
src_IP_add 필드, dst_IP_add 필드, src_UDP_port 필드 및 dst_UDP_port 필드는 PLP_ID 필드에 의해 식별되는 PLP 로 전달되는 상위 레이어 세션들 중, 해당 전송 세션에 대한 소스 IP 어드레스, 데스티네이션 IP 어드레스, 소스 UDP 포트, 데스티네이션 UDP 포트를 나타낼 수 있다.
SID_flag 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷이 그 옵셔널 헤더에 SID 필드를 갖는지 여부를 지시할 수 있다. 상위 레이어 세션을 전달하는 링크 레이어 패킷은 그 옵셔널 헤더에 SID 필드를 가질 수 있고, 그 SID 필드 값은 후술할 LMT 내의 SID 필드와 동일할 수 있다.
compressed_flag 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷의 데이터들에 헤더 컴프레션이 적용되었는지 여부를 지시할 수 있다. 또한 본 필드의 값에 따라 후술할 context_id 필드의 존부가 결정될 수 있다. SID 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷들에 대한 SID (sub stream ID) 를 지시할 수 있다.
context_id 필드는 RDT 내의 CID(context id) 에 대한 레퍼런스를 제공할 수 있다. RDT 의 CID 정보는 해당되는 압축 IP 패킷 스트림에 대한 컨텍스트 ID 를 나타낼 수 있다. RDT 는 해당 압축 IP 패킷 스트림에 대한 컨텍스트 정보들을 제공할 수 있다. 본 필드를 통해 RDT 와 LMT 가 연관될 수 있다.
전술한, 본 발명의 시그널링 정보/테이블의 실시예들에 있어서, 각각의 필드, 엘레멘트, 속성들은 생략되거나 다른 필드로 대체될 수 있으며, 실시예에 따라 추가적인 필드, 엘레멘트, 속성들이 추가될 수도 있다.
본 발명의 일 실시예에서, 한 서비스의 서비스 컴포넌트들이 복수개의 ROUTE 세션을 통해 전달될 수 있다. 이 경우, SLT 의 부트스트랩 정보를 통하여 SLS 가 획득될 수 있다. 이 SLS 의 USBD 를 통해 S-TSID 와 MPD 가 레퍼런싱될 수 있다. S-TSID 는 SLS 가 전달되고 있는 ROUTE 세션 뿐 아니라, 서비스 컴포넌트들이 전달되고 있는 다른 ROUTE 세션에 대한 전송 세션 디스크립션 정보 또한 기술할 수 있다. 이를 통해 복수개의 ROUTE 세션을 통해 전달되는 서비스 컴포넌트들이 모두 수집될 수 있다. 이러한 사항은 한 서비스의 서비스 컴포넌트들이 복수개의 MMTP 세션을 통해 전달되는 경우에도 유사하게 적용될 수 있다. 참고로, 하나의 서비스 컴포넌트는 복수개의 서비스에 의해 동시에 사용될 수도 있다.
본 발명의 또 다른 실시예에서, ESG 서비스에 대한 부트스트래핑은 방송망 또는 브로드밴드에 의해 수행될 수 있다. 브로드밴드를 통한 ESG 획득을 통해, SLT 의 URL 정보가 활용될 수 있다. 이 URL 로 ESG 정보 등이 요청될 수 있다.
본 발명의 또 다른 실시예에서, 한 서비스의 서비스 컴포넌트가 하나는 방송망으로 하나는 브로드밴드로 전달될 수 있다(하이브리드). S-TSID 는 방송망으로 전달되는 컴포넌트들에 대해 기술해, ROUTE 클라이언트가 원하는 서비스 컴포넌트들을 획득케 할 수 있다. 또한 USBD 는 베이스 패턴 정보를 가지고 있어, 어느 세그먼트들이(어느 컴포넌트들이) 어느 경로로 전달되는지 기술할 수 있다. 따라서 수신기는 이를 이용해, 브로드밴드 서버로 요청해야될 세그먼트는 무엇인지, 방송 스트림에서 찾아야될 세그먼트는 무엇인지 알 수 있다.
본 발명의 또 다른 실시예에서, 서비스에 대한 스케일러블(scalable) 코딩이 수행될 수 있다. USBD 는 해당 서비스를 렌더링하기 위해 필요한 모든 캐패빌리티 정보를 가질 수 있다. 예를 들어 한 서비스가 HD 또는 UHD 로 제공되는 경우, USBD 의 캐패빌리티 정보는 "HD 또는 UHD" 값을 가질 수 있다. 수신기는 MPD 를 이용하여 UHD 또는 HD 서비스를 렌더링하기 위하여 어느 컴포넌트가 재생되어야 하는지 알 수 있다.
본 발명의 또 다른 실시예에서, SLS 를 전달하는 LCT 채널로 전달되는 LCT 패킷들의 TOI 필드를 통해, 해당 LCT 패킷들이 어느 SLS 프래그먼트를 전달하고 있는지(USBD, S-TSID, MPD 등..) 가 식별될 수 있다.
본 발명의 또 다른 실시예에서, 앱 기반 인핸스먼트/ 앱 기반 서비스에 사용될 앱 컴포넌트들은 NRT 컴포넌트로서 방송망을 통해 전달되거나 브로드밴드를 통해 전달될 수 있다. 또한 앱 기반 인핸스먼트에 대한 앱 시그널링은 SLS 와 함께 전달되는 AST (Application Signaling Table) 에 의해 수행될 수 있다. 또한 앱이 수행할 동작에 대한 시그널링인 이벤트는 SLS 와 함께 EMT (Event Message Table) 형태로 전달되거나, MPD 내에 시그널링되거나, DASH 레프리젠테이션 내에 box 형태로 인밴드(in-band) 시그널링될 수 있다. AST, EMT 등은 브로드밴드를 통해 전달될 수도 있다. 수집된 앱 컴포넌트들과 이러한 시그널링 정보들을 이용해 앱 기반 인핸스먼트 등이 제공될 수 있다.
본 발명의 또 다른 실시예에서, 긴급 경보를 위해 CAP 메시지가 전술한 LLS 테이블에 포함되어 제공될 수 있다. 긴급 경보를 위한 리치 미디어(Rich Media) 컨텐츠 역시 제공될 수 있다. 리치 미디어는 CAP 메시지에 의해 시그널링될 수 있으며, 리치 미디어가 존재하는 경우 이는 SLT 에 의해 시그널링되는 EAS 서비스로서 제공될 수 있다.
본 발명의 또 다른 실시예에서, MMT 프로토콜에 따라 리니어 서비스 컴포넌트들이 방송망을 통해 전달될 수 있다. 이 경우 해당 서비스에 대한 NRT 데이터(예를 들어 앱 컴포넌트)들은 ROUTE 프로토콜에 따라 방송망을 통해 전달될 수 있다. 또한 해당 서비스에 대한 데이터가 브로드밴드를 통해 전달될 수도 있다. 수신기는 SLT 의 부트스트랩 정보를 이용해 SLS 를 전달하는 MMTP 세션에 접근할 수 있다. MMT 에 따른 SLS 의 USBD 는 MP 테이블을 레퍼런싱하여, 수신기가 MMT 프로토콜에 따라 전달되는 MPU 로 포맷된 리니어 서비스 컴포넌트들을 획득케 할 수 있다. 또한, USBD 는 S-TSID 를 더 레퍼런싱하여, 수신기가 ROUTE 프로토콜에 따라 전달되는 NRT 데이터를 획득케 할 수 있다. 또한, USBD 는 MPD 를 더 레퍼런싱하여, 브로드밴드를 통해 전달되는 데이터에 대한 재생 디스크립션을 제공할 수 있다.
본 발명의 또 다른 실시예에서, 수신기는 그 컴패니언 디바이스에 스트리밍 컴포넌트 및/또는 파일 컨텐트 아이템(파일 등)을 획득할 수 있는 로케이션 URL 정보를, 웹소켓 등의 방법을 통해 전달할 수 있다. 컴패니언 디바이스의 어플리케이션은 이 URL 로 HTTP GET 등을 통해 요청하여 해당 컴포넌트, 데이터 등을 획득할 수 있다. 그 밖에 수신기는 시스템 타임 정보, 긴급 경보 정보 등의 정보를 컴패니언 디바이스 측에 전달할 수 있다.
도 8은 본 발명의 일 실시예에 따른 네트워크 토폴로지를 보여주는 블록도이다.
도 8에 도시된 바와 같이, 본 발명의 일 실시예에 따른 네트워크 토폴로지는 컨텐츠 제공 서버(10), 컨텐츠 인식 서비스 제공 서버(20), 멀티채널 비디오 분배 서버(30), 부가 서비스 정보 제공 서버(40), 복수의 부가 서비스 제공 서버(50), 방송 수신 장치(60), 네트워크(70), 영상 표시 장치(100)를 포함한다.
컨텐츠 제공 서버(10)는 방송국 등에 해당할 수 있으며, 메인 시청각 컨텐트(main audio-visual content)를 포함하는 방송 신호를 방송한다. 방송 신호는 부가 서비스를 더 포함할 수 있다. 부가 서비스는 메인 시청각 컨텐트와 관련이 있을 수도 있고, 관련이 없을 수도 있다. 부가 서비스는 서비스 정보(service information), 메타데이터(metadata), 부가 데이터, 컴파일된 실행 파일, 웹 애플리케이션, HTML(Hypertext Markup Language) 문서, XML 문서, CSS(cascading style sheet) 문서, 오디오 파일, 비디오 파일, ATSC 2.0 컨텐트, URL(Uniform Resource Locator)과 같은 주소 등의 형태를 가질 수 있다. 하나 이상의 컨텐츠 제공 서버가 존재할 수 있다.
컨텐츠 인식 서비스 제공 서버(20)는 영상 표시 장치(100)가 메인 시청각 컨텐트에 기초하여 컨텐트를 인식할 수 있게 하는 컨텐트 인식 서비스를 제공한다. 컨텐츠 인식 서비스 제공 서버(20)는 메인 시청각 컨텐트에 수정을 가할 수도 있고 수정을 가하지 않을 수도 있다. 하나 이상의 컨텐츠 인식 서비스 제공 서버가 존재할 수 있다.
컨텐츠 인식 서비스 제공 서버(20)는 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 로고와 같은 보이는 워터마크(visible watermark)를 삽입하는 워터마크 서버일 수 있다. 이 워터마크 서버는 메인 시청각 컨텐트의 각 프레임의 왼쪽 상단 또는 오른쪽 상단에 컨텐츠 제공자의 로고를 워터마크할 수 있다.
또, 컨텐츠 인식 서비스 제공 서버(20)는 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 컨텐츠 정보를 보이지 않는 워터마크(invisible watermark)로서 삽입하는 워터마크 서버일 수 있다.
또한, 컨텐츠 인식 서비스 제공 서버(20)는 메인 시청각 컨텐트의 일부의 프레임 또는 일부의 오디오 샘플로부터 특징 정보를 추출하여 저장하는 핑거프린트 서버일 수 있다. 이 특징 정보는 시그너처라고도 불린다.
멀티채널 비디오 분배 서버(30)는 복수의 방송국으로부터 방송 신호를 수신하고 다중화하여 다중화된 신호를 방송 수신 장치(60)에 제공한다. 특히, 멀티채널 비디오 분배 서버(30)는 수신한 방송 신호에 대해 복조와 채널 복호화를 수행하여 메인 시청각 컨텐트와 부가 서비스를 추출한 후, 추출된 메인 시청각 컨텐트와 추출한 부가 서비스에 대해 채널 부호화를 수행하여 분배를 위한 다중화 신호를 생성할 수 있다. 이때, 멀티채널 비디오 분배 서버(30)는 추출한 부가 서비스를 제외할 수도 있고, 또 다른 부가 서비스를 추가할 수도 있기 때문에, 방송국은 방송국 주도의 서비스를 제공할 수 없다. 하나 이상의 멀티채널 비디오 분배 서버가 존재할 수 있다.
방송 수신 장치(60)는 사용자가 선택한 채널을 튜닝하고, 튜팅한 채널의 신호를 수신하고, 수신한 신호에 대해 복조와 채널 복호를 수행하여 메인 시청각 컨텐트를 추출한다. 그리고 방송 수신 장치(60)는 추출한 메인 시청각 컨텐트를 H.264/MPEG-4 AVC(Moving Picture Experts Group-4 advanced video coding), Dolby AC-3, MPEG-2 AAC (Moving Picture Experts Group-2 Advanced Audio Coding) 알고리즘 등을 이용하여 복호하여 비압축 메인 시청각 컨텐트(uncompressed main AV content)를 생성한다. 방송 수신 장치(60)는 생성한 비압축 메인 시청각 컨텐트를 영상 표시 장치(100)의 외부 입력 포트 등을 통해 영상 표시 장치(100)에 제공한다.
부가 서비스 정보 제공 서버(40)는 영상 표시 장치의 요청에 응답하여 메인 시청각 컨텐트와 관련된 하나 이상의 이용가능한 부가 서비스를 위한 부가 서비스 정보를 제공한다. 하나 이상의 부가 서비스 주소 제공 서버가 존재할 수 있다. 부가 서비스 정보 제공 서버(40)는 복수의 이용가능한 부가 서비스 중에서 가장 우선순위가 높은 부가 서비스를 위한 부가 서비스 정보를 제공할 수도 있다.
부가 서비스 제공 서버(50)는 영상 표시 장치의 요청에 응답하여 메인 시청각 컨텐트와 관련하여 이용할 수 있는 하나 이상의 부가 서비스를 제공한다. 하나 이상의 부가 서비스 제공 서버가 존재할 수 있다.
영상 표시 장치(100)는 텔레비전, 노트북, 핸드폰, 스마트폰 등과 같이 디스플레이부를 장치일 수 있다. 영상 표시 장치(100)는 방송 수신 장치(60)로부터 비압축 메인 시청각 컨텐트를 수신할 수도 있고, 컨텐츠 제공 서버(10) 또는 멀티채널 비디오 분배 서버(30)로부터 부호화된 메인 시청각 컨텐트를 포함하는 방송 신호를 수신할 수 도 있다. 영상 표시 장치(100)는 네트워크(70)를 통해 컨텐츠 인식 서비스 제공 서버(20)로부터 컨텐츠 인식 서비스를 제공받을 수 있고, 네트워크(70)를 통해 부가 서비스 정보 제공 서버(40)로부터 메인 시청각 컨텐트와 관련하여 이용할 수 있는 하나 이상의 부가 서비스의 주소를 받을 수 있으며, 부가 서비스 제공 서버(50)로부터 메인 시청각 컨텐트와 관련하여 이용할 수 있는 하나 이상의 부가 서비스를 제공받을 수 있다.
컨텐츠 제공 서버(10), 컨텐츠 인식 서비스 제공 서버(20), 멀티채널 비디오 분배 서버(30), 부가 서비스 정보 제공 서버(40), 복수의 부가 서비스 제공 서버(50) 중 2 이상은 하나의 서버의 형태로 결합될 수도 있고, 한 사업자에 의해 운영될 수도 있다.
도 9는 본 발명의 일 실시예에 따른 워터마크 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 9에 도시된 바와 같이, 본 발명의 일 실시예에 따른 네트워크 토폴로지는 워터마크 서버(21)를 더 포함한다.
도 9에 도시된 바와 같은 워터마크 서버(21)는 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 컨텐츠 정보를 삽입한다. 멀티채널 비디오 분배 서버(30)는 변형된 메인 시청각 컨텐트를 포함하는 방송 신호를 수신하여 분배한다. 특히, 워터마크 서버는 이하에서 설명하는 바와 같은 디지털 워터마킹 기술을 이용할 수 있다.
디지털 워터마크는 삭제하기 어려운 방법으로 디지털 신호에 정보를 삽입하는 프로세스이다. 예를 들면, 디지털 신호는 오디오, 사진, 또는 비디오일 수 있다. 이 디지털 신호가 복사되면, 삽입된 정보 또한 복사본에 담아진다. 한 디지털 신호가 동시에 다른 여러 개의 워터마크를 운반할 수 있다.
보이는 워터마킹(visible watermarking)에서, 삽입되는 정보는 사진 또는 비디오에서 눈으로 식별가능하다. 전형적으로, 삽입된 정보는 미디어의 소유자를 식별하는 텍스트 또는 로고이다. 텔레비전 방송국이 자신의 로고를 전송되는 비디오의 코너에 추가하면, 이것이 눈으로 식별가능한 워터마크이다.
눈으로 식별 불가능한 워터마킹(invisible watermarking)에서, 정보는 디지털 데이터로서 오디오, 사진, 또는 비디오에 추가되지만, 일정 량의 정보가 숨겨져 있다는 사실은 감지할 수 있다하더라도 그러한 정보는 인지할 수는 없다. 이러한 눈으로 식별불가능한 워터마킹을 통해 비밀 메시지가 전달될 수도 있다.
워터마킹의 한 응용은 디지털 미디어의 불법 복제를 막기 위한 저작권 보호 시스템에 있다. 예컨데, 복제 장치는 디지털 미디어의 복제 전에 디지털 미디어로부터 워터마크를 얻고, 워터마크의 내용에 기초하여 복제를 할지 말지를 결정할 수 있다.
워터마킹의 또 다른 응용은 디지털 미디어의 출처 추적에 있다. 배포 경로 상의 각 지점에서 워터마크가 디지털 미디어에 임베딩된다. 나중에 이와 같은 디지털 미디어가 발견된다면, 이 디지털 미디어로부터 워터마크가 추출될 수 있고, 워터마크의 내용으로부터 배포의 출처를 파악할 수 있다.
디지털 미디어에 대한 설명이 눈으로 식별불가능한 워터마킹의 또 다른 응용이다.
디지털 미디어를 위한 파일 포멧이 메타데이터라고 불리는 추가적인 정보를 포함할 수 있는데, 디지털 워터마크는 디지털 미디어의 시청각 신호 자체로 전달된다는 점에서 메타데이터와는 구별된다.
워터마킹 방법으로 스프레드 스펙트럼, 양자화, 앰플리튜드 변조가 있다.
마킹되는 신호가 추가적인 수정에 의해 얻어진다면, 워터마킹 방법은 스프레드 스펙트럼에 해당한다. 스프레드 스펙트럼 워터마크는 꽤 강인하다고 알려져 있지만, 워터마크가 임베딩되는 호스트 신호에 간섭을 주기 때문에 많은 정보가 실리지는 않는다.
마킹되는 신호가 양자화에 의해 얻어진다면, 워터마킹 방법은 양자화 타입에 해당한다. 양자화 워터마크는 강인성은 낮지만, 꽤 많은 정보를 실을 수 있다.
마킹되는 신호가 공간 도메인에서 스프레드 스펙트럼과 유사한 추가 수정 방법으로 얻어진다면, 워터마킹 방법은 앰플리튜드 변조에 해당한다.
도 10은 본 발명의 일 실시예에 따른 워터마크 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
먼저, 컨텐츠 제공 서버(10)는 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 전송한다(S101).
워터마크 서버(21)는 컨텐츠 제공 서버(10)가 제공하는 방송 신호를 수신하고, 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 로고와 같은 보이는 워터마크(visible watermark)를 삽입하거나, 메인 시청각 컨텐트에 워터마크 정보를 보이지 않는 워터마크(invisible watermark)로서 삽입하고, 워터마킹된 메인 시청각 컨텐트와 부가 서비스를 MVPD(30)에 제공한다(S103).
보이지 않는 워터마크를 통해 삽입되는 워터마크 정보는 워터마크 용도, 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다. 워터마크 용도는 무단 복제 방지, 시청률 조사, 부가 서비스 획득 중 하나를 나타낼 수 있다.
컨텐츠 정보는 메인 시청각 컨텐트를 제공하는 컨텐츠 제공자의 식별 정보, 메인 시청각 컨텐트 식별 정보, 메인 시청각 컨텐트 등급 정보, 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시간 정보, 메인 시청각 컨텐트가 방송되는 채널의 이름, 메인 시청각 컨텐트가 방송되는 채널의 로고, 메인 시청각 컨텐트가 방송되는 채널의 설명, 이용 정보 보고 주소, 이용 정보 보고 주기, 이용 정보 획득을 위한 최소 이용 시간, 메인 시청각 컨텐트와 관련하여 이용가능한 부가 서비스 정보 중 하나 이상을 포함할 수 있다.
영상 표시 장치(100)가 컨텐츠 정보의 획득을 위하여 워터마크를 이용하였다면, 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시간 정보는 이용된 워터마크가 내삽(embedding)된 컨텐트 구간의 시간 정보일 수 있다. 영상 표시 장치(100)가 컨텐츠 정보의 획득을 위하여 핑거프린트를 이용하였다면, 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시간 정보는 특징 정보가 추출된 컨텐트 구간의 시간 정보일 수 있다. 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시간 정보는 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시작 시간, 컨텐츠 정보 획득에 사용된 컨텐트 구간의 지속 시간(duration), 컨텐츠 정보 획득에 사용된 컨텐트 구간의 종료 시간 중 하나 이상을 포함할 수 있다.
이용 정보 보고 주소는 메인 시청각 컨텐트 시청 정보 보고 주소, 부가 서비스 이용 정보 보고 주소 중 하나 이상을 포함할 수 있다. 이용 정보 보고 주기는 메인 시청각 컨텐트 시청 정보 보고 주기, 부가 서비스 이용 정보 보고 주기 중 하나 이상을 포함할 수 있다. 이용 정보 획득을 위한 최소 이용 시간은 메인 시청각 컨텐트 시청 정보 획득을 위한 최소 시청 시간, 부가 서비스 이용 정보 추출을 위한 최소 사용 시간 중 하나 이상을 포함할 수 있다.
메인 시청각 컨텐트가 최소 시청 시간 이상 시청된 경우에 기초하여 영상 표시 장치(100)는 메인 시청각 컨텐트의 시청 정보를 획득하고, 메인 시청각 컨텐트 시청 정보 보고 주기에서 메인 시청각 컨텐트 시청 정보 보고 주소로 추출한 시청 정보를 보고할 수 있다.
부가 서비스가 최소 사용 시간 이상 사용된 경우에 기초하여 영상 표시 장치(100)는 부가 서비스 이용 정보를 획득하고, 부가 서비스 이용 정보 보고 주기에서 부가 서비스 이용 정보 보고 주소로 추출한 이용 정보를 보고할 수 있다.
부가 서비스 정보는 부가 서비스가 존재하는지에 대한 정보, 부가 서비스 주소 제공 서버 주소, 각각의 이용가능한 부가 서비스의 획득 경로, 각각의 이용가능한 부가 서비스를 위한 주소, 각각의 이용가능한 부가 서비스의 시작 시간, 각각의 이용가능한 부가 서비스의 종료 시간, 각각의 이용가능한 부가 서비스의 수명 주기(lifetime), 각각의 이용가능한 부가 서비스의 획득 모드, 각각의 이용가능한 부가 서비스 위한 요청 주기, 각각의 이용가능한 부가 서비스의 우선 순위 정보, 각각의 이용가능한 부가 서비스의 설명, 각각의 이용가능한 부가 서비스의 항목(category), 이용 정보 보고 주소, 이용 정보 보고 주기, 이용 정보 획득을 위한 최소 이용 시간 중 하나 이상을 포함할 수 있다.
이용가능한 부가 서비스의 획득 경로는 IP 또는 ATSC M/H(Advanced Television Systems Committee - Mobile/Handheld)를 나타낼 수 있다. 이용가능한 부가 서비스의 획득 경로가 ATSC M/H인 경우에, 부가 서비스 정보는 주파수 정보, 채널 정보를 더 포함할 수 있다. 각각의 이용가능한 부가 서비스의 획득 모드는 Push 또는 Pull을 나타낼 수 있다.
한편, 워터마크 서버(21)는 메인 시청각 컨텐트의 로고에 워터마크 정보를 보이지 않는 워터마크(invisible watermark)로서 삽입할 수 있다.
예컨데, 워터마크 서버(21)는 로고의 일정 위치에 바코드를 삽입할 수 있다. 이때 로고의 일정 위치는 로고가 디스플레이되는 구역의 하단 1 라인에 해당할 수 있다. 영상 표시 장치(100)는 이와 같이 바코드가 삽입된 로고를 포함하는 메인 시청각 컨텐트를 수신하는 경우에, 바코드를 디스플레이하지 않을 수 있다.
또한, 워터마크 서버(21)는 로고의 메타데이터 형태로 워터마크 정보를 삽입할 수 있다. 이때 로고의 형상은 유지될 수 있다.
또한, 워터마크 서버(21)는 M개의 프레임의 로고의 각각에 N 비트의 워터마크 정보를 삽입할 수 있다. 즉, 워터마크 서버(21)는 M개의 프레임을 통해 M*N개의 워터마크 정보를 삽입할 수 있다.
MVPD(30)는 워터마킹된 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 수신하고, 다중화 신호를 생성하여 방송 수신 장치(60)에 제공한다(S105). 이때 다중화 신호는 수신한 부가 서비스를 배제하거나 새로운 부가 서비스를 포함할 수 있다.
방송 수신 장치(60)는 사용자가 선택한 채널을 튜닝하고 튜닝한 채널의 신호를 수신하고, 수신된 방송 신호를 복조하고 채널 복호화(channel decoding)하고 시청각 복호(AV decoding)를 수행하여 비압축 메인 시청각 컨텐트를 생성한 후, 생성된 비압축 메인 시청각 컨텐트를 영상 표시 장치(100)에 제공한다(S106).
한편, 컨텐츠 제공 서버(10) 또한 메인 시청각 컨텐트를 포함하는 방송 신호를 무선 채널 등을 통해 방송한다(S107).
또한, MVPD(30)는 방송 수신 장치(60)를 통하지 않고 직접 영상 표시 장치(100)에 메인 시청각 컨텐트를 포함하는 방송 신호를 전송할 수도 있다(S108).
영상 표시 장치(100)는 셋톱 박스(60)를 통해 비압축 메인 시청각 컨텐트를 수신할 수 있다. 또는, 영상 표시 장치(100)는 무선 채널을 통해 방송 신호를 수신하고 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 얻을 수 있다. 또는, 영상 표시 장치(100)는 MVPD(30)로부터 방송 신호를 수신하고, 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 수신할 수도 있다. 영상 표시 장치(100)는 획득한 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 워터마크 정보를 추출한다. 워터마크 정보가 로고에 해당하면, 영상 표시 장치(100)는 복수의 로고와 복수의 워터마크 서버 주소의 대응관계로부터 추출한 로고에 해당하는 워터마크 서버 주소를 확인한다. 워터마크 정보가 로고에 해당하는 경우에, 영상 표시 장치(100)는 로고만을 가지고서는 메인 시청각 컨텐츠를 식별할 수 없다. 또한, 워터마크 정보가 컨텐트 정보를 포함하고 있지 않은 경우에도 영상 표시 장치(100)는 메인 시청각 컨텐츠를 식별할 수 없으나, 워터마크 정보가 컨텐츠 제공자 식별 정보나 워터마크 서버 주소를 포함할 수 있다. 워터마크 정보가 컨텐츠 제공자 식별 정보를 포함하는 경우에, 영상 표시 장치(100)는 복수의 컨텐츠 제공자 식별 정보와 복수의 워터마크 서버 주소의 대응관계로부터 추출한 컨텐츠 제공자 식별 정보에 해당하는 워터마크 서버 주소를 확인할 수 있다. 이와 같이, 영상 표시 장치(100)는 워터마크 정보만으로 메인 시청각 컨텐트를 식별할 수 없는 경우에, 획득한 워터마크 서버 주소에 해당하는 워터마크 서버(21)에 접속하여 제1 질의를 전송한다(S109).
워터마크 서버(21)는 제1 질의에 대한 제1 응답을 제공한다(S111). 이 제1 응답은 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다.
워터마크 정보와 제1 응답이 부가 서비스 주소를 포함하고 있지 않다면, 영상 표시 장치(100)는 부가 서비스을 획득할 수 없다. 그러나 워터마크 정보와 제1 응답이 부가 서비스 주소 제공 서버 주소를 포함할 수 있다. 이와 같이, 영상 표시 장치(100)는 워터마크 정보와 제1 응답을 통해 부가 서비스 주소나 부가 서비스를 획득하지 못하였고 부가 서비스 주소 제공 서버 주소를 획득하였다면, 영상 표시 장치(100)는 획득한 부가 서비스 주소 제공 서버 주소에 해당하는 부가 서비스 정보 제공 서버(40)에 접속하여 컨텐츠 정보를 포함하는 제2 질의를 전송한다(S119).
부가 서비스 정보 제공 서버(40)는 제2 질의의 컨텐츠 정보와 관련된 하나 이상의 이용가능한 부가 서비스를 검색한다. 이후, 부가 서비스 정보 제공 서버(40)는 제2 질의에 대한 제2 응답으로 하나 이상의 이용가능한 부가 서비스를 위한 부가 서비스 정보를 영상 표시 장치(100)에 제공한다(S121).
영상 표시 장치(100)는 워터마크 정보, 제1 응답 또는 제2 응답을 통해 하나 이상의 이용가능한 부가 서비스 주소를 획득하였다면, 이 하나 이상의 이용가능한 부가 서비스 주소에 접속하여 부가 서비스를 요청하고(S123), 부가 서비스를 획득한다(S125).
도 11는 본 발명의 일 실시예에 따른 워터마크 기반의 컨텐츠 인식 타이밍을 보여준다.
도 11에 도시된 바와 같이, 방송 수신 장치(60)가 턴온되고 채널을 튜닝하고, 영상 표시 장치(100)가 외부 입력 포트(111)를 통해 방송 수신 장치(60)로부터 튜팅된 채널의 메인 시청각 컨텐트를 수신하면, 영상 표시 장치(100)는 메인 시청각 컨텐트의 워터마크로부터 컨텐츠 제공자 식별자(또는 방송국 식별자)를 감지할 수 있다. 이후, 영상 표시 장치(100)는 감지한 컨텐츠 제공자 식별자에 기초하여 메인 시청각 컨텐트의 워터마크로부터 컨텐츠 정보를 감지할 수 있다.
이때, 도 11에 도시된 바와 같이, 컨텐츠 제공자 식별자의 감지가능 주기와 컨텐츠 정보의 감지가능 주기는 다를 수 있다. 특히, 컨텐츠 제공자 식별자의 감지가능 주기는 컨텐츠 정보의 감지가능 주기보다 짧을 수 있다. 이를 통해, 영상 표시 장치(100)는 필요한 정보만을 감지하기 위한 효율적인 구성을 가질 수 있다.
도 12는 본 발명의 일 실시예에 따른 핑거프린트 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 12에 도시된 바와 같이, 본 발명의 일 실시예에 따른 네트워크 토폴로지는 핑거프린트 서버(22)를 더 포함한다.
도 12에 도시된 바와 같은 핑거프린트 서버(22)는 메인 시청각 컨텐트에 변형을 가하지는 않으며 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출하여 저장한다. 이후에 핑거프린트 서버(22)는 영상 표시 장치(100)로부터의 특징 정보를 수신하면, 수신한 특징 정보에 해당하는 시청각 컨텐트의 식별자와 시간 정보를 제공한다.
도 13은 본 발명의 일 실시예에 따른 핑거프린트 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
먼저, 컨텐츠 제공 서버(10)는 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 전송한다(S201).
핑거프린트 서버(22)는 컨텐츠 제공 서버(10)가 제공하는 방송 신호를 수신하고, 메인 시청각 컨텐트의 복수의 프레임 구간 또는 복수의 오디오 구간으로부터 복수의 특징 정보를 추출하며, 복수의 특징 정보에 각각 대응하는 복수의 질의 결과를 위한 데이터베이스를 구축한다(S203). 질의 결과는 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다.
MVPD(30)는 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 수신하고, 다중화 신호를 생성하여 방송 수신 장치(60)에 제공한다(S205). 이때 다중화 신호는 수신한 부가 서비스를 배제하거나 새로운 부가 서비스를 포함할 수 있다.
방송 수신 장치(60)는 사용자가 선택한 채널을 튜닝하고 튜닝한 채널의 신호를 수신하고, 수신된 방송 신호를 복조하고 채널 복호화(channel decoding)하고 시청각 복호(AV decoding)를 수행하여 비압축 메인 시청각 컨텐트를 생성한 후, 생성된 비압축 메인 시청각 컨텐트를 영상 표시 장치(100)에 제공한다(S206).
한편, 컨텐츠 제공 서버(10) 또한 메인 시청각 컨텐트를 포함하는 방송 신호를 무선 채널 등을 통해 방송한다(S207).
또한, MVPD(30)는 방송 수신 장치(60)를 통하지 않고 직접 영상 표시 장치(100)에 메인 시청각 컨텐트를 포함하는 신호를 전송할 수도 있다(S208).
영상 표시 장치(100)는 셋톱 박스(60)를 통해 비압축 메인 시청각 컨텐트를 수신할 수 있다. 또는, 영상 표시 장치(100)는 무선 채널을 통해 방송 신호를 수신하고 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 얻을 수 있다. 또는, 영상 표시 장치(100)는 MVPD(30)로부터 방송 신호를 수신하고, 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 수신할 수도 있다. 영상 표시 장치(100)는 획득한 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출한다(S213).
영상 표시 장치(100)는 미리 설정된 핑거프린트 서버 주소에 해당하는 핑거프린트 서버(22)에 접속하여 추출한 특징 정보를 포함하는 제1 질의를 전송한다(S215).
핑거프린트 서버(22)는 제1 질의에 대한 제1 응답으로서 질의 결과를 제공한다(S217). 만약 제1 응답이 실패에 해당한다면, 영상 표시 장치(100)는 또 다른 핑거프린트 서버 주소에 해당하는 핑거프린트 서버(22)에 접속하여 추출한 특징 정보를 포함하는 제1 질의를 전송할 수 있다.
핑거프린트 서버(22)는 질의 결과로서 XML (Extensible Markup Language) 문서를 제공할 수 있다. 이하, 질의 결과를 담는 XML 문서의 예를 설명한다.
도 14은 본 발명의 일 실시예에 따른 질의 결과를 담는 ACR-Resulttype의 XML 스키마 다이어그램(schema diagram)을 보여준다.
도 14에 도시된 바와 같이, 질의 결과를 담는 ACR-Resulttype은 ResultCode 속성과 ContentID, NTPTimestamp, SignalingChannelInformation, ServiceInformation 엘리먼트를 갖는다.
예컨데, ResultCode 속성이 200의 값을 가지면, 이는 질의 결과가 성공임을 의미할 수 있다. ResultCode 속성이 404의 값을 가지면, 이는 질의 결과가 실패임을 의미할 수 있다.
SignalingChannelInformation 엘리먼트는 SignalingChannelURL 엘리먼트를 갖고, SignalingChannelURL 엘리먼트는 UpdateMode, PollingCycle 속성을 갖는다. UpdateMode 속성은 Pull 값 또는 Push 값을 가질 수 있다.
ServiceInformation 엘리먼트는 ServiceName, ServiceLogo, ServiceDescription 엘리먼트를 갖는다.
다음은, 이와 같은 질의 결과를 담는 ACR-ResultType의 XML Schema를 보여준다.
표 1
Figure PCTKR2016004174-appb-T000001
ContentID 엘리먼트로서, 아래의 표에서 보여주는 바와 같은 ATSC 컨텐트 식별자(ATSC content identifier)가 이용될 수 있다.
표 2
Figure PCTKR2016004174-appb-T000002
상기 표에서 보여지는 바와 같이, ATSC content identifier는 TSID와 하우스 번호로 구성된 구조를 가진다.
16 비트 부호없는 정수 TSID는 트랜스포트 스트림 식별자(transport stream identifier)를 담는다(carry).
5 비트 부호 없는 정수 end_of_day는 방송이 끝나서 content_id 값이 재사용될 수 있는 날의 시(hour)로 셋팅된다.
9 비트 부호 없는 정수 unique_for는 content_id 값이 재사용될 수 없는 날의 수(the number of day)로 설정된다.
content_id는 컨텐트 식별자를 나타낸다. 영상 표시 장치(100)는 매일 end_of_day에 해당하는 시간에서 unique_for를 1씩 감소시키고, unique_for가 0이 되지 않았다면 content_id가 유일한 것이라고 간주할 수 있다.
한편, ContentID 엘리먼트로서, 아래에서 설명하는 바와 같은 ATSC-M/H service를 위한 글로벌 서비스 식별자(Global Service Identifier)가 이용될 수 있다.
글로벌 서비스 식별자는 다음과 같은 폼을 갖는다.
- urn:oma:bcast:iauth:atsc:service:<region>:<xsid>:<serviceid>
여기에서 <region>는 ISO 639-2에 의해 규정되는 바와 같은 2개의 문자로 된 국제 국가 코드이다. 로컬 서비스(local service)를 위한 <xsid> 는 <region>에서 정의하는 바와 같은 TSID의 십진수이고, 지역 서비스(regional service) (major > 69)를 위한 <xsid> 는 "0"이다. <serviceid> 는 <major>나 <minor>로 정의된다. <major> 는 메이저 채널 번호(Major Channel number)를 나타내고, <minor> 마이너 채널 번호(Minor Channel Number)를 나타낸다.
글로벌 서비스 식별자의 예는 아래와 같다.
- urn:oma:bcast:iauth:atsc:service:us:1234:5.1
- urn:oma:bcast:iauth:atsc:service:us:0:100.200
한편, ContentID 엘리먼트로서, 아래에서 설명하는 바와 같은 ATSC 컨텐트 식별자가 이용될 수 있다.
ATSC 컨텐트 식별자는 다음과 같은 폼을 갖는다.
urn:oma:bcast:iauth:atsc:content:<region>:<xsidz>:<contentid>:<unique_for>:<end_of_day>
여기에서 <region>는 ISO 639-2에 의해 규정되는 바와 같은 2개의 문자로 된 국제 국가 코드이다. 로컬 서비스(local service)를 위한 <xsid> 는 <region>에서 정의하는 바와 같은 TSID의 십진수이고, "."<serviceid>가 뒤따를 수 있다. 지역 서비스(regional service) (major > 69)를 위한 <xsid> 는 <serviceid>이다. <content_id> 는 상기 표에 정의되어 있는 content_id field의 base64 부호이고, <unique_for> 는 상기 표에 정의되어 있는 unique_for field의 십진수 부호이며, <end_of_day> 는 상기 표에 정의되어 있는 end_of_day field의 십진수 부호이다.
이하에서는 다시 도 13을 설명한다.
질의 결과가 부가 서비스 주소나 부가 서비스를 포함하고 있지 않고 부가 서비스 주소 제공 서버 주소를 포함한다면, 영상 표시 장치(100)는 획득한 부가 서비스 주소 제공 서버 주소에 해당하는 부가 서비스 정보 제공 서버(40)에 접속하여 컨텐츠 정보를 포함하는 제2 질의를 전송한다(S219).
부가 서비스 정보 제공 서버(40)는 제2 질의의 컨텐츠 정보와 관련된 하나 이상의 이용가능한 부가 서비스를 검색한다. 이후, 부가 서비스 정보 제공 서버(40)는 제2 질의에 대한 제2 응답으로 하나 이상의 이용가능한 부가 서비스를 위한 부가 서비스 정보를 영상 표시 장치(100)에 제공한다(S221).
영상 표시 장치(100)는 제1 응답 또는 제2 응답을 통해 하나 이상의 이용가능한 부가 서비스 주소를 획득하였다면, 이 하나 이상의 이용가능한 부가 서비스 주소에 접속하여 부가 서비스를 요청하고(S223), 부가 서비스를 획득한다(S225).
UpdateMode 속성이 Pull 값을 가지는 경우, 영상 표시 장치(100)는 SignalingChannelURL을 통해 HTTP request를 부가서비스 제공 서버(50)에 전송하여 이에 대한 응답으로 PSIP 바이너리 스트림을 포함하는 HTTP response를 부가서비스 제공 서버(50)로부터 수신한다. 이 경우 영상 표시 장치(100)는 PollingCycle 속성으로 지정되는 Polling 주기에 따라 HTTP request를 전송할 수 있다. 또한, SignalingChannelURL 엘리먼트는 업데이트 시간 속성을 가질 수도 있다. 이 경우, 영상 표시 장치(100)는 업데이트 시간 속성으로 지정되는 업데이트 시간에서 HTTP request를 전송할 수 있다.
UpdateMode 속성이 Push 값을 가지는 경우, 영상 표시 장치(100)는 XMLHTTPRequest API 를 활용하여 비동기적으로 서버로부터 업데이트를 수신할 수 있다. 영상 표시 장치(100)가 서버로 XMLHTTPRequest object를 통해 비동기적인 request를 한 후에 서버가 시그널링 정보에 변경이 있을 경우에 이 채널을 통해 response로 시그널링 정보를 제공하는 방안이다. 세션의 대기 시간에 제한이 있을 경우에는 session timeout respond를 발생시키고, 바로 수신기는 이를 인지하여 재요청하여서 수신기와 서버간의 시그널링 채널을 항시 유지할 수 있다.
도 15은 본 발명의 일 실시예에 따른 워터마크와 핑거프린트 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 15에 도시된 바와 같이, 본 발명의 일 실시예에 따른 네트워크 토폴로지는 워터마크 서버(21)와 핑거프린트 서버(22)를 더 포함한다.
도 15에 도시된 바와 같은 워터마크 서버(21)는 메인 시청각 컨텐트에 컨텐츠 제공자 식별 정보를 삽입한다. 워터마크 서버(21)는 로고와 같이 보이는 워터마크로서 컨텐츠 제공자 식별 정보를 메인 시청각 컨텐트에 삽입할 수도 있고, 보이지 않는 워터마크로서 컨텐츠 제공자 식별 정보를 메인 시청각 컨텐트에 삽입할 수도 있다.
핑거프린트 서버(22)는 메인 시청각 컨텐트에 변형을 가하지는 않으며 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출하여 저장한다. 이후에 핑거프린트 서버(22)는 영상 표시 장치(100)로부터의 특징 정보를 수신하면, 수신한 특징 정보에 해당하는 시청각 컨텐트의 식별자와 시간 정보를 제공한다.
도 16은 본 발명의 일 실시예에 따른 워터마크와 핑거프린트 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
먼저, 컨텐츠 제공 서버(10)는 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 전송한다(S301).
워터마크 서버(21)는 컨텐츠 제공 서버(10)가 제공하는 방송 신호를 수신하고, 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 로고와 같은 보이는 워터마크(visible watermark)를 삽입하거나, 메인 시청각 컨텐트에 워터마크 정보를 보이지 않는 워터마크(invisible watermark)로서 삽입하고, 워터마킹된 메인 시청각 컨텐트와 부가 서비스를 MVPD(30)에 제공한다(S303). 보이지 않는 워터마크를 통해 삽입되는 워터마크 정보는 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다. 컨텐츠 정보와 부가 서비스 정보는 앞서 설명한 바와 같다.
MVPD(30)는 워터마킹된 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 수신하고, 다중화 신호를 생성하여 방송 수신 장치(60)에 제공한다(S305). 이때 다중화 신호는 수신한 부가 서비스를 배제하거나 새로운 부가 서비스를 포함할 수 있다.
방송 수신 장치(60)는 사용자가 선택한 채널을 튜닝하고 튜닝한 채널의 신호를 수신하고, 수신된 방송 신호를 복조하고 채널 복호화(channel decoding)하고 시청각 복호(AV decoding)를 수행하여 비압축 메인 시청각 컨텐트를 생성한 후, 생성된 비압축 메인 시청각 컨텐트를 영상 표시 장치(100)에 제공한다(S306).
한편, 컨텐츠 제공 서버(10) 또한 메인 시청각 컨텐트를 포함하는 방송 신호를 무선 채널 등을 통해 방송한다(S307).
또한, MVPD(30)는 방송 수신 장치(60)를 통하지 않고 직접 영상 표시 장치(100)에 메인 시청각 컨텐트를 포함하는 신호를 전송할 수도 있다(S308).
영상 표시 장치(100)는 셋톱 박스(60)를 통해 비압축 메인 시청각 컨텐트를 수신할 수 있다. 또는, 영상 표시 장치(100)는 무선 채널을 통해 방송 신호를 수신하고 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 얻을 수 있다. 또는, 영상 표시 장치(100)는 MVPD(30)로부터 방송 신호를 수신하고, 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 수신할 수도 있다. 영상 표시 장치(100)는 획득한 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 워터마크 정보를 추출한다. 워터마크 정보가 로고에 해당하면, 영상 표시 장치(100)는 복수의 로고와 복수의 워터마크 서버 주소의 대응관계로부터 추출한 로고에 해당하는 워터마크 서버 주소를 확인한다. 워터마크 정보가 로고에 해당하는 경우에, 영상 표시 장치(100)는 로고만을 가지고서는 메인 시청각 컨텐츠를 식별할 수 없다. 또한, 워터마크 정보가 컨텐트 정보를 포함하고 있지 않은 경우에도 영상 표시 장치(100)는 메인 시청각 컨텐츠를 식별할 수 없으나, 워터마크 정보가 컨텐츠 제공자 식별 정보나 워터마크 서버 주소를 포함할 수 있다. 워터마크 정보가 컨텐츠 제공자 식별 정보를 포함하는 경우에, 영상 표시 장치(100)는 복수의 컨텐츠 제공자 식별 정보와 복수의 워터마크 서버 주소의 대응관계로부터 추출한 컨텐츠 제공자 식별 정보에 해당하는 워터마크 서버 주소를 확인할 수 있다. 이와 같이, 영상 표시 장치(100)는 워터마크 정보만으로 메인 시청각 컨텐트를 식별할 수 없는 경우에, 획득한 워터마크 서버 주소에 해당하는 워터마크 서버(21)에 접속하여 제1 질의를 전송한다(S309).
워터마크 서버(21)는 제1 질의에 대한 제1 응답을 제공한다(S311). 이 제1 응답은 핑거프린트 서버 주소, 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다. 컨텐츠 정보와 부가 서비스 정보는 앞서 설명한 바와 같다.
워터마크 정보와 제1 응답이 핑거프린트 서버 주소를 포함하고 있다면, 영상 표시 장치(100)는 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출한다(S313).
영상 표시 장치(100)는 제1 응답 내의 핑거프린트 서버 주소에 해당하는 핑거프린트 서버(22)에 접속하여 추출한 특징 정보를 포함하는 제2 질의를 전송한다(S315).
핑거프린트 서버(22)는 제2 질의에 대한 제2 응답으로서 질의 결과를 제공한다(S317).
질의 결과가 부가 서비스 주소나 부가 서비스를 포함하고 있지 않고 부가 서비스 주소 제공 서버 주소를 포함한다면, 영상 표시 장치(100)는 획득한 부가 서비스 주소 제공 서버 주소에 해당하는 부가 서비스 정보 제공 서버(40)에 접속하여 컨텐츠 정보를 포함하는 제3 질의를 전송한다(S319).
부가 서비스 정보 제공 서버(40)는 제3 질의의 컨텐츠 정보와 관련된 하나 이상의 이용가능한 부가 서비스를 검색한다. 이후, 부가 서비스 정보 제공 서버(40)는 제3 질의에 대한 제3 응답으로 하나 이상의 이용가능한 부가 서비스를 위한 부가 서비스 정보를 영상 표시 장치(100)에 제공한다(S321).
영상 표시 장치(100)는 제1 응답, 제2 응답, 또는 제3 응답을 통해 하나 이상의 이용가능한 부가 서비스 주소를 획득하였다면, 이 하나 이상의 이용가능한 부가 서비스 주소에 접속하여 부가 서비스를 요청하고(S323), 부가 서비스를 획득한다(S325).
다음은 도 17을 참고하여, 본 발명의 실시예에 따른 영상 표시 장치(100)를 설명한다.
도 17은 본 발명의 실시예에 따른 영상 표시 장치의 블록도이다.
도 17에 도시된 바와 같이, 본 발명의 실시예에 따른 영상 표시 장치(100)는 방송 신호 수신부(101), 복조부(103), 채널 복호부(105), 역다중화부(107), 시청각 복호부(109), 외부 입력 포트(111), 재생 제어부(113), 재생 장치(120), 부가 서비스 관리부(130), 데이터 송수신부(141), 메모리(150)를 포함한다.
방송 신호 수신부(101)는 컨텐츠 제공 서버(10) 또는 MVPD(30)로부터 방송 신호를 수신한다.
복조부(103)는 수신한 방송 신호를 복조하여 복조된 신호를 생성한다.
채널 복호부(105)는 복조된 신호를 채널 복호하여 채널 복호된 데이터를 생성한다.
역다중화부(107)는 채널 복호된 데이터로부터 메인 시청각 컨텐트와 부가 서비스를 분리한다. 분리된 부가 서비스는 부가 서비스 저장부(152)에 저장된다.
시청각 복호부(109)는 분리된 메인 시청각 컨텐트를 시청각 복호(AV decoding)하여 비압축 메인 시청각 컨텐트를 생성한다.
한편, 외부 입력 포트(111)는 방송 수신 장치(60), 디브이디(digital versatile disk, DVD) 플레이어, 블루레이 디스크 (Blu-ray disc) 플레이어 등으로부터 비압축 메인 시청각 컨텐트를 수신한다. 외부 입력 포트(111)는 DSUB 포트, HDMI (High Definition Multimedia Interface) 포트, DVI (Digital Visual Interface) 포트, 컴포지트(composite) 포트, 컴포넌트(component) 포트, S-Video 포트 중 하나 이상을 포함할 수 있다.
재생 제어부(113)는 시청각 복호부(109)가 생성하는 비압축 메인 시청각 컨텐트 또는 외부 입력 포트(111)로부터 수신한 비압축 메인 시청각 컨텐트 중 적어도 하나를 사용자 선택에 의해 재생 장치(120)에 재생한다.
재생 장치(120)는 디스플레이부(121)와 스피커(123)를 포함한다. 디스플레이부(121)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
부가 서비스 관리부(130)는 메인 시청각 컨텐트의 컨텐츠 정보를 획득하고, 획득된 컨텐츠 정보에 기초하여 이용가능한 부가 서비스를 획득한다. 특히, 앞서 설명한 바와 같이 부가 서비스 관리부(130)는 비압축 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플에 기초하여 메인 시청각 컨텐트의 식별 정보를 획득할 수 있는데, 본 명세서에서는 이를 자동 컨텐츠 인식(automatic contents recognition, ACR)이라 칭하기도 한다.
데이터 송수신부(141)는 ATSC-M/H (Advanced Television Systems Committee - Mobile/Handheld) 채널 송수신부(141a)와 IP 송수신부(141b)를 포함할 수 있다.
메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상 표시 장치(100)는 인터넷(internet)상에서 상기 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
메모리(150)는 컨텐츠 정보 저장부(151), 부가 서비스 저장부(152), 로고 저장부(153), 설정 정보 저장부(154), 북마크 저장부(155), 사용자 정보 저장부(156), 이용 정보 저장부(157)를 포함할 수 있다.
컨텐츠 정보 저장부(151)는 복수의 특징 정보에 대응하는 복수의 컨텐츠 정보를 저장한다.
부가 서비스 저장부(152)는 복수의 특징 정보에 대응하는 복수의 부가 서비스를 저장할 수도 있고, 복수의 컨텐츠 정보에 대응하는 복수의 부가 서비스를 저장할 수도 있다.
로고 저장부(153)는 복수의 로고를 저장한다. 또, 로고 저장부는 이 복수의 로고에 대응하는 컨텐츠 제공자 식별자 또는 복수의 로고에 대응하는 워터마크 서버 주소를 더 저장할 수도 있다.
설정 정보 저장부(154)는 ACR을 위한 설정 정보를 저장한다.
북마크 저장부(155)는 북마크를 저장한다.
사용자 정보 저장부(156)는 사용자 정보를 저장한다. 사용자 정보는 하나 이상의 서비스를 위한 하나 이상의 계정 정보, 지역 정보, 가족 구성원 정보, 선호 장르 정보, 영상 표시 장치 정보, 이용 정보 제공 범위 중 하나 이상을 포함할 수 있다. 하나 이상의 계정 정보는 이용 정보 측정 서버를 위한 계정 정보, 트위터(twitter), 페이스북(facebook)과 같은 소셜 네트워크 서비스(social network service)의 계정 정보를 포함할 수 있다. 지역 정보는 주소 정보, 우편 번호를 포함할 수 있다. 가족 구성원 정보는 가족 구성원의 수, 각 구성원의 나이, 각 구성원의 성별, 각 구성원의 종교, 각 구성원의 직업 등을 포함할 수 있다. 선호 장르 정보는 스포츠, 영화, 드라마, 교육, 뉴스, 오락, 기타 장르 중에서 하나 이상으로 설정될 수 있다. 영상 표시 장치 정보는 영상 표시 장치의 종류, 제조사, 펌웨어 버전, 해상도, 모델명, OS, 브라우저, 저장 장치 유무, 저장 장치의 용량, 네트워크 속도에 대한 정보를 포함할 수 있다. 이용 정보 제공 범위가 설정되면, 영상 표시 장치(100)는 설정된 범위 내에서 메인 시청각 컨텐트 시청 정보와 부가 서비스 이용 정보를 수집하고 보고할 수 있다. 이용 정보 제공 범위는 가상 채널 각각에 대해 설정될 수 있다. 또한, 이용 정보 측정 허용 범위는 물리 채널 전체에 대해 설정될 수도 있다.
이용 정보 저장부(157)는 영상 표시 장치(100)에 의해 수집되는 메인 시청각 컨텐트 시청 정보와 부가 서비스 사용 정보를 저장한다. 또한, 영상 표시 장치(100)는 수집한 메인 시청각 컨텐트 시청 정보와 수집한 부가 서비스 사용 정보에 기초하여 서비스 이용 패턴을 분석하고, 분석된 서비스 이용 패턴을 이용 정보 저장부(157)에 저장할 수 있다.
부가 서비스 관리부(130)는 핑거프린트 서버(22) 또는 컨텐츠 정보 저장부(151)로부터 메인 시청각 컨텐트의 컨텐츠 정보를 획득할 수 있다. 컨텐츠 정보 저장부(151)에 추출한 특징 정보에 해당하는 컨텐츠 정보가 없거나 충분한 컨텐츠 정보가 없는 경우, 부가 서비스 관리부(130)는 데이터 송수신부(141)를 통해 추가 컨텐츠 정보를 수신할 수 있다. 또한, 부가 서비스 관리부(130)는 지속적으로 컨텐츠 정보를 업데이트할 수 있다.
부가 서비스 관리부(130)는 부가 서비스 제공 서버(50) 또는 부가 서비스 저장부(153)로부터 이용가능한 부가 서비스를 획득할 수 있다. 부가 서비스 저장부(153)에 부가 서비스가 없거나 충분한 부가 서비스가 없는 경우, 부가 서비스 관리부(130)는 데이터 송수신부(141)를 통해 부가 서비스를 업데이트할 수 있다. 또한, 부가 서비스 관리부(130)는 지속적으로 부가 서비스를 업데이트할 수 있다.
부가 서비스 관리부(130)는 메인 시청각 컨텐트로부터 로고를 추출하고, 로고 저장부(155)에 질의하여 추출한 로고에 대응하는 컨텐츠 제공자 식별자 또는 워터마크 서버 주소를 획득할 수 있다. 로고 저장부(155)에 추출한 로고와 일치하는 로고가 없거나 충분한 로고가 없는 경우, 부가 서비스 관리부(130)는 데이터 송수신부(141)를 통해 추가 로고를 수신할 수 있다. 또한, 부가 서비스 관리부(130)는 지속적으로 로고를 업데이트할 수 있다.
부가 서비스 관리부(130)는 메인 시청각 컨텐트로부터 추출한 로고와 로고 저장부(155) 내의 복수의 로고와의 비교를 수행하는데 연산의 부담을 줄이기 위한 다양한 방법을 수행할 수 있다.
예컨데, 부가 서비스 관리부(130)는 색깔 특성에 기초하여 비교를 수행할 수 있다. 즉, 부가 서비스 관리부(130)는 추출한 로고의 색깔 특성과 로고 저장부(155) 내의 로고의 색깔 특성을 비교하여 일치 여부를 판단할 수 있다.
또, 부가 서비스 관리부(130)는 문자 인식에 기초하여 비교를 수행할 수 있다. 즉, 부가 서비스 관리부(130)는 추출한 로고로부터 인식되는 문자와 로고 저장부(155) 내의 로고로부터 인식되는 문자를 비교하여 일치 여부를 판단할 수 있다.
뿐만 아니라, 부가 서비스 관리부(130)는 로고의 윤곽에 대한 형상에 기초하여 비교를 수행할 수 있다. 즉, 부가 서비스 관리부(130)는 추출한 로고의 윤곽 형상과 로고 저장부(155) 내의 로고의 윤곽 형상을 비교하여 일치 여부를 판단할 수 있다.
다음은 도 18와 도 19을 참고하여 본 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 설명한다.
도 18는 본 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 보여주는 흐름도이다.
부가 서비스 정보는 부가 서비스의 시작 시간을 포함할 수 있다. 이때, 영상 표시 장치(100)는 이 시작 시간에서 부가 서비스를 시작할 필요가 있다. 그러나, 영상 표시 장치(100)는 타임 스탬프를 가지지 않는 비압축 메인 시청각 컨텐트를 전송하는 신호를 수신하기 때문에, 메인 시청각 컨텐트의 재생 시간의 기준과 부가 서비스의 시작 시간의 기준은 서로 다르다. 영상 표시 장치(100)가 시간 정보를 가지는 메인 시청각 컨텐트를 수신하더라도, 재방송 등과 같이, 메인 시청각 컨텐트의 재생 시간의 기준과 부가 서비스의 시작 시간의 기준은 서로 다를 수 있다. 따라서, 영상 표시 장치(100)는 메인 시청각 컨텐트의 기준 시간과 부가 서비스의 기준 시간을 동기화할 필요가 있다. 특히 영상 표시 장치(100)는 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 시작 시간을 동기화할 필요가 있다.
먼저, 부가 서비스 관리부(130)는 메인 시청각 컨텐트의 일부 구간을 추출한다(S801). 메인 시청각 컨텐트의 일부 구간은 메인 시청각 컨텐트의 일부 비디오 프레임과 일부 오디오 구간 중 하나 이상을 포함할 수 있다. 부가 서비스 관리부(130)가 메인 시청각 컨텐트의 일부 구간을 추출한 시간을 Tn이라 한다.
부가 서비스 관리부(130)는 추출된 구간에 기초하여 메인 시청각 컨텐트의 컨텐츠 정보를 획득한다(S803). 구체적으로 부가 서비스 관리부(130)는 추출된 구간에 보이지 않는 워터마크(invisible watermark)로 부호화된 정보를 복호하여 컨텐츠 정보를 획득할 수 있다. 또한, 부가 서비스 관리부(130)는 추출된 구간의 특징 정보를 추출하고, 추출된 특징 정보에 기초하여 핑거프린트 서버(22) 또는 컨텐츠 정보 저장부(151)로부터 메인 시청각 컨텐트의 컨텐츠 정보를 획득할 수 있다. 부가 서비스 관리부(130)가 컨텐츠 정보를 획득한 시간을 Tm이라 한다.
한편, 컨텐츠 정보는 추출된 구간의 시작 시간(Ts)을 포함한다. 부가 서비스 관리부(130)는 컨텐츠 정보 획득 시간(Tm) 이후부터는 시간(Ts), 시간(Tm), 시간(Tn)에 기초하여 메인 시청각 컨텐트의 재생 시간을 부가 서비스의 시작 시간과 동기화한다(S805). 구체적으로, 부가 서비스 관리부(130)는 컨텐츠 정보 획득 시간(Tm)을 새로이 계산되는 시간(Tp)로 간주한다. 여기서, Tp = Ts + (Tm-Tn) 이라 할 수 있다.
그리고, 부가 서비스 관리부(130)는 컨텐츠 정보 획득 시간부터 시간(Tx)가 경과한 시간을 Tp + Tx로 간주할 수 있다.
이후, 부가 서비스 관리부(130)는 획득한 컨텐츠 정보에 기초하여 부가 서비스와 부가 서비스의 시작 시간(Ta)을 획득한다(S807).
메인 시청각 컨텐트의 동기화된 재생 시간이 부가 서비스의 시작 시간(Ta)와 일치하면, 부가 서비스 관리부(130)는 획득한 부가 서비스를 시작한다(S809). 구체적으로, 부가 서비스 관리부(130)는 Tp + Tx =Ta 를 만족하는 경우에 부가 서비스를 시작할 수 있다.
도 19은 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 보여주는 개념도이다.
도 19에 도시된 바와 같이, 영상 표시 장치(100)는 시스템 시간(Tn)에서 시청각 샘플을 추출한다.
영상 표시 장치(100)는 추출한 시청각 샘플로부터 특징 정보를 추출하고, 핑거프린트 서버(22)에 추출한 특징 정보를 포함하는 질의를 전송하여 질의 결과를 수신한다. 영상 표시 장치(100)는 질의 결과를 파싱하여 추출한 시청각 샘플의 시작 시간(Ts)가 11000ms에 해당함을 시간(Tm)에서 확인한다.
따라서, 영상 표시 장치는 추출한 시청각 샘플의 시작 시간을 확인한 시점을 Ts + (Tm - Tn)로 간주하여 이후부터 메인 시청각 컨텐트의 재생 시간을 부가 서비스의 시작 시간과 동기화할 수 있다.
도 20은 본 발명의 또 다른 실시예에 따른 핑거프린트 기반의 영상 표시 장치의 구조를 보여주는 블록도이다.
도 20에서, Tuner(501)는 air 채널을 통해 전송되는 8-VSB RF 신호로부터 Symbol을 추출한다.
8-VSB Demodulator(503)는 Tuner(501)가 추출한 8-VSB Symbol을 복조하여 의미 있는 디지털 데이터를 복원한다.
VSB Decoder(505)는 8-VSB Demodulator(503)가 복원한 디지털 데이터를 복호하여 ATSC 메인 서비스와 ATSC M/H 서비스를 복원한다.
MPEG-2 TP Demux(507)는 8-VSB 신호를 통하여 전송되는 MPEG-2 Transport Packet 또는 PVR Storage에 저장된 MPEG-2 Transport Packet 중에서 영상 표시 장치(100)가 처리하고자 하는 Transport Packet을 필터링하여 적절한 처리 모듈로 중계한다.
PES 디코더(539)는 MPEG-2 Transport Stream을 통하여 전송된 Packetized Elementary Stream을 Buffering하고 복원한다.
PSI/PSIP 디코더(541)는 MPEG-2 Transport Stream을 통하여 전송되는 PSI/PSIP Section Data를 Buffering하고 분석한다. 분석된 PSI/PSIP 데이터는 Service Manager(미도시)에 의하여 수집되어, Service Map 및 Guide data 형태로 DB에 저장된다.
DSMCC Section Buffer/Handler (511)은 MPEG-2 TP를 통하여 전송되는 파일 전송 및 IP Datagram encapsulation 등을 위한 DSMCC Section Data를 버퍼링(Buffering)하고 처리한다.
IP/UDP Datagram Buffer/Header Parser(513)는 DSMCC Addressable section을 통해 encapsulate되어 MPEG-2 TP를 통하여 전송되는 IP Datagram을 버퍼링하고 복원하여 각 Datagram의 Header를 분석한다. 또한, IP/UDP Datagram Buffer/Header Parser(513)는 IP Datagram을 통하여 전송되는 UDP Datagram을 Buffering 및 복원하고, 복원된 UDP Header를 분석 및 처리한다.
Stream component handler(557)는 ES Buffer/Handler, PCR Handler, STC 모듈, Descrambler, CA Stream Buffer/Handler, Service Signaling Section Buffer/Handler를 포함할 수 있다.
ES Buffer/Handler는 PES 형태로 전송된 Video, Audio 데이터 등의 Elementary Stream을 Buffering 및 복원하여 적절한 A/V Decoder로 전달한다.
PCR Handler는 Audio 및 Video Stream의 Time synchronization 등을 위하여 사용되는 PCR (Program Clock Reference) Data를 처리한다.
STC 모듈은 PCR Handler를 통하여 전달받은 Reference Clock 값을 이용하여, A/V Decoder 들의 Clock 값을 보정하여 Time Synchronization를 수행한다.
수신된 IP Datagram의 Payload에 Scrambling이 적용된 경우, Descrambler는 CA Stream Handler로부터 전달 받은 Encryption key 등을 이용, Payload의 데이터를 복원한다.
CA Stream Buffer/Handler는 MPEG-2 TS또는 IP Stream을 통하여 전송되는 Conditional Access 기능을 위하여 전송되는 EMM, ECM 등의 Descrambling을 위한 Key 값 등의 Data를 Buffering 및 처리한다. CA Stream Buffer/Handler의 Output은 Descrambler로 전달되어, descrambler는 A/V Data 및 File Data등을 전송하는 MPEG-2 TP 또는 IP Datagram의 암호화 해제작업을 수행한다.
Service Signaling Section Buffer/Handler는 IP Datagram의 형태로 전송되는 NRT Service Signaling Channel Section Data를 Buffering 하고 복원하며 분석한다. Service Manager(미도시)는 분석된 NRT Service Signaling Channel Section 데이터를 수집하여, Service Map 및 Guide data 형태로 DB에 저장한다.
A/V Decoder(561)는 ES Handler를 통하여 전달받은 Audio/Video 데이터의 압축을 복호화하여, 사용자에게 Presentation한다.
MPEG-2 Service Demux(미도시)는 MPEG-2 TP Buffer/Parser, Descrambler, PVR Storage 모듈을 포함할 수 있다.
MPEG-2 TP Buffer/Parser (미도시)는 8-VSB 신호를 통하여 전송되는 MPEG-2 Transport Packet을 Buffering 및 복원하고, Transport Packet Header를 검출 및 처리한다.
Descrambler는 MPEG-2 TP 중, Scramble이 적용된 Packet payload에 대하여, CA Stream Handler로부터 전달 받은 Encryption key 등을 이용, Payload의 데이터를 복원한다.
PVR Storage 모듈은 사용자의 요구 등에 따라 8-VSB 신호를 이용하여 수신된 MPEG-2 TP를 저장하고, 또한 사용자의 요구에 의해 MPEG-2 TP를 출력한다. PVR Storage 모듈은 PVR Manager(미도시)에 의해 제어될 수 있다.
File Handler(551)는 ALC/LCT Buffer/Parser, FDT Handler, XML Parser, File Reconstruction Buffer, Decompressor, File Decoder, File Storage를 포함할 수 있다.
ALC/LCT Buffer/Parser는 UDP/IP Stream으로 전송되는 ALC/LCT 데이터를 Buffering 및 복원하고, ALC/LCT의 Header 및 Header extension을 분석한다. ALC/LCT Buffer/Parser는 NRT Service Manager(미도시)에 의해 제어될 수 있다.
FDT Handler는 ALC/LCT session을 통하여 전송되는 FLUTE protocol의 File Description Table을 분석 및 처리한다. FDT Handler는 NRT Service Manager(미도시)에 의해 제어될 수 있다.
XML Parser는 ALC/LCT session을 통하여 전송되는 XML Document를 분석하여, FDT Handler, SG Handler 등 적절한 모듈로 분석된 데이터를 전달한다.
File Reconstruction Buffer는 ALC/LCT, FLUTE session으로 전송되는 파일을 복원한다.
Decompressor는 ALC/LCT, FLUTE session으로 전송되는 파일이 압축되어 있는 경우, 그 압축을 해제하는 프로세스를 수행한다.
File Decoder는 File Reconstruction Buffer에서 복원된 File 또는 Decompressor에서 압축해제된 파일, 또는 File Storage에서 추출된 File을 Decoding한다.
File Storage는 복원된 파일을 필요에 의하여 저장하거나 추출한다.
M/W Engine(미도시)은 DSMCC Section, IP Datagram 등을 통하여 전송되는 A/V Stream이 아닌 파일 등의 Data를 처리한다. , M/W Engine은 처리된 데이터를 Presentation Manager 모듈로 전달한다.
SG Handler(미도시)는 XML Document 형태로 전송되는 Service Guide 데이터를 수집하고 분석하여 EPG Manager에게 전달하는 프로세스를 수행한다.
Service Manager(미도시)는 MPEG-2 Transport Stream을 통하여 전송되는 PSI/PSIP Data, IP Stream으로 전송되는 Service Signaling Section Data를 수집하고 분석하여 Service Map을 제작한다. Service Manager(미도시)는 제작한 service map을 Service Map & Guide Database에 저장하며, 사용자가 원하는 Service에 대한 access를 제어한다. Operation Controller(미도시)에 의하여 제어되며, Tuner(501), MPEG-2 TP Demux(507), IP Datagram Buffer/Handler (513) 등에 대한 제어를 수행한다.
NRT Service Manager(미도시)는 IP layer 상에서 FLUTE session을 통하여 object/file 형태로 전송되는 NRT 서비스에 대한 전반적인 관리를 수행한다. NRT Service Manager(미도시)는 FDT Handler, File Storage등을 제어할 수 있다.
Application Manager(미도시)는 Object, file 등의 형태로 전송되는 Application 데이터의 처리에 관한 전반적인 관리를 수행한다.
UI Manager(미도시)는 User Interface를 통하여 사용자의 Input을 Operation Controller에 전달하고, 사용자가 요구하는 서비스를 위한 Process의 동작을 시작한다.
Operation Controller(미도시)는 UI Manager를 통하여 전달받은 사용자의 Command를 처리하고, 필요한 모듈의 Manager가 해당 Action을 수행하게 한다.
Fingerprint Extractor(565)는 Audio/Video 스트림으로 부터 fingerprint 특징 정보를 추출한다.
Fingerprint Comparator(567)는 Fingerprint Extractor가 추출한 특징 정보와 Reference fingerprint를 비교하여 일치하는 컨텐트를 찾는다. Fingerprint Comparator(567)는 Local에 저장된 Reference fingerprint DB를 이용할 수도 있고, 인터넷 상의 Fingerprint 질의 서버에 질의하여 결과를 수신할 수도 있다. 비교 결과로 매칭된 결과 데이터는 Application에 전달되어 이용될 수 있다.
Application(569)은 ACR 기능을 관장하는 모듈 혹은 ACR에 기반하여 Enhanced 서비스를 제공하는 어플리케이션 모듈로서, 시청중인 방송 컨텐트를 식별하여 이와 연계된 확장된 서비스를 제공한다.
도 21은 본 발명의 또 다른 실시예에 따른 워트마크 기반의 영상 표시 장치의 구조를 보여주는 블록도이다.
도 21에 도시된 워트마크 기반의 영상 표시 장치는 도 20에 도시된 핑거프린트 기반의 영상 표시 장치와 유사하나, 핑거프린트 기반의 영상 표시 장치의 Fingerprint Extractor(565)와 Fingerprint Comparator(567)를 포함하지 않으며, 대신 Watermark Extractor(566)를 더 포함한다.
Watermark Extractor(566)는 Audio/Video 스트림으로부터 watermark형태로 삽입된 데이터를 추출한다. 이렇게 추출된 데이터는 Application에 전달되어 이용될 수 있다.
도 22 는 본 발명의 일 실시예에 따른 워터마킹 기법을 통해 전달될 수 있는 데이터들을 예시한 도면이다.
전술한 바와 같이 WM 를 통한 ACR 은, 비압축적 오디오/비디오만을 접근가능한 환경(즉, 케이블/위성/IPTV 등으로부터 수신하는 환경) 에서, 그 비압축적 오디오/비디오로부터 컨텐츠에 대한 부가 서비스 관련 정보를 얻을 수 있다는 것에 목적이 있다. 이러한 환경을 ACR 환경이라고 부를 수 있다. ACR 환경에서, 수신기는 비압축적 오디오/비디오 데이터만을 전달받기 때문에 현재 디스플레이되고 있는 컨텐츠가 어떠한 컨텐츠인지를 알 수 없다. 따라서, 수신기는 WM 에 의해 전달되는 컨텐츠 소스 ID, 방송의 현재시점, 관련 어플리케이션의 URL 정보들을 활용하여, 디스플레이되고 있는 컨텐츠를 식별하고 인터렉티브 서비스를 제공할 수 있게 된다.
오디오/비디오 워터마크(WaterMark, WM) 을 사용하여 방송과 관련된 부가서비스를 전달함에 있어서, 가장 간단한 상황은 모든 부가 정보가 WM 에 의해 전달되는 경우라고 할 수 있다. 이 경우, 모든 부가 정보가 WM 검출기에 의해 검출되어 수신기가 검출된 정보들을 한번에 처리할 수 있다.
그러나, 이 경우에는 오디오/비디오 데이터에 WM 를 삽입하는 양이 증가하면 오디오/비디오의 전체 퀄리티가 저하될 수 있다. 위와 같은 이유에 의해서, WM 에는 가능한 최소한 필요한 데이터만을 삽입하는 것이 하나의 목표가 될 수 있다. 최소한의 데이터를 WM 로서 삽입하면서도, 많은 정보를 효율적으로 수신기가 수신하여 처리할 수 있도록 하는, WM 데이터의 구조가 정의될 필요가 있다. WM 에 사용되는 데이터 구조는, 상대적으로 전달되는 데이터의 양에 의해 영향을 적게 받는 핑거프린팅 방식에 있어서도 동일하게 활용될 수 있다.
도시된 바와 같이, 본 발명의 일 실시예에 따른 워터마킹 기법을 통해 전달될 수 있는 데이터들에는, 컨텐츠 소스의 ID, 타임스탬프, 인터랙티브 어플리케이션의 URL, 타임스탬프의 종류, URL 프로토콜의 종류, 어플리케이션 이벤트, 데스티네이션의 종류 등이 있을 수 있다. 이 외에도 다양한 종류의 데이터들이 본 발명에 따른 WM 기법에 의해 전달될 수 있다.
본 발명은 WM 기법을 통해 ACR 이 이루어지는 경우에 있어서, WM 에 담겨지는 데이터의 구조를 제안한다. 각 도시된 데이터 종류들에 대하여, 가장 효율적인 데이터 구조가 본발명에 의해 제안될 수 있다.
본 발명의 일 실시예에 따른 워터마킹 기법을 통해 전달될 수 있는 데이터들 중에는, 컨텐츠 소스의 ID 가 있을 수 있다. 셋톱박스(set-top box)를 이용한 환경에서 수신기(단말, TV)는, MVPD 가 셋톱박스를 통해 프로그램 관련 정보를 같이 전달하지 않는다면, 프로그램 이름, 채널 정보등의 정보를 알 수 없다. 따라서, 특정 컨텐츠 소스를 구분하기 위한 유니크 ID 가 필요할 수 있다. 본 발명에서는 컨텐츠 소스의 ID 종류를 한정하지 않는다. 컨텐츠 소스의 ID 에는 다음과 같은 실시예가 있을 수 있다.
먼저, 글로벌 프로그램 ID (Global Program ID) 는 각 방송 프로그램을 구분할 수 있는 글로벌한 식별자일 수 있다. 해당 ID 는 컨텐츠 프로바이더가 직접 생성할 수도 있고, 권위있는 단체에서 지정한 형식을 따를 수도 있다. 예를 들어, 북미 "TMS metadata" 의 TMSId, 또는 영화/방송 프로그램 구분자인 EIDR ID 등이 있을 수 있다.
글로벌 채널 ID (Global Channel ID) 는 MVPD 와 상관없는, 모든 채널을 구분할 수 있는 채널 식별자일 수 있다. 셋톱박스에서 제공하는 MVPD 마다 채널 번호가 다를 수 있다. 또한, 같은 MVPD 라고 하더라도, 사용자가 지정하는 서비스에 따라 채널 번호가 다를 수 있다. 글로벌 채널 ID 는 MVPD 등에 영향받지 않는 글로벌한 식별자로 사용될 수 있다. 실시예에 따라, 지상파로 전송되는 채널은 메이저 채널 넘버&마이너 채널 넘버로 식별될 수 있다. 프로그램 ID 만을 사용할 경우, 여러 방송국에서 동일 프로그램을 방영하는 경우에 문제가 발생할 수 있으므로, 특정 방송국을 지정하기 위하여 글로벌 채널 ID 가 사용될 수 있다.
WM 에 삽입할 컨텐츠 소스의 ID 로는, 프로그램 ID 와 채널 ID 가 있을 수 있다. WM 에는 프로그램 ID 와 채널 ID 가 모두 삽입되거나, 두 ID 를 조합한 새로운 형태의 ID, 또는 각각의 ID 가 삽입될 수 있다. 실시예에 따라 각 ID 또는 통합된 ID 를 해쉬(hash)화하여 데이터의 양을 줄일 수도 있다.
또한, 본 발명의 일 실시예에 따른 워터마킹 기법을 통해 전달될 수 있는 데이터들 중에는, 타임 스탬프가 있을 수 있다. 수신기는 현재 시청중인 내용이 컨텐츠의 어느 시점인지를 알 수 있어야 한다. 이 시간 관련 정보는 타임 스탬프라고 불릴 수도 있으며, WM 에 삽입될 수 있다. 시간 관련 정보는 절대시간(UTC, GPS, 등 ...) 또는 미디어 타임의 형태를 띌 수 있다. 시간 관련 정보는 정확도를 위하여 밀리 세컨드 단위까지 전달할 수 있으며, 실시예에 따라 더 세밀한 단위까지도 전달될 수 있다. 타임 스탬프는 후술할 타임 스탬프의 종류 정보에 따라 가변의 길이를 가질 수도 있다.
또한, 본 발명의 일 실시예에 따른 워터마킹 기법을 통해 전달될 수 있는 데이터들 중에는, 인터랙티브 어플리케이션의 URL 이 있을 수 있다. 현재 시청중인 방송 프로그램과 관련된 인터액티브 어플리케이션이 있을 경우 해당 어플리케이션에 대한 URL 이 WM 에 삽입될 수 있다. 수신기는 WM 를 검출하여, 해당 URL 을 얻고, 브라우저를 통해 어플리케이션을 실행할 수 있다.
도 23 는 본 발명의 일 실시예에 따른 타임 스탬프 타입 필드의 각 값들의 의미를 도시한 도면이다.
본 발명은 워터마킹 기법을 통해 전달될 수 있는 데이터 중 하나로서, 타임 스탬프 타입 필드를 제안한다. 또한, 본 발명은 타임 스탬프 타입 필드의 효과적인 데이터 구조를 제안한다.
타임 스탬프 타입 필드에는 5 비트가 할당될 수 있다. 타임 스탬프의 처음 두 비트들은 타임 스탬프의 사이즈를 의미할 수 있고, 나머지 뒤따르는 3 비트들은 타임 스탬프가 나타내는 시간정보의 단위를 나타낼 수 있다. 여기서, 처음 두 비트는 타임스탬프 사이즈 필드, 나머지 3 비트들은 타임스탬프 유닛 필드라 불릴 수 있다.
도시된 바와 같이, 타임 스탬프의 크기(size)와 타임 스탬프의 단위 값에 따라, 실제 타임 스탬프 정보는 가변적인 양으로써 WM 에 삽입될 수 있다. 이 가변성을 이용하여, 설계자는 타임 스탬프의 정확도의 수준에 따라 타임스탬프에 할당되는 크기 및 그 단위를 선택할 수 있다. 타임 스탬프의 정확도가 높아지면 정확한 시각에 인터랙티브 서비스를 제공하는 것이 가능해지겠지만, 반대로 시스템의 복잡도가 증가하게 된다. 이 트레이드 오프를 고려해서 타임스탬프에 할당되는 크기 및 그 단위가 선택될 수 있다.
타임 스탬프 타입 필드의 첫 두 비트가 00 일 경우, 타임 스탬프는 1 바이트의 크기를 가질 수 있다. 타임 스탬프 타입 필드의 첫 두 비트가 01, 10, 11 일 경우 타임 스탬프의 크기는 각각 2, 4, 8 바이트의 크기를 가질 수 있다.
타임 스탬프 타입 필드의 마지막 3 비트가 000 일 경우, 타임 스탬프는 밀리세컨드의 단위를 가질 수 있다. 타임 스탬프 타입 필드의 마지막 3 비트가 001, 010, 011 일 경우, 타임 스탬프는 각각 초, 분, 시간의 단위를 가질 수 있다. 타임 스탬프 타입 필드의 마지막 3 비트가 101 에서 111 사이의 값일 경우는, 향후 사용을 위해 남겨둘 수 있다.
여기서, 타임 스탬프 타입 필드의 마지막 3 비트가 100 인 경우에는, 밀리세컨드, 세컨드 등의 특정 시간 단위가 아닌 별도의 타임 코드가 단위로서 사용될 수 있다. 예를 들어, SMPTE의 타임 코드 형태인 HH:MM:SS:FF 형태의 타임 코드가 WM 에 삽입될 수 있다. 여기서, HH 는 시간 단위, MM 은 분 단위, SS 는 초 단위일 수 있다. 그리고, FF 는 프레임 정보로서, 시간 단위가 아닌 프레임 정보까지 동시에 전달하여, 보다 정교한(Frame-accurate) 서비스가 제공될 수 있다. WM 에 삽입되기 위하여, 실제 타임 스탬프는 콜론을 제외한 HHMMSSFF 의 형태를 가지게 될 수도 있다. 이 경우, 타임 스탬프 사이즈 값은 11(8바이트)를 가지고, 타임 스탬프 유닛 값은 100 을 가질 수 있다. 가변 유닛일 경우에 어떠한 방식으로 타임 스탬프가 삽입되는지는 본 발명에 의해 한정되지 아니한다.
예를 들어, 타임 스탬프 종류 정보가 10 의 값을 가지고, 타임 스탬프의 단위 정보가 000 의 값을 가지는 경우, 타임 스탬프의 크기는 4 바이트이며, 타임 스탬프의 단위가 밀리세컨드일 수 있다. 이 때, 타임 스탬프가 Ts = 3265087 인 경우, 뒤의 3자리 087 은 밀리세컨드를 의미할 수 있고, 나머지 3265 는 초 단위일 수 있다. 따라서, 이 타임 스탬프를 해석하면, 현재 시간은 WM 이 삽입된 해당 프로그램의 시작 후 54분 25.087 초가 경과한 시점일 수 있다. 이는 일 실시예일 뿐이며, 타임 스탬프는 월 타임(Wall time) 의 역할로서, 컨텐츠에 무관하게 세그먼트 혹은 수신기 자체의 시간을 지시할 수도 있다.
도 24 은 본 발명의 일 실시예에 따른 URL 프로토콜 타입 필드의 각 값들의 의미를 도시한 도면이다.
본 발명은 워터마킹 기법을 통해 전달될 수 있는 데이터 중 하나로서, URL 프로토콜 타입 필드를 제안한다. 또한, 본 발명은 URL 프로토콜 타입 필드의 효과적인 데이터 구조를 제안한다.
전술한 정보 중, URL 은 그 길이가 길어 상대적으로 삽입될 데이터 양이 많은 것이 일반적이다. 전술한 바와 같이 WM 에 삽입되는 데이터는 적을수록 효율적인 바, URL 중에 고정적인 부분은 수신기에서 처리할 수 있다. 이를 위해서, 본 발명은 URL 프로토콜 타입을 위한 필드를 제안할 수 있다.
URL 프로토콜 타입 필드는 3 비트의 크기를 가질 수 있다. 서비스 프로바이더는 URL 프로토콜 타입 필드를 이용하여 WM 에 URL 프로토콜을 설정할 수 있다. 이 경우, 인터랙티브 어플리케이션의 URL 은 도메이부터 삽입되어 WM 로 전송될 수 있다.
수신기의 WM 검출기는 먼저, URL 프로토콜 타입 필드를 파싱하여 URL 프로토콜 정보를 얻고, 이후 전송된 URL 값 앞에 해당 프로토콜을 붙여 전체 URL 을 만들 수 있다. 수신기는 브라우저를 통해 완성된 URL 에 접근하여 해당 인터랙티브 어플리케이션을 실행할 수 있다.
여기서, URL 프로토콜 타입 필드의 값이 000 인 경우에는, URL 프로토콜이 WM 의 URL 필드에 직접 명시되어 삽입될 수 있다. URL 프로토콜 타입 필드의 값이 001, 010, 011 인 경우, URL 프로토콜은 각각 http://, https://, ws:// 일 수 있다. URL 프로토콜 타입 필드의 값이 100 에서 111 사이 값을 가지는 경우는, 향후 사용을 위해 남겨둘 수 있다.
어플리케이션 URL 은, 그 자체로 브라우저를 통해 어플리케이션의 실행이 가능할 수 있다(Web App. 의 형태). 또한, 실시예에 따라 컨텐츠 소스 ID 와 타임 스탬프 정보를 참조해야할 수 있다. 후자의 경우, 컨텐츠 소스 ID 정보와 타임 스탬프 정보를 어플리케이션 서버에 전달하기 위하여 최종적인 URL 이 다음과 같은 형태를 띌 수 있다. 여기서 어플리케이션 서버는, 실시예에 따라 후술할 리모트 서버에 해당할 수 있다.
요청(Request) URL :
이 실시예는, 컨텐츠 소스 ID 는 123456 이고, 타임 스탬프는 5005 인 경우일 수 있다. cid 는 어플리케이션 서버에 알릴 컨텐츠 소스 ID 의 요청(query) 식별자를 의미할 수 있다. t 는 어플리케이션 서버에 알릴 현재 시점의 요청 식별자를 의미할 수 있다.
도 25 은 본 발명의 일 실시예에 따른 URL 프로토콜 타입 필드의 처리과정을 순서도로 도시한 도면이다.
먼저, 서비스 프로바이더(47010) 는 WM 삽입기(47020) 에 컨텐츠를 전달할 수 있다(s47010). 여기서 서비스 프로바이더(47010) 은 전술한 컨텐츠 제공서버와 유사한 기능을 수행할 수 있다.
WM 삽입기(47020) 은 전달받은 컨텐츠에 WM 를 삽입할 수 있다(s47020). 여기서, WM 삽입기(47020) 은 전술한 워터마크 서버와 유사한 기능을 수행할 수 있다. WM 삽입기(47020) 은 전술한 것과 같은 WM 을 쯔 알고리즘에 의해 오디오 또는 비디오에 삽입할 수 있다. 여기서, 삽입되는 WM 에는 전술한 어플리케이션 URL 정보, 컨텐츠 소스 ID 정보등이 포함될 수 있다. 예를 들어, 삽입되는 WM 에는 전술한 타임 스탬프 타입 필드, 타임 스탬프, 컨텐츠 ID 등의 정보가 포함될 수 있다. 전술한 URL 프로토콜 타입 필드는 001 의 값을 가질 수 있고, URL 정보는 atsc.org 의 값을 가질 수 있다. WM 에 삽입되는 필드의 값들은 일 실시예일 뿐이며, 본 발명은 이 실시예에 한정되지 아니한다.
WM 삽입기(47020) 은 WM 가 삽입된 컨텐츠를 송출할 수 있다(s47030). WM 가 삽입된 컨텐츠의 송출은 서비스 프로바이더(47010) 에 의해서 수행될 수도 있다.
STB(47030) 은 WM 가 삽입된 컨텐츠를 전달받고, 비압축적 A/V 데이터 (또는 로(raw) A/V 데이터) 를 출력할 수 있다(s47040). 여기서, STB(47030) 은 전술한 방송 수신 장치, 또는 셋톱 박스를 의미할 수 있다. STB(47030) 은 수신기 외부 또는 내부에 설치될 수 있다.
WM 디텍터(47040) 은 전달받은 비압축적 A/V 데이터에서, 삽입되어 있는 WM 를 검출할 수 있다(s47050). WM 디텍터(47040) 은 WM 삽입기(47020) 이 삽입한 WM 를 검출한 후, 이 검출된 WM 를 WM 매니저로 전달할 수 있다.
WM 매니저(47050) 은 검출된 WM 를 파싱할 수 있다(s47060). 전술한 실시예에서, WM 는 URL 프로토콜 타입 필드 값이 001 이고, URL 값이 atsc.org 인 정보를 가지고 있을 수 있다. URL 프로토콜 타입 필드 값이 001 이므로, http:// 프로토콜이 사용됨을 의미할 수 있다. WM 매니저(47050) 은 이 정보들을 이용하여, http:// 와 atsc.org 를 붙여, 라는 전체 URL 을 생성할 수 있다(s47070).
WM 매니저(47050) 은 이 완성된 URL 을 Browser(47060) 으로 보내, 어플리케이션을 런칭할 수 있다(s47080). 경우에 따라, 컨텐츠 소스 ID 정보와 타임 스탬프 정보까지 전달해야 할 경우, 의 형태로 어플리케이션을 런칭할 수도 있다.
단말 내의 WM 검출기(47040)와 WM 매니저(47050)는 통합되어 한 모듈에서 그 기능들이 수행될 수 있다. 이 경우, 전술한 s47050, s47060, s47070 의 과정이 한 모듈에서 처리될 수 있다.
도 26 은 본 발명의 일 실시예에 따른 이벤트 필드의 각 값들의 의미를 도시한 도면이다.
본 발명은 워터마킹 기법을 통해 전달될 수 있는 데이터 중 하나로서, 이벤트 필드를 제안한다. 또한, 본 발명은 이벤트 필드의 효과적인 데이터 구조를 제안한다.
WM 에서 추출한 URL 을 통해서, 어플리케이션이 런칭될 수 있다. 보다 세부적인 이벤트를 통해서 어플리케이션이 제어될 수 있다. 어플리케이션을 제어할 수 있는 이벤트들이 이벤트 필드에 의해 표시되어 전달될 수 있다. 즉, 현재 시청중인 방송 프로그램과 관련된 인터랙티브 어플리케이션이 있을 경우, 해당 어플리케이션에 대한 URL 이 전송될 수 있고, 이벤트들을 이용하여 그 어플리케이션이 제어될 수 있다.
이벤트 필드는 3 비트의 크기를 가질 수 있다. 이벤트 필드의 값이 000 일 경우, 'Prepare' 명령을 의미할 수 있다. Prepare 란, 어플리케이션을 실행하기 전 준비단계로서, 이 명령을 받은 수신기는 미리 어플리케이션에 관련된 컨텐츠 아이템들을 다운로드 받아놓을 수 있다. 또한, 수신기는 해당 어플리케이션을 실행하기 위해 필요한 자원들을 해제해 놓을 수 있다. 여기서 필요한 자원들을 해제한다는 것은, 메모리를 정리한다거나, 미처 종료되지 못한 다른 어플리케이션들을 종료시켜 놓는 것을 의미할 수 있다.
이벤트 필드 값이 001 일 경우, 'Execute' 명령을 의미할 수 있다. Execute 란, 해당 어플리케이션을 실행하라는 명령일 수 있다. 이벤트 필드 값이 010 일 경우, 'Suspend' 명령을 의미할 수 있다. Suspend 란, 이미 실행되고 있는 해당 어플리케이션을 잠시동안 동작하지 않게 하는 것을 의미할 수 있다. 이벤트 필드 값이 011 일 경우, 'Kill' 명령을 의미할 수 있다. Kill 란, 이미 실행되고 있는 해당 어플리케이션을 종료시키는 명령일 수 있다. 이벤트 필드 값이 100 에서 111 사이의 값일 경우, 향후 사용을 위해 남겨둘 수 있다.
도 27 은 본 발명의 일 실시예에 따른 데스티네이션 타입 필드의 각 값들의 의미를 도시한 도면이다.
본 발명은 워터마킹 기법을 통해 전달될 수 있는 데이터 중 하나로서, 데스티네이션 타입 필드를 제안한다. 또한, 본 발명은 데스티네이션 타입 필드의 효과적인 데이터 구조를 제안한다.
DTV 관련 기술의 발전에 따라, 방송 컨텐츠와 관련된 부가 서비스들은 TV 수신기의 스크린이 아닌 컴패니언(companion) 디바이스에서도 제공될 수 있다. 그러나, 컴패니언 디바이스들은 방송 수신이 불가능하거나, 가능하더라도 WM 검출이 불가능할 수 있다. 따라서, 현재 방영중인 방송 컨텐츠와 관련된 부가 서비스를 제공하는 어플리케이션 중에서, 컴패니언 디바이스에서 실행되어야할 어플리케이션이 있다면, 그 관련 정보는 컴패니언 디바이스로 전달될 수 있어야 한다.
이 때, 수신기와 컴패니언 디바이스가 연동되어 동작할 수 있는 환경이더라도, WM 에서 검출된 어플리케이션 내지 데이터가 어느 기기에서 소비되어야 하는지 알아야할 필요가 있다. 즉, 각 데이터 내지 어플리케이션이 수신기에서 소비되어야 하는지, 아니면 컴패니언 디바이스에서 소비되어야 하는지에 관한 정보가 필요할 수 있다. 이러한 정보를 WM 로서 전달하기 위하여, 본 발명은 데스티네이션 타입 필드를 제안한다.
데스티네이션 타입 필드는 3 비트의 크기를 가질 수 있다. 데스티네이션 타입 필드의 값이 0x00 인 경우, WM 에 의해 검출된 어플리케이션 내지 데이터가 모든 기기를 타겟팅함을 의미할 수 있다. 데스티네이션 타입 필드의 값이 0x01 인 경우, WM 에 의해 검출된 어플리케이션 내지 데이터가 TV 수신기를 타겟팅함을 의미할 수 있다. 데스티네이션 타입 필드의 값이 0x02 인 경우, WM 에 의해 검출된 어플리케이션 내지 데이터가 스마트폰을 타겟팅함을 의미할 수 있다. 데스티네이션 타입 필드의 값이 0x03 인 경우, WM 에 의해 검출된 어플리케이션 내지 데이터가 타블렛 기기를 타겟팅함을 의미할 수 있다. 데스티네이션 타입 필드의 값이 0x04 인 경우, WM 에 의해 검출된 어플리케이션 내지 데이터가 퍼스널 컴퓨터를 타겟팅함을 의미할 수 있다. 데스티네이션 타입 필드의 값이 0x05 인 경우, WM 에 의해 검출된 어플리케이션 내지 데이터가 리모터 서버를 타겟팅함을 의미할 수 있다. 데스티네이션 타입 필드의 값이 0x06 에서 0xFF 사이의 값을 가지는 경우는, 향후 사용을 위해 남겨둘 수 있다.
여기서, 리모트 서버란 방송과 관련된 모든 부가 정보를 가지고 있는 서버를 의미할 수 있다. 이 리모트 서버는 단말 외부에 위치할 수 있다. 리모트 서버가 사용될 경우, WM 에 삽입되는 URL 은 특정 어플리케이션의 URL 이 아니라, 리모트 서버의 URL 을 나타낼 수 있다. 수신기는 리모트 서버의 URL 을 통해 리모트 서버와 소통하여, 방송 프로그램과 관련된 부가 정보를 받아올 수 있다. 이 때 받아오는 부가 정보는 관련된 어플리케이션의 URL 뿐 아니라, 현재 방송 프로그램의 장르, 배우정보, 줄거리 등의 다양한 정보일 수 있다. 받아올 수 있는 정보는 시스템에 따라 다를 수 있다. 여기서, 리모트 서버는 전술한 어플리케이션 서버의 일 실시예일 수 있다.
다른 실시예에 따르면, 데스티네이션 타입 필드의 각 비트를 각 디바이스별로 할당하여, 어플리케이션의 목적지(destination)를 나타낼 수도 있다. 이 경우, 비트와이즈 OR 를 통해 여러 데스티네이션이 동시에 지정될 수도 있다.
예를 들어, 0x01 이 TV 수신기, 0x02 가 스마트폰, 0x04 가 태블릿, 0x08 이 PC, 0x10 이 리모트 서버라고 했을 때, 데스티네이션 타입 필드가 0x6 의 값을 가지면, 해당 어플리케이션 내지 데이터는 스마트 폰과 태블릿을 타겟으로 할 수 있다.
전술한 WM 매니저에 의해 파싱된 WM 의 데스티네이션 타입 필드의 값에 따라, WM 매니저는 각 어플리케이션 내지 데이터를 컴패니언 디바이스로 전달할 수 있다. 이 경우, WM 매니저는 수신기 내의 컴패니언 디바이스와의 연동을 처리하는 모듈로 각 어플리케이션 내지 데이터와 관련된 정보를 전달할 수도 있다.
도 28 은 본 발명의 실시예 #1 에 따른 WM 에 삽입될 데이터 구조를 도시한 도면이다.
본 실시예에서, WM 에 삽입되는 데이터는 타임스탬프 타입 필드, 타임 스탬프, 컨텐츠 ID, 이벤트 필드, 데스티네이션 타입 필드, URL 프로토콜 타입 필드, URL 등의 정보를 가질 수 있다. 여기서, 각 데이터의 순서들을 바뀔 수 있으며, 각각의 데이터들은 실시예에 따라 생략될 수 있다.
본 실시예에서, 타임 스탬프 타입 필드의 타임 스탬프 사이즈 필드는 01, 타임 스탬프 유닛 필드는 000 의 값을 가질 수 있다. 이는 각각, 타임 스탬프에 2 비트가 할당되고, 타임 스탬프는 밀리세컨드의 단위를 가짐을 의미할 수 있다.
또한, 이벤트 필드는 001 의 값을 가지는데, 이는 해당되는 어플리케이션이 바로 실행되어야 함을 의미할 수 있다. 데스티네이션 타입 필드는 0x02 의 값을 가지는데 이는 WM 에 의해 전달된 데이터들이 스마트폰으로 전달되어야 함을 의미할 수 있다. URL 프로토콜 타입 필드는 001, URL 은 atsc.org 의 값을 가지므로, 부가정보 내지 어플리케이션의 URL 은 임을 의미할 수 있다.
도 29 은 본 발명의 실시예 #1 에 따른 WM 에 삽입될 데이터 구조를 처리하는 순서도를 도시한 도면이다.
여기서, 서비스 프로바이더가 WM 삽입기에 컨텐츠를 전달하는 단계(s51010), WM 삽입기가 전달받은 컨텐츠에 WM 를 삽입하는 단계(s51020), WM 삽입기가 WM가 삽입된 컨텐츠를 송출하는 단계(s51030), STB 가 WM 가 삽입된 컨텐츠를 전달받고, 비압축적 A/V 데이터를 출력하는 단계(s51040), WM 디텍터가 WM 를 검출하는 단계(s51050), WM 매니저가 검출된 WM 를 파싱하는 단계(s51060) 및/또는 WM 매니저가 전체 URL 을 생성하는 단계(s51070) 는 전술한 각 단계들과 동일할 수 있다.
WM 매니저는 파싱된 WM 의 데스티네이션 타입 필드에 따라, 수신기 내의 컴패니언 디바이스 프로토콜 모듈로, 관련 데이터를 전달할 수 있다(s51080). 여기서, 컴패니언 디바이스 프로토콜 모듈은 수신기 내에서, 컴패니언 디바이스와의 연동 및 통신 등을 관장하는 모듈일 수 있다. 컴패니언 디바이스 프로토콜 모듈은 컴패니언 디바이스와 페어링(pairing) 되어있을 수 있다. 실시예에 따라, 컴패니언 디바이스 프로토콜 모듈은 UPnP 디바이스일 수 있다. 실시예에 따라, 컴패니언 디바이스 프로토콜 모듈은 단말 외부에 위치할 수도 있다.
컴패니언 디바이스 프로토콜 모듈은, 데스티네이션 타입 필드에 따른 컴패니언 디바이스로 관련 데이터를 전달할 수 있다(s51090). 본 실시예 #1 에서, 데스티네이션 타입 필드의 값은 0x02 로서, WM 에 삽입된 데이터 등은 스마트폰을 위한 데이터일 수 있다. 따라서, 컴패니언 디바이스 프로토콜 모듈은, 파싱된 데이터를 스마트폰 기기로 보낼 수 있다. 즉, 이 실시예에서 컴패니언 디바이스는 스마트폰일 수 있다.
실시예에 따라, WM 매니저 또는 컴패니언 디바이스 프로토콜 모듈은, 컴패니언 디바이스로 데이터를 전달하기 전에 데이터 처리과정을 수행할 수 있다. 컴패니언 디바이스의 경우 일반적으로 휴대성이 강조되어 상대적으로 프로세싱/컴퓨팅 능력이 떨어지거나, 메모리 양이 적을 수 있다. 따라서 수신기는 컴패니언 디바이스가 수행할 데이터 프로세싱을 대신 수행한 후, 프로세싱된 데이터를 컴패니언 디바이스로 전달할 수 있다.
이러한 프로세싱에는 여러가지 실시예가 있을 수 있다. 먼저, WM 매니저 또는 컴패니언 디바이스 프로토콜 모듈은 컴패니언 디바이스가 필요로 하는 데이터만을 선별하는 작업을 수행할 수 있다. 또한, 실시예에 따라 이벤트 필드가 어플리케이션을 종료하라는 내용을 담고 있는 경우, 어플리케이션 관련 정보를 전달하지 않을 수 있다. 또한, 데이터가 여러 WM 에 나눠서 전송되어 온 경우, 그 데이터들을 저장하였다가 합친 최종 정보를 컴패니언 디바이스에 전달할 수 있다. 타임 스탬프를 이용한 동기화를 대신 수행하여, 이미 동기화된 어플리케이션 관련 명령을 전달하건, 이미 동기화된 인터랙티브 서비스를 전달하여 컴패니언 디바이스는 단지 디스플레이만 하게 할 수도 있다. 또한 타임 스탬프 관련 정보를 전달하지 않고, 타임 베이스를 수신기 내에서만 유지하며, 어떠한 이벤트가 활성화되어야할 시간에 맞추어 관련 정보를 컴패니언 디바이스로 전달할 수도 있다. 이 경우, 컴패니언 디바이스는 타임 베이스를 유지할 필요 없이, 관련 정보를 전달받은 순간에 맞추어 해당 이벤트를 활성화하는 등의 동작을 수행할 수 있다.
전술한 것과 마찬가지로, 단말 내의 WM 검출기와 WM 매니저는 통합되어 한 모듈에서 그 기능들이 수행될 수 있다. 이 경우, 전술한 s51050, s51060, s51070, s51080 의 과정이 한 모듈에서 처리될 수 있다.
또한, 실시예에 따라, 컴패니언 디바이스들 역시 WM 검출기를 가질 수 있다. 각 컴패니언 디바이스가 WM 가 삽입된 방송을 수신하거나 전달받을 수 있는 경우, 각 컴패니언 디바이스는 WM 를 직접 검출한 후에 또 다른 컴패니언 디바이스로 전달할 수 있다. 예를 들어, 스마트폰이 WM 를 검출 및 파싱하여, TV 로 관련 정보를 전달할 수도 있다. 이 경우 데스티네이션 타입 필드는 0x01 의 값을 가질 수 있다.
도 30 는 본 발명의 실시예 #2 에 따른 WM 에 삽입될 데이터 구조를 도시한 도면이다.
본 실시예에서, WM 에 삽입되는 데이터는 타임스탬프 타입 필드, 타임 스탬프, 컨텐츠 ID, 이벤트 필드, 데스티네이션 타입 필드, URL 프로토콜 타입 필드, URL 등의 정보를 가질 수 있다. 여기서, 각 데이터의 순서들을 바뀔 수 있으며, 각각의 데이터들은 실시예에 따라 생략될 수 있다.
본 실시예에서, 타임 스탬프 타입 필드의 타임 스탬프 사이즈 필드는 01, 타임 스탬프 유닛 필드는 000 의 값을 가질 수 있다. 이는 각각, 타임 스탬프에 2 비트가 할당되고, 타임 스탬프는 밀리세컨드의 단위를 가짐을 의미할 수 있다. 컨텐츠 ID 는 123456 의 값을 가질 수 있다.
또한, 이벤트 필드는 001 의 값을 가지는데, 이는 해당되는 어플리케이션이 바로 실행되어야 함을 의미할 수 있다. 데스티네이션 타입 필드는 0x05 의 값을 가지는데 이는 WM 에 의해 전달된 데이터들이 리모트 서버로 전달되어야 함을 의미할 수 있다. URL 프로토콜 타입 필드는 001, URL 은remoteserver.com 의 값을 가지므로, 부가정보 내지 어플리케이션의 URL 은 임을 의미할 수 있다.
전술한 바와 같이, 리모트 서버가 사용될 경우, 리모트 서버로부터 방송 프로그램에 대한 부가정보를 받아올 수 있다. 이 때, 리모트 서버의 URL 에 컨텐츠 ID 와 타임 스탬프를 파라미터로 삽입하여 리모트서버로 요청할 수 있다. 또한, 실시예에 따라 리모트 서버가 API 의 지원을 통해 현재 방송 프로그램에 대한 정보를 얻을 수도 있다. 이 때, API 는 수신기 내에 저장된 컨텐츠 ID, 타임 스탬프를 리모트 서버가 가져갈 수 있게 하거나, 관련된 부가 정보를 전달할 수 있게 한다.
본 실시예에서, 리모트 서버의 URL 에 컨텐츠 ID 와 타임 스탬프를 파라미터로 삽입될 경우, 전체 URL 은 와 같을 수 있다. 여기서, cid 는 리모트 서버에 알려줄 컨텐츠 ID 의 요청 식별자일 수 있다. 여기서, t 는 리모트 서버에 알려줄 현재 시점의 요청 식별자일 수 있다.
도 31 은 본 발명의 실시예 #2 에 따른 WM 에 삽입될 데이터 구조를 처리하는 순서도를 도시한 도면이다.
여기서, 서비스 프로바이더가 WM 삽입기에 컨텐츠를 전달하는 단계(s53010), WM 삽입기가 전달받은 컨텐츠에 WM 를 삽입하는 단계(s53020), WM 삽입기가 WM가 삽입된 컨텐츠를 송출하는 단계(s53030), STB 가 WM 가 삽입된 컨텐츠를 전달받고, 비압축적 A/V 데이터를 출력하는 단계(s53040), WM 디텍터가 WM 를 검출하는 단계(s53050), 및/또는 WM 매니저가 검출된 WM 를 파싱하는 단계(s53060) 는 전술한 각 단계들과 동일할 수 있다.
WM 매니저는 파싱한 데스티네이션 타입 필드(0x05)를 통해, 리모트 서버와 소통해야하는 경우임을 알 수 있다. WM 매니저는 URL 프로토콜 타입 필드의 값과, URL 값을 이용하여 이라는 URL을 생성할 수 있다. 또한, 컨텐츠 ID 와 타임 스탬프의 값을 이용해 최종적으로 의 URL 을 생성할 수 있다. WM 매니저는 이 최종 URL 로 요청을 수행할 수 있다(s53070).
리모트 서버는 요청을 받고, 방송 프로그램에 맞는 관련 어플리케이션의 URL 을 WM 매니저로 전송할 수 있다(s53080). WM 매니저는 전달받은 어플리케이션의 URL 을 브라우저로 보내, 해당 어플리케이션을 런칭할 수 있다(s53090).
전술한 것과 마찬가지로, 단말 내의 WM 검출기와 WM 매니저는 통합되어 한 모듈에서 그 기능들이 수행될 수 있다. 이 경우, 전술한 s53050, s53060, s53070, s53090 의 과정이 한 모듈에서 처리될 수 있다.
도 32 는 본 발명의 실시예 #3 에 따른 WM 에 삽입될 데이터 구조를 도시한 도면이다.
본 발명은 워터마킹 기법을 통해 전달될 수 있는 데이터 중 하나로서, 전달 타입(delivery type) 필드를 제안한다. 또한, 본 발명은 전달 타입 필드의 효과적인 데이터 구조를 제안한다.
WM 에 삽입되는 데이터 양의 증가로 인한 오디오/비디오 컨텐츠의 퀄리티 저하를 줄이기 위하여, WM 가 나눠서 삽입될 수 있다. WM 가 나뉘어서 삽입되는지 여부를 지시하기 위하여, 전달 타입 필드가 사용될 수 있다. 전달 타입 필드를 통해, 한번의 WM 검출로 방송 관련 정보 습득이 가능한지, 여러 개의 WM 가 검출되어야 하는지 구분될 수 있다.
전달 타입 필드가 0 의 값을 가질 경우, 하나의 WM 에 모든 데이터가 삽입되어 전송됨을 의미할 수 있다. 전달 타입 필드가 1 의 값을 가질 경우, 여러 개의 WM 에 데이터가 나뉘어져 삽입된 후 전송됨을 의미할 수 있다.
본 실시예는 전달 타입 필드의 값이 0 인 경우일 수 있다. 이 경우의 WM 의 데이터 구조는, 전술한 데이터 구조에 전달 타입 필드가 덧붙여진 형태일 수 있다. 본 실시예는 전달 타입 필드가 가장 앞에 위치하나, 실시예에 따라 다른 곳에 위치할 수도 있다.
WM 매니저 또는 WM 검출기는, 전달 타입 필드가 0 의 값을 가지는 경우, WM 의 길이를 참조하여 WM 를 파싱할 수 있다. 이 때, WM 의 길이는 기 정해진 필드의 비트 수를 고려하여 계산될 수 있다. 예를 들어, 전술한 바와 같이 이벤트 필드의 길이는 3 비트 일 수 있다. 컨텐츠 ID, URL 의 크기는 가변이나, 실시예에 따라 그 비트수가 제한될 수도 있다.
도 33 는 본 발명의 실시예 #4 에 따른 WM 에 삽입될 데이터 구조를 도시한 도면이다.
본 실시예는 전달 타입 필드의 값이 1 인 경우일 수 있다. 이 경우, WM 의 데이터 구조에 몇가지 필드가 추가될 수 있다.
WMId 필드는 WM 를 구분하는 식별자의 역할을 할 수 있다. 데이터가 여러 개의 WM 에 나뉘어서 전송될 경우, WM 검출기는 나뉘어진 데이터를 가진 각 WM 를 식별할 필요가 있다. 이 때, 나뉘어진 데이터를 가진 각 WM 는 같은 WMId 필드 값을 가질 수 있다. WMId 필드는 8 비트의 크기를 가질 수 있다.
블락 넘버(Block number) 필드는, 나뉘어진 데이터를 가진 각 WM 중, 현재 WM 의 식별 번호를 나타내는 필드일 수 있다. 나뉘어진 데이터를 가진 WM 들이 전송되는 순서에 따라 1 씩 값이 증가할 수 있다. 예를 들어, 나뉘어진 데이터를 가진 각 WM 중 첫번째 WM 의 경우, 블락 넘버 필드의 값이 0x00 일 수 있다. 이후 전송되는 두번째, 세번째 WM 들은 각각 0x01, 0x02 ... 의 값을 가질 수 있다. 블락 넘버 필드는 8 비트의 크기를 가질 수 있다.
마지막 블락 넘버(Last block number) 필드는 나뉘어진 데이터를 가진 각 WM 중, 마지막 WM 의 식별 번호를 나타내는 필드일 수 있다. 전술한 블락 넘버 필드와 마지막 블락 넘버 필드의 값이 같아질 때 까지, WM 검출기 또는 WM 매니저는 검출한 WM 들을 모으고, 파싱할 수 있다. 마지막 블락 넘버 필드는 8 비트의 크기를 가질 수 있다.
블락 길이(Block length) 필드는, 해당 WM 의 총 길이를 나타낼 수 있다. 여기서, 해당 WM 란, 나뉘어진 데이터를 가진 각 WM 중 하나를 의미할 수 있다. 블락 길이 필드는 7 비트의 크기를 가질 수 있다.
컨텐츠 ID 플래그(Content Identifier Flag) 필드는, 나뉘어진 데이터를 가진 각 WM 중, 현재 WM 의 페이로드에 컨텐츠 ID 가 포함되어 있는지를 알릴 수 있다. 컨텐츠 ID 가 포함되어 있는 경우, 컨텐츠 ID 플래그 필드는 1 로 세팅될 수 있고, 반대의 경우 0 으로 세팅될 수 있다. 컨텐츠 ID 플래그 필드는 1 비트의 크기를 가질 수 있다.
이벤트 플래그 필드는, 나뉘어진 데이터를 가진 각 WM 중, 현재 WM 의 페이로드에 이벤트 필드가 포함되어 있는지를 알릴 수 있다. 이벤트 필드가 포함되어 있는 경우, 이벤트 플래그 필드는 1 로 세팅될 수 있고, 반대의 경우 0 으로 세팅될 수 있다. 이벤트 플래그 필드는 1 비트의 크기를 가질 수 있다.
데스티네이션 플래그 필드는, 나뉘어진 데이터를 가진 각 WM 중, 현재 WM 의 페이로드에 데스티네이션 타입 필드가 포함되어 있는지를 알릴 수 있다. 데스티네이션 타입 필드가 포함되어 있는 경우, 데스티네이션 플래그 필드는 1 로 세팅될 수 있고, 반대의 경우 0 으로 세팅될 수 있다. 데스티네이션 플래그 필드는 1 비트의 크기를 가질 수 있다.
URL 프로토콜 플래그 필드는, 나뉘어진 데이터를 가진 각 WM 중, 현재 WM 의 페이로드에 URL 프로토콜 타입 필드가 포함되어 있는지를 알릴 수 있다. URL 프로토콜 타입 필드가 포함되어 있는 경우, URL 프로토콜 플래그 필드는 1 로 세팅될 수 있고, 반대의 경우 0 으로 세팅될 수 있다. URL 프로토콜 플래그 필드는 1 비트의 크기를 가질 수 있다.
URL 플래그 필드는, 나뉘어진 데이터를 가진 각 WM 중, 현재 WM 의 페이로드에 URL 정보가 포함되어 있는지를 알릴 수 있다. URL URL 정보가 포함되어 있는 경우, URL 플래그 필드는 1 로 세팅될 수 있고, 반대의 경우 0 으로 세팅될 수 있다. URL 플래그 필드는 1 비트의 크기를 가질 수 있다.
페이로드에는 전술한 필드들 외의, 실제 데이터들이 담길 수 있다.
여러 WM 에 나눠서 전송하는 경우, 각각의 WM 가 삽입된 시점의 시점 정보를 알 필요가 있을 수 있다. 이 경우, 실시예에 따라 각각의 WM 에 타임 스탬프가 삽입될 수 있다. 이 때, 타임 스탬프 타입 필드 역시, 타임 스탬프가 삽입된 WM 에 같이 삽입될 수 있다. WM 가 삽입된 시점을 알기 위해 필요하기 때문이다. 또는 실시예에 따라, 수신기가 WM 타임 스탬프 타입 정보를 저장하여 활용할 수도 있다. 수신기는 최초의 타임 스탬프, 마지막 타임 스탬프, 또는 각각의 타임 스탬프를 기준으로 하여 타임 싱크를 맞출 수 있다.
데이터를 여러 WM 에 나눠서 전송하는 경우, 각각의 WM 의 크기는 상기 플래그 필드들을 이용하여 조절될 수 있다. 전술한 바와 같이, WM 에 의해 전송되는 데이터 양이 커질 경우, 오디오/비디오 컨텐츠의 질이 영향을 받을 수 있다. 따라서, 전송되는 각 오디오/비디오 프레임 별 상황에 따라 해당 프레임에 삽입되는 WM 의 크기를 조절할 수 있다. 이 때 WM 의 크기는 전술한 플래그 필드들에 의해 조절될 수 있다.
예를 들어, 컨텐츠의 비디오 프레임 중 어느 한 비디오 프레임이 검은 화면만으로 되어 있다고 하자. 컨텐츠의 내용상 장면이 전환되거나 하는 경우에, 검은 화면만으로 된 비디오 프레임이 하나 삽입될 수 있다. 이러한 비디오 프레임의 경우, 많은 양의 WM 가 삽입된다고 하여, 컨텐츠의 질이 떨어지거나 하지 않을 수 있다. 즉, 유저가 컨텐츠의 질 저하를 느끼지 못할 수 있다. 이 경우, 해당 비디오 프레임에는 많은 양의 데이터를 가지는 WM 가 삽입될 수 있다. 이 때 해당 비디오 프레임에 삽입되는 WM 의 플래그 필드들은 대부분 값이 1 을 가질 수 있다. 그 WM 는 대부분의 필드를 실제로 가지기 때문이다. 특히, 많은 데이터 양을 차지하는 URL 필드가, 그 WM 에 포함될 수 있다. 이로 인하여, 다른 비디오 프레임에 삽입되는 WM 에는 상대적으로 적은 양의 데이터가 삽입될 수 있다. WM 에 삽입되는 데이터 양은 설계자의 의도에 따라 변경될 수 있다.
도 34 는 본 발명의 실시예 #4 에서, 첫번째 WM 에 삽입될 데이터 구조를 도시한 도면이다.
본 실시예는 전달 타입 필드의 값이 1 인 경우, 즉 데이터가 여러 개의 WM 에 나뉘어져 전송되는 경우에 있어, 첫번째 WM 의 구조는 도시된 바와 같을 수 있다.
나뉘어진 데이터를 가진 각 WM 중에서, 첫번째 WM 이므로, 블락 넘버 필드의 값이 0x00 일 수 있다. 물론, 실시예에 따라, 블락 넘버 필드의 값을 다르게 사용한다면, 도시된 WM 는 첫번째 WM 가 아닐 수도 있다.
수신기는 첫번째 WM 를 검출할 수 있다. 검출된 WM 는 WM 매니저에 의해 파싱될 수 있다. 이 때, WM 의 전달 타입 필드값이 1 이고, 블락 넘버 필드의 값과 마지막 블락 넘버 필드의 값이 다른 것을 알 수 있다. 따라서, WM 매니저는 WMId 가 0x00 인, 나머지 WM 가 올 때까지 파싱한 정보를 저장해 놓을 수 있다. 특히, URL 정보인 atsc.org 역시 저장될 수 있다. 여기서, 마지막 블락 넘버 필드의 값이 0x01 이므로, 앞으로 하나의 WM 만 더 받으면, WMId 가 0x00 인 WM 들에 대해서는 모두 수신하게됨을 알 수 있다.
본 실시예에서, 각 플래그 필드들의 값이 모두 1 이다. 따라서, 본 WM 의 페이로드에는 이벤트 필드 등 각 정보가 포함되어 있음을 알 수 있다. 또한, 타임 스탬프 값이 5005 이므로, 본 WM 가 삽입된 부분의 시점은 5.005초 임을 알 수 있다.
도 35 는 본 발명의 실시예 #4 에서, 두번째 WM 에 삽입될 데이터 구조를 도시한 도면이다.
본 실시예는 전달 타입 필드의 값이 1 인 경우, 즉 데이터가 여러 개의 WM 에 나뉘어져 전송되는 경우에 있어, 두번째 WM 의 구조는 도시된 바와 같을 수 있다.
나뉘어진 데이터를 가진 각 WM 중에서, 두번째 WM 이므로, 블락 넘버 필드의 값이 0x01 일 수 있다. 실시예에 따라, 블락 넘버 필드의 값을 다르게 사용하는 경우, 도시된 WM 는 두번째 WM 가 아닐 수도 있다.
수신기는 두번째 WM 를 검출할 수 있다. WM 매니저는 검출된 두번째 WM 를 파싱할 수 있다. 블락 넘버 필드와 마지막 블락 넘버 필드의 값이 같으므로, 본 WM 가 WMId 값이 0x00 인 WM 중 마지막 WM 임을 알 수 있다.
플래그 필드들 중, URL 플래그만 값이 1 이므로, 페이로드에는 URL 정보가 포함되어 있음을 알 수 있다. 현재 블락 넘버 필드의 값이 0x01 이므로, 이미 저장되어 있던 정보와 결합될 수 있다. 특히, 이미 저장되어 있던 atsc.org 부분과, 두번째 WM 에 포함된 /apps/app1.html 부분이 결합될 수 있다. 또한, 이미 저장되어 있던 정보 중, URL 프로토콜 타입 필드의 값이 001 이므로, 최종 결합된 URL 은 일 수 있다. 이 URL 이 Browser 를 통해 런칭될 수 있다.
두번째 WM 에 따르면, 두번째 WM 가 삽입된 부분의 시점은 10.005 초이다. 수신기는 첫번째 WM의 5.005초를 기준으로 타임 싱크를 맞출 수 있고, 마지막 WM의 10.005초를 기준으로 타임 싱크를 맞출 수도 있다. 본 실시예는 5초의 간격으로 WM을 두 번의 걸쳐서 전송한 예시로서, WM이 삽입되지 않은 5초간은 온전히 오디오/비디오만을 전송할 수 있는 장점이 있으므로 컨텐츠의 퀄리티 저하를 막을 수 있다. 즉, 여러 WM 로 나눠서 데이터가 전달되더라도 퀄리티 저하를 줄일 수 있다. WM을 나눠서 삽입하는 시기는 실시예에 따라 다를 수 있다.
도 36 은 본 발명의 실시예 #4 에 따른 WM 에 삽입될 데이터 구조를 처리하는 순서도를 도시한 도면이다.
여기서, 서비스 프로바이더가 WM 삽입기에 컨텐츠를 전달하는 단계(s58010), WM 삽입기가 전달받은 컨텐츠에 WM#1 를 삽입하는 단계(s58020), WM 삽입기가 WM#1이 삽입된 컨텐츠를 송출하는 단계(s58030), STB 가 WM#1 이 삽입된 컨텐츠를 전달받고, 비압축적 A/V 데이터를 출력하는 단계(s58040), 및/또는 WM 디텍터가 WM#1 를 검출하는 단계(s58050) 는 전술한 각 단계들과 동일할 수 있다.
여기서 WM#1 은 나뉘어진 데이터가 삽입된 WM 중 하나를 의미하며, 전술한 본 발명의 실시예 #4 에서의 첫번째 WM 일 수 있다. 전술한 바와 같이 이 WM 의 블락 넘버 필드는 0x00 이고, URL 정보는 atsc.org 일 수 있다.
WM 매니저는 검출된 WM#1 을 파싱한 후, 이를 저장해 놓을 수 있다(s58060). 이 때 WM 매니저는 기 정해진 각 필드들의 비트 수와 전체 WM 의 길이를 참조하여 파싱을 수행할 수 있다. 블락 넘버 필드와 마지막 블락 넘버 필드의 값이 다르므로, 또한 전달 타입 필드 값이 1 이므로, WM 매니저는 WM 를 파싱한 후 저장해 놓고, 다음 WM 를 기다릴 수 있다.
여기서, 서비스 프로바이더가 WM 삽입기에 컨텐츠를 전달하는 단계(s58070), WM 삽입기가 전달받은 컨텐츠에 WM#2 를 삽입하는 단계(s58080), WM 삽입기가 WM#2가 삽입된 컨텐츠를 송출하는 단계(s58090), STB 가 WM#2 가 삽입된 컨텐츠를 전달받고, 비압축적 A/V 데이터를 출력하는 단계(s58100), 및/또는 WM 디텍터가 WM#2 를 검출하는 단계(s58110) 는 전술한 각 단계들과 동일할 수 있다.
여기서, WM#2 는 나뉘어진 데이터가 삽입된 WM 중 하나를 의미하며, 전술한 본 발명의 실시예 #4 에서의 두번째 WM 일 수 있다. 전술한 바와 같이 이 WM 의 블락 넘버 필드는 0x01 이고, URL 정보는 /apps/app1.html 일 수 있다.
WM 매니저는 WM#2 를 파싱할 수 있다(s58120). WM#2 를 파싱해서 얻은 정보와, 이미 저장되어 있던 WM#1 를 파싱해서 얻은 정보를 합쳐서 전체 URL 을 생성할 수 있다(s58130). 이 경우, 전체 URL 은 전술한 바와 같이 일 수 있다.
여기서, WM 매니저가 데스티네이션 타입 필드에 따라, 수신기 내의 컴패니언 디바이스 프로토콜 모듈로, 관련 데이터를 전달하는 단계(s58140), 컴패니언 디바이스 프로토콜 모듈이 데스티네이션 타입 필드에 따른 컴패니언 디바이스로 관련 데이터를 전달하는 단계(s58150) 는 전술한 각 단계와 동일할 수 있다.
단, 여기서 데스티네이션 타입 필드는 전술한 바와 같이, WM#1 에 의해 전달되었을 수 있다. 본 발명의 실시예#4 의 첫번째 WM 의 데스티네이션 플래그 필드 값이 1 이기 때문이다. 전술한 바와 같이, 이 데스티네이션 타입 필드 값은 파싱되어 저장되고 있었을 수 있다. 데스티네이션 타입 필드 값이 0x02 이므로 스마트폰을 위한 데이터임을 알 수 있다.
컴패니언 디바이스 프로토콜 모듈은 컴패니언 디바이스와 소통하여, 관련 정보를 처리할 수 있다. 이는 전술한 바와 같다. 또한 전술한 바와 같이 WM 검출기와 WM 매니저는 통합되어 한 모듈에 포함될 수 있으며, 그 통합모듈이 WM 검출기와 WM 매니저의 역할을 모두 수행할 수 있다.
도 37 는 본 발명의 또 다른 실시예에 따른 워터마크 기반의 영상 표시 장치의 구조를 도시한 도면이다.
본 실시예는 전술한 워터마크 기반의 영상 표시 장치의 구조와 유사하나, 워터마크 추출기(t59030) 밑에 WM 매니저(t59010), 컴패니언 디바이스 프로토콜 모듈(t59020)이 추가되었다. 나머지 다른 모듈들은 전술한 바와 같을 수 있다.
여기서 워터마크 추출기(t59030)는 전술한 WM 검출기에 대응될 수 있다. 워터마크 추출기(t59030)는 전술한 워터마크 기반의 영상 표시 장치의 구조의 동명 모듈과 동일할 수 있다. 또한, WM 매니저(t59010)는 전술한 WM 매니저에, 컴패니언 디바이스 프로토콜 모듈(t59020)은 전술한 컴패니언 디바이스 프로토콜 모듈에 대응되는 구성일 수 있다. 각 모듈들의 동작은 전술한 바와 같다.
도 38 은 핑거프린팅 방식에 있어서, 본 발명의 일 실시예에 따른 데이터 구조를 도시한 도면이다.
핑거프린팅(FingerPrinting) 방식의 ACR 시스템의 경우, WM 를 사용하는 경우에 비하여 오디오/비디오 컨텐츠의 퀄리티 저하가 적을 수 있다. 핑거프린팅 방식의 ACR 시스템의 경우, 부가적인 정보를 ACR 서버로부터 받아오기 때문에, 컨텐츠에 직접 삽입되어 있는 WM 에 비해 상대적으로 퀄리티 저하가 적을 수 있다.
ACR 서버로부터 정보를 받아옴에 있어서, 전술한 바와 같이 퀄리티 저하에 따른 제약이 적으므로, WM 에서 사용한 데이터 구조가 그대로 활용될 수 있다. 즉, 본 발명이 제안하는 데이터 구조는 FP 방식에 있어서도 그대로 활용될 수 있다. 또는 실시예에 따라, WM 데이터 구조 중 일부의 구조만을 취해서 사용될 수 있다.
전술한 WM 의 데이터 구조가 사용될 경우, 데스티네이션 타입 필드의 값 중 0x05 가 나타내는 바는 바뀔 수 있다. 전술한 바와 같이, 데스티네이션 타입 필드의 값이 0x05 일 경우, 수신기가 리모트 서버로 데이터를 요청하게 된다. FP 방식에 있어서, 리모트 서버의 역할은 ACR 서버에 의해서 이루어질 수 있으므로, 데스티네이션 타입 필드가 0x05 인 경우는 삭제되거나 재정의될 수 있다.
나머지 필드들은 전술한 바와 같을 수 있다.
도 39 은 핑거프린팅 방식에 있어서, 본 발명의 일 실시예에 따른 데이터 구조를 처리하는 순서도를 도시한 도면이다.
서비스 프로바이더는 송출할 방송 프로그램으로부터 핑거프린트(FP)를 추출할 수 있다(s61010). 여기서 서비스 프로바이더는 전술한 서비스 프로바이더와 같을 수 있다. 서비스 프로바이더는 ACR 업체가 제공하는 툴을 사용하여 컨텐츠 별로 핑거프린트를 추출하거나, 자신의 툴을 사용하여 핑거프린트를 추출할 수 있다. 서비스 프로바이더는 오디오/비디오 핑거 프린트를 추출할 수 있다.
서비스 프로바이더는 ACR 서버로 추출한 핑거프린트를 전달할 수 있다(s61020). 이 때 전달되는 시점은, 사전제작 프로그램의 경우에는 방송으로 송출되기 전일 수 있고, 라이브 프로그램의 경우에는 실시간으로 FP가 추출되자마자 ACR 서버로 전달될 수도 있다. 실시간으로 FP 가 추출되어 ACR 서버로 전달되는 경우, 서비스 프로바이더는 컨텐츠에 대한 컨텐츠 ID 를 부여하고, 전송 타입, 데스티네이션 타입, URL 프로토콜 타입 등의 정보를 부여할 수 있다. 이 때 부여된 정보들은 실시간으로 추출된 FP 에 매핑되어 함께 ACR 서버로 전달될 수 있다.
ACR 서버는 전달받은 FP 및 관련 정보들을 ACR DB 에 저장할 수 있다(s61030). 수신기는 외부입력으로부터 들어오는 오디오/비디오 신호로부터 FP 를 추출할 수 있다. 여기서, 오디오/비디오 신호는 비압축적 신호일 수 있다. 이 FP 는 시그니쳐라고 불릴 수도 있다. 수신기는 FP 를 이용하여 ACR 서버로 요청을 보낼 수 있다(s61040).
ACR 서버는 수신한 FP 와 ACR DB 를 비교할 수 있다. 수신한 FP 와 매칭되는 FP 가 ACR DB 에 있을 경우, 수신기에서 방영중인 컨텐츠가 인식될 수 있다. 컨텐츠가 인식되면 전달 타입 정보, 타임 스탬프, 컨텐츠 ID, 이벤트 타입 정보, 데스티네이션 타입 정보, URL 프로토콜 타입 정보, URL 정보등을 수신기로 보낼 수 있다(s61050).
여기서, 각 정보들은 전술한 각 필드에 담겨 전송될 수 있다. 예를 들어, 데스티네이션 타입 정보는 데스티네이션 타입 필드에 담겨 전송될 수 있다. 수신기로 응답함에 있어, 전달되는 데이터의 구조는 전술한 WM 에서 사용되는 데이터 구조가 활용될 수 있다.
수신기는 ACR 서버로부터 전달받은 정보를 파싱할 수 있다. 본 실시예에서는 데스티네이션 타입 필드의 값이 0x01 이므로 어플리케이션의 URL 이 TV 에서 실행되어야함을 알 수 있다. URL 프로토콜 타입 필드의 값과, URL 정보를 이용하여 최종 URL 인 가 생성될 수 있다. URL 생성과정은 전술한 바와 같을 수 있다.
수신기는 해당 URL 을 이용하여 Browser 를 통해 방송 관련 어플리케이션을 실행할 수 있다(s61060). 여기서 Browser 는 전술한 Browser 와 동일할 수 있다. s61040, s61050, s61060 의 과정이 반복될 수 있다.
도 40 은 본 발명의 또 다른 실시예에 따른 워터마크 페이로드의 구조를 도시한 도면이다.
도시된 실시예의 워터마크 페이로드는 도메인 타입 정보, 서버 URL 정보, 타임 스탬프 정보 및/또는 트리거 타입 정보를 포함할 수 있다. 실시예에 따라 도시된 워터마크 페이로드는 오디오 또는 비디오 워터마크로 활용될 수 있다. 여기서 워터마크는 WM (Watermark) 로 부를 수도 있다. 실시예에 따라 WM 페이로드는 50 비트의 크기를 가질 수 있고, WM 시스템은 이 50 비트를 1.5 초마다 전달할 수 있다.
도메인 타입 정보는 해당 WM 페이로드의 타입을 지시할 수 있다. 도메인 타입 정보는 해당 페이로드의 서버 URL 정보 및 타임 스탬프 정보의 크기가 어떻게 할당되어 있는지를 지시할 수 있다. 도메인 타입 정보에 따라 서버 URL 필드가 가지는 서버 코드와 타임 스탬프 필드의 인터벌 코드 간의 유니크니스 범위(scope of uniquness) 가 서로 트레이드 오프(trade off) 될 수 있다. 도메인 타입 정보는 필드들의 크기 할당에 따라, 해당 페이로드가 스몰(small) 도메인, 미디엄(medium) 도메인, 라지(large) 도메인 구조 중 어떤 구조를 가지는지 지시할 수 있다. 실시예에 따라 도메인 타입 정보는 1 비트의 크기를 가질 수도 있는데, 이 경우 해당 페이로드가 스몰 도메인, 라지 도메인 중 어떤 구조를 가지는지가 지시될 수 있다.
서버 URL 정보는 서버 코드를 포함할 수 있다. 이 서버 코드는 부가(supplementary) 컨텐트 획득을 위한 시작 포인트(starting point)로서 동작하는 서버를 식별하기 위한 값일 수 있다. 서버 URL 정보 내지 서버 코드는 부가 컨텐트를 획득할 수 있는 인터넷 주소나 IP 주소 형식, 또는 이러한 주소들과 매핑되는 특정 코드의 형태일 수 있다. 서버 URL 정보를 통해 알 수 있는 URL 에 접근하여 다양한 부가 컨텐트를 획득할 수 있다.
부가 컨텐트는 현재 MVPD 에서 수신기로 전송되고 있는 서비스/컨텐트를 넘어 시청자에게 제공될 수 있는 컨텐트를 의미할 수 있다. 부가 컨텐트는 서비스, 컨텐트, 타임라인, 어플리케이션 데이터, 대체 컴포넌트 또는 어플리케이션 관련 정보들을 포함할 수 있다. 부가 컨텐트는 인터랙티브 서비스 정보로 불릴 수도 있다. 또한 부가 컨텐트에는 방송 서비스/컨텐트에 대한 인터랙티브 서비스 제공을 위한, 어플리케이션 특성(property) 정보가 포함될 수 있다. 또한 부가 컨텐트에는 특정(specific) 어플리케이션에 대한 이벤트 정보가 포함될 수 있다. 여기서 이벤트 정보는 어플리케이션에 의해 수행될 동작(action)들을 개시시키는(initiates) 알림(notification) 내지 시그널링 정보일 수 있다.
타임 스탬프 정보는 인터벌 코드를 포함할 수 있다. 이 인터벌 코드는 해당 페이로드가 삽입된(embedded), 컨텐트의 인터벌을 식별하기 위한 값일 수 있다. 타임 스탬프 정보 내지 인터벌 코드는 해당 페이로드가 삽입된 인터벌을 식별하거나, 해당 WM 패킷 내지 WM 페이로드가 삽입되는 전송 시점 정보 또는 해당 WM 패킷 내지 WM 페이로드가 몇번째 것인지를 식별할 수도 있다. 몇번째 것인지를 식별하는 경우에는 WM 간의 시간간격이 미리 정해져 있을 수 있다. 실시예에 따라 타임 스탬프 정보는 인터벌 정보로 불릴 수도 있다.
트리거 타입 정보는 이벤트가 언제 이용가능한지 시그널링할 수 있다. 연속된 WM 페이로드 내에서 해당 트리거 타입 정보의 값이 변한다는 것은, 이벤트가 이벤트 서버로부터 이용가능/ 획득가능하다는 것을 지시하는 것일 수 있다. 여기서 이벤트는 전술한 이벤트 정보일 수 있다. 여기서 이벤트는 다이나믹 이벤트일 수 있다. 다이나믹 이벤트는 해당 이벤트의 시작 시간을 이벤트 시작 시간에 거의 근접해서야(at the last minute) 알게 된 경우의 이벤트를 의미할 수 있다. 예를 들어 라이브 방송 서비스에 대한 이벤트 정보는 다이나믹 이벤트일 수 있다. 여기서 이벤트 서버는 다이나믹 이벤트 서버로 HTTP 서버일 수 있다. 실시예에 따라 트리거 타입 정보는 쿼리 정보, 쿼리 플래그 등으로 불릴 수도 있다.
즉, 트리거 타입 정보는 서버 URL 정보에 의한 URL 로 액세스해야될 필요가 있는지를 지시할 수 있다. 실시예에 따라 트리거 타입 정보는 URL 로 액세스하는 경우 어플리케이션 특성 정보를 얻을 수 있는지, 이벤트 정보를 얻을 수 있는지를 지시할 수도 있다. 이벤트 정보는 타임 센시티브(time sensitive)한 정보이므로, 어플리케이션 특성 정보 등과 구분될 필요가 있을 수 있다. 타임 센시티브하지 않은 정보를 얻기 위해 리소스를 낭비하여, 필요한 타임 센시티브한 정보를 얻지 못하게 되는 것을 막기 위함이다. 또한 실시예에 따라 트리거 타입 정보는 획득할 어플리케이션 특성 정보에 변경이 있는지 여부도 지시할 수 있다. 자세한 사항은 후술한다.
실시예에 따라 서버 URL 정보 및 타임 스탬프 정보는 각각 30 비트, 17 비트의 크기를 가지거나(스몰 도메인 타입), 22 비트, 25 비트의 크기를 가지거나(미디엄 도메인 타입), 18 비트, 29 비트의 크기를 가질 수 있다(라지 도메인 타입). 실시예에 따라 이 수치들은 변경될 수 있다. 이 경우 스몰 도메인의 경우, 약 10억개의 서버 코드와 약 54.6 시간의 인터벌 코드를 가질 수 있고, 미디엄 도메인의 경우, 약 420 만개의 서버 코드와 약 1.59 년의 인터벌 코드를 가질 수 있고, 라지 도메인의 경우, 약 262,144 개의 서버 코드와 약 25.5 년의 인터벌 코드를 가질 수 있다.
실시예에 따라 서버 URL 정보 및 타임 스탬프 정보는 각각 31 비트, 17 비트의 크기를 가지거나(스몰 도메인 타입), 23 비트, 25 비트의 크기를 가질 수 있다(라지 도메인 타입). 이 경우 도메인 타입 정보는 1 비트, 트리거 타입 정보는 1 비트의 크기를 가질 수 있다. 실시예에 따라 이 수치들은 변경될 수 있다.
실시예에 따라 도시된 WM 페이로드의 트리거 타입 정보는 2 비트의 크기를 가질 수 있다. 트리거 타입 정보가 00 인 경우, 이는 서버 URL 에 접근함으로써 어플리케이션 특성 정보가 획득될 수 있고, 이 특성 정보는 이전 WM 의 서버 URL 로 얻을 수 있는 특성 정보에 비해 변경되지 않았음을 의미할 수 있다. 트리거 타입 정보가 01 인 경우, 이는 서버 URL 에 접근함으로써 어플리케이션 특성 정보가 획득될 수 있고, 이 특성 정보는 이전 WM 의 서버 URL 로 얻을 수 있는 특성 정보에 비해 변경되었음을 의미할 수 있다. 트리거 타입 정보가 10 인 경우, 이는 서버 URL 에 접근함으로써 이벤트 정보가 획득될 수 있음을 의미할 수 있다. 트리거 타입 정보가 11 인 경우는 향후 사용을 위해 남겨둘 수 있다.
실시예에 따라, 트리거 타입 정보가 2 비트로 할당되는 경우에 있어서, 트리거 타입 정보의 값들이 의미하는 바는 달라질 수 있다. 예를 들어, 트리거 타입 정보가 00 인 경우, 이는 이 인터벌에서 서버로 요청을 함으로써 획득될 수 있는 추가적인 앱, 컴포넌트 또는 다른 정보들이 없음을 의미할 수 있다. 이 경우 요청(쿼리)가 서버로 보내지지 않을 수 있다. 트리거 타입 정보가 01 인 경우, 이는 이 인터벌에서 서버로 요청을 함으로써 획득될 수 있는 추가적인 앱, 컴포넌트 또는 다른 정보들이 있을 수 있음을 의미할 수 있다. 이 경우 요청(쿼리)이 서버로 보내질 수 있다. 트리거 타입 정보가 10 인 경우, 이는 서버 URL 에 접근함으로써 이벤트 정보가 획득될 수 있음을 의미할 수 있다. 따라서 이 경우 최근에 요청한 적 있더라도 다시 요청이 수행되어야 할 수 있다. 트리거 타입 정보가 11 인 경우는 향후 사용을 위해 남겨둘 수 있다.
실시예에 따라, 전술한 WM 페이로드의 구조는 서로 조합될 수 있다. 또한 실시예에 따라 전술한 WM 페이로드의 각 정보들의 할당된 크기는 서로 조합될 수 있다. 예를 들어 각각의 스몰, 미디엄, 라지 도메인에 따른 서버 URL 정보 및 타임 스탬프 정보의 크기에 대하여, 1 비트인 트리거 타입 정보가 조합되거나 2 비트인 트리거 타입 정보가 조합될 수 있다. 또한 각각의 경우에 대하여 1 비트인 도메인 타입 정보가 조합되거나 2 비트인 도메인 타입 정보가 조합될 수 있다.
도 41 는 본 발명의 일 실시예에 따른, 서비스/컨텐츠 정보를 이용한 워터마크 페이로드 구조의 변형을 도시한 도면이다.
전술한 각각의 WM 페이로드 구조 또는 조합될 수 있는 각각의 WM 페이로드 구조마다, 서비스 정보 및/또는 컨텐트 정보가 추가되어 전달될 수 있다. 여기서 서비스 정보는 해당 WM 이 삽입된 서비스와 관련된 정보일 수 있다. 이 서비스 정보는 서비스 ID 또는 채널 ID 의 형태일 수 있다. 서비스 정보가 WM 페이로드에 포함되어 전달되는 경우, 서버는 특정 서비스/채널에 대한 부가 컨텐트(인터랙티브 서비스)만을 선택적으로 제공할 수 있다. 또한 시청중인 서비스/채널이 변경되는 경우, 이전 서비스/채널의 인터랙티브 서비스가 빠르게 종료될 수 있다. 여기서 컨텐트 정보는 해당 WM 이 삽입된 컨텐트와 관련된 정보일 수 있다. 컨텐트 정보는 컨텐트 ID 의 형태일 수 있다. 컨텐트 정보가 WM 페이로드에 포함되어 함께 전달되는 경우, 서버는 특정 컨텐트에 대한 부가 컨텐트(인터랙티브 서비스)만을 선택적으로 제공할 수 있다.
도시된 실시예(t502010)에서, 전술한 WM 페이로드 구조 중 하나에, 서비스 정보 및/또는 컨텐트 정보가 추가되었다. 도시된 실시예(t502020)의 경우는, 전술한 WM 페이로드 구조를 최소화한 후에, 서비스 정보 및/또는 컨텐트 정보가 추가되는 경우이다. 이 경우 도메인 타입 정보는 생략되고, 서버 URL 정보, 타임 스탬프 정보 및 트리거 타입 정보는 각각 18 비트, 17 비트, 2 비트의 크기를 가지는 것으로 축소되었다. 두 실시예에서, 각각의 서비스 정보 및 컨텐트 정보는 관련 방송 시스템에 따라, 임의의 크기(x, y 비트)를 가질 수 있다. 실시예에 따라 두 정보 중 하나만 추가될 수도 있다.
도 42 은 본 발명의 일 실시예에 따른, NSC 필드를 이용한 워터마크 페이로드 구조의 변형을 도시한 도면이다.
전술한 각각의 WM 페이로드 구조들에 변형을 가하여, NSC (No Supplemental Content) 필드를 추가할 수 있다. NSC 필드는 부가 컨텐트가 이용가능한지 여부를 지시할 수 있다. NSC 필드는 1 비트로서 플래그로서 동작할 수 있다. 부가 컨텐트에 대해서는 전술하였다.
NSC 필드를 위한 1 비트는 전술한 도메인 타입 정보의 크기를 줄임으로써 획득될 수 있다. 실시예에 따라 도메인 타입 정보의 크기는 1 비트로 줄어들 수 있다. 전술한 바와 같이 도메인 타입 정보는 WM 페이로드의 타입을 지시하는데, 이 경우 도메인 타입 정보는 WM 페이로드가 스몰 도메인인지, 라지 도메인인지 2가지 경우를 지시할 수 있다. 즉, 2 가지 타입의 도메인이 충분하다면, 도메인 타입 정보의 1 비트를 NSC 필드로 할당해 부가 컨텐트의 가용여부가 지시될 수 있다. 실시예에 따라 도메인 타입 정보의 크기를 줄이지 않고, 전술한 WM 페이로드 구조들에 단순히 NSC 필드를 추가할 수도 있다.
이 실시예에서 스몰 도메인의 경우 서버 URL 필드는 22 비트, 타임 스탬프 필드는 25 비트일 수 있다. 라지 도메인의 경우 서버 URL 필드는 18 비트, 타임 스탬프 필드는 29 비트일 수 있다. 이는 스몰 도메인의 경우 약 420 만개의 서버 코드와 약 1.59 년의 인터벌 코드를 가질 수 있고, 라지 도메인의 경우, 약 262,144 개의 서버 코드와 약 25.5 년의 인터벌 코드를 가질 수 있다. 여기서 트리거 타입 정보는 1 비트 또는 2 비트의 크기를 가질 수 있다.
WM 페이로드의 정보에 따라, 수신기는 서버로 요청(query)을 보낼 수 있다. 이 요청을 보내는 경우는 (1) 수신기가 처음으로 워터마킹된 세그먼트를 수신(tuned)하여 요청하는 경우, (2) 부가 컨텐트의 요청 정보에 따라 추가로 요청을 보내는 경우, (3) 전술한 트리거 타입 정보에 따른 대응으로서 요청하는 경우가 있을 수 있다.
NSC 필드의 추가에 따라, 부가 컨텐트가 없는 경우에는 요청이 수행되지 않을 수 있다. 예를 들어, 수신기가 처음으로 워터마크를 수신한 경우에 보내는 요청은 수행되지 않을 수 있다. 따라서 채널 서핑(channel surfing)하는 경우에 있어 NSC 필드 추가는 효율적일 수 있다. 또한, 서비스/컨텐트들은 부가 컨텐트가 없는 경우에도, 서비스 사용(usage) 리포팅을 위하여 마킹(워터마킹) 될 수 있는데, 이러한 경우에도 NSC 필드 추가는 효율적일 수 있다. 특히 저장 & 사용 리포팅 전달하는 메커니즘의 경우에 더 효율적일 수 있다. 즉, 일반적으로, 많은 양의 컨텐트가 마킹(워터마킹)되어 있으나 부가 컨텐트는 없는 경우 등에 있어 효율적일 수 있다. 또한, SMPTE 오픈 ID 의 경우 계속적으로 워터마킹된 컨텐트가 바람직할 수 있다. 이 경우 계속적으로 마킹된 컨텐트는 두 SDO 들이 공통 WM 솔루션을 결정하는데 도움이 될 수 있다.
도 43 는 본 발명의 일 실시예에 따른, 비디오-오디오 워터마크 간의 링킹(linking) 을 위한 워터마크 페이로드 구조를 도시한 도면이다.
본 발명은 일 실시예로서, 비디오 WM 와 오디오 WM 를 동시에(simultaneously) 삽입하는 방법을 제안한다. 이를 위해 비디오 WM 페이로드의 일부를 오디오 WM 페이로드를 위해 할당할 수 있다. 비디오 WM 페이로드(예를 들어 30-60 바이트) 중 일부(예를 들어 50비트)는 오디오 WM 페이로드와 중복되는 정보(duplicate)를 운반할 수 있다. 이 중복되는 정보는 오디오 WM 페이로드의 정보와 같은 정보이며, 복사본일 수 있다.
또한 이 비디오 WM 와 오디오 WM 는 서로 싱크되어 전송될 수 있다. 비디오 WM 는 적어도 하나 이상의 메시지 블락을 포함할 수 있고, 이 메시지 블락 중 하나는 해당 구조의 WM 페이로드를 가질 수 있다. 이 경우, 그 서비스/컨텐트의 오디오에 삽입된 오디오 WM 는 비디오 WM 과 같은 WM 페이로드를 가질 수 있다. 이 때 비디오 WM 페이로드를 전달하는 메시지 블락의 최초 비디오 프레임은 해당하는 오디오 WM 의 처음부분과 타임 얼라인(time aligned)될 수 있다. 실시예에 따라 일정 오차내에서 양자가 타임 얼라인될 수 있다. 실시예에 따라 메시지 블락은 복수개의 비디오 프레임을 포함할 수 있고, 이 각각의 비디오 프레임은 같은 비디오 WM 페이로드를 반복해서(repeated) 가질 수 있다. 실시예에 따라 반대로 오디오 WM 페이로드 중 일부를 할당하여 비디오 WM 페이로드의 복사본을 운반케할 수도 있다.
예를 들어 사용자가 MVPD STB(Set top box) 로부터 ESG (Electronic Service Guide) 를 불러와 디스플레이시키는 경우에 문제가 생길 수 있다. 먼저, 오디오 WM 만이 사용되는 경우에 있어, ESG 가 디스플레이된다고 해도 오디오는 계속 재생될 수 있다. 그러나 오디오 WM 클라이언트는 ESG 가 디스플레이된다는 점을 모를 수 있다. 따라서 어플리케이션은 계속해서 실행되고, 이에 따른 그래픽 등은 ESG 에 겹쳐 방해를 줄 수도 있다.
또한, 비디오 WM 만이 사용되는 경우에 있어, ESG 가 디스플레이되면, 비디오 WM 클라이언트는 WM 가 사라졌다고 인지하고, 시청자가 채널을 변경했거나 인터랙티브 이벤트가 끝났다고 판단할 수 있다. 따라서 시청자가 채널 변경 없이 ESG 를 끄고, 다시 인터랙티브 서비스를 이전 시점에서 재개하려고 해도, 관련 어플리케이션은 비디오 WM 클라이언트에 의해 종료되었을 수 있다.
따라서, 오디오 WM 와 비디오 WM 를 직렬적으로(in tandem) 사용하는 것이 효율적이다. 오디오 WM 와 달리 비디오 WM 는 수신기에게, 메인 비디오가 현재 스크린에 포커스되고 있지 않다(ESG 가 사용되는 경우 등) 고 알려줄 수 있다. 또한 비디오 WM 와 달리 오디오 WM 는 ESG 가 사용되는 중에도 계속해서 WM 정보를 제공할 수 있다. 이에 따라 수신기는 ESG 작동 중에도 WM 들 내지 관련 부가 컨텐트에 변경이 있는지를 트랙킹할 수 있다.
따라서 비디오 WM 에 의해 ESG 가 스크린에 띄워져 있음을 인지할 수 있고, 오디오 WM 에 의해 적절한 수신기 동작이 계속 끊김없이 수행될 수 있다. 예를 들어 어플리케이션이 그래픽을 제공하지 않는 경우(예를 들어 백그라운드 앱), ESG 와 무관하게 계속 실행될 수 있다. 예를 들어 어플리케이션이 그래픽을 제공하는 경우, ESG 가 사라질 때까지 억제(suppressed)될 수 있다. 예를 들어 어플리케이션이 이벤트를 받으면, 수신기는 이를 ESG 가 사라질 때까지 백그라운드에서 처리할 수 있다. 즉, 오디오 WM 와 비디오 WM 를 링킹함으로써, 이 문제가 해결될 수 있다.
도 44 는 본 발명의 일 실시예에 따른, 링크된 비디오-오디오 워터마크를 이용한 동작을 도시한 도면이다.
먼저 사용자에 의해 ESG 가 스크린에 띄워지는 경우의 동작을 설명한다. 먼저 오리지널 서비스/컨텐트가 방송사로부터 STB 등의 MVPD 로 수신될 수 있다(t505010). STB, 케이블 등의 외부 입력 소스는 이를 수신기로 전달할 수 있다(t505020). 여기서 전달되는 AV 컨텐트는 언컴프레스드(uncompressed)된 상태이며, 링크된 오디오 WM 와 비디오 WM 를 가질 수 있다. 수신기는 오디오 WM 와 비디오 WM 를 감지하고 이에 따른 동작들을 수행할 수 있다.
여기서, 사용자가 STB 의 리모트 컨트롤러로 ESG 를 요청할 수 있다(t505030). STB 는 이에 따라 TV 스크린에 ESG 를 띄울 수 있다(t505040). ESG 는 재생중인 AV 컨텐트에 겹쳐질(overlaid) 수 있다. TV 수신기는 이제 오디오 WM 는 감지하지만, 비디오 WM 는 감지하지 못할 수 있다(t505050). 수신기는 메인 비디오 컨텐트가 ESG 등의 기타 그래픽에 의해 가려졌음을 인지하고, 링크된 오디오 WM 에 액세스하여 필요한 동작을 끊김없이 수행할 수 있다.
다음으로 사용자가 컨텐트를 음소거(mute) 시킨 경우의 동작을 설명한다. AV 컨텐트를 STB 를 통해 TV 수신기가 수신하는 내용(t505010-t505020)은 전술한 바와 같다. 여기서, 사용자는 STB 의 리모트 컨트롤러로 음소거(mute) 를 요청할 수 있다(t505030). STB 는 이에 따라 AV 컨텐트를 음소거 시킬 수 있다(t505040). TV 수신기는 이제 비디오 WM 는 감지하지만, 오디오 WM 는 감지하지 못할 수 있다(t505050). 수신기는 메인 오디오 컨텐트가 음소거되었음을 인지하고, 해당 오디오 WM 페이로드 데이터를 링크된 비디오 WM 페이로드를 통하여 획득할 수 있다. 이를 통해 수신기는 필요한 동작을 끊김없이 수행할 수 있다.
도 45 은 본 발명의 일 실시예에 따른 방송 컨텐트 처리 방법을 도시한 도면이다.
본 발명의 일 실시예에 따른 방송 컨텐트 처리 방법은 외부 입력 소스로부터 방송 컨텐트를 수신하는 단계, 방송 컨텐트로부터 오디오 또는 비디오 워터마크를 추출하는 단계, 워터마크로부터 생성된 URL 로 방송 컨텐트의 부가 컨텐트를 요청하는 단계 및/또는 서버로부터 부가 컨텐트를 획득하는 단계를 포함할 수 있다.
먼저 수신기의 수신유닛은 외부 입력 소스로부터 방송 컨텐트를 수신할 수 있다. 여기서 외부 입력 소스란 STB, 케이블, 위성 등 MVPD 를 의미할 수 있다. 방송 컨텐트는 방송 스트림으로부터 유도된 것으로서, 언컴프레스드(uncompressed) AV 컨텐트일 수 있다. 이 방송 컨텐트는 오디오 및/또는 비디오 컴포넌트를 포함하고, 이 컴포넌트들은 각각 오디오 WM, 비디오 WM 가 삽입되어 있을 수 있다.
수신기의 추출기는 방송 컨텐트로부터 오디오 WM, 비디오 WM 중 적어도 하나를 추출할 수 있다. 수신기의 네트워크 인터페이스는 오디오/비디오 WM 로부터 생성된 URL 로 특정되는 서버에, 부가 컨텐트를 요청할 수 있다. 부가 컨텐트는 방송 컨텐트와 관련된 것으로 자세한 사항은 전술하였다. URL 은 WM 페이로드의 서버 코드 내지 서버 URL 정보로부터 유도된 것일 수 있다. 네트워크 인터페이스는 서버로부터 부가 컨텐트를 획득할 수 있다. 오디오/비디오 WM 는 방송 컨텐트와 관련된 보충(auxiliary) 데이터의 전달에 사용될 수 있다.
본 발명의 다른 실시예에 따른 방송 컨텐트 처리 방법에서, 오디오 WM 들 중 적어도 하나의 오디오 WM는 오디오 WM 페이로드를 포함하고, 그 오디오 WM 페이로드는 도메인 타입 정보, 서버 정보, 인터벌 정보 및/또는 쿼리(query) 정보를 포함할 수 있다. 이 정보들은 차례대로 전술한 도메인 타입 정보, 서버 URL 정보, 타임 스탬프 정보 및/또는 트리거 타입 정보일 수 있다.
본 발명의 또 다른 실시예에 따른 방송 컨텐트 처리 방법에서, 도메인 타입 정보는 오디오 WM 페이로드의 타입을 특정하고, 서버 정보는 부가 컨텐트의 획득을 위한 서버를 식별하고, 인터벌 정보는 오디오 WM 페이로드가 삽입된 오디오 컴포넌트의 인터벌을 식별하고, 쿼리 정보는 서버로부터 이벤트 시그널링이 사용가능한지 여부를 시그널링할 수 있다. 이 정보들에 대해서는 자세히 전술하였다. 이벤트 시그널링은 어플리케이션의 동작을 개시하는, 전술한 이벤트 정보에 해당할 수 있다.
본 발명의 또 다른 실시예에 따른 방송 컨텐트 처리 방법에서, 비디오 WM 들 중 적어도 하나의 비디오 WM는 비디오 WM 페이로드를 포함하고, 그 비디오 WM 페이로드는 오디오 WM 페이로드와 동일한 정보를 포함하는 적어도 하나의 메시지 블락을 포함할 수 있다. 전술한 바와 같이 비디오 WM 페이로드는 오디오 WM 페이로드를 위한 공간을 할당하여, 이를 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 방송 컨텐트 처리 방법에서, 오디오 WM 페이로드와 같은 정보를 포함하는 비디오 WM는, 오디오 WM 페이로드를 운반하는 오디오 WM 와 타임 얼라인(time-aligned) 될 수 있다. 오디오/비디오 WM 간의 링크는 자세히 전술하였다.
본 발명의 또 다른 실시예에 따른 방송 컨텐트 처리 방법에서, 부가 컨텐트에는 디스 컴포넌트(thisComponent) 정보 및/또는 아더 컴포넌트(otherComponent) 정보를 포함할 수 있다. 디스 컴포넌트 정보는, 해당 부가 컨텐트를 요청하는데 사용된 해당 WM 페이로드가 감지된 서비스 컴포넌트에 대한 정보를 기술할 수 있다. 해당 WM 페이로드의 서버 정보/인터벌 정보에 의해 해당 부가 컨텐트가 요청된 것일 수 있다. 아더 컴포넌트 정보는 디스 컴포넌트 정보가 기술하는 컴포넌트가 아닌 다른 컴포넌트들 중에서, 해당 WM 페이로드와 일치하는 WM 페이로드를 가지는 컴포넌트에 대해 기술할 수 있다. 이 WM 페이로드는 비디오 또는 오디오 WM 일 수 있다.
본 발명의 또 다른 실시예에 따른 방송 컨텐트 처리 방법은, 수신기의 추출기가 오디오 또는 비디오 WM 중 하나가 사라졌음을 인지하는 단계; 및 사라지지 않은 다른 WM 를 해당 컴포넌트로부터 추출하는 단계를 더 포함할 수 있다. 이는 전술한 동작과 같이, ESG 가 스크린에 띄워지거나 음소거되는 경우에 있어, 비디오 또는 오디오 WM 가 사라졌음을 인지하고, 같은 페이로드를 가지는 WM 에 액세스하여 끊김없이 정상 동작을 수행하기 위함일 수 있다.
본 발명의 일 실시예에 따른 방송 컨텐트 처리 방법(전송측)을 설명한다. 이 방법은 도면에 도시되지 아니하였다.
본 발명의 일 실시예에 따른 방송 컨텐트 처리 방법(전송측)은 서비스 데이터 생성 모듈이 비디오/오디오 컴포넌트를 가지는 방송 서비스를 생성하는 단계, WM 삽입 모듈이 비디오/오디오 컴포넌트에 비디오/오디오 WM 를 삽입하는 단계, 서비스 데이터 생성 모듈이 방송 서비스에 관련된 시그널링 정보를 생성하는 단계 및/또는 전송 유닛이 방송 서비스 데이터 및 시그널링 정보를 MVPD 로 전송하는 단계를 포함할 수 있다. 실시예에 따라, 서비스 데이터 생성 모듈이 방송 서비스에 대한 부가 컨텐트를 생성하고, 이를 부가 컨텐트 서버로 전달하고, WM 삽입 모듈이 이 서버 및 부가 컨텐트와 관련된 정보를 WM 에 포함시키는 단계를 더 포함할 수 있다.
본 발명의 실시예들에 따른 방송 컨텐트 처리 방법(전송측)들은, 전술한 본 발명의 실시예들에 따른 방송 컨텐트 처리 방법들에 대응될 수 있다. 방송 컨텐트 처리 방법(전송측)은, 전술한 방송 컨텐트 처리 방법의 실시예들에 대응되는 실시예들을 가질 수 있다.
전술한 단계들은 실시예에 따라 생략되거나, 유사/동일한 동작을 수행하는 다른 단계에 의해 대체될 수 있다.
도 46 는 본 발명의 일 실시예에 따른 방송 컨텐트 처리 장치를 도시한 도면이다.
본 발명의 일 실시예에 따른 방송 컨텐트 처리 장치는 전술한 수신 유닛, 추출기 및/또는 네트워크 인터페이스를 포함할 수 있다. 각각의 블락, 모듈들은 전술한 바와 같다. 본 발명의 일 실시예에 따른 방송 컨텐트 처리 장치 및 그 내부 모듈/블락들은, 전술한 본 발명의 방송 컨텐트 처리 방법의 실시예들을 수행할 수 있다.
본 발명의 일 실시예에 따른 방송 컨텐트 처리 장치(전송측)를 설명한다. 이 장치는 도면에 도시되지 아니하였다. 본 발명의 일 실시예에 따른 방송 컨텐트 처리 장치(전송측)는 전술한 서비스 데이터 생성 모듈, WM 삽입 모듈 및/또는 전송 유닛을 포함할 수 있다. 각각의 블락, 모듈들은 전술한 바와 같다. 본 발명의 일 실시예에 따른 방송 컨텐트 처리 장치(전송측) 및 그 내부 모듈/블락들은, 전술한 본 발명의 방송 컨텐트 처리 방법(전송측)의 실시예들을 수행할 수 있다.
전술한 장치 내부의 블락/모듈 등은 메모리에 저장된 연속된 수행과정들을 실행하는 프로세서들일 수 있고, 실시예에 따라 장치 내/외부에 위치하는 하드웨어 엘레멘트들일 수 있다. 전술한 모듈들은 실시예에 따라 생략되거나, 유사/동일한 동작을 수행하는 다른 모듈에 의해 대체될 수 있다.
모듈 또는 유닛은 메모리(또는 저장 유닛)에 저장된 연속된 수행과정들을 실행하는 프로세서들일 수 있다. 전술한 실시예에 기술된 각 단계들은 하드웨어/프로세서들에 의해 수행될 수 있다. 전술한 실시예에 기술된 각 모듈/블락/유닛들은 하드웨어/프로세서로서 동작할 수 있다. 또한, 본 발명이 제시하는 방법들은 코드로서 실행될 수 있다. 이 코드는 프로세서가 읽을 수 있는 저장매체에 쓰여질 수 있고, 따라서 장치(apparatus)가 제공하는 프로세서에 의해 읽혀질 수 있다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 통상의 기술자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명이 제안하는 방법을 네트워크 디바이스에 구비된, 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수가 있다.
본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 이해된다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.
본 명세서에서 장치 및 방법 발명이 모두 언급되고, 장치 및 방법 발명 모두의 설명은 서로 보완하여 적용될 수 있다.
다양한 실시예가 본 발명을 실시하기 위한 최선의 형태에서 설명되었다.
본 발명은 일련의 방송 신호 제공 분야에서 이용된다.
본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 자명하다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.

Claims (14)

  1. 외부 입력 소스로부터 방송 컨텐트를 수신하는 단계, 여기서 상기 방송 컨텐트는 방송 스트림으로부터 유도되고, 상기 방송 컨텐트는 비디오 워터마크가 삽입된(embedded) 비디오 컴포넌트 및 오디오 워터마크가 삽입된 오디오 컴포넌트를 포함하고;
    상기 방송 컨텐트로부터 적어도 하나의 상기 오디오 또는 비디오 워터마크를 추출하는 단계;
    상기 오디오 또는 비디오 워터마크의 페이로드로부터 생성된 URL 에 의해 특정되는 서버로 상기 방송 컨텐트의 부가(supplementary) 컨텐트를 요청하는 단계; 및
    상기 서버로부터 상기 부가 컨텐트를 획득하는 단계; 를 포함하고,
    상기 오디오 또는 비디오 워터마크는 상기 방송 컨텐트의 보충(auxiliary) 데이터를 포함하는 방송컨텐트 처리 방법.
  2. 제 1 항에 있어서,
    상기 오디오 워터마크 중 적어도 하나의 오디오 워터마크는 오디오 워터마크 페이로드를 포함하고,
    상기 오디오 워터마크 페이로드는 도메인 타입 정보, 서버 정보, 인터벌 정보 또는 쿼리(query) 정보를 포함하는 방송 컨텐트 처리 방법.
  3. 제 2 항에 있어서,
    상기 도메인 타입 정보는 상기 오디오 워터마크 페이로드의 타입을 특정하고,
    상기 서버 정보는 상기 부가 컨텐트의 획득을 위한 서버를 식별하고,
    상기 인터벌 정보는 상기 오디오 워터마크 페이로드가 삽입된 상기 오디오 컴포넌트의 인터벌을식별하고,
    상기 쿼리 정보는 상기 서버로부터 이벤트 시그널링이 사용가능한지 여부를 시그널링하고, 상기 이벤트 시그널링은 어플리케이션의 동작을 개시하는 방송 컨텐트 처리 방법.
  4. 제 3 항에 있어서,
    상기 비디오 워터마크 중 적어도 하나의 비디오 워터마크는 비디오 워터마크 페이로드를 포함하고,
    상기 비디오 워터마크 페이로드는 상기 오디오 워터마크 페이로드와 동일한 정보를 포함하는 적어도 하나의 메시지 블락을 포함하는 방송 컨텐트 처리 방법.
  5. 제 4 항에 있어서,
    상기 오디오 워터마크 페이로드와 같은 정보를 포함하는 비디오 워터마크는 상기 오디오 워터마크 페이로드를 운반하는 상기 오디오 워터마크와 타임 얼라인(time-aligned)되는 것을 특징으로 하는 방송 컨텐트 처리 방법.
  6. 제 3 항에 있어서,
    상기 부가 컨텐트는 상기 서버 정보 및 상기 인터벌 정보를 포함하는 상기 오디오 또는 비디오 워터마크 페이로드가 감지된 특정 컴포넌트를 기술하는 정보를 포함하고,
    상기 부가 컨텐트는 상기 특정 컴포넌트가 아닌, 일치되는 상기 오디오 또는 비디오 워터마크 페이로드를 운반하는 컴포넌트들을 기술하는 정보를 더 포함하는 방송 컨텐트 처리 방법.
  7. 제 4 항에 있어서, 상기 방송 컨텐트 처리 방법은,
    상기 오디오 또는 비디오 워터마크 중 하나가 사라졌음을 인지하는 단계; 및
    상기 오디오 또는 비디오 워터마크 중 다른 하나를 상기 방송 컨텐트의 해당 컴포넌트로부터 추출하는 단계; 를 더 포함하는 방송 컨텐트 처리 방법.
  8. 외부 입력 소스로부터 방송 컨텐트를 수신하는 수신 유닛, 여기서 상기 방송 컨텐트는 방송 스트림으로부터 유도되고, 상기 방송 컨텐트는 비디오 워터마크가 삽입된(embedded) 비디오 컴포넌트 및 오디오 워터마크가 삽입된 오디오 컴포넌트를 포함하고;
    상기 방송 컨텐트로부터 적어도 하나의 상기 오디오 또는 비디오 워터마크를 추출하는 추출기; 및
    상기 오디오 또는 비디오 워터마크의 페이로드로부터 생성된 URL 에 의해 특정되는 서버로 상기 방송 컨텐트의 부가(supplementary) 컨텐트를 요청하는 네트워크 인터페이스; 를 포함하고,
    상기 네트워크 인터페이스는 상기 서버로부터 상기 부가 컨텐트를 획득하고,
    상기 오디오 또는 비디오 워터마크는 상기 방송 컨텐트의 보충(auxiliary) 데이터를 포함하는 방송컨텐트 처리 장치.
  9. 제 8 항에 있어서,
    상기 오디오 워터마크 중 적어도 하나의 오디오 워터마크는 오디오 워터마크 페이로드를 포함하고,
    상기 오디오 워터마크 페이로드는 도메인 타입 정보, 서버 정보, 인터벌 정보 또는 쿼리(query) 정보를 포함하는 방송 컨텐트 처리 장치.
  10. 제 9 항에 있어서,
    상기 도메인 타입 정보는 상기 오디오 워터마크 페이로드의 타입을 특정하고,
    상기 서버 정보는 상기 부가 컨텐트의 획득을 위한 서버를 식별하고,
    상기 인터벌 정보는 상기 오디오 워터마크 페이로드가 삽입된 상기 오디오 컴포넌트의 인터벌을식별하고,
    상기 쿼리 정보는 상기 서버로부터 이벤트 시그널링이 사용가능한지 여부를 시그널링하고, 상기 이벤트 시그널링은 어플리케이션의 동작을 개시하는 방송 컨텐트 처리 장치.
  11. 제 10 항에 있어서,
    상기 비디오 워터마크 중 적어도 하나의 비디오 워터마크는 비디오 워터마크 페이로드를 포함하고,
    상기 비디오 워터마크 페이로드는 상기 오디오 워터마크 페이로드와 동일한 정보를 포함하는 적어도 하나의 메시지 블락을 포함하는 방송 컨텐트 처리 장치.
  12. 제 11 항에 있어서,
    상기 오디오 워터마크 페이로드와 같은 정보를 포함하는 비디오 워터마크는 상기 오디오 워터마크 페이로드를 운반하는 상기 오디오 워터마크와 타임 얼라인(time-aligned)되는 것을 특징으로 하는 방송 컨텐트 처리 장치.
  13. 제 10 항에 있어서,
    상기 부가 컨텐트는 상기 서버 정보 및 상기 인터벌 정보를 포함하는 상기 오디오 또는 비디오 워터마크 페이로드가 감지된 특정 컴포넌트를 기술하는 정보를 포함하고,
    상기 부가 컨텐트는 상기 특정 컴포넌트가 아닌, 일치되는 상기 오디오 또는 비디오 워터마크 페이로드를 운반하는 컴포넌트들을 기술하는 정보를 더 포함하는 방송 컨텐트 처리 장치.
  14. 제 11 항에 있어서, 상기 방송 컨텐트 처리 방법은,
    상기 오디오 또는 비디오 워터마크 중 하나가 사라졌음을 인지하는 단계; 및
    상기 오디오 또는 비디오 워터마크 중 다른 하나를 상기 방송 컨텐트의 해당 컴포넌트로부터 추출하는 단계; 를 더 포함하는 방송 컨텐트 처리 장치.
PCT/KR2016/004174 2015-04-23 2016-04-21 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 WO2016171496A1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020167020611A KR101805538B1 (ko) 2015-04-23 2016-04-21 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
EP16775062.9A EP3288277A4 (en) 2015-04-23 2016-04-21 Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method, and broadcast signal receiving method
CN201680001083.3A CN106304851A (zh) 2015-04-23 2016-04-21 发送广播信号的装置、接收广播信号的装置、发送广播信号的方法和接收广播信号的方法
JP2016555355A JP6294503B2 (ja) 2015-04-23 2016-04-21 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
KR1020177034595A KR101838084B1 (ko) 2015-04-23 2016-04-21 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US15/122,818 US20170078765A1 (en) 2015-04-23 2016-04-21 Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal and method for receiving broadcast signal

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201562151447P 2015-04-23 2015-04-23
US62/151,447 2015-04-23
US201562152037P 2015-04-24 2015-04-24
US62/152,037 2015-04-24
US201562154733P 2015-04-30 2015-04-30
US201562155445P 2015-04-30 2015-04-30
US62/154,733 2015-04-30
US62/155,445 2015-04-30

Publications (1)

Publication Number Publication Date
WO2016171496A1 true WO2016171496A1 (ko) 2016-10-27

Family

ID=57143334

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/004174 WO2016171496A1 (ko) 2015-04-23 2016-04-21 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Country Status (6)

Country Link
US (1) US20170078765A1 (ko)
EP (1) EP3288277A4 (ko)
JP (1) JP6294503B2 (ko)
KR (2) KR101838084B1 (ko)
CN (1) CN106304851A (ko)
WO (1) WO2016171496A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018168455A1 (ja) * 2017-03-14 2018-09-20 ソニーセミコンダクタソリューションズ株式会社 送信装置、受信装置、及び、データ処理方法
TWI732250B (zh) * 2016-11-04 2021-07-01 日商夏普股份有限公司 用於演現一視訊服務之裝置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3322195A4 (en) 2015-07-06 2019-03-06 LG Electronics Inc. BROADCAST SIGNAL DEVICE, BROADCAST SIGNAL RECEIVER, BROADCAST SENDING METHOD AND BROADCAST SIGNAL RECEPTION PROCEDURE
JP2019106592A (ja) * 2017-12-11 2019-06-27 トヨタ自動車株式会社 情報提供装置及び情報提供方法
KR20200021280A (ko) * 2018-08-20 2020-02-28 (주)스마일게이트스토브 게임 아이템의 구매를 위한 서버, 컨텐츠 제공자 단말 및 시청자 단말
US11356747B2 (en) 2018-12-21 2022-06-07 The Nielsen Company (Us), Llc Apparatus and methods to associate different watermarks detected in media
CN112449749B (zh) * 2019-06-28 2022-11-04 海信视像科技股份有限公司 数字内容发送装置、发送方法、数字内容接收装置、接收方法
CN110267062B (zh) * 2019-07-26 2022-07-08 深圳Tcl新技术有限公司 拼装视频帧的优化方法、装置及可读存储介质
KR102457065B1 (ko) 2021-02-18 2022-10-20 주식회사 엘지유플러스 컨텐츠 제공 서버 및 그 제어 방법, 컨텐츠 제공 방법 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010076952A2 (ko) * 2008-10-17 2010-07-08 주식회사 씨케이앤비 디지털 영상 장치의 영상 왜곡 판단 테스트 자동화 시스템
KR20140016906A (ko) * 2011-05-24 2014-02-10 엘지전자 주식회사 방송 서비스 전송 방법, 그 수신 장치 및 그 수신 장치의 부가 서비스 처리 방법
US20140355817A1 (en) * 1998-05-28 2014-12-04 Verance Corporation Pre-processed information embedding system
WO2015030467A1 (ko) * 2013-08-26 2015-03-05 삼성전자 주식회사 전자 장치 및 전자 장치에서 컨텐츠 제공 방법
US8990845B2 (en) * 2011-08-21 2015-03-24 Lg Electronics Inc. Video display device, terminal device, and method thereof

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411725B1 (en) * 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
JP2001292427A (ja) * 2000-04-06 2001-10-19 Nippon Television Network Corp コンテンツの連動方法、及びそのシステム
US7133534B2 (en) * 2002-09-03 2006-11-07 Koninklijke Philips Electronics N.V. Copy protection via redundant watermark encoding
US7970899B2 (en) 2006-03-03 2011-06-28 Barracuda Networks Inc Integrated data flow packet admission and traffic management apparatus
US8228910B2 (en) 2007-05-09 2012-07-24 Entropic Communications, Inc. Aggregating network packets for transmission to a destination node
EP2257067A1 (en) * 2009-05-29 2010-12-01 Thomson Licensing Method for inserting watermark assistance data in a bitstream, method of watermarking said bitstream, device implementing the method of watermarking and bitstream comprising the watermark assistance data
US9661397B2 (en) * 2010-12-26 2017-05-23 Lg Electronics Inc. Broadcast service transmitting method, broadcast service receiving method and broadcast service receiving apparatus
KR101691266B1 (ko) * 2011-10-20 2016-12-29 엘지전자 주식회사 방송 서비스 수신 방법 및 방송 서비스 수신 장치
KR101664424B1 (ko) * 2012-07-05 2016-10-10 엘지전자 주식회사 디지털 서비스 신호 처리 방법 및 장치
KR102086514B1 (ko) * 2012-07-16 2020-03-09 엘지전자 주식회사 디지털 서비스 신호 처리 방법 및 장치
US9286912B2 (en) * 2012-09-26 2016-03-15 The Nielsen Company (Us), Llc Methods and apparatus for identifying media
CN106170988A (zh) * 2014-03-13 2016-11-30 凡瑞斯公司 使用嵌入式代码的交互式内容获取

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140355817A1 (en) * 1998-05-28 2014-12-04 Verance Corporation Pre-processed information embedding system
WO2010076952A2 (ko) * 2008-10-17 2010-07-08 주식회사 씨케이앤비 디지털 영상 장치의 영상 왜곡 판단 테스트 자동화 시스템
KR20140016906A (ko) * 2011-05-24 2014-02-10 엘지전자 주식회사 방송 서비스 전송 방법, 그 수신 장치 및 그 수신 장치의 부가 서비스 처리 방법
US8990845B2 (en) * 2011-08-21 2015-03-24 Lg Electronics Inc. Video display device, terminal device, and method thereof
WO2015030467A1 (ko) * 2013-08-26 2015-03-05 삼성전자 주식회사 전자 장치 및 전자 장치에서 컨텐츠 제공 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI732250B (zh) * 2016-11-04 2021-07-01 日商夏普股份有限公司 用於演現一視訊服務之裝置
WO2018168455A1 (ja) * 2017-03-14 2018-09-20 ソニーセミコンダクタソリューションズ株式会社 送信装置、受信装置、及び、データ処理方法
JPWO2018168455A1 (ja) * 2017-03-14 2020-01-16 ソニーセミコンダクタソリューションズ株式会社 送信装置、受信装置、及び、データ処理方法
JP7139310B2 (ja) 2017-03-14 2022-09-20 ソニーセミコンダクタソリューションズ株式会社 送信装置、受信装置、及び、データ処理方法
US11889145B2 (en) 2017-03-14 2024-01-30 Sony Corporation Transmission apparatus, reception apparatus, and data processing method

Also Published As

Publication number Publication date
CN106304851A (zh) 2017-01-04
KR20160137954A (ko) 2016-12-02
EP3288277A4 (en) 2018-09-12
KR101805538B1 (ko) 2017-12-07
EP3288277A1 (en) 2018-02-28
KR101838084B1 (ko) 2018-03-13
US20170078765A1 (en) 2017-03-16
JP6294503B2 (ja) 2018-03-14
JP2017522742A (ja) 2017-08-10
KR20170136006A (ko) 2017-12-08

Similar Documents

Publication Publication Date Title
WO2016171496A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2012091322A1 (ko) 방송 서비스 전송 방법, 그 수신 방법 및 그 수신 장치
WO2013119082A1 (ko) 영상 표시 장치 및 그 동작 방법
WO2017007224A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2013022309A1 (ko) 방송 서비스 전송 방법, 그 수신 방법 및 방송 서비스 수신 장치
WO2012161535A2 (ko) 방송 서비스 전송 방법, 그 수신 장치 및 그 수신 장치의 부가 서비스 처리 방법
WO2014014252A1 (en) Method and apparatus for processing digital service signals
WO2014030924A1 (en) Apparatus and method for processing an interactive service
WO2010021526A2 (en) A method for processing additional information related to an announced service or content in an nrt service and a broadcast receiver
WO2014025207A1 (en) A method and an apparatus for processing a broadcast signal including an interactive broadcast service
WO2014007571A1 (en) Method and apparatus for processing digital service signals
WO2010068033A2 (ko) 비실시간 서비스 처리 방법 및 방송 수신기
WO2013058633A1 (ko) 방송 서비스 수신 방법 및 방송 서비스 수신 장치
WO2014003394A1 (en) Apparatus and method for processing an interactive service
WO2013133601A1 (en) Video display apparatus and operating method thereof
WO2013103273A1 (en) Video display apparatus and operating method thereof
WO2014042368A1 (en) Apparatus and method for processing an interactive service
WO2011112053A2 (ko) 비실시간 방송 서비스 처리 시스템 및 그 처리방법
WO2014129803A1 (en) Video display apparatus and operating method thereof
WO2012173441A2 (ko) 방송 서비스 전송 방법, 그 수신 방법 및 방송 서비스 수신 장치
WO2017014586A1 (ko) 방송 신호 송수신 장치 및 방법
WO2012169779A2 (ko) 방송 서비스 전송 방법, 그 수신 방법 및 그 수신 장치
WO2014126422A1 (en) Video display apparatus and operating method thereof
WO2011122838A2 (en) Method of processing non-real time service and broadcast receiver
WO2016171518A2 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20167020611

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15122818

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2016555355

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2016775062

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16775062

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016775062

Country of ref document: EP