JP6360184B2 - 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法 - Google Patents

放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法 Download PDF

Info

Publication number
JP6360184B2
JP6360184B2 JP2016552928A JP2016552928A JP6360184B2 JP 6360184 B2 JP6360184 B2 JP 6360184B2 JP 2016552928 A JP2016552928 A JP 2016552928A JP 2016552928 A JP2016552928 A JP 2016552928A JP 6360184 B2 JP6360184 B2 JP 6360184B2
Authority
JP
Japan
Prior art keywords
component
service
information
fragment
broadcast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016552928A
Other languages
English (en)
Other versions
JP2017514329A (ja
Inventor
ミンソン カク
ミンソン カク
スンリュル ヤン
スンリュル ヤン
キョンス ムン
キョンス ムン
ウソク コ
ウソク コ
ソンリョン ホン
ソンリョン ホン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2017514329A publication Critical patent/JP2017514329A/ja
Application granted granted Critical
Publication of JP6360184B2 publication Critical patent/JP6360184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26283Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for associating distribution time parameters to content, e.g. to generate electronic program guide data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4335Housekeeping operations, e.g. prioritizing content for deletion because of storage space restrictions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47211End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting pay-per-view content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Description

本発明は、放送信号送信装置、放送信号受信装置、及び放送信号送受信方法に関する。
アナログ放送信号の送信が終了するに伴い、デジタル放送信号を送受信するための様々な技術が開発されている。デジタル放送信号は、アナログ放送信号に比べてさらに多くの量のビデオ/オーディオデータを含むことができ、ビデオ/オーディオデータだけでなく、様々な種類の付加データをさらに含むことができる。
すなわち、デジタル放送システムは、HD(High Definition)イメージ、マルチチャンネル(multi channel、多チャンネル)オーディオ、及び様々な付加サービスを提供することができる。しかし、デジタル放送のためには、大量のデータ伝送に対するデータ伝送効率、送受信ネットワークのロバスト性(robustness)、及びモバイル受信装置を考慮したネットワーク柔軟性(flexibility)を向上させなければならない。
本発明の一実施例に係る放送信号送信方法は、放送サービスのアクセス情報を含むサービスガイド情報及びコンテンツデータを生成するステップであって、前記サービスガイド情報は、前記放送サービスに関する情報を示すサービスフラグメントを含む、ステップと、前記生成されたサービスガイド情報及びコンテンツデータをエンコードするステップと、前記エンコードされたサービスガイド情報及びコンテンツデータを伝送するステップとを有することができる。
好ましくは、前記サービスフラグメントは、前記放送サービスの種類を示すサービスタイプ情報を含み、前記サービスタイプ情報が示す前記放送サービスの前記種類は、放送スケジュール情報を提供するリニアサービス(Linear Service)、アプリケーションに基づくアプリベースサービス(Appbased Service)、及びコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)の少なくとも1つを含むことができる。
好ましくは、前記サービスガイド情報は、前記放送サービスに含まれるコンポーネントに関する情報を示すコンポーネントフラグメントを含み、ここで、前記コンポーネントフラグメントは、前記コンポーネントフラグメントを識別する情報、前記コンポーネントの種類を示すコンポーネントタイプ情報、及び前記コンポーネントの役割を示すコンポーネントロール情報の少なくとも1つを含むことができる。
好ましくは、前記コンポーネントタイプ情報が示す前記コンポーネントの前記種類は、1つの連続するストリームにおいて表現されるコンポーネントを表すコンティニュアスコンポーネント(Continuous component)、独立してエンコードされるコンポーネントを表すエレメンタリコンポーネント(Elementary component)、1つのプレゼンテーションのために組み合わせ可能なコンポーネントを表すコンポジットコンポーネント(Composite component)、及び1つのプレゼンテーションのために選択されるコンポーネントを表すピックワンコンポーネント(PickOne component)の少なくとも1つを含むことができる。
好ましくは、前記コンポーネントロール情報は、前記コンポーネントがスケーラブルビデオエンコーディングのためのベースレイヤ(base layer)、スケーラブルビデオエンコーディングのためのエンハンスメントレイヤ(enhancement layer)、3Dビデオの左目映像、3Dビデオの右目映像、3Dビデオの奥行き情報、音楽オーディオ、対話オーディオ、及び子供のための字幕の少なくとも1つの役割をすることを示すことができる。
本発明の他の実施例に係る放送信号受信装置は、放送サービスのアクセス情報を含むサービスガイド情報及びコンテンツデータを受信するよう構成される受信部であって、前記サービスガイド情報は、前記放送サービスに関する情報を示すサービスフラグメントを含む、受信部と、前記受信したサービスガイド情報及びコンテンツデータをデコードするよう構成されるデコーダとを備えることができる。
好ましくは、前記サービスフラグメントは、前記放送サービスの種類を示すサービスタイプ情報を含み、ここで、前記サービスタイプ情報が示す前記放送サービスの前記種類は、放送スケジュール情報を共に提供するリニアサービス(Linear Service)、アプリケーションに基づくサービス(Appbased Service)、及びコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)の少なくとも1つを含むことができる。
好ましくは、前記サービスガイド情報は、前記放送サービスに含まれるコンポーネントに関する情報を示すコンポーネントフラグメントを含み、ここで、前記コンポーネントフラグメントは、前記コンポーネントフラグメントを識別する情報、前記コンポーネントの種類を示すコンポーネントタイプ情報、及び前記コンポーネントの役割を示すコンポーネントロール情報の少なくとも1つを含むことができる。
好ましくは、前記コンポーネントタイプ情報が示す前記コンポーネントの前記種類は、1つの連続するストリームにおいて表現されるコンポーネントを表すコンティニュアスコンポーネント(Continuous component)、独立してエンコードされるコンポーネントを表すエレメンタリコンポーネント(Elementary component)、1つのプレゼンテーションのために組み合わせ可能なコンポーネントを表すコンポジットコンポーネント(Composite component)、及び1つのプレゼンテーションのために選択されるコンポーネントを表すピックワンコンポーネント(PickOne component)の少なくとも1つを含むことができる。
好ましくは、前記コンポーネントロール情報は、前記コンポーネントがスケーラブルビデオエンコーディングのためのベースレイヤ(base layer)、スケーラブルビデオエンコーディングのためのエンハンスメントレイヤ(enhancement layer)、3Dビデオの左目映像、3Dビデオの右目映像、3Dビデオの奥行き情報、音楽オーディオ、対話オーディオ、及び子供のための字幕の少なくとも1つの役割をすることを示すことができる。
本発明の更に他の実施例に係る放送信号送信装置は、放送サービスのアクセス情報を含むサービスガイド情報及びコンテンツデータを生成するよう構成される生成部であって、前記サービスガイド情報は、前記放送サービスに関する情報を示すサービスフラグメントを含む、生成部と、前記生成されたサービスガイド情報及びコンテンツデータをエンコードするよう構成されるエンコーダと、前記エンコードされたサービスガイド情報及びコンテンツデータを伝送するよう構成される伝送部とを有することができる。
好ましくは、前記サービスフラグメントは、前記放送サービスの種類を示すサービスタイプ情報を含み、ここで、前記サービスタイプ情報が示す前記放送サービスの前記種類は、放送スケジュール情報を提供するリニアサービス(Linear Service)、アプリケーションに基づくサービス(Appbased Service)、及びコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)の少なくとも1つを含むことができる。
本発明の更に他の実施例に係る放送信号受信方法は、放送サービスのアクセス情報を含むサービスガイド情報及びコンテンツデータを受信するステップであって、前記サービスガイド情報は、前記放送サービスに関する情報を示すサービスフラグメントを含む、ステップと、前記受信したサービスガイド情報及びコンテンツデータをデコードするステップとを有することができる。
好ましくは、前記サービスフラグメントは、前記放送サービスの種類を示すサービスタイプ情報を含み、ここで、前記サービスタイプ情報が示す前記放送サービスの前記種類は、放送スケジュール情報を提供するリニアサービス(Linear Service)、アプリケーションに基づくサービス(Appbased Service)、及びコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)の少なくとも1つを含むことができる。
好ましくは、前記サービスガイド情報は、前記放送サービスに含まれるコンポーネントに関する情報を示すコンポーネントフラグメントを含み、ここで、前記コンポーネントフラグメントは、前記コンポーネントフラグメントを識別する情報、前記コンポーネントの種類を示すコンポーネントタイプ情報、及び前記コンポーネントの役割を示すコンポーネントロール情報の少なくとも1つを含むことができる。
本発明は、サービスの特性に応じてデータを処理して各サービスまたはサービスコンポーネントに対するQoS(Quality of Service)を制御することによって、様々な放送サービスを提供することができる。
本発明は、同一のRF(radio frequency)信号帯域幅を介して様々な放送サービスを伝送することによって伝送柔軟性(flexibility)を達成することができる。
本発明は、MIMO(MultipleInput MultipleOutput)システムを用いてデータ伝送効率及び放送信号の送受信ロバスト性(Robustness)を向上させることができる。
本発明によれば、モバイル受信装置を使用したり室内環境にいても、エラーなしにデジタル放送信号を受信可能な放送信号送信及び受信方法及び装置を提供することができる。
本発明のさらなる理解のために含まれ、本出願に含まれ、その一部を構成する添付の図面は、本発明の原理を説明する詳細な説明と共に本発明の実施例を示す。
本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置の構造を示す図である。 本発明の一実施例に係るインプットフォーマッティング(Input formatting、入力フォーマット)ブロックを示す図である。 本発明の他の一実施例に係るインプットフォーマッティング(Input formatting、入力フォーマット)ブロックを示す図である。 本発明の一実施例に係るBICM(bit interleaved coding & modulation)ブロックを示す図である。 本発明の他の一実施例に係るBICMブロックを示す図である。 本発明の一実施例に係るフレームビルディング(Frame Building、フレーム生成)ブロックを示す図である。 本発明の一実施例に係るOFDM(orthogonal frequency division multiplexing)生成(generation、ジェネレーション)ブロックを示す図である。 本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置の構造を示す図である。 本発明の一実施例に係るフレーム構造を示す図である。 本発明の一実施例に係るフレームのシグナリング階層構造を示す図である。 本発明の一実施例に係るプリアンブルシグナリングデータを示す図である。 本発明の一実施例に係るPLS1データを示す図である。 本発明の一実施例に係るPLS2データを示す図である。 本発明の他の一実施例に係るPLS2データを示す図である。 本発明の一実施例に係るフレームのロジカル(logical、論理)構造を示す図である。 本発明の一実施例に係るPLS(physical layer signalling)マッピングを示す図である。 本発明の一実施例に係るEAC(emergency alert channel)マッピングを示す図である。 本発明の一実施例に係るFIC(fast information channel)マッピングを示す図である。 本発明の一実施例に係るFEC(forward error correction)構造を示す図である。 本発明の一実施例に係るタイムインターリービングを示す図である。 本発明の一実施例に係るツイストされた行列ブロックインターリーバの基本動作を示す図である。 本発明の他の一実施例に係るツイストされた行列ブロックインターリーバの動作を示す図である。 本発明の一実施例に係るツイストされた行列ブロックインターリーバの対角線方向の読み取りパターンを示す図である。 本発明の一実施例に係る各インターリービングアレイ(array)からインターリービングされたXFECBLOCKを示す図である。 本発明の一実施例に係るメインフィジカルデバイス(Main Physical Device)及びコンパニオンフィジカルデバイス(Companion Physical Device)の構成を示す図である。 本発明の一実施例に係るハイブリッド放送サービスをサポートするためのプロトコルスタックを示す図である。 本発明の一実施例に係るサービスタイプエレメント(Service Type element)のXMLスキーマ(XML schema)を示す図である。 本発明の一実施例によって、サービスタイプの値として14を有するサービスに対するxmlスキーマ(xml schema)及びディスプレイ表示例を示す図である。 本発明の一実施例によって、サービスタイプの値として14及び15を有するサービスに対するxmlスキーマ及びディスプレイ表示例を示す図である。 本発明の一実施例によって、サービスタイプの値として14及び16を有するサービスに対するxmlスキーマ及びディスプレイ表示例を示す図である。 本発明の一実施例に係るコンポーネントフラグメント(Component fragment)のXMLスキーマを示す図である。 本発明の一実施例に係るComponentTypeエレメントのxmlスキーマを示す図である。 本発明の一実施例に係るComponentDataエレメントのxmlスキーマを示す図である。 本発明の一実施例に係るVideoComponentエレメント及びVideoRoleエレメントのxmlスキーマを示す図である。 本発明の一実施例に係るAudioComponentエレメント及びAudioRoleエレメントのxmlスキーマを示す図である。 本発明の一実施例に係るCCComponentエレメント及びCCRoleエレメントのxmlスキーマを示す図である。 本発明の一実施例によって、スケーラブルビデオコーディング(scalable video coding)において1つのベースレイヤ(base layer)と2つのエンハンスメントレイヤ(enhancement layer)を含むコンポジットビデオコンポーネント(Composite Video Component)に対してコンポーネントフラグメントのxmlスキーマを示す図である。 本発明の一実施例によって、3D video left viewと3D video right viewを含むコンポジットコンポーネント(Composite Component)に対してコンポーネントフラグメントのxmlスキーマを示す図である。 本発明の一実施例によってコンプリートオーディオコンポーネント(Complete Audio Component)を記述するコンポーネントフラグメントのxmlスキーマを示す図である。 本発明の一実施例に係るコンテンツフラグメント(content fragment)内のComponentエレメントのxmlスキーマを示す図である。 本発明の一実施例に係るVideo、Audio及びCC Componentを含むLinear Serviceに対するコンテンツフラグメントのxmlスキーマを示す図である。 Video、Audio及びCCコンポーネントの間の関連関係(association relationship)を説明するためにコンテンツフラグメント内にComponentエレメントを定義する場合のComponentエレメントのxmlスキーマを示す図である。 Video、Audio及びCCコンポーネントの間の関連関係を説明するためにAssociatedToアトリビュートを使用する実施例を示す図である。 Video、Audio及びCCコンポーネントの間の関連関係を説明するためにassociatedAudio及びassociatedCCアトリビュートを使用する実施例を示す図である。 AssociatedToアトリビュートを使用してVideo、Audio及びCCコンポーネントの間の関連関係を説明する実施例を示す図である。 associatedAudio及び/又はassociatedCCアトリビュートを使用してVideo、Audio及びCCコンポーネントの間の関連関係を説明する実施例を示す図である。 本発明の一実施例に係るフラグメント間の参照関係を示す図である。 本発明の一実施例によって、フラグメントとの参照関係を示すエレメントを含むComponentフラグメントのxmlスキーマを示す図である。 本発明の一実施例によって、フラグメントとの参照関係を示すエレメントを含むScheduleフラグメントのxmlスキーマを示す図である。 Service、Content及びComponentフラグメントの間の参照関係を説明する実施例を示す図である。 Continuous Componentを記述するComponentフラグメント間の参照関係を説明する実施例を示す図である。 Appbased Enhancementと関連するComponentを記述するComponentフラグメント間の参照関係を説明する実施例を示す図である。 本発明の一実施例によって、コンテンツフラグメントで関連サービスフラグメントを参照する場合に提供できる機能を示す図である。 本発明の一実施例に係るrelationshipアトリビュートを用いて、コンテンツフラグメントで関連サービスフラグメントを参照する実施例を示す図である。 本発明の他の一実施例に係るフラグメント間の参照関係を示す図である。 本発明の他の一実施例に係るフラグメントとの参照関係を示すエレメントを含むサービスフラグメント、コンテンツフラグメント及びコンポーネントフラグメントのxmlスキーマを示す図である。 Service、Content及びComponentフラグメントの間の参照関係を説明する他の一実施例を示す図である。 Continuous Componentを記述するComponentフラグメント間の参照関係を説明する他の一実施例を示す図である。 Appbased Enhancementと関連するComponentを記述するComponentフラグメント間の参照関係を説明する他の一実施例を示す図である。 本発明の一実施例に係るComponentフラグメントの構成を示す図である。 本発明の一実施例に係るComponentフラグメントの構成を示す図である。 本発明の他の一実施例に係るComponentフラグメントのxmlスキーマを示す図である。 本発明の他の一実施例に係るComponentTypeエレメントのxmlスキーマを示す図である。 本発明の一実施例に係るComponentRoleエレメントのxmlスキーマを示す図である。 本発明の他の一実施例によって、スケーラブルビデオコーディング(scalable video coding)において一つのベースレイヤ(base layer)と2つのエンハンスメントレイヤ(enhancement layer)を含むコンポジットビデオコンポーネント(Composite Video Component)に対してコンポーネントフラグメントのxmlスキーマを示す図である。 本発明の他の一実施例によって、3D video left viewと3D video right viewを含むコンポジットコンポーネント(Composite Component)に対してコンポーネントフラグメントのxmlスキーマを示す図である。 本発明の他の一実施例によってコンプリートオーディオコンポーネント(Complete Audio Component)を記述するコンポーネントフラグメントのxmlスキーマを示す図である。 本発明の一実施例に係るコンテンツ(Content)フラグメントの構成を示す図である。 本発明の一実施例に係るComponentエレメントの構成を示す図である。 本発明の一実施例に係るComponentエレメントの構成を示す図である。 本発明の一実施例に係るComponentエレメントの構成を示す図である。 本発明の一実施例に係るComponentエレメントの構成を示す図である。 本発明の一実施例に係るComponentエレメントのxmlスキーマを示す図である。 本発明の一実施例に係るLanguageエレメント及びComponentTypeエレメントのxmlスキーマを示す図である。 本発明の一実施例に係るComponentRoleエレメントのxmlスキーマを示す図である。 本発明の一実施例に係るDeviceCapabilityエレメント及びTargetDeviceエレメントのxmlスキーマを示す図である。 Presentable Video Component(2D/HD)及びPresentable Audio Component(5.1 channels)を伝送する場合、Componentエレメントのxmlスキーマ構造の一実施例を示す図である。 Presentable Video component(UHD)及びPresentable ENG audio componentをブロードキャストで伝送し、Presentable SPA audio componentをブロードバンドで伝送する場合、Componentエレメントのxmlスキーマ構造の一実施例を示す図である。 Presentable Video Component(UHD/Wide Color Gamut)及びPresentable Audio Component(5.1 channels)を伝送する場合、Componentエレメントのxmlスキーマ構造の一実施例を示す図である。 本発明の他の実施例に係るコンポーネントエレメント(component element)を示す図である。 本発明の一実施例に係るComponentRolエレメントを示す図である。 本発明の他の実施例に係るコンポーネントエレメントをXML形態で示す図である。 本発明の他の実施例に係るコンポーネントエレメントを示す図である。 本発明の他の実施例に係るPresentableCCComponentエレメント及びPresentableAppComponentエレメントを示す図である。 本発明の他の実施例に係るコンポーネントエレメントをXML形態で示す図である。 本発明の一実施例に係るEssential Capabilitiesエレメントを示す図である。 本発明の一実施例に係るCapabilityCodeエレメントの値によるケイパビリティ(capability)の意味を示す図である。 本発明の一実施例に係る、Category(カテゴリ)属性情報の値によるケイパビリティカテゴリ(Capability Category)を示す図である。 本発明の一実施例に係る、コンポーネント別にPay Per View(PPV)が提供される過程を示す図である。 本発明の一実施例に係る、放送プログラムの各コンポーネント別にメディアが提供される順序を示す図である。 本発明の一実施例に係る、放送プログラムの各コンポーネント別にメディアが提供される画面を示す図である。 本発明の一実施例に係る、ビデオコンポーネントに対する役割(role)がESGに表示される場合を示す図である。 本発明の他の実施例に係る、ビデオコンポーネントに対する役割がESGに表示される場合を示す図である。 本発明の他の実施例に係る、ビデオコンポーネントに対する役割がESGに表示される場合を示す図である。 本発明の一実施例に係る、オーディオコンポーネントに対する役割がESGに表示される場合を示す図である。 本発明の他の実施例に係る、オーディオコンポーネントに対する役割がESGに表示される場合を示す図である。 本発明の他の実施例に係る、オーディオコンポーネントに対する役割がESGに表示される場合を示す図である。 本発明の一実施例に係る、CC(Closed Caption)コンポーネントに対する役割がESGに表示される場合を示す図である。 本発明の一実施例に係る放送信号送信方法を示す図である。 本発明の一実施例に係る放送信号受信装置の構成を示す図である。 本発明の一実施例に係る放送信号送信装置の構成を示す図である。 本発明の一実施例に係る放送信号受信方法を示す図である。
本発明の好ましい実施例について具体的に説明し、その例は添付の図面に示す。添付の図面を参照した以下の詳細な説明は、本発明の実施例によって実装可能な実施例のみを示すためのものではなく、本発明の好ましい実施例を説明するためのものである。以下の詳細な説明は、本発明に対する徹底した理解を提供するために詳細を含む。しかし、本発明がこのような詳細なしにも実行可能であるということは当業者に自明である。
本発明で使用されるほとんどの用語は、当該分野で広く使用される一般的な用語から選択されるが、一部の用語は出願人によって任意に選択され、その意味は、必要に応じて以下の説明で詳細に記載する。したがって、本発明は、用語の単純な名称や意味ではなく、用語の意図された意味に基づいて理解されなければならない。
本明細書において、‘シグナリング(signaling)’とは、放送システム、インターネット放送システム、及び/又は放送/インターネット融合システムで提供されるサービス情報(Service Information;SI)を送信/受信することを示す。サービス情報は、現在存在する各放送システムで提供される放送サービス情報(例えば、ATSCSI及び/又はDVBSI)を含む。
本明細書において、‘放送信号’とは、地上波放送、ケーブル放送、衛星放送、及び/又はモバイル放送以外にも、インターネット放送、ブロードバンド放送、通信放送、データ放送及び/又はVOD(Video On Demand)などの双方向放送で提供される信号及び/又はデータを含む概念として定義する。
本明細書において、‘PLP’とは、物理層に属するデータを伝送する一定のユニットを意味する。したがって、本明細書において、‘PLP’と命名された内容は、‘データユニット’または‘データパイプ(data pipe)’と呼ぶこともできる。
デジタル放送(DTV)サービスで活用される有力なアプリケーション(application)の一つとして、放送網とインターネット網との連動を通じたハイブリッド放送サービスを挙げることができる。ハイブリッド放送サービスは、地上波放送網を介して伝送される放送A/V(Audio/Video)コンテンツと関連するエンハンスメントデータ(enhancement data)あるいは放送A/Vコンテンツの一部をインターネット網を介してリアルタイムで伝送することによって、ユーザが様々なコンテンツを経験できるようにする。
本発明は、次世代放送サービスに対する放送信号送信及び受信装置及び方法を提供する。本発明の一実施例に係る次世代放送サービスは、地上波放送サービス、モバイル放送サービス、UHDTVサービスなどを含む。本発明は、一実施例によって、非MIMO(nonMultiple Input Multiple Output)またはMIMO方式を用いて次世代放送サービスに対する放送信号を処理することができる。本発明の一実施例に係る非MIMO方式は、MISO(Multiple Input Single Output)方式、SISO(Single Input Single Output)方式などを含むことができる。
以下では、説明の便宜のため、MISO又はMIMO方式は2つのアンテナを使用するが、本発明は、2つ以上のアンテナを使用するシステムに適用できる。本発明は、特定の用途に要求される性能を達成すると共に、受信機の複雑度を最小化するために、最適化された3つのフィジカルプロファイル(PHY profile)(ベース(base)、ハンドヘルド(handheld)、アドバンスド(advanced)プロファイル)を定義することができる。フィジカルプロファイルは、該当する受信機が実装しなければならない全ての構造のサブセットである。
3つのフィジカルプロファイルは、ほとんどの機能ブロックを共有するが、特定のブロック及び/又はパラメータでは少し異なる。後で追加的にフィジカルプロファイルを定義できる。システムの発展のために、フューチャープロファイルは、FEF(future extension frame)を介して単一のRF(radio frequency)チャネルに存在するプロファイルとマルチプレクシングされてもよい。各フィジカルプロファイルについての詳細は後述する。
1.ベースプロファイル
ベースプロファイルは、主にルーフトップ(rooftop)アンテナと接続される固定された受信装置の主な用途を示す。ベースプロファイルは、ある場所に移動できるが、比較的静止された受信カテゴリに属する携帯用装置も含むことができる。ベースプロファイルの用途は、若干の改善された実行によってハンドヘルド装置または車両用に拡張できるが、このような使用用途は、ベースプロファイルの受信機動作では期待されない。
受信のターゲット信号対雑音比の範囲は約10〜20dBであり、これは、既存の放送システム(例えば、ATSC A/53)の15dBの信号対雑音比の受信能力を含む。受信機の複雑度及び消費電力は、ハンドヘルドプロファイルを使用するバッテリーで駆動されるハンドヘルド装置の場合ほど重要ではない。ベースプロファイルに対する重要なシステムパラメータが、下記の表1に記載されている。
Figure 0006360184
2.ハンドヘルドプロファイル
ハンドヘルドプロファイルは、バッテリー電源で駆動されるハンドヘルド及び車両用装置での使用のために設計される。当該装置は、歩行者または車両の速度で移動することができる。受信機の複雑度だけでなく消費電力は、ハンドヘルドプロファイルの装置の実装のために非常に重要である。ハンドヘルドプロファイルのターゲット信号対雑音比の範囲は約0〜10dBであるが、さらに低い室内受信のために意図された場合、0dB未満に達するように設定できる。
低信号対雑音比能力だけでなく、受信機の移動性によって現れるドップラー効果に対する復元力は、ハンドヘルドプロファイルの最も重要な性能属性である。ハンドヘルドプロファイルに対する重要なシステムパラメータが、下記の表2に記載されている。
Figure 0006360184
3.アドバンスドプロファイル
アドバンスドプロファイルは、さらに大きい実行複雑度に対する代価として、さらに高いチャネル能力を提供する。当該プロファイルは、MIMO送信及び受信を使用することを要求し、UHDTVサービスはターゲット用途であり、そのために、当該プロファイルが特別に設計される。向上した能力は、与えられた帯域幅でサービス数の増加、例えば、多数のSDTVまたはHDTVサービスを許容する際にも使用できる。
アドバンスドプロファイルのターゲット信号対雑音比の範囲は約20〜30dBである。MIMO伝送は、初期には既存の楕円偏波伝送装置を使用し、後で全出力交差偏波伝送に拡張できる。アドバンスドプロファイルに対する重要なシステムパラメータが、下記の表3に記載されている。
Figure 0006360184
この場合、ベースプロファイルは、地上波放送サービス及びモバイル放送サービスの両方に対するプロファイルとして使用することができる。すなわち、ベースプロファイルは、モバイルプロファイルを含むプロファイルの概念を定義するために使用することができる。また、アドバンスドプロファイルは、MIMOを有するベースプロファイルに対するアドバンスドプロファイルと、MIMOを有するハンドヘルドプロファイルに対するアドバンスドプロファイルとに区分できる。そして、当該3つのプロファイルは、設計者の意図によって変更されてもよい。
次の用語及び定義は本発明に適用できる。次の用語及び定義は、設計によって変更されてもよい。
補助ストリーム:フューチャーエクステンション(future extension、将来の拡張)または放送局やネットワーク運営者によって要求されることによって使用され得るまだ定義されていない変調及びコーディングのデータを伝達するセルのシーケンス
ベースデータパイプ(base data pipe):サービスシグナリングデータを伝達するデータパイプ
ベースバンドフレーム(またはBBFRAME):一つのFECエンコーディング過程(BCH及びLDPCエンコーディング)に対する入力を形成するKbchビットの集合
セル(cell):OFDM伝送の一つのキャリアによって伝達される変調値
コーディングブロック(coded block):PLS1データのLDPCエンコーディングされたブロックまたはPLS2データのLDPCエンコーディングされたブロックのうち一つ
データパイプ(data pipe):一つ又は多数のサービスまたはサービスコンポーネントを伝達できる、サービスデータまたは関連するメタデータを伝達する物理層(physical layer)でのロジカルチャネル
データパイプユニット(DPU、data pipe unit):データセルをフレームでのデータパイプに割り当てることができる基本ユニット
データシンボル(data symbol):プリアンブルシンボルではなく、フレームでのOFDMシンボル(フレームシグナリングシンボル及びフレームエッジ(edge)シンボルはデータシンボルに含まれる。)
DP_ID:当該8ビットフィールドは、SYSTEM_IDによって識別されたシステム内でデータパイプを唯一に識別する。
ダミーセル(dummy cell):PLS(physical layer signalling)シグナリング、データパイプ、または補助ストリームのために使用されていない残っている容量を埋めるのに使用される擬似ランダム値を伝達するセル
FAC(emergency alert channel、非常警報チャネル):EAS情報データを伝達するフレームの一部
フレーム(frame):プリアンブルで開始し、フレームエッジシンボルで終了する物理層(physical layer)タイムスロット
フレームレペティションユニット(frame repetition unit、フレーム繰り返し単位):スーパーフレーム(superframe)で8回繰り返されるFEFを含む同一または異なるフィジカルプロファイルに属するフレームの集合
FIC(fast information channel、高速情報チャネル):サービスと当該ベースデータパイプとの間でのマッピング情報を伝達するフレーム内のロジカルチャネル
FECBLOCK:データパイプデータのLDPCエンコーディングされたビットの集合
FFTサイズ:基本周期Tのサイクルで表現されたアクティブシンボル周期Tsと同一の特定のモードに使用される名目上のFFTサイズ
フレームシグナリングシンボル(frame signaling symbol):PLSデータの一部を伝達する、FFTサイズ、ガードインターバル(guard interval)、及びスキャッタード(scattered)パイロットパターンの特定の組み合わせにおいてフレームの開始で使用されるさらに高いパイロット密度を有するOFDMシンボル
フレームエッジシンボル(frame edge symbol):FFTサイズ、ガードインターバル、及びスキャッタードパイロットパターンの特定の組み合わせにおいて、フレームの末尾で使用されるさらに高いパイロット密度を有するOFDMシンボル
フレームグループ(framegroup):スーパーフレームにおいて同一のフィジカルプロファイルタイプを有する全てのフレームの集合
フューチャーエクステンションフレーム(future extention frame、将来の拡張フレーム):プリアンブルで開始する、将来の拡張に使用できるスーパーフレーム内の物理層(physical layer)タイムスロット
フューチャーキャスト(futurecast)UTBシステム:入力が1つ以上のMPEG2TSまたはIP(Internet protocol)または一般のストリームであり、出力がRFシグナルである、提案された物理層(physical layer)放送システム
インプットストリーム(input stream、入力ストリーム):システムによって最終ユーザに伝達されるサービスの集合体(ensemble)のためのデータのストリーム
ノーマル(normal)データシンボル:フレームシグナリングシンボル及びフレームエッジシンボルを除いたデータシンボル
フィジカルプロファイル(PHY profile):該当する受信機が実装しなければならない全ての構造のサブセット
PLS:PLS1及びPLS2で構成された物理層(physical layer)シグナリングデータ
PLS1:PLS2をデコーディングするのに必要なパラメータだけでなく、システムに関する基本情報を伝達する固定されたサイズ、コーディング、変調を有するFSS(frame signalling symbol)で伝達されるPLSデータの1番目の集合
NOTE:PLS1データは、フレームグループのデュレーション(duration)の間、一定である。
PLS2:データパイプ及びシステムに関するより詳細なPLSデータを伝達するFSSで伝送されるPLSデータの2番目の集合
PLS2ダイナミック(dynamic、動的)データ:フレーム毎にダイナミック(dynamic、動的)に変化するPLS2データ
PLS2スタティック(static、静的)データ:フレームグループのデュレーションの間、スタティック(static、静的)なPLS2データ
プリアンブルシグナリングデータ(preamble signaling data):プリアンブルシンボルによって伝達され、システムの基本モードを確認するのに使用されるシグナリングデータ
プリアンブルシンボル(preamble symbol):基本PLSデータを伝達し、フレームの先頭に位置する固定された長さのパイロットシンボル
NOTE:プリアンブルシンボルは、システム信号、そのタイミング、周波数オフセット、及びFFTサイズを検出するために高速の初期バンドスキャンに主に使用される。
将来の使用(future use)のためにリザーブド(reserved):現在の文書で定義されないが、将来に定義され得る
スーパーフレーム(superframe):8個のフレーム繰り返し単位の集合
タイムインターリービングブロック(time interleaving block,TI block):タイムインターリーバメモリの一つの用途に該当する、タイムインターリービングが実行されるセルの集合
タイムインターリービンググループ(time interleaving group、TI group):整数、ダイナミック(dynamic、動的)に変化するXFECBLOCKの数からなる、特定のデータパイプに対するダイナミック(dynamic、動的)容量割り当てが実行される単位
NOTE:タイムインターリービンググループは、一つのフレームに直接マッピングされるか、または多数のフレームにマッピングされてもよい。タイムインターリービンググループは、1つ以上のタイムインターリービングブロックを含むことができる。
タイプ1のデータパイプ(Type 1 DP):全てのデータパイプがフレームにTDM(time division multiplexing)方式でマッピングされるフレームのデータパイプ
タイプ2のデータパイプ(Type 2 DP):全てのデータパイプがフレームにFDM方式でマッピングされるフレームのデータパイプ
XFECBLOCK:一つのLDPC FECBLOCKの全てのビットを伝達するNcellsセルの集合
図1は、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置の構造を示す。
本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置は、インプットフォーマットブロック(Input Format block)1000、BICM(bit interleaved coding & modulation)ブロック1010、フレームビルディングブロック(Frame building block)1020、OFDM(orthogonal frequency division multiplexing)生成ブロック(OFDM generation block)1030、及びシグナリング生成ブロック1040を含むことができる。放送信号送信装置の各ブロックの動作について説明する。
IPストリーム/パケット及びMPEG2−TSは主要入力フォーマットであり、他のストリームタイプは一般のストリームとして扱われる。これらデータ入力に加えて、管理情報が入力されて、各入力ストリームに対する当該帯域幅のスケジューリング及び割り当てを制御する。1つ又は多数のTSストリーム、IPストリーム及び/又は一般のストリームの入力が同時に許容される。
インプットフォーマットブロック1000は、それぞれの入力ストリームを、独立したコーディング及び変調が適用される1つ又は多数のデータパイプに逆多重化することができる。データパイプは、ロバスト性(robustness)の制御のための基本単位であり、これは、QoS(Quality of Service)に影響を及ぼす。1つ又は多数のサービスまたはサービスコンポーネントが一つのデータパイプによって伝達され得る。インプットフォーマットブロック1000の詳細な動作は後述する。
データパイプは、1つ又は多数のサービスまたはサービスコンポーネントを伝達できる、サービスデータまたは関連メタデータを伝達する物理層(physical layer)でのロジカルチャネルである。
また、データパイプユニットは、一つのフレームでデータセルをデータパイプに割り当てるための基本ユニットである。
インプットフォーマットブロック1000において、パリティ(parity)データはエラー訂正のために追加され、エンコーディングされたビットストリームは、複素数値のコンステレーションシンボルにマッピングされる。当該シンボルは、当該データパイプに使用される特定のインターリービング深さにわたってインターリービングされる。アドバンスドプロファイルにおいて、BICMブロック1010でMIMOエンコーディングが実行され、追加データ経路がMIMO伝送のために出力に追加される。BICMブロック1010の詳細な動作は後述する。
フレームビルディングブロック1020は、1つのフレーム内で入力データパイプのデータセルをOFDMシンボルにマッピングすることができる。マッピングの後、周波数領域ダイバーシティのために、特に周波数選択的フェーディングチャネルを防止するために周波数インターリービングが用いられる。フレームビルディングブロック1020の詳細な動作は後述する。
プリアンブルを各フレームの先頭に挿入した後、OFDM生成ブロック1030は、サイクリックプレフィックス(cyclic prefix)をガードインターバルとして有する既存のOFDM変調を適用することができる。アンテナスペースダイバーシティのために、分散された(distributed)MISO方式が送信機にわたって適用される。また、PAPR(peak−to−average power ratio)方式が時間領域で実行される。柔軟なネットワーク方式のために、当該提案は、様々なFFTサイズ、ガードインターバルの長さ、当該パイロットパターンの集合を提供する。OFDM生成ブロック1030の詳細な動作は後述する。
シグナリング生成ブロック1040は、各機能ブロックの動作に使用される物理層(physical layer)シグナリング情報を生成することができる。当該シグナリング情報はまた、関心のあるサービスが受信機側で適切に復旧されるように伝送される。シグナリング生成ブロック1040の詳細な動作は後述する。
図2、図3、図4は、本発明の実施例に係るインプットフォーマットブロック1000を示す。各図面について説明する。
図2は、本発明の一実施例に係るインプットフォーマットブロックを示す。図2は、入力信号が単一の入力ストリーム(single input stream)であるときのインプットフォーマットブロックを示す。
図2に示されたインプットフォーマットブロックは、図1を参照して説明したインプットフォーマットブロック1000の一実施例に該当する。
物理層(physical layer)への入力は、1つ又は多数のデータストリームで構成されてもよい。それぞれのデータストリームは、1つのデータパイプによって伝達される。モードアダプテーション(mode adaptaion、モード適応)モジュールは、入力されるデータストリームをBBF(baseband frame)のデータフィールドにスライスする。当該システムは、3つの種類の入力データストリーム、すなわち、MPEG2−TS、IP、GS(generic stream)をサポートする。MPEG2−TSは、最初のバイトが同期バイト(0x47)である固定された長さ(188バイト)のパケットを特徴とする。IPストリームは、IPパケットヘッダー内でシグナリングされる可変長のIPデータグラムパケットで構成される。当該システムは、IPストリームに対してIPv4とIPv6をいずれもサポートする。GSは、カプセル化パケットヘッダー内でシグナリングされる可変長のパケットまたは一定の長さのパケットで構成されてもよい。
(a)は、信号データパイプに対するモードアダプテーション(mode adaptaion、モード適応)ブロック2000及びストリームアダプテーション(stream adaptation、ストリーム適応)2010を示し、(b)は、PLSデータを生成及び処理するためのPLS生成ブロック2020及びPLSスクランブラ2030を示す。各ブロックの動作について説明する。
入力ストリームスプリッターは、入力されたTS、IP、GSストリームを多数のサービスまたはサービスコンポーネント(オーディオ、ビデオなど)ストリームに分割する。モードアダプテーション(mode adaptaion、モード適応)モジュール2010は、CRCエンコーダ、BB(baseband)フレームスライサー、及びBBフレームヘッダー挿入ブロックで構成される。
CRCエンコーダは、ユーザパケット(user packet、UP)レベルでのエラー検出のための3種類のCRCエンコーディング、すなわち、CRC8、CRC16、CRC32を提供する。算出されたCRCバイトは、UPの後に添付される。CRC8はTSストリームに使用され、CRC32はIPストリームに使用される。GSストリームがCRCエンコーディングを提供しないと、提案されたCRCエンコーディングが適用されなければならない。
BBフレームスライサーは、入力を内部ロジカルビットフォーマットにマッピングする。最初の受信ビットはMSBと定義する。BBフレームスライサーは、利用可能なデータフィールド容量と同じ数のビットを割り当てる。BBFペイロードと同じ数の入力ビットを割り当てるために、UPストリームがBBFのデータフィールドに合うようにスライスされる。
BBフレームヘッダー挿入ブロックは、2バイトの固定された長さのBBFヘッダーをBBフレームの前に挿入することができる。BBFヘッダーは、STUFFI(1ビット)、SYNCD(13ビット)、及びRFU(2ビット)で構成される。固定された2バイトのBBFヘッダーだけでなく、BBFは、2バイトのBBFヘッダーの末尾に拡張フィールド(1又は3バイト)を有することができる。
ストリームアダプテーション(stream adaptation、ストリーム適応)2010は、スタッフィング(stuffing)挿入ブロック及びBBスクランブラで構成される。スタッフィング挿入ブロックは、スタッフィングフィールドをBBフレームのペイロードに挿入することができる。ストリームアダプテーション(stream adaptation、ストリーム適応)に対する入力データがBBフレームを埋めるのに十分であれば、STUFFIは‘0’に設定され、BBFはスタッフィングフィールドを有さない。そうでなければ、STUFFIは‘1’に設定され、スタッフィングフィールドはBBFヘッダーの直後に挿入される。スタッフィングフィールドは、2バイトのスタッフィングフィールドヘッダー及び可変サイズのスタッフィングデータを含む。
BBスクランブラは、エネルギー分散のために完全なBBFをスクランブリングする。スクランブリングシーケンスはBBFと同期化される。スクランブリングシーケンスは、フィードバックシフトレジスタによって生成される。
PLS生成ブロック2020はPLSデータを生成することができる。PLSは、受信機で物理層(physical layer)データパイプに接続できる手段を提供する。PLSデータはPLS1データ及びPLS2データで構成される。
PLS1データは、PLS2データをデコーディングするのに必要なパラメータだけでなく、システムに関する基本情報を伝達する固定されたサイズ、コーディング、変調を有するフレームでFSSで伝達されるPLSデータの1番目の集合である。PLS1データは、PLS2データの受信及びデコーディングを可能にするために要求されるパラメータを含む基本送信パラメータを提供する。また、PLS1データは、フレームグループのデュレーションの間、一定である。
PLS2データは、データパイプ及びシステムに関するより詳細なPLSデータを伝達するFSSで伝送されるPLSデータの2番目の集合である。PLS2は、受信機が望むデータパイプをデコーディングするのに十分な情報を提供するパラメータを含む。PLS2シグナリングは、PLS2スタティック(static、静的)データ(PLS2STATデータ)及びPLS2ダイナミック(dynamic、動的)データ(PLS2DYNデータ)の2種類のパラメータで構成される。PLS2スタティックデータは、フレームグループのデュレーションの間、スタティックであるPLS2データであり、PLS2ダイナミックデータは、フレーム毎にダイナミック(dynamic、動的)に変化するPLS2データである。
PLSデータについての詳細は後述する。
PLSスクランブラ2030は、エネルギー分散のために生成されたPLSデータをスクランブリングすることができる。
前述したブロックは、省略されてもよく、類似又は同一の機能を有するブロックによって代替されてもよい。
図3は、本発明の他の一実施例に係るインプットフォーマットブロックを示す。
図3に示されたインプットフォーマットブロックは、図1を参照して説明したインプットフォーマットブロック1000の一実施例に該当する。
図3は、入力信号がマルチインプットストリーム(multi input stream、多数の入力ストリーム)に該当する場合、インプットフォーマットブロックのモードアダプテーション(mode adaptaion、モード適応)ブロックを示す。
マルチインプットストリーム(multi input stream、多数の入力ストリーム)を処理するためのインプットフォーマットブロックのモードアダプテーション(mode adaptaion、モード適応)ブロックは、多数の入力ストリームを独立して処理することができる。
図3を参照すると、マルチインプットストリーム(multi input stream、多数の入力ストリーム)をそれぞれ処理するためのモードアダプテーション(mode adaptaion、モード適応)ブロックは、インプットストリームスプリッター(input stream splitter)3000、インプットストリームシンクロナイザ(input stream synchronizer)3010、コンペンセーティングディレイ(compensating delay、補償遅延)ブロック3020、ヌルパケットディリーションブロック(null packet deletion block)3030、ヘッダーコンプレッションブロック(header compression block)3040、CRCエンコーダ(CRC encoder)3050、BBフレームスライサー(BB frame slicer)3060、及びBBヘッダー挿入ブロック(BB header insertion block)3070を含むことができる。モードアダプテーション(mode adaptaion、モード適応)ブロックの各ブロックについて説明する。
CRCエンコーダ3050、BBフレームスライサー3060、及びBBヘッダー挿入ブロック3070の動作は、図2を参照して説明したCRCエンコーダ、BBフレームスライサー、及びBBヘッダー挿入ブロックの動作に該当するので、その説明は省略する。
インプットストリームスプリッター3000は、入力されたTS、IP、GSストリームを多数のサービスまたはサービスコンポーネント(オーディオ、ビデオなど)ストリームに分割する。
インプットストリームシンクロナイザ3010はISSYと呼ぶことができる。ISSYは、いかなる入力データフォーマットに対してもCBR(constant bit rate)及び一定の終端間伝送(endtoend transmission)遅延を保証する適した手段を提供することができる。ISSYは、TSを伝達する多数のデータパイプの場合に常に用いられ、GSストリームを伝達する多数のデータパイプに選択的に用いられる。
コンペンセーティングディレイ(compensatin delay、補償遅延)ブロック3020は、受信機で追加のメモリを必要とせず、TSパケット再結合メカニズムを許容するために、ISSY情報の挿入に後続する分割されたTSパケットストリームを遅延させることができる。
ヌルパケットディリーションブロック3030は、TS入力ストリームの場合にのみ使用される。一部のTS入力ストリームまたは分割されたTSストリームは、VBR(variable bitrate)サービスをCBR TSストリームに収容するために存在する多くの数のヌルパケットを有することができる。この場合、不必要な伝送オーバーヘッドを避けるために、ヌルパケットは、確認されて伝送されなくてもよい。受信機で、除去されたヌルパケットは、伝送に挿入されたDNP(deleted nullpacket、削除されたヌルパケット)カウンターを参照して、元々存在していた正確な位置に再挿入することができるので、CBRが保証され、タイムスタンプ(PCR)更新の必要がなくなる。
ヘッダーコンプレッションブロック3040は、TS又はIP入力ストリームに対する伝送効率を増加させるためにパケットヘッダー圧縮を提供することができる。受信機は、ヘッダーの特定の部分に対する先験的な(a priori)情報を有することができるので、この既知情報(known information)は送信機で削除されてもよい。
TSに対して、受信機は、同期バイト構成(0x47)及びパケット長(188バイト)に関する先験的な情報を有することができる。入力されたTSが1つのPIDのみを有するコンテンツを伝達すると、すなわち、1つのサービスコンポーネント(ビデオ、オーディオなど)またはサービスサブコンポーネント(SVCベースレイヤ、SVCエンハンスメントレイヤ、MVCベースビュー、またはMVC依存ビュー)に対してのみ、TSパケットヘッダー圧縮がTSに(選択的に)適用され得る。TSパケットヘッダー圧縮は、入力ストリームがIPストリームである場合に選択的に使用される。前記ブロックは、省略されてもよく、類似又は同一の機能を有するブロックで代替されてもよい。
図4は、本発明の一実施例に係るBICMブロックを示す。
図4に示されたBICMブロックは、図1を参照して説明したBICMブロック1010の一実施例に該当する。
前述したように、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置は、地上波放送サービス、モバイル放送サービス、UHDTVサービスなどを提供することができる。
QoSが、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置によって提供されるサービスの特性に依存するので、それぞれのサービスに該当するデータは、互いに異なる方式を用いて処理されなければならない。したがって、本発明の一実施例に係るBICMブロックは、SISO、MISO、MIMO方式をそれぞれのデータ経路に該当するデータパイプに独立して適用することによって、各データパイプを独立して処理することができる。結果的に、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置は、それぞれのデータパイプを介して伝送される各サービスまたはサービスコンポーネントに対するQoSを調節することができる。
(a)は、ベースプロファイル及びハンドヘルドプロファイルによって共有されるBICMブロックを示し、(b)は、アドバンスドプロファイルのBICMブロックを示す。
ベースプロファイル及びハンドヘルドプロファイルによって共有されるBICMブロック及びアドバンスドプロファイルのBICMブロックは、それぞれのデータパイプを処理するための複数の処理ブロックを含むことができる。
ベースプロファイル及びハンドヘルドプロファイルに対するBICMブロック、及びアドバンスドプロファイルに対するBICMブロックのそれぞれの処理ブロックについて説明する。
ベースプロファイル及びハンドヘルドプロファイルに対するBICMブロックの処理ブロック5000は、データFECエンコーダ5010、ビットインターリーバ5020、コンステレーションマッパー(mapper)5030、SSD(signal space diversity)エンコーディングブロック5040、タイムインターリーバ5050を含むことができる。
データFECエンコーダ5010は、外部コーディング(BCH)及び内部コーディング(LDPC)を用いてFECBLOCK手順を生成するために、入力BBFにFECエンコーディングを行う。外部コーディング(BCH)は選択的なコーディング方法である。データFECエンコーダ5010の具体的な動作については後述する。
ビットインターリーバ5020は、効率的に実現可能な構造を提供すると共に、データFECエンコーダ5010の出力をインターリービングしてLDPCコード及び変調方式の組み合わせで最適化された性能を達成することができる。ビットインターリーバ5020の具体的な動作については後述する。
コンステレーションマッパー5030は、QPSK、QAM16、不均一QAM(NUQ64、NUQ256、NUQ1024)または不均一コンステレーション(NUC16、NUC64、NUC256、NUC1024)を用いて、ベース及びハンドヘルドプロファイルでビットインターリーバ5020からのそれぞれのセルワードを変調するか、またはアドバンスドプロファイルでセルワードデマルチプレクサ5010−1からのセルワードを変調してパワーが正規化されたコンステレーションポイントelを提供することができる。当該コンステレーションマッピングは、データパイプに対してのみ適用される。NUQが任意の形状を有する一方、QAM16及びNUQは正方形の形状を有することが観察される。それぞれのコンステレーションが90度の倍数だけ回転すると、回転したコンステレーションは、元のものと正確に重なる。回転対称特性により、実数及び虚数コンポーネントの容量及び平均パワーが互いに同一になる。NUQ及びNUCは、いずれも、各コードレート(code rate)に対して特別に定義され、使用される特定の一つは、PLS2データに保管されたパラメータDP_MODによってシグナリングされる。
タイムインターリーバ5050はデータパイプレベルで動作することができる。タイムインターリービングのパラメータは、それぞれのデータパイプに対して異なって設定されてもよい。タイムインターリーバ5050の具体的な動作については後述する。
アドバンスドプロファイルに対するBICMブロックの処理ブロック5000−1は、データFECエンコーダ、ビットインターリーバ、コンステレーションマッパー、及びタイムインターリーバを含むことができる。
ただし、処理ブロック5000−1は、セルワードデマルチプレクサ5010−1及びMIMOエンコーディングブロック5020−1をさらに含むという点で、処理ブロック5000と区別される。
また、処理ブロック5000−1でのデータFECエンコーダ、ビットインターリーバ、コンステレーションマッパー、タイムインターリーバの動作は、前述したデータFECエンコーダ5010、ビットインターリーバ5020、コンステレーションマッパー5030、タイムインターリーバ5050の動作に該当するので、その説明は省略する。
セルワードデマルチプレクサ5010−1は、アドバンスドプロファイルのデータパイプが、MIMO処理のために単一のセルワードストリームを二重セルワードストリームに分離するのに使用される。セルワードデマルチプレクサ5010−1の具体的な動作については後述する。
MIMOエンコーディングブロック5020−1は、MIMOエンコーディング方式を用いてセルワードデマルチプレクサ5010−1の出力を処理することができる。MIMOエンコーディング方式は、放送信号送信のために最適化された。MIMO技術は、容量の増加を得るための有望な方式であるが、チャネル特性に依存する。特に放送に対して、互いに異なる信号伝搬特性による2つのアンテナ間の受信信号パワーの差またはチャネルの強いLOSコンポーネントは、MIMOから容量利得を得ることを難しくする。提案されたMIMOエンコーディング方式は、MIMO出力信号のうち1つの位相ランダム化及び回転ベースのプリコーディングを用いてこの問題を克服する。
MIMOエンコーディングは、送信機及び受信機の両方で少なくとも2つのアンテナを必要とする2x2MIMOシステムのために意図される。2つのMIMOエンコーディングモードは、本提案であるFRSM(fullrate spatial multiplexing)及びFRFDSM(fullrate fulldiversity spatial multiplexing)で定義される。FRSMエンコーディングは、受信機側での比較的小さい複雑度の増加で容量の増加を提供する一方、FRFDSMエンコーディングは、受信機側での大きい複雑度の増加で容量の増加及び追加のダイバーシティ利得を提供する。提案されたMIMOエンコーディング方式はアンテナ極性配置を制限しない。
MIMO処理は、アドバンスドプロファイルフレームに要求され、これは、アドバンスドプロファイルフレームでの全てのデータパイプがMIMOエンコーダによって処理されることを意味する。MIMO処理はデータパイプレベルで適用される。コンステレーションマッパー出力のペア(pair、対)であるNUQ(e1,i及びe2,i)は、MIMOエンコーダの入力に供給される。MIMOエンコーダ出力ペア(pair、対)(g1,i及びg2,i)は、それぞれの送信アンテナの同一のキャリアk及びOFDMシンボルlによって伝送される。
前述したブロックは、省略されてもよく、類似又は同一の機能を有するブロックで代替されてもよい。
図5は、本発明の他の実施例に係るBICMブロックを示す。
図5に示されたBICMブロックは、図1を参照して説明したBICMブロック1010の一実施例に該当する。
図5は、PLS、EAC、及びFICの保護のためのBICMブロックを示す。EACは、EAS情報データを伝達するフレームの一部であり、FICは、サービスと該当するベースデータパイプとの間でマッピング情報を伝達するフレームでのロジカルチャネルである。EAC及びFICについての詳細な説明は後述する。
図5を参照すると、PLS、EAC、及びFICの保護のためのBICMブロックは、PLS FECエンコーダ6000、ビットインターリーバ6010、及びコンステレーションマッパー6020を含むことができる。
また、PLS FECエンコーダ6000は、スクランブラ、BCHエンコーディング/ゼロ挿入ブロック、LDPCエンコーディングブロック、及びLDPCパリティパンクチャリング(puncturing)ブロックを含むことができる。BICMブロックの各ブロックについて説明する。
PLS FECエンコーダ6000は、スクランブルされたPLS 1/2データ、EAC及びFICセクションをエンコーディングすることができる。
スクランブラは、BCHエンコーディング及びショートニング(shortening)及びパンクチャリングされたLDPCエンコーディングの前に、PLS1データ及びPLS2データをスクランブルすることができる。
BCHエンコーディング/ゼロ挿入ブロックは、PLS保護のためのショートニングされたBCHコードを用いてスクランブルされたPLS 1/2データに外部エンコーディングを行い、BCHエンコーディングの後にゼロビットを挿入することができる。PLS1データに対してのみ、ゼロ挿入の出力ビットがLDPCエンコーディングの前にパーミュテーション(permutation)されてもよい。
LDPCエンコーディングブロックは、LDPCコードを用いてBCHエンコーディング/ゼロ挿入ブロックの出力をエンコーディングすることができる。完全なコーディングブロックを生成するために、Cldpc及びパリティビットPldpcは、それぞれのゼロが挿入されたPLS情報ブロックIldpcから組織的にエンコーディングされ、その後に添付される。
Figure 0006360184
PLS1及びPLS2に対するLDPCコードパラメータは、次の表4の通りである。
Figure 0006360184
LDPCパリティパンクチャリングブロックは、PLS1データ及びPLS2データに対してパンクチャリングを行うことができる。
ショートニングがPLS1データの保護に適用される場合、一部のLDPCパリティビットは、LDPCエンコーディングの後にパンクチャリングされる。また、PLS2データの保護のために、PLS2のLDPCパリティビットがLDPCエンコーディングの後にパンクチャリングされる。これらパンクチャリングされたビットは伝送されない。
ビットインターリーバ6010は、それぞれのショートニング及びパンクチャリングされたPLS1データ及びPLS2データをインターリービングすることができる。
コンステレーションマッパー6020は、ビットインターリービングされたPLS1データ及びPLS2データをコンステレーションにマッピングすることができる。
前述したブロックは、省略されてもよく、類似又は同一の機能を有するブロックで代替されてもよい。
図6は、本発明の一実施例に係るフレームビルディングブロック(frame building block)を示す。
図6に示したフレームビルディングブロックは、図1を参照して説明したフレームビルディングブロック1020の一実施例に該当する。
図6を参照すると、フレームビルディングブロックは、ディレイコンペンセーション(delay compensation、遅延補償)ブロック7000、セルマッパー(cell mapper)7010、及び周波数インターリーバ(frequency interleaver)7020を含むことができる。フレームビルディングブロックの各ブロックについて説明する。
ディレイコンペンセーション(delay compensation、遅延補償)ブロック7000は、データパイプと該当するPLSデータとの間のタイミングを調節して、送信機側でデータパイプと該当するPLSデータとの間の同時性(co−timed)を保証することができる。インプットフォーマットブロック及びBICMブロックによるデータパイプの遅延を扱うことによって、PLSデータはデータパイプだけ遅延される。BICMブロックの遅延は、主にタイムインターリーバ5050によるものである。インバンド(Inband)シグナリングデータは、次のタイムインターリービンググループの情報を、シグナリングされるデータパイプより1フレーム先に伝達されるようにすることができる。ディレイコンペンセーション(delay compensation、遅延補償)ブロックは、それに合せてインバンド(Inband)シグナリングデータを遅延させる。
セルマッパー7010は、PLS、EAC、FIC、データパイプ、補助ストリーム、及びダミーセルをフレーム内でOFDMシンボルのアクティブ(active)キャリアにマッピングすることができる。セルマッパー7010の基本機能は、それぞれのデータパイプ、PLSセル、及びEAC/FICセルに対するタイムインターリービングによって生成されたデータセルを、もし存在すれば、1つのフレーム内でそれぞれのOFDMシンボルに該当するアクティブOFDMセルのアレイにマッピングすることである。(PSI(program specific information)/SIのような)サービスシグナリングデータは、個別的に収集されてデータパイプによって送られてもよい。セルマッパーは、フレーム構造の構成及びスケジューラによって生成されたダイナミックインフォメーション(dynamic information、動的情報)に従って動作する。フレームについての詳細は後述する。
周波数インターリーバ7020は、セルマッパー7010から受信されたデータセルをランダムにインターリービングして周波数ダイバーシティを提供することができる。また、周波数インターリーバ7020は、単一のフレームで最大のインターリービング利得を得るために、異なるインターリービングシード(seed)順序を用いて、2つの順次的なOFDMシンボルで構成されたOFDMシンボルペア(pair、対)で動作することができる。
前述したブロックは、省略されてもよく、類似又は同一の機能を有するブロックで代替されてもよい。
図7は、本発明の一実施例に係るOFDM生成ブロックを示す。
図7に示されたOFDM生成ブロックは、図1を参照して説明したOFDM生成ブロック1030の一実施例に該当する。
OFDM生成ブロックは、フレームビルディングブロックによって生成されたセルによってOFDMキャリアを変調し、パイロットを挿入し、伝送のための時間領域信号を生成する。また、当該ブロックは、順次にガードインターバルを挿入し、PAPR減少処理を適用して最終RF信号を生成する。
図7を参照すると、OFDM生成ブロックは、パイロット及びリザーブドトーン挿入ブロック(pilot and revserved tone insertion block)8000、2D−eSFN(single frequency network)エンコーディングブロック8010、IFFT(inverse fast Fourier transform)ブロック8020、PAPR減少ブロック8030、ガードインターバル挿入ブロック(guard interval insertion block)8040、プリアンブル挿入ブロック(preamble insertion block)8050、その他のシステム挿入ブロック8060、及びDACブロック8070を含むことができる。
その他のシステム挿入ブロック8060は、放送サービスを提供する2つ以上の互いに異なる放送送信/受信システムのデータが、同じRF信号帯域で同時に伝送され得るように、時間領域で複数の放送送信/受信システムの信号をマルチプレクシングすることができる。この場合、2つ以上の互いに異なる放送送信/受信システムは、互いに異なる放送サービスを提供するシステムのことをいう。互いに異なる放送サービスは、地上波放送サービス、モバイル放送サービスなどを意味し得る。
図8は、本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置の構造を示す。
本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置は、図1を参照して説明した次世代放送サービスに対する放送信号送信装置に対応し得る。
本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置は、同期及び復調モジュール(synchronization & demodulation module)9000、フレームパーシングモジュール(frame parsing module)9010、デマッピング及びデコーディングモジュール(demapping & decoding module)9020、出力プロセッサ(output processor)9030、及びシグナリングデコーディングモジュール(signaling decoding module)9040を含むことができる。放送信号受信装置の各モジュールの動作について説明する。
同期及び復調モジュール9000は、m個の受信アンテナを介して入力信号を受信し、放送信号受信装置に該当するシステムに対して信号検出及び同期化を行い、放送信号送信装置によって行われる手順の逆過程に該当する復調を行うことができる。
フレームパーシングモジュール9010は、入力信号フレームをパーシングし、ユーザによって選択されたサービスが伝送されるデータを抽出することができる。放送信号送信装置がインターリービングを行うと、フレームパーシングモジュール9010は、インターリービングの逆過程に該当するデインターリービングを行うことができる。この場合、抽出されなければならない信号及びデータの位置が、シグナリングデコーディングモジュール9040から出力されたデータをデコーディングすることによって取得されて、放送信号送信装置によって生成されたスケジューリング情報が復元され得る。
デマッピング及びデコーディングモジュール9020は、入力信号をビット領域データに変換した後、必要に応じて、ビット領域データをデインターリービングすることができる。デマッピング及びデコーディングモジュール9020は、伝送効率のために適用されたマッピングに対するデマッピングを行い、デコーディングを通じて、伝送チャネルで発生したエラーを訂正することができる。この場合、デマッピング及びデコーディングモジュール9020は、シグナリングデコーディングモジュール9040から出力されたデータをデコーディングすることによって、デマッピング及びデコーディングのために必要な伝送パラメータを取得することができる。
出力プロセッサ9030は、伝送効率を向上させるために放送信号送信装置によって適用される様々な圧縮/信号処理手順の逆過程を行うことができる。この場合、出力プロセッサ9030は、シグナリングデコーディングモジュール9040から出力されたデータから、必要な制御情報を取得することができる。出力プロセッサ9030の出力は、放送信号送信装置に入力される信号に該当し、MPEG−TS、IPストリーム(v4又はv6)及びGSであってもよい。
シグナリングデコーディングモジュール9040は、同期及び復調モジュール9000によって復調された信号からPLS情報を取得することができる。前述したように、フレームパーシングモジュール9010、デマッピング及びデコーディングモジュール9020、出力プロセッサ9030は、シグナリングデコーディングモジュール9040から出力されたデータを用いてその機能を行うことができる。
図9は、本発明の一実施例に係るフレーム構造を示す。
図9は、フレームタイプの構成例及びスーパーフレームでのFRU(frame repetition unit、フレーム繰り返し単位)を示す。(a)は、本発明の一実施例に係るスーパーフレームを示し、(b)は、本発明の一実施例に係るFRUを示し、(c)は、FRUでの様々なフィジカルプロファイル(PHY profile)のフレームを示し、(d)はフレームの構造を示す。
スーパーフレームは8個のFRUで構成されてもよい。FRUは、フレームのTDMに対する基本マルチプレクシング単位であり、スーパーフレームで8回繰り返される。
FRUにおける各フレームは、フィジカルプロファイル(ベース、ハンドヘルド、アドバンスドプロファイル)のうち1つまたはFEFに属する。FRUにおけるフレームの最大許容数は4であり、与えられたフィジカルプロファイルは、FRUにおいて0回〜4回のいずれかの回数だけ現れてもよい(例えば、ベース、ベース、ハンドヘルド、アドバンスド)。フィジカルプロファイルの定義は、必要に応じて、プリアンブルでのPHY_PROFILEのリザーブド値を用いて拡張されてもよい。
FEF部分は、含まれる場合、FRUの最後に挿入される。FEFがFRUに含まれる場合、FEFの最大数はスーパーフレームにおいて8である。FEF部分が互いに隣接することが推奨されない。
1つのフレームは、多数のOFDMシンボル及びプリアンブルにさらに分離される。(d)に示したように、フレームは、プリアンブル、1つ以上のFSS、ノーマルデータシンボル、及びFESを含む。
プリアンブルは、高速フューチャーキャストUTBシステム信号検出を可能にし、信号の効率的な送信及び受信のための基本伝送パラメータの集合を提供する特別なシンボルである。プリアンブルについての詳細は後述する。
FSSの主な目的は、PLSデータを伝達することである。高速同期化及びチャネル推定のために、これによるPLSデータの高速デコーディングのために、FSSは、ノーマルデータシンボルよりも高密度のパイロットパターンを有する。FESは、FSSと完全に同じパイロットを有し、これは、FESの直前のシンボルに対して、外挿(extrapolation)なしに、FES内での周波数のみの補間(interpolation、インタポレーション)及び時間的補間(temporal interpolation)を可能にする。
図10は、本発明の一実施例に係るフレームのシグナリング階層構造(signaling hierarchy structure)を示す。
図10は、シグナリング階層構造を示し、これは、3つの主要部分であるプリアンブルシグナリングデータ11000、PLS1データ11010、及びPLS2データ11020に分割される。フレームごとにプリアンブル信号によって伝達されるプリアンブルの目的は、フレームの基本伝送パラメータ及び伝送タイプを示すことである。PLS1は、受信機が、関心のあるデータパイプに接続するためのパラメータを含むPLS2データに接続してデコーディングできるようにする。PLS2は、フレームごとに伝達され、2つの主要部分であるPLS2STATデータとPLS2DYNデータとに分割される。PLS2データのスタティック(static、静的)及びダイナミック(dynamic、動的)部分には、必要に応じてパディングが後続する。
図11は、本発明の一実施例に係るプリアンブルシグナリングデータを示す。
プリアンブルシグナリングデータは、受信機がフレーム構造内でPLSデータに接続し、データパイプを追跡できるようにするために必要な21ビットの情報を伝達する。プリアンブルシグナリングデータについての詳細は、次の通りである。
PHY_PROFILE:当該3ビットフィールドは、現フレームのフィジカルプロファイルタイプを示す。互いに異なるフィジカルプロファイルタイプのマッピングは、下記の表5に与えられる。
Figure 0006360184
FFT_SIZE:当該2ビットフィールドは、下記の表6で説明するように、フレームグループ内で現フレームのFFTサイズを示す。
Figure 0006360184
GI_FRACTION:当該3ビットフィールドは、下記の表7で説明するように、現スーパーフレームでのガードインターバルの一部(fraction)の値を示す。
Figure 0006360184
EAC_FLAG:当該1ビットフィールドは、EACが現フレームに提供されるか否かを示す。当該フィールドが‘1’に設定されると、EASが現フレームに提供される。当該フィールドが‘0’に設定されると、EASが現フレームで伝達されない。当該フィールドは、スーパーフレーム内でダイナミック(dynamic、動的)に切り替わってもよい。
PILOT_MODE:当該1ビットフィールドは、現フレームグループで現フレームに対してパイロットモードがモバイルモードであるか、または固定モードであるかを示す。当該フィールドが‘0’に設定されると、モバイルパイロットモードが使用される。当該フィールドが‘1’に設定されると、固定パイロットモードが使用される。
PAPR_FLAG:当該1ビットフィールドは、現フレームグループで現フレームに対してPAPR減少が使用されるか否かを示す。当該フィールドが‘1’に設定されると、トーン予約(tone reservation)がPAPR減少のために使用される。当該フィールドが‘0’に設定されると、PAPR減少が使用されない。
FRU_CONFIGURE:当該3ビットフィールドは、現スーパーフレームで存在するFRUのフィジカルプロファイルタイプの構成を示す。現スーパーフレームで全てのプリアンブルでの当該フィールドにおいて、現スーパーフレームで伝達される全てのプロファイルタイプが識別される。当該3ビットフィールドは、下記の表8に示すように、それぞれのプロファイルに対して異なって定義される。
Figure 0006360184
RESERVED:当該7ビットフィールドは、将来の使用のために予約される(reserved)。
図12は、本発明の一実施例に係るPLS1データを示す。
PLS1データは、PLS2の受信及びデコーディングを可能にするために必要なパラメータを含んだ基本伝送パラメータを提供する。前述したように、PLS1データは、1つのフレームグループの全デュレーションの間変化しない。PLS1データのシグナリングフィールドの具体的な定義は、次の通りである。
PREAMBLE_DATA:当該20ビットフィールドは、EAC_FLAGを除いたプリアンブルシグナリングデータのコピーである。
NUM_FRAME_FRU:当該2ビットフィールドは、FRU当たりのフレーム数を示す。
PAYLOAD_TYPE:当該3ビットフィールドは、フレームグループで伝達されるペイロードデータのフォーマットを示す。PAYLOAD_TYPEは、表9に示すようにシグナリングされる。
Figure 0006360184
NUM_FSS:当該2ビットフィールドは、現フレームでのFSSの数を示す。
SYSTEM_VERSION:当該8ビットフィールドは、伝送される信号フォーマットのバージョンを示す。SYSTEM_VERSIONは、主バージョン及び副バージョンの2つの4ビットフィールドに分離される。
主バージョン:SYSTEM_VERSIONフィールドのMSBである4ビットは、主バージョン情報を示す。主バージョンフィールドでの変化は互換が不可能な変化を示す。デフォルト値は‘0000’である。当該標準で記述されたバージョンに対して、値が‘0000’に設定される。
副バージョン:SYSTEM_VERSIONフィールドのLSBである4ビットは、副バージョン情報を示す。副バージョンフィールドでの変化は互換が可能である。
CELL_ID:これは、ATSCネットワークで地理的セルを唯一に識別する16ビットフィールドである。ATSCセルカバレッジは、フューチャーキャストUTBシステム当たり使用される周波数の数に応じて、1つ以上の周波数で構成されてもよい。CELL_IDの値が知られていないか、または特定されていない場合、当該フィールドは‘0’に設定される。
NETWORK_ID:これは、現ATSCネットワークを唯一に識別する16ビットフィールドである。
SYSTEM_ID:当該16ビットフィールドは、ATSCネットワーク内でフューチャーキャストUTBシステムを唯一に識別する。フューチャーキャストUTBシステムは、入力が1つ以上の入力ストリーム(TS、IP、GS)であり、出力がRF信号である、地上波放送システムである。フューチャーキャストUTBシステムは、もし存在すれば、FEF及び1つ以上のフィジカルプロファイルを伝達する。同一のフューチャーキャストUTBシステムは、互いに異なる入力ストリームを伝達し、互いに異なる地理的領域で互いに異なるRFを使用できるので、ローカルサービス挿入を許容する。フレーム構造及びスケジューリングは、一つの場所で制御され、フューチャーキャストUTBシステム内で全ての伝送に対して同一である。1つ以上のフューチャーキャストUTBシステムは、全て同一のフィジカル構造及び構成を有するという同一のSYSTEM_IDの意味を有することができる。
次のループ(loop)は、各フレームタイプの長さ及びFRU構成を示すFRU_PHY_PROFILE、FRU_FRAME_LENGTH、FRU_GI_FRACTION、RESERVEDで構成される。ループのサイズは、FRU内で4個のフィジカルプロファイル(FEF含む)がシグナリングされるように固定される。NUM_FRAME_FRUが4より小さいと、使用されないフィールドはゼロで埋められる。
FRU_PHY_PROFILE:当該3ビットフィールドは、関連するFRUの(i+1)番目のフレーム(iは、ループインデックス)のフィジカルプロファイルタイプを示す。当該フィールドは、表8に示したものと同じシグナリングフォーマットを使用する。
FRU_FRAME_LENGTH:当該2ビットフィールドは、関連するFRUの(i+1)番目のフレームの長さを示す。FRU_GI_FRACTIONと共にFRU_FRAME_LENGTHを使用すれば、フレームデュレーションの正確な値を得ることができる。
FRU_GI_FRACTION:当該3ビットフィールドは、関連するFRUの(i+1)番目のフレームのガードインターバルの一部の値を示す。FRU_GI_FRACTIONは、表7に従ってシグナリングされる。
RESERVED:当該4ビットフィールドは、将来の使用のために予約される(reserved)。
次のフィールドは、PLS2データをデコーディングするためのパラメータを提供する。
PLS2_FEC_TYPE:当該2ビットフィールドは、PLS2保護によって使用されるFECタイプを示す。FECタイプは、表10に従ってシグナリングされる。LDPCコードについての詳細は後述する。
Figure 0006360184
PLS2_MOD:当該3ビットフィールドは、PLS2によって使用される変調タイプを示す。変調タイプは、表11に従ってシグナリングされる。
Figure 0006360184
PLS2_SIZE_CELL:当該15ビットフィールドは、現フレームグループで伝達されるPLS2に対する全てのコーディングブロックのサイズ(QAMセルの数として特定される)であるCtotal_partial_blockを示す。当該値は、現フレームグループの全デュレーションの間一定である。
PLS2_STAT_SIZE_BIT:当該14ビットフィールドは、現フレームグループに対するPLS2STATのサイズをビット数で示す。当該値は、現フレームグループの全デュレーションの間一定である。
PLS2_DYN_SIZE_BIT:当該14ビットフィールドは、現フレームグループに対するPLS2DYNのサイズをビット数で示す。当該値は、フレームグループの全デュレーションの間一定である。
PLS2_REP_FLAG:当該1ビットフラグは、PLS2繰り返しモードが現フレームグループで使用されるか否かを示す。当該フィールドの値が‘1’に設定されると、PLS2繰り返しモードは活性化される。当該フィールドの値が‘0’に設定されると、PLS2繰り返しモードは非活性化される。
PLS2_REP_SIZE_CELL:当該15ビットフィールドは、PLS2繰り返しが使用される場合、現フレームグループのフレームごとに伝達されるPLS2に対する部分コーディングブロックのサイズ(QAMセルの数として特定される)であるCtotal_partial_blockを示す。繰り返しが使用されない場合、当該フィールドの値は0と同一である。当該値は、現フレームグループの全デュレーションの間一定である。
PLS2_NEXT_FEC_TYPE:当該2ビットフィールドは、次のフレームグループの各フレームで伝達されるPLS2に使用されるFECタイプを示す。FECタイプは、表10に従ってシグナリングされる。
PLS2_NEXT_MOD:当該3ビットフィールドは、次のフレームグループの各フレームで伝達されるPLS2に使用される変調タイプを示す。変調タイプは、表11に従ってシグナリングされる。
PLS2_NEXT_REP_FLAG:当該1ビットフラグは、PLS2繰り返しモードが次のフレームグループで使用されるか否かを示す。当該フィールドの値が‘1’に設定されると、PLS2繰り返しモードは活性化される。当該フィールドの値が‘0’に設定されると、PLS2繰り返しモードは非活性化される。
PLS2_NEXT_REP_SIZE_CELL:当該15ビットフィールドは、PLS2繰り返しが使用される場合、次のフレームグループのフレームごとに伝達されるPLS2に対する全コーディングブロックのサイズ(QAMセルの数として特定される)であるCtotal_full_blockを示す。次のフレームグループで繰り返しが使用されない場合、当該フィールドの値は0と同一である。当該値は、現フレームグループの全デュレーションの間一定である。
PLS2_NEXT_REP_STAT_SIZE_BIT:当該14ビットフィールドは、次のフレームグループに対するPLS2STATのサイズをビット数で示す。当該値は、現フレームグループで一定である。
PLS2_NEXT_REP_DYN_SIZE_BIT:当該14ビットフィールドは、次のフレームグループに対するPLS2DYNのサイズをビット数で示す。当該値は、現フレームグループで一定である。
PLS2_AP_MODE:当該2ビットフィールドは、現フレームグループでPLS2に対して追加パリティが提供されるか否かを示す。当該値は、現フレームグループの全デュレーションの間一定である。下記の表12は、当該フィールドの値を提供する。当該フィールドの値が‘00’に設定されると、現フレームグループで追加パリティがPLS2に対して使用されない。
Figure 0006360184
PLS2_AP_SIZE_CELL:当該15ビットフィールドは、PLS2の追加パリティビットのサイズ(QAMセルの数として特定される)を示す。当該値は、現フレームグループの全デュレーションの間一定である。
PLS2_NEXT_AP_MODE:当該2ビットフィールドは、次のフレームグループのフレームごとにPLS2シグナリングに対して追加パリティが提供されるか否かを示す。当該値は、現フレームグループの全デュレーションの間一定である。表12は、当該フィールドの値を定義する。
PLS2_NEXT_AP_SIZE_CELL:当該15ビットフィールドは、次のフレームグループのフレームごとにPLS2の追加パリティビットのサイズ(QAMセルの数として特定される)を示す。当該値は、現フレームグループの全デュレーションの間一定である。
RESERVED:当該32ビットフィールドは、将来の使用のために予約される(reserved)。
CRC_32:全PLS1シグナリングに適用される32ビットのエラー検出コード
図13は、本発明の一実施例に係るPLS2データを示す。
図13は、PLS2データのPLS2STATデータを示す。PLS2STATデータは、フレームグループ内で同一である一方、PLS2DYNデータは、現フレームに対して特定の情報を提供する。
PLS2STATデータのフィールドについて、以下で具体的に説明する。
FIC_FLAG:当該1ビットフィールドは、FICが現フレームグループで使用されるか否かを示す。当該フィールドの値が‘1’に設定されると、FICは現フレームで提供される。当該フィールドの値が‘0’に設定されると、FICは現フレームで伝達されない。当該値は、現フレームグループの全デュレーションの間一定である。
AUX_FLAG:当該1ビットフィールドは、補助ストリームが現フレームグループで使用されるか否かを示す。当該フィールドの値が‘1’に設定されると、補助ストリームは現フレームで提供される。当該フィールドの値が‘0’に設定されると、補助フレームは現フレームで伝達されない。当該値は、現フレームグループの全デュレーションの間一定である。
NUM_DP:当該6ビットフィールドは、現フレーム内で伝達されるデータパイプの数を示す。当該フィールドの値は1〜64の間であり、データパイプの数はNUM_DP+1である。
DP_ID:当該6ビットフィールドは、フィジカルプロファイル内でデータパイプを唯一に識別する。
DP_TYPE:当該3ビットフィールドは、データパイプのタイプを示す。これは、下記の表13に従ってシグナリングされる。
Figure 0006360184
DP_GROUP_ID:当該8ビットフィールドは、現データパイプが関連しているデータパイプグループを識別する。これは、受信機が同じDP_GROUP_IDを有するようになる特定のサービスと関連しているサービスコンポーネントのデータパイプに接続するのに使用することができる。
BASE_DP_ID:当該6ビットフィールドは、管理層で使用される(PSI/SIのような)サービスシグナリングデータを伝達するデータパイプを示す。BASE_DP_IDによって示すデータパイプは、サービスデータと共にサービスシグナリングデータを伝達するノーマルデータパイプであるか、またはサービスシグナリングデータのみを伝達する専用データパイプであってもよい。
DP_FEC_TYPE:当該2ビットフィールドは、関連するデータパイプによって使用されるFECタイプを示す。FECタイプは、下記の表14に従ってシグナリングされる。
Figure 0006360184
DP_COD:当該4ビットフィールドは、関連するデータパイプによって使用されるコードレート(code rate)を示す。コードレートは、下記の表15に従ってシグナリングされる。
Figure 0006360184
DP_MOD:当該4ビットフィールドは、関連するデータパイプによって使用される変調を示す。変調は、下記の表16に従ってシグナリングされる。
Figure 0006360184
DP_SSD_FLAG:当該1ビットフィールドは、SSDモードが、関連するデータパイプで使用されるか否かを示す。当該フィールドの値が‘1’に設定されると、SSDは使用される。当該フィールドの値が‘0’に設定されると、SSDは使用されない。
次のフィールドは、PHY_PROFILEがアドバンスドプロファイルを示す‘010’と同一であるときにのみ現れる。
DP_MIMO:当該3ビットフィールドは、どのタイプのMIMOエンコーディング処理が、関連するデータパイプに適用されるかを示す。MIMOエンコーディング処理のタイプは、下記の表17に従ってシグナリングされる。
Figure 0006360184
DP_TI_TYPE:当該1ビットフィールドは、タイムインターリービングのタイプを示す。‘0’の値は、1つのタイムインターリービンググループが1つのフレームに該当し、1つ以上のタイムインターリービングブロックを含むことを示す。‘1’の値は、1つのタイムインターリービンググループが1つより多いフレームで伝達され、1つのタイムインターリービングブロックのみを含むことを示す。
DP_TI_LENGTH:当該2ビットフィールド(許容された値は1、2、4、8のみである)の使用は、次のようなDP_TI_TYPEフィールド内で設定される値によって決定される。
DP_TI_TYPEの値が‘1’に設定されると、当該フィールドは、それぞれのタイムインターリービンググループがマッピングされるフレームの数であるPIを示し、タイムインターリービンググループ当たり1つのタイムインターリービングブロックが存在する(NTI=1)。当該2ビットフィールドで許容されるPIの値は、下記の表18に定義される。
DP_TI_TYPEの値が‘0’に設定されると、当該フィールドは、タイムインターリービンググループ当たりのタイムインターリービングブロックの数NTIを示し、フレーム当たり1つのタイムインターリービンググループが存在する(PI=1)。当該2ビットフィールドで許容されるPIの値は、下記の表18に定義される。
Figure 0006360184
DP_FRAME_INTERVAL:当該2ビットフィールドは、関連するデータパイプに対するフレームグループ内でフレーム間隔(IJUMP)を示し、許容された値は1、2、4、8(該当する2ビットフィールドは、それぞれ00、01、10、11)である。フレームグループの全てのフレームに現れないデータパイプに対して、当該フィールドの値は、順次的なフレーム間の間隔と同一である。例えば、データパイプが1、5、9、13などのフレームに現れる場合、当該フィールドの値は‘4’に設定される。全てのフレームに現れるデータパイプに対して、当該フィールドの値は1に設定される。
DP_TI_BYPASS:当該1ビットフィールドは、タイムインターリーバ5050の使用可能性を決定する。データパイプに対してタイムインターリービングが使用されない場合、当該フィールドの値は‘1’に設定される。一方、タイムインターリービングが使用される場合、当該フィールドの値は‘0’に設定される。
DP_FIRST_FRAME_IDX:当該5ビットフィールドは、現データパイプが発生するスーパーフレームの最初のフレームのインデックスを示す。DP_FIRST_FRAME_IDXの値は0〜31の間である。
DP_NUM_BLOCK_MAX:当該10ビットフィールドは、当該データパイプに対するDP_NUM_BLOCKSの最大値を示す。当該フィールドの値は、DP_NUM_BLOCKSと同一の範囲を有する。
DP_PAYLOAD_TYPE:当該2ビットフィールドは、与えられたデータパイプによって伝達されるペイロードデータのタイプを示す。DP_PAYLOAD_TYPEは、下記の表19に従ってシグナリングされる。
Figure 0006360184
DP_INBAND_MODE:当該2ビットフィールドは、現データパイプがインバンド(Inband)シグナリング情報を伝達するか否かを示す。インバンド(Inband)シグナリングタイプは、下記の表20に従ってシグナリングされる。
Figure 0006360184
DP_PROTOCOL_TYPE:当該2ビットフィールドは、与えられたデータパイプによって伝達されるペイロードのプロトコルタイプを示す。ペイロードのプロトコルタイプは、入力ペイロードタイプが選択されると、下記の表21に従ってシグナリングされる。
Figure 0006360184
DP_CRC_MODE:当該2ビットフィールドは、CRCエンコーディングがインプットフォーマットブロックで使用されるか否かを示す。CRCモードは、下記の表22に従ってシグナリングされる。
Figure 0006360184
DNP_MODE:当該2ビットフィールドは、DP_PAYLOAD_TYPEがTS(‘00’)に設定される場合に関連するデータパイプによって使用されるヌルパケット削除モードを示す。DNP_MODEは、下記の表23に従ってシグナリングされる。DP_PAYLOAD_TYPEがTS(‘00’)でなければ、DNP_MODEは‘00’の値に設定される。
Figure 0006360184
ISSY_MODE:当該2ビットフィールドは、DP_PAYLOAD_TYPEがTS(‘00’)に設定される場合に関連するデータパイプによって使用されるISSYモードを示す。ISSY_MODEは、下記の表24に従ってシグナリングされる。DP_PAYLOAD_TYPEがTS(‘00’)でなければ、ISSY_MODEは‘00’の値に設定される。
Figure 0006360184
HC_MODE_TS:当該2ビットフィールドは、DP_PAYLOAD_TYPEがTS(‘00’)に設定される場合に関連するデータパイプによって使用されるTSヘッダー圧縮モードを示す。HC_MODE_TSは、下記の表25に従ってシグナリングされる。
Figure 0006360184
HC_MODE_IP:当該2ビットフィールドは、DP_PAYLOAD_TYPEがIP(‘01’)に設定される場合にIPヘッダー圧縮モードを示す。HC_MODE_IPは、下記の表26に従ってシグナリングされる。
Figure 0006360184
PID:当該13ビットフィールドは、DP_PAYLOAD_TYPEがTS(‘00’)に設定され、HC_MODE_TSが‘01’又は‘10’に設定される場合にTSヘッダー圧縮のためのPIDの数を示す。
RESERVED:当該8ビットフィールドは、将来の使用のために予約される(reserved)。
次のフィールドは、FIC_FLAGが1と同一であるときにのみ現れる。
FIC_VERSION:当該8ビットフィールドは、FICのバージョンナンバーを示す。
FIC_LENGTH_BYTE:当該13ビットフィールドは、FICの長さをバイト単位で示す。
RESERVED:当該8ビットフィールドは、将来の使用のために予約される(reserved)。
次のフィールドは、AUX_FLAGが1と同一であるときにのみ現れる。
NUM_AUX:当該4ビットフィールドは補助ストリームの数を示す。ゼロは、補助ストリームが使用されないことを示す。
AUX_CONFIG_RFU:当該8ビットフィールドは、将来の使用のために予約される(reserved)。
AUX_STREAM_TYPE:当該4ビットは、現在の補助ストリームのタイプを示すための将来の使用のために予約される(reserved)。
AUX_PRIVATE_CONFIG:当該28ビットフィールドは、補助ストリームをシグナリングするための将来の使用のために予約される(reserved)。
図14は、本発明の他の一実施例に係るPLS2データを示す。
図14は、PLS2データのPLS2DYNを示す。PLS2DYNデータの値は1つのフレームグループのデュレーションの間変化できる一方、フィールドのサイズは一定である。
PLS2DYNデータのフィールドの具体的な内容は、次の通りである。
FRAME_INDEX:当該5ビットフィールドは、スーパーフレーム内で現フレームのフレームインデックスを示す。スーパーフレームの最初のフレームのインデックスは0に設定される。
PLS_CHANGE_COUNTER:当該4ビットフィールドは、構成が変化する前のスーパーフレームの数を示す。構成が変化する次のスーパーフレームは、当該フィールド内でシグナリングされる値によって示す。当該フィールドの値が‘0000’に設定されると、これは、いかなる予定された変化も予測されないことを意味する。例えば、‘1’の値は、次のスーパーフレームに変化があることを示す。
FIC_CHANGE_COUNTER:当該4ビットフィールドは、構成(即ち、FICのコンテンツ)が変化する前のスーパーフレームの数を示す。構成が変化する次のスーパーフレームは、当該フィールド内でシグナリングされる値によって示す。当該フィールドの値が‘0000’に設定されると、これは、いかなる予定された変化も予測されないことを意味する。例えば、‘0001’の値は、次のスーパーフレームに変化があることを示す。
RESERVED:当該16ビットフィールドは、将来の使用のために予約される(reserved)。
次のフィールドは、現フレームで伝達されるデータパイプと関連するパラメータを説明するNUM_DPでのループ(loop)に現れる。
DP_ID:当該6ビットフィールドは、フィジカルプロファイル内でデータパイプを唯一に示す。
DP_START:当該15ビット(または13ビット)フィールドは、DPUアドレッシング(addressing)方式を用いてデータパイプの最初の開始位置を示す。DP_STARTフィールドは、下記の表27に示したように、フィジカルプロファイル及びFFTサイズによって異なる長さを有する。
Figure 0006360184
DP_NUM_BLOCK:当該10ビットフィールドは、現データパイプに対する現タイムインターリービンググループでFECブロックの数を示す。DP_NUM_BLOCKの値は、0から1023の間にある。
RESERVED:当該8ビットフィールドは、将来の使用のために予約される(reserved)。
次のフィールドは、EACと関連するFICパラメータを示す。
EAC_FLAG:当該1ビットフィールドは、現フレームでEACの存在を示す。当該ビットは、プリアンブルでEAC_FLAGと同じ値である。
EAS_WAKE_UP_VERSION_NUM:当該8ビットフィールドは、自動活性化指示のバージョンナンバーを示す。
EAC_FLAGフィールドが1と同一であれば、次の12ビットがEAC_LENGTH_BYTEフィールドに割り当てられる。EAC_FLAGフィールドが0と同一であれば、次の12ビットがEAC_COUNTERに割り当てられる。
EAC_LENGTH_BYTE:当該12ビットフィールドは、EACの長さをバイトで示す。
EAC_COUNTER:当該12ビットフィールドは、EACが到達するフレームの前のフレームの数を示す。
次のフィールドは、AUX_FLAGフィールドが‘1’と同一である場合にのみ現れる。
AUX_PRIVATE_DYN:当該48ビットフィールドは、補助ストリームをシグナリングするための将来の使用のために予約される(reserved)。当該フィールドの意味は、設定可能なPLS2STATでAUX_STREAM_TYPEの値に依存する。
CRC_32:全PLS2に適用される32ビットのエラー検出コード。
図15は、本発明の一実施例に係るフレームのロジカル(logical)構造を示す。
前述したように、PLS、EAC、FIC、データパイプ、補助ストリーム、ダミーセルは、フレームにおいてOFDMシンボルのアクティブ(active)キャリアにマッピングされる。PLS1及びPLS2は、初めに1つ以上のFSSにマッピングされる。その後、EACが存在すれば、EACセルは、後続するPLSフィールドにマッピングされる。次に、FICが存在すれば、FICセルがマッピングされる。データパイプは、PLSの次にマッピングされるか、または、EAC又はFICが存在する場合、EAC又はFICの後にマッピングされる。タイプ1のデータパイプが初めにマッピングされ、タイプ2のデータパイプが次にマッピングされる。データパイプのタイプの具体的な内容は後述する。一部の場合、データパイプは、EASに対する一部の特殊データまたはサービスシグナリングデータを伝達することができる。補助ストリームまたはストリームは、存在すれば、データパイプの次にマッピングされ、これには順にダミーセルが後続する。前述した順序、すなわち、PLS、EAC、FIC、データパイプ、補助ストリーム、及びダミーセルの順序で全て共にマッピングすれば、フレームでセル容量を正確に埋める。
図16は、本発明の一実施例に係るPLSマッピングを示す。
PLSセルは、FSSのアクティブ(active)キャリアにマッピングされる。PLSが占めるセルの数によって、1つ以上のシンボルがFSSとして指定され、FSSの数NFSSは、PLS1でのNUM_FSSによってシグナリングされる。FSSは、PLSセルを伝達する特殊なシンボルである。ロバスト性及び遅延時間(latency)は、PLSで重大な問題であるので、FSSは、高いパイロット密度を有しており、高速同期化及びFSS内での周波数のみの補間(interpoloation、インタポレーション)を可能にする。
PLSセルは、図16の例に示したように、下向き式にFSSのアクティブ(active)キャリアにマッピングされる。PLS1セルは、初めに最初のFSSの最初のセルからセルインデックスの昇順にマッピングされる。PLS2セルは、PLS1の最後のセルの直後に後続し、マッピングは、最初のFSSの最後のセルインデックスまで下方向に続く。必要なPLSセルの総数が1つのFSSのアクティブ(active)キャリアの数を超えると、マッピングは、次のFSSに進行し、最初のFSSと完全に同じ方式で続く。
PLSマッピングが完了した後、データパイプが次に伝達される。EAC、FICまたは両方ともが現フレームに存在すれば、EAC及びFICはPLSとノーマルデータパイプとの間に配置される。
図17は、本発明の一実施例に係るEACマッピングを示す。
EACは、EASメッセージを伝達する専用チャネルであり、EASに対するデータパイプに接続される。EASサポートは提供されるが、EAC自体は、全てのフレームに存在してもよく、存在しなくてもよい。EACが存在する場合、EACは、PLS2セルの直後にマッピングされる。PLSセルを除いて、FIC、データパイプ、補助ストリームまたはダミーセルのいずれもEACの前に位置しない。EACセルのマッピング手順は、PLSと完全に同一である。
EACセルは、図17の例に示したように、PLS2の次のセルからセルインデックスの昇順にマッピングされる。EASメッセージの大きさによって、図17に示したように、EACセルは少ないシンボルを占めることができる。
EACセルは、PLS2の最後のセルの直後に後続し、マッピングは、最後のFSSの最後のセルインデックスまで下方向に続く。必要なEACセルの総数が最後のFSSの残っているアクティブ(active)キャリアの数を超えると、EACマッピングは、次のシンボルに進行し、FSSと完全に同じ方式で続く。この場合、EACのマッピングが行われる次のシンボルはノーマルデータシンボルであり、これは、FSSよりさらに多いアクティブ(active)キャリアを有する。
EACマッピングが完了した後、もし存在すれば、FICが次に伝達される。FICが伝送されないと(PLS2フィールドでシグナリングとして)、データパイプがEACの最後のセルの直後に後続する。
図18は、本発明の一実施例に係るFICマッピングを示す。
(a)は、EACのないFICセルのマッピングの例を示し、(b)は、EACを伴うFICセルのマッピングの例を示す。
FICは、高速サービス取得及びチャネルスキャンを可能にするために階層間情報(crosslayer information)を伝達する専用チャネルである。当該情報は、主にデータパイプ間のチャネルバインディング(channel binding)情報及び各放送局のサービスを含む。高速スキャンのために、受信機は、FICをデコーディングし、放送局ID、サービスの数、BASE_DP_IDのような情報を取得することができる。高速サービス取得のために、FICだけでなくベースデータパイプもBASE_DP_IDを用いてデコーディングされ得る。ベースデータパイプが伝送するコンテンツを除いて、ベースデータパイプは、ノーマルデータパイプと正確に同じ方式でエンコーディングされてフレームにマッピングされる。したがって、ベースデータパイプに関する追加説明が必要でない。FICデータが生成されて管理層で消費される。FICデータのコンテンツは、管理層仕様に説明された通りである。
FICデータは選択的であり、FICの使用は、PLS2のスタティック(static、静的)な部分でFIC_FLAGパラメータによってシグナリングされる。FICが使用される場合、FIC_FLAGは‘1’に設定され、FICに対するシグナリングフィールドは、PLS2のスタティック(静的)な部分で定義される。当該フィールドでシグナリングされるものはFIC_VERSIONであり、FIC_LENGTH_BYTE.FICは、PLS2と同一の変調、コーディング、タイムインターリービングパラメータを使用する。FICは、PLS2_MOD及びPLS2_FECのような同一のシグナリングパラメータを共有する。FICデータは、もし存在すれば、PLS2の後にマッピングされるか、またはEACが存在する場合、EACの直後にマッピングされる。ノーマルデータパイプ、補助ストリーム、またはダミーセルのいずれもFICの前に位置しない。FICセルをマッピングする方法はEACと完全に同一であり、これはまたPLSと同一である。
PLSの後のEACが存在しない場合、FICセルは、(a)の例に示したように、PLS2の次のセルからセルインデックスの昇順にマッピングされる。FICデータのサイズによって、(b)に示したように、FICセルは、数個のシンボルに対してマッピングされる。
FICセルは、PLS2の最後のセルの直後に後続し、マッピングは、最後のFSSの最後のセルインデックスまで下方向に続く。必要なFICセルの総数が最後のFSSの残っているアクティブ(active)キャリアの数を超えると、残りのFICセルのマッピングは、次のシンボルに進行し、これは、FSSと完全に同じ方式で続く。この場合、FICがマッピングされる次のシンボルはノーマルデータシンボルであり、これは、FSSよりさらに多くのアクティブ(active)キャリアを有する。
EASメッセージが現フレームで伝送されると、EACは、FICより先にマッピングされ、(b)に示したように、EACの次のセルから、FICセルはセルインデックスの昇順にマッピングされる。
FICのマッピングが完了した後、1つ以上のデータパイプがマッピングされ、その後、もし存在すれば、補助ストリーム、ダミーセルが後続する。
図19は、本発明の一実施例に係るFEC構造を示す。
図19は、ビットインターリービングの前の本発明の一実施例に係るFEC構造を示す。前述したように、データFECエンコーダは、外部コーディング(BCH)及び内部コーディング(LDPC)を用いてFECBLOCK手順を生成するために、入力BBFにFECエンコーディングを行うことができる。図示したFEC構造はFECBLOCKに該当する。また、FECBLOCK及びFEC構造は、LDPCコードワードの長さに該当する同一の値を有する。
図19に示したように、BCHエンコーディングがそれぞれのBBF(Kbchビット)に適用された後、LDPCエンコーディングが、BCHエンコーディングされたBBF(Kldpcビット=Nbchビット)に適用される。
ldpcの値は、64800ビット(ロングFECBLOCK)または16200ビット(ショートFECBLOCK)である。
下記の表28及び表29は、ロングFECBLOCK及びショートFECBLOCKのそれぞれに対するFECエンコーディングパラメータを示す。
Figure 0006360184
Figure 0006360184
BCHエンコーディング及びLDPCエンコーディングの具体的な動作は、次の通りである。
12エラー訂正BCHコードがBBFの外部エンコーディングに使用される。ショートFECBLOCK及びロングFECBLOCKに対するBBF生成多項式は、全ての多項式を乗算することによって得られる。
LDPCコードは、外部BCHエンコーディングの出力をエンコーディングするのに使用される。完成されたBldpc(FECBLOCK)を生成するために、Pldpc(パリティビット)がそれぞれのIldpc(BCHエンコーディングされたBBF)から組織的にエンコーディングされ、Ildpcに添付される。完成されたBldpc(FECBLOCK)は、次の数式で表現される。
Figure 0006360184
ロングFECBLOCK及びショートFECBLOCKに対するパラメータは、上記の表28及び表29にそれぞれ与えられる。
ロングFECBLOCKに対してNldpcldpcパリティビットを計算する具体的な手順は、次の通りである。
1)パリティビットの初期化
Figure 0006360184
2)パリティチェックマトリクスのアドレスの1番目の行で特定されたパリティビットアドレスで1番目の情報ビットi0の累算(accumulate)。パリティチェックマトリクスのアドレスの詳細な内容は後述する。例えば、比率13/15に対して、
Figure 0006360184
3)次の359個の情報ビットis、s=1,2,…,359に対して、次の数式を用いてパリティビットアドレスでis累算(accumulate)。
Figure 0006360184
ここで、xは、1番目のビットi0に該当するパリティビット累算器のアドレスを示し、Qldpcは、パリティチェックマトリクスのアドレスで特定されたコードレート(code rate)依存定数である。前記の例である、比率13/15に対する、したがって、情報ビットi1に対するQldpc=24に続けて、次の動作が行われる。
Figure 0006360184
4)361番目の情報ビットi360に対して、パリティビット累算器のアドレスは、パリティチェックマトリクスのアドレスの2番目の行に与えられる。同様の方式で、次の359個の情報ビットis、s=361,362,…,719に対するパリティビット累算器のアドレスは、数式6を用いて得られる。ここで、xは、情報ビットi360に該当するパリティビット累算器のアドレス、すなわち、パリティチェックマトリクスの2番目の行のエントリーを示す。
5)同様の方式で、360個の新しい情報ビットの全てのグループに対して、パリティチェックマトリクスのアドレスからの新しい行は、パリティビット累算器のアドレスを求めるのに使用される。
全ての情報ビットが用いられた後、最終パリティビットが、次のように得られる。
6)i=1から始めて、次の動作を順次行う。
Figure 0006360184
ここで、pi、i=0,1,...Nldpc−Kldpc−1の最終コンテンツは、パリティビットpiと同一である。
Figure 0006360184
表30を表31に代替し、ロングFECBLOCKに対するパリティチェックマトリクスのアドレスを、ショートFECBLOCKに対するパリティチェックマトリクスのアドレスに代替することを除いて、ショートFECBLOCKに対する当該LDPCエンコーディング手順は、ロングFECBLOCKに対するt LDPCエンコーディング手順に従う。
Figure 0006360184
図20は、本発明の一実施例に係るタイムインターリービングを示す。
(a)〜(c)は、タイムインターリービングモードの例を示す。
タイムインターリーバはデータパイプレベルで動作する。タイムインターリービングのパラメータは、それぞれのデータパイプに対して異なって設定されてもよい。
PLS2STATデータの一部に現れる次のパラメータは、タイムインターリービングを構成する。
DP_TI_TYPE(許容された値:0又は1):タイムインターリービングモードを示す。0は、タイムインターリービンググループ当たり多数のタイムインターリービングブロック(1つ以上のタイムインターリービングブロック)を有するモードを示す。この場合、1つのタイムインターリービンググループは、1つのフレームに(フレーム間インターリービングなしに)直接マッピングされる。1は、タイムインターリービンググループ当たり1つのタイムインターリービングブロックのみを有するモードを示す。この場合、タイムインターリービングブロックは、1つ以上のフレームにわたって拡散する(フレーム間インターリービング)。
DP_TI_LENGTH:DP_TI_TYPE=‘0’であれば、当該パラメータは、タイムインターリービンググループ当たりタイムインターリービングブロックの数NTIである。DP_TI_TYPE=‘1’の場合、当該パラメータは、1つのタイムインターリービンググループから拡散するフレームの数PIである。
DP_NUM_BLOCK_MAX(許容された値:0〜1023):タイムインターリービンググループ当たりXFECBLOCKの最大数を示す。
DP_FRAME_INTERVAL(許容された値:1、2、4、8):与えられたフィジカルプロファイルの同一のデータパイプを伝達する2つの順次的なフレーム間のフレームの数IJUMPを示す。
DP_TI_BYPASS(許容された値:0又は1):タイムインターリービングがデータフレームに用いられない場合、当該パラメータは‘1’に設定される。タイムインターリービングが用いられる場合、‘0’に設定される。
さらに、PLS2DYNデータからのパラメータDP_NUM_BLOCKは、データグループの1つのタイムインターリービンググループによって伝達されるXFECBLOCKの数を示す。
タイムインターリービングがデータフレームに用いられない場合、次のタイムインターリービンググループ、タイムインターリービング動作、タイムインターリービングモードは考慮されない。しかし、スケジューラからのダイナミック(dynamic、動的)構成情報のためのディレイコンペンセーション(delay compensation、遅延補償)ブロックは、依然として必要である。それぞれのデータパイプにおいて、SSD/MIMOエンコーディングから受信したXFECBLOCKはタイムインターリービンググループにグループ化される。すなわち、それぞれのタイムインターリービンググループは、整数個のXFECBLOCKの集合であり、ダイナミック(dynamic、動的)に変化する数のXFECBLOCKを含む。インデックスnのタイムインターリービンググループにあるXFECBLOCKの数は、NxBLOCK_Group(n)で示し、PLS2DYNデータでDP_NUM_BLOCKとしてシグナリングされる。このとき、NxBLOCK_Group(n)は、最小値0から、最も大きい値が1023である最大値NxBLOCK_Group_MAX(DP_NUM_BLOCK_MAXに該当)まで変化し得る。
それぞれのタイムインターリービンググループは、1つのフレームに直接マッピングされるか、またはPI個のフレームにわたって拡散する。また、それぞれのタイムインターリービンググループは、1つ以上(NTI個)のタイムインターリービングブロックに分離される。ここで、それぞれのタイムインターリービングブロックは、タイムインターリーバメモリの1つの使用に該当する。タイムインターリービンググループ内のタイムインターリービングブロックは、若干の異なる数のXFECBLOCKを含むことができる。タイムインターリービンググループが多数のタイムインターリービングブロックに分離されると、タイムインターリービンググループは1つのフレームにのみ直接マッピングされる。下記の表32に示したように、タイムインターリービングには3つのオプションがある(タイムインターリービングを省略する追加オプション除外)。
Figure 0006360184
一般に、タイムインターリーバは、フレーム生成過程の前にデータパイプデータに対するバッファーとしても作用する。これは、それぞれのデータパイプに対して2つのメモリバンクによって達成される。1番目のタイムインターリービングブロックは1番目のバンクに書き込まれる。1番目のバンクで読み取られる間、2番目のタイムインターリービングブロックが2番目のバンクに書き込まれる。
タイムインターリービングは、ツイストされた行列ブロックインターリーバである。n番目のタイムインターリービンググループのs番目のタイムインターリービングブロックに対して、列の数NcがNxBLOCK_TI(n,s)と同一である一方、タイムインターリービングメモリの行の数Nrは、セルの数Ncellsと同一である(即ち、Nr=Ncells)。
図21は、本発明の一実施例に係るツイストされた行列ブロックインターリーバの基本動作を示す。
図21(a)は、タイムインターリーバで書き込み動作を示し、図21(b)は、タイムインターリーバで読み取り動作を示す。(a)に示したように、1番目のXFECBLOCKは、タイムインターリービングメモリの1番目の列に列方向に書き込まれ、2番目のXFECBLOCKは、次の列に書き込まれ、このような動作が続く。そして、インターリービングアレイにおいて、セルが対角線方向に読み取られる。(b)に示したように、1番目の行から(最も左側の列から始まって行に沿って右側に)最後の行まで対角線方向の読み取りが行われる間、N個のセルが読み取られる。具体的に、Zn,s,i(i=0,...,N)が、順次に読み取られるタイムインターリービングメモリセルの位置であると仮定すると、このようなインターリービングアレイでの読み取り動作は、下記の式のように、行インデックスRn,s,i、列インデックスCn,s,i、関連するツイストパラメータTn,s,iを算出することによって行われる。
Figure 0006360184
ここで、Sshiftは、NxBLOCK_TI(n,s)に関係なく、対角線方向の読み取り過程に対する共通シフト値であり、シフト値は、下記の式のように、PLS2STATで与えられたNxBLOCK_TI_MAXによって決定される。
Figure 0006360184
結果的に、読み取られるセル位置は、座標Zn,s,i=Nn,s,i+Rn,s,iによって算出される。
図22は、本発明の他の一実施例に係るツイストされた行列ブロックインターリーバの動作を示す。
より具体的に、図22は、NxBLOCK_TI(0,0)=3、NxBLOCK_TI(1,0)=6、NxBLOCK_TI(2,0)=5であるとき、仮想XFECBLOCKを含む、それぞれのタイムインターリービンググループに対するタイムインターリービングメモリにおけるインターリービングアレイを示す。
変数NxBLOCK_TI(n,s)=Nは、N xBLOCK_TI_MAXより小さいか又は同一である。したがって、NxBLOCK_TI(n,s)に関係なく、受信機側で単一のメモリデインターリービングを達成するために、ツイストされた行列ブロックインターリーバ用インターリービングアレイは、仮想XFECBLOCKをタイムインターリービングメモリに挿入することによって、N×N=Ncells×N xBLOCK_TI_MAXの大きさに設定され、読み取り過程は、次の式のように行われる。
Figure 0006360184
タイムインターリービンググループの数は3に設定される。タイムインターリーバのオプションは、DP_TI_TYPE=‘0’、DP_FRAME_INTERVAL=‘1’、DP_TI_LENGTH=‘1’、すなわち、NTI=1、IJUMP=1、PI=1によってPLS2STATデータでシグナリングされる。それぞれNcells=30であるXFECBLOCKのタイムインターリービンググループ当たりの数は、それぞれのNxBLOCK_TI(0,0)=3、NxBLOCK_TI(1,0)=6、NxBLOCK_TI(2,0)=5によってPLS2DYNデータでシグナリングされる。XFECBLOCKの最大数は、NxBLOCK_Group_MAXによってPLS2STATデータでシグナリングされ、これは、
Figure 0006360184
につながる。
図23は、本発明の一実施例に係るツイストされた行列ブロックインターリーバの対角線方向の読み取りパターンを示す。
より具体的に、図23は、パラメータN xBLOCK_TI_MAX=7及びSshift=(71)/2=3を有するそれぞれのインターリービングアレイからの対角線方向の読み取りパターンを示す。このとき、前記で擬似コードとして示した読み取り過程で、V≧NcellsxBLOCK_TI(n,s)であると、Viの値が省略され、Viの次の計算値が使用される。
図24は、本発明の一実施例に係るそれぞれのインターリービングアレイからのインターリービングされたXFECBLOCKを示す。
図24は、パラメータN xBLOCK_TI_MAX=7及びSshift=3を有するそれぞれのインターリービングアレイからインターリービングされたXFECBLOCKを示す。
図25は、本発明の一実施例に係るメインフィジカルデバイス(Main Physical Device)及びコンパニオンフィジカルデバイス(Companion Physical Device)の構成を示す図である。
本発明の一実施例は、地上波放送またはモバイル放送環境でサービスガイド(service guide)を提供することができる。また、本発明の一実施例は、地上波放送網とインターネット網の連動をベースとする次世代ハイブリッド放送環境で可能なサービスに対するサービスガイドを提供することができる。
本発明の一実施例は、次世代ハイブリッド放送システムで提供できる様々なサービスと、これを構成するコンテンツ(content)及び/又はコンポーネント(component)要素をユーザに知らせることができる。これを通じて、ユーザが当該サービスを確認、選択及び鑑賞するのに利便性を提供することができる。
本発明の一実施例は、一つのサービスと、これを構成する様々なコンテンツ及び/又はコンポーネント要素を構造化し、互いに連係(reference)させることができる。これを通じて、放送受信機は、当該サービスを容易に構成及び提供することができ、ユーザが、当該サービスに対して容易に把握できるようにすることができる。
本発明の一実施例は、一つのサービスと、これを構成する様々なコンテンツ及び/又はコンポーネント要素を連係させるレファレンス(reference)構造を拡張することによって、放送受信機及び/又はユーザが、一つのサービスを構成するコンテンツ及び/又はコンポーネント要素を検索するのにかかるリソース(resource)及び/又は時間を節約できるようにする。
同図は、本発明の一実施例に係るメインフィジカルデバイス及びコンパニオンフィジカルデバイスの全体的な構成を示す図である。
本発明の一実施例に係るメインフィジカルデバイス(main physical device)L25010は、インタラクティブサービス(interactive service)のためのデバイスのうち一つであって、主にコンパニオンフィジカルデバイス(companion physical device)L25020による制御対象となる機器を示すことができる。メインフィジカルデバイスは、メインデバイス、メイン受信装置、メイン受信機、メインディスプレイ、メインスクリーンなどと命名することができる。
本発明の一実施例に係るメインフィジカルデバイスL25010は、ブロードキャストインタフェース(broadcast interface)L25030、ネットワークインタフェース(network interface)L25040、メモリユニット(memory unit)L25050、コントロールユニット(control unit)L25060、ディスプレイユニット(display unit)L25070、マルチメディアモジュール(multimedia module)L25080、ストレージ(storage)L25090、パワーサプライ(power supply)L25100及び/又はユーザ入力インタフェース(user input interface)L25110を含むことができる。
ブロードキャストインタフェースL25030は、ブロードキャスト(broadcaster)とデバイスとの間にAVストリーム(AV stream)、サービスガイド(service guide)、ノーティフィケーション(notification)などのメッセージ(message)及び/又はデータ伝送を可能にする物理的装置を示すことができる。ブロードキャストインタフェースは、ブロードキャストから放送信号、シグナリング情報、データなどを受信することができる。
ネットワークインタフェースL25040は、デバイス(例えば、メインフィジカルデバイスとコンパニオンフィジカルデバイス)間にコマンド(command)、リクエスト(request)、アクション(action)、レスポンス(response)などのメッセージ、アドバタイズ(advertise)及び/又はデータ伝送を可能にする物理的装置を示すことができる。ネットワークインタフェースは、インターネットサービスプロバイダー(internet service provider)から放送サービス、放送コンテンツ、シグナリング情報、アプリケーション、データなどを受信することができる。
メモリユニットL25050は、様々な種類のデバイスで実装される選択的な装置であって、様々な種類のデータを一時的に格納できる揮発性の物理的装置を示すことができる。
コントロールユニットL25060は、ソースデバイス(source device)及び/又はシンクデバイス(sink device)の全般的な動作を制御する装置であって、ソフトウェア又はハードウェアであってもよい。ここで、ソースデバイスは、メッセージ及び/又はデータを伝送するデバイスを示すことができ、シンクデバイスは、メッセージ及び/又はデータを受信するデバイスを示すことができる。したがって、本発明の一実施例に係るメインフィジカルデバイス及びコンパニオンフィジカルデバイスは、ソースデバイスまたはシンクデバイスに該当し得る。
ディスプレイユニットL25070は、ネットワークインタフェースを介して受信されたデータ又はストレージに格納されているデータを画面上にディスプレイすることができる。このとき、ディスプレイユニットは、コントロールユニットの制御によって動作することができる。
マルチメディアモジュールL25080は、様々な種類のマルチメディアを再生することができる。マルチメディアモジュールは、コントロールユニットに含まれていてもよく、コントロールユニットと別個に存在してもよい。
ストレージL25090は、様々な種類のデータを格納できる非揮発性の物理的装置を示すことができる。例えば、SDカードがストレージに該当し得る。
パワーサプライL25100は、コントロールユニットの制御によって、外部の電源及び/又は内部の電源の印加を受け、他の構成要素の動作に必要な電源を供給する装置を示すことができる。
ユーザ入力インタフェースL25110は、ユーザから命令などの入力を受信できる装置を示すことができる。
本発明の一実施例に係るコンパニオンフィジカルデバイスL25020は、インタラクティブサービス(interactive service)のためのデバイスの一つであって、メインデバイスを制御する機器を示すことができる。コンパニオンフィジカルデバイスは、主にユーザから直接インプット(input)を受信することができる。コンパニオンフィジカルデバイスは、コンパニオンデバイス、セカンドデバイス、付加デバイス、補助デバイス、コンパニオン受信装置、コンパニオン受信機、コンパニオンディスプレイ、セカンドスクリーンなどと命名することができる。
本発明の一実施例に係るコンパニオンフィジカルデバイスL25020は、ネットワークインタフェース、メモリユニット、コントロールユニット、ディスプレイユニット、マルチメディアモジュール、ストレージ、パワーサプライ及び/又はユーザ入力インタフェースを含むことができる。
本発明の一実施例に係るコンパニオンフィジカルデバイスを構成する構成要素のうち、メインデバイスを構成する構成要素と同一の名称の構成要素は、前述したメインデバイスを構成する構成要素と同じ機能を行うことができる。
図26は、本発明の一実施例に係るハイブリッド放送サービスをサポートするためのプロトコルスタックを示す図である。
物理層(Physical layer)は、地上波放送信号を受信し、これを適切な形態に変換することができる。
IP(Internet Protocol)エンカプセレーション(Encapsulation)は、物理層から取得された情報を用いてIPデータグラムを取得することができる。また、取得されたIPデータグラムを特定のフレーム(例えば、RS Frame、GSEなど)に変換することができる。
MPEG−2 TSエンカプセレーション(Encapsulation)は、物理層から取得された情報を用いてMPEG−2 TSを取得することができる。また、取得されたMPEG2 TSデータグラムを特定のフレーム(例えば、RS Frame、GSEなど)に変換することができる。
FIC(fast information channel)は、サービス及び/又はコンテンツにアクセスできるようにするための情報(例えば、サービスIDとフレームとの間のマッピング情報など)を伝達することができる。
シグナリング(Signaling)は、サービス及び/又はコンテンツの効果的な取得をサポートするためのシグナリング情報を含むことができる。シグナリング情報は、バイナリ及び/又はXML形態で表現されてもよく、地上波放送網及び/又はブロードバンド(broadband)を介して伝送されてもよい。
リアルタイム放送A/V(Audio/Video)コンテンツ及びデータ(Data)は、ISO Base Media File Format(ISOBMFF)などで表現されてもよく、地上波放送網及び/又はブロードバンドを介してリアルタイムで伝送されてもよい。非リアルタイムコンテンツは、IP/UDP/FLUTEをベースとして伝送されてもよい。そして、リアルタイム放送A/V(Audio/Video)コンテンツ、データ及び/又はシグナリング情報は、DASHなどを用いてインターネット網を介してリアルタイムで伝送されてもよい。このとき、リアルタイム放送A/V(Audio/Video)コンテンツ、データ及び/又はシグナリング情報は、リクエストメッセージによって伝送されてもよく、その代わりに、リアルタイムストリーミングによって伝送されてもよい。
本発明の一実施例は、上述したプロトコルスタックを経て伝達されたデータを組み合わせてインタラクティブサービス、セカンドスクリーンサービスなどの様々なエンハンスドサービス(enhanced service)を視聴者に提供することができる。
図27は、本発明の一実施例に係るサービスタイプエレメント(Service Type element)のXMLスキーマ(XML schema)を示す図である。
同図に対する説明に先立ち、本発明の一実施例に係るサービスガイド(service guide)、サービスフラグメント(service fragment)及びサービスタイプエレメント(ServiceType element)の定義及び構成について説明すると、以下の通りである。
サービスガイドは、アナウンスメントセッション内で伝送されるサービスガイドデリバリーディスクリプタが端末に伝達される放送分配チャネルを示すことができる。(The service guide may indicate a broadcast distribution channel over which Service Guide Delivery Descriptors carried within announcement sessions, can be delivered to the terminal.)
サービスガイドは、放送チャネル及び/又はインタラクションチャネルを介して伝送されるモバイル放送サービスのように、サービス提供者及び/又はコンテンツ提供者が、彼らが利用可能なようにしたサービス及び/又はコンテンツを説明できるようにし、定期購読又は購買を提案できるようにすることができる。また、サービスガイドは、サービスにアクセスする方法を説明するようにすることができる。ユーザの観点で、サービスガイドは、現在利用可能なまたは予定されたサービス及び/又はコンテンツを見つけるための入り口として見なすことができ、ユーザの好みに基づいてサービス及び/又はコンテンツをフィルタリングするための入り口として見なすことができる。さらに、サービスガイドは、インタラクティブサービスへの入り口を提供することができる。(Service Guide may enable the service and content providers to describe the services and content they make available, or offer for subscription or purchase, as Mobile Broadcast services either over Broadcast Channel or over Interaction Channel. It may also enable the way to describe how to access the services. From the user perspective the Service Guide can be seen as an entry point to discover the currently available or scheduled services and content and to filter those based on their preferences. Furthermore, the Service Guide may provide the entry point to interactive services.)
サービスガイドは、サービスガイドフラグメントの観点で、サービス(service)、スケジュール(schedule)、コンテンツ(content)、関連購買データ(related purchase data)、プロビジョニングデータ(provisioning data)、アクセスデータ(acess data)、インタラクティビティデータ(interactivity data)などのデータモデルを含むことができる。(The Service Guide may include data model that models the services, schedules, content, related purchase and provisioning data, access and interactivity data and so on in terms of Service Guide fragments.)
本発明の一実施例は、サービスガイドアナウンスメントチャネルを介して伝送されるサービスガイドデリバリーディスクリプタを通じて、サービスガイドフラグメントの宣言及び/又はサービスガイドの最初の発見のための方法を提供することができる。放送チャネル及び/又はインタラクティブチャネルを介して、サービスガイドデリバリーチャネルを介したサービスガイドフラグメント伝送のための伝送方法が提供され得る。サービスガイドデータを管理するために、本発明の一実施例は、アップデート及び/又はマネージメント方法を提供することができる。また、本発明の一実施例は、サービスガイドのための関連バックエンドインターフェースを提供することができる。(An embodiment of the invention may provide methods for initial discovery of Service Guide and the declaration of Service Guide fragments through Service Guide Delivery Descriptors that are sent over Service Guide Announcement Channel. An embodiment of the invention may provide delivery methods specified for Service Guide fragment delivery over Service Guide Delivery Channel, both over the Broadcast Channel as well as over the Interactive Channel. To manage the Service Guide data, an embodiment of the invention may provide update and management methods. An embodiment of the invention may provide the relevant backend interfaces for Service Guide.)
サービスフラグメントは、アグリゲートレベル(aggregate level)で、放送サービスを構成するコンテンツアイテムを説明することができる。(The ‘Service’ fragment may describe at an aggregate level the content items which comprise a broadcast service.)
サービスフラグメントは、サービスのタイプによって、インタラクティブ部分及び/又は放送部分を含むことができる。(Depending on the type of the service, it may have interactive part(s), broadcastonly part(s), or both.)
サービスフラグメントは、コンテンツと直接的に関連がないが、サービスと機能的に関連のあるコンポーネント(例えば、購買情報、定期購読情報など)を含むことができる。(The service may include components not directly related to the content but to the functionality of the service such as purchasing or subscription information.)
本発明の一実施例によれば、サービスガイドの一部分として、サービスフラグメントは、他のフラグメントによって参照される中央ハブを形成することができる。(As the part of the Service Guide, the ‘Service’ fragment may form a central hub referenced by the other fragments.)
本発明の一実施例によれば、サービスフラグメントをはじめとする関連フラグメントを共に用いて、端末は、どの時点でも当該サービスと関連する詳細情報を決定することができる。ここで、前記詳細情報は、ユーザフレンドリなディスプレイ内で要約され得る。例えば、要約された詳細情報は、関連コンテンツが何であるか、関連コンテンツがいつ、どのように消費されたか、関連コンテンツがいくらであるかを示すことができる。(Together with the associated fragments the terminal may determine the details associated with the service at any point of time. These details may be summarized into a userfriendly display, for example, of what, how and when the associated content may be consumed and at what cost.)
本発明の一実施例に係るサービスは、コンテンツアイテムのグループを示すことができる。すなわち、サービスは、最終ユーザに伝達される論理的グループを形成することができる。例えば、いくつかのTVショーで構成されるTVチャネルがサービスに該当し得る。サービスフラグメントは、モバイル放送サービスを記述するメタデータを含むことができる。(A service may represent a bundle of content items, which forms a logical group to the enduser. An example would be a TV channel, composed of several TV shows. A ‘Service’ fragment contains the metadata describing the Mobile Broadcast service.)
ServiceTypeエレメントは、当該サービスフラグメント(service fragment)で記述しているサービスのタイプを示すことができる。さらに、1つ以上のタイプが混合されたサービスタイプ(service types)は、多数のServiceTypeインスタンスの存在によって表現されてもよい。(The mixed service types may be indicated by the presence of multiple instances of ServiceType.)このエレメントは、サービスをテクスチュアルインジケーター(textual indicator)、アイコン(icon)またはグラフィックレプリゼンテーション(graphic representation)の形態でユーザにレンダリングするために、端末によって処理されてもよい。(This element may be processed by the terminal strictly for rendering to the user for example as a textual indicator, an icon, or graphic representation for the service.)
本発明の一実施例は、ハイブリッド放送システムで使用するサービスタイプを示すことができる方法を提供できる。さらに、本発明の一実施例は、ServiceTypeRangeType値に、ハイブリッド放送システムで示さなければならないサービスタイプ値(ServiceType value)の範囲を割り当てることができる。
本発明の一実施例に係るサービスタイプ(Service Type)に割り当てられた値は、次の通りである。サービスタイプ値が0であれば、Unspecifiedであることを示すことができ、1であれば、当該サービスがBasic TVであることを示すことができ、2であれば、当該サービスがBasic Radioであることを示すことができ、3であれば、当該サービスがRights Issuer Serviceであることを示すことができ、4であれば、Cachecastであることを示すことができ、5であれば、File download servicesであることを示すことができ、6であれば、Software management servicesであることを示すことができ、7であれば、Notificationであることを示すことができ、8であれば、Service Guideであることを示すことができ、9であれば、Terminal Provisioning servicesであることを示すことができ、10であれば、Auxiliary Dataであることを示すことができ、11であれば、Streaming on demandであることを示すことができ、12であれば、File download on demandであることを示すことができ、13であれば、SmartCard Provisioning servicesであることを示すことができ、14であれば、Linear serviceであることを示すことができ、15であれば、Appbased serviceであることを示すことができ、16であれば、Companion Screen serviceであることを示すことができる。上述した値以外の値が、上述したサービス以外のサービスを示すのに使用されてもよい。
同図を参照すると、本発明の一実施例に係るサービスタイプエレメント(ServiceType element)は、ServiceTypeRangeTypeというタイプを有することができる。本発明の一実施例に係るServiceTypeRangeTypeは、ServiceTypeLRType、ServiceTypeOtherEnablersRangeType及び/又はServiceTypeProprietaryRangeTypeを含むことができる。ここで、ServiceTypeLRTypeは、最小値として0を有し、最大値として13、14、15、16またはそれ以上の値を有することができる。
図28は、本発明の一実施例によって、サービスタイプ値として14を有するサービスに対するxmlスキーマ(xml schema)及びディスプレイ表示例を示す図である。
本発明の一実施例に係るサービスフラグメント(Service fragment)は、Home and Shoppingという名前を有し、ServiceTypeとして14を有することができる(L28010)。
ServiceType値14は、Linear Serviceを示すことができる。この場合、本発明の一実施例に係る受信装置は、選択したサービスのタイプがLinear Service(value=14)である場合、画面にサービスガイドのスケジュール情報が含まれていることがわかる。さらに、本発明の一実施例は、当該サービスとスケジュール情報を組み合わせ、ユーザに放送番組表のような情報を提供することができる(L28020)。また、サービスタイプをサービスフラグメント内でシグナリングすると、受信機は、時間情報を含むサービスに対してのみ、上述したスケジュール情報を組み合わせるなどの作業を行えばよい。したがって、本発明の一実施例は、受信機の性能を向上させることができる。
図29は、本発明の一実施例によって、サービスタイプ値として14及び15を有するサービスに対するxmlスキーマ及びディスプレイ表示例を示す図である。
本発明の一実施例に係るサービスフラグメントは、MBCという名前を有し、ServiceTypeとして14及び15を有することができる(L29010)。
ServiceType値15は、Appbased serviceを示すことができる。Appbased serviceタイプをサービスフラグメント内でシグナリングすると、本発明の一実施例に係る受信装置は、当該サービスにAppbased Serviceが含まれていることがわかる(L29020)。したがって、本発明の一実施例は、サービスフラグメントのみを取得しても、ServiceTypeを通じて、ユーザに関連Appを実行できることを知らせることができる(L29030)。さらに、同図に示されたように、MBCというサービスは、ServiceType値14も含んでいるので、当該サービスがLinear Service(value=14)である場合も本発明の効果を同一に有することができる。これについての説明は前述した。
図30は、本発明の一実施例によって、サービスタイプ値として14及び16を有するサービスに対するxmlスキーマ及びディスプレイ表示例を示す図である。
本発明の一実施例に係るサービスフラグメントは、MBC Companion Screenという名前を有し、ServiceTypeとして14及び16を有することができる(L30010)。
ServiceType値16は、Companion Screen serviceを示すことができる。Companion Screen serviceタイプをサービスフラグメント内でシグナリングすると、本発明の一実施例に係る受信装置は、当該サービスにCompanion Screen serviceが含まれていることがわかる(L30020)。したがって、本発明の一実施例は、サービスフラグメントのみを取得しても、ServiceTypeを通じて、ユーザにCompanion Screenから提供されるサービスがあることを知らせることができる(L30030)。さらに、同図に示されたように、MBC Companion Screenというサービスは、ServiceType値14も含んでいるので、当該サービスがLinear Service(value=14)である場合も本発明の効果を同一に有することができる。これについては前述した。
図31は、本発明の一実施例に係るコンポーネントフラグメント(Component fragment)のXmlスキーマを示す図である。
本発明の一実施例に係るコンポーネントフラグメント(Component fragment)は、コンポーネントが参照するコンテンツ、またはサービスの一部分であるコンポーネントを記述することができる。(The ‘Component’ fragment describes a component that is a part of a service or a content that the component refers to.)
本発明の一実施例に係るコンポーネントフラグメントは、idアトリビュート、versionアトリビュート、validFromアトリビュート、validToアトリビュート、ComponentTypeエレメント、ComponentDataエレメント及び/又はPrivateExtエレメントを含むことができる。
idアトリビュートは、コンポーネントフラグメントのIDを示すことができる。このアトリビュートの値はglobally uniqueであってもよい。
versionアトリビュートは、コンポーネントフラグメントのバージョン情報を示すことができる。
validFromアトリビュートは、コンポーネントフラグメントが有効な最初の時点を示すことができる。
validToアトリビュートは、コンポーネントフラグメントが有効な最後の時点を示すことができる。
ComponentTypeエレメントは、コンポーネントフラグメントが記述するコンテンツのタイプを示すことができる。タイプが混合された場合には、1つ以上のComponentTypeエレメントを使用してタイプを示すことができる。
ComponentDataエレメントは、コンポーネントフラグメントが含むコンポーネントコンテンツ(Component Content)を示すことができる。このエレメントは、ビデオ、オーディオまたはCC(Closed Caption)データを示すことができる。
PrivateExtエレメントは、私有的なまたはアプリケーションに限定された拡張のためのコンテナーを示すことができる。(An element serving as a container for proprietary or applicationspecific extensions.)
図32は、本発明の一実施例に係るComponentTypeエレメントのxmlスキーマを示す図である。
本発明の一実施例に係るコンポーネントは、ハイブリッド放送で送り得る全てのComponentTypeを表現することができる。そのために、本発明の一実施例は、タイプの範囲を整数値で表現することができる。
本発明の一実施例によれば、全てのコンポーネントがコンポーネントデータ(ComponentData)を含んでいるものではないので、受信装置は、コンポーネントフラグメントのタイプ値をまず見つけた後、コンポーネントデータの情報を知ることができる。
本発明の一実施例に係る各コンポーネント間の上下または従属関係は、後述する。
本発明の一実施例によれば、ComponentTypeエレメントのタイプを示すComponentRangeTypeは、最小値として0を、最大値として13を有することができる。
同図に示したように、ComponentTypeエレメントの値が0であれば、定められていないコンポーネント(Unspecified)を示すことができ、1であれば、Continuous componentを示すことができ、2であれば、Elementary componentを示すことができ、3であれば、Composite componentを示すことができ、4であれば、PickOne componentを示すことができ、5であれば、Complex componentを示すことができ、6であれば、Presentable componentを示すことができ、7であれば、NRT Fileを示すことができ、8であれば、NRT Content Itemを示すことができ、9であれば、Applicationを示すことができ、10であれば、ATSC3.0 Applicationを示すことができ、11であれば、On Demand componentを、12であれば、Notification Streamを、13であれば、Appbased Enhancementを、14〜255であれば、Reservedであることを示すことができる。
Continuous componentは、一つの連続するストリームにおいて表現されるコンテンツコンポーネントを示すことができる。例えば、オーディオ、ビデオまたはClosed Captionがこれに該当し得る。
Elementary componentは、シングルエンコーディングに該当するContinuous componentを示すことができる。すなわち、別途のエンコーダによってエンコーディングされるContinuous componentを示すことができる。例えば、サウンドシーケンスのシングルエンコーディング、ピクチャシーケンスのシングルエンコーディングまたはシングルclosed captionトラックがこれに該当し得る。
Composite componentは、同じコンテンツタイプを有し、同じ場面を表現し、一つのプレゼンテーションを作るために組み合わせることができるContinuous componentの集合を構成するコンテンツコンポーネントを示すことができる。例えば、完全なオーディオを提供するために混合される音楽、ダイアローグまたは効果音がこれに該当し得る。また、3D映像を提供するために組み合わされる左目映像または右目映像がこれに該当し得る。
PickOne componentは、同じコンテンツタイプを有し、同じ場面を表現し、一つのプレゼンテーションを作るために選択できるContinuous componentの集合を構成するコンテンツコンポーネントを示すことができる。例えば、同じサウンドシーケンスと異なるビットレートでエンコーディングされたオーディオコンポーネントの集合、同じピクチャシーケンスと異なるビットレートでエンコーディングされたビデオコンポーネントの集合、または同じダイアローグのための一般的なclosed captionトラック及びeasy reader closed captionトラックの集合がこれに該当し得る。
Complex componentは、Composite componentまたはPickOne componentを示すことができる。
Presentable componentは、ユーザに表示されるContinuous componentを示すことができる。このコンポーネントは、Elementary componentまたはComplex componentを含むことができる。
NRT Fileは、非リアルタイムで伝送されるファイルを示すことができる。
NRT Content Itemは、統合された全体として消費される意図で作られた1つ以上のNRTファイルの集合を示すことができる。
Applicationは、それ自体で完全なエンハンスドまたはインタラクティブサービスを構成する文書の集合を示すことができる。前記文書は、HTML、ジャバスクリプト(JavaScript)、CSS、XML及び/又はマルチメディアファイル(multimedia files)を含むことができる。このApplicationは、このapplicationの一部分ではなく他のデータにアクセスすることができる。このApplicationは、NRT Content Itemの特別なケースに該当し得る。
ATSC3.0 Applicationは、ATSC3.0 Application Runtime Environment Specificationに従うApplicationを示すことができる。
On Demand componentは、on demandによって伝送されるコンテンツコンポーネントを示すことができる。
Notification Streamは、Linear Time Base下でアプリケーションのアクションを同期化するためのnotificationを伝送できるストリームを示すことができる。
Appbased Enhancementは、アクションの同期化されたnotificationを伝送する0個以上のNotification Streams、1つ以上のアプリケーション、アプリケーションによって使用される0個以上の異なるNRT Content Items、アプリケーションによって管理される0個以上のOn Demand componentsを含むことができる。
図33は、本発明の一実施例に係るComponentDataエレメントのxmlスキーマを示す図である。
本発明の一実施例は、実際のコンポーネントデータ(Component Data)の特性をサービスガイドするためにComponentDataエレメントをスキーマとして定義することができる。
本発明の一実施例に係るComponentDataエレメントは、前述したコンポーネントフラグメントのComponentTypeエレメントの値が2、3、4または6である場合、それぞれのタイプの組み合わせ及び関係によってコンポーネントデータを表現できるようにすることができる。
本発明の一実施例によれば、各コンポーネントは、ContentTypeアトリビュートを有することができる。ContentTypeアトリビュートは、ビデオ、オーディオ及び/又はCC(Closed Caption)値を有することができる。
同図に示されたスキーマ構造のように、本発明の一実施例は、各ContentTypeアトリビュートに応じてコンポーネントデータが記述され得るようにする方法を提供することができる。すなわち、本発明の一実施例に係るComponentDataエレメントは、ContentTypeアトリビュートの値がVideoである場合、VideoComponentエレメントを下位エレメントとして有することができ、ContentTypeアトリビュートの値がAudioである場合、AudioComponentエレメントを下位エレメントとして有することができ、ContentTypeアトリビュートの値がCCである場合、CCComponentエレメントを下位エレメントとして有することができる。そして、前記下位エレメントに各コンポーネントデータが記述され得る。
図34は、本発明の一実施例に係るVideoComponentエレメント及びVideoRoleエレメントのxmlスキーマを示す図である。
本発明の一実施例は、ハイブリッド放送で使用されるビデオコンポーネント(Video Component)を表現できるようにする方法を提供することができる。
本発明の一実施例に係るVideoComponentエレメントは、VideoRoleエレメント、TargetUserProfileエレメント及び/又はTargetDeviceエレメントを下位エレメントとして有することができる(L34010)。
VideoRoleエレメントは、当該ビデオコンポーネントがどのようなロール(Role)を有するかを示すことができる。本発明の一実施例によれば、将来の拡張性を考慮して、このエレメントは整数値を有することができる。また、本発明の一実施例は、ビデオコンポーネントがpresentableである場合に有するrole及びcompositeである場合に有するroleをいずれも示すことができるようにこのエレメント値の範囲を提供することができる。
TargetUserProfileエレメント及びTargetDeviceエレメントは、全てのpresentable componentの共通エレメント(common element)に該当し得る。このエレメントは、ターゲットの属性を示すことができる。
本発明の一実施例に係るVideoRoleエレメントが示す値が0であれば、unspecifiedを、1であればPrimary (default) videoを、2であればAlternative camera viewを、3であればOther alternative video componentを、4であればSign language (例えば、ASL) insetを、5であればFollow subject videoを、6であればBase layer for scalable video encodingを、7であればEnhancement layer for scalable video encoding, with levelを、8であれば3D video left viewを、9であれば3D video right viewを、10であれば3D video depth informationを、11であればPart of video array, <x,y> of <n,m>を、12であればFollowSubject metadataを、13〜255であればReservedであることを示すことができる。ここで、このエレメント値0〜5はpresentable Video Componentのロール(role)を示すことができ、6〜12はComposite Video Componentのロールを示すことができ、13〜255はOther Video Componentのロールを示すことができる(L34020)。
図35は、本発明の一実施例に係るAudioComponentエレメント及びAudioRoleエレメントのxmlスキーマを示す図である。
本発明の一実施例は、ハイブリッド放送で使用されるオーディオコンポーネント(Audio Component)を表現できるようにする方法を提供することができる。
本発明の一実施例に係るAudioComponentエレメントは、associatedToアトリビュート及び/又はNumberOfAudioChnnelsアトリビュートを有することができ、AudioRoleエレメント、TargetUserProfileエレメント及び/又はTargetDeviceエレメントを下位エレメントとして有することができる(L35010)。
associatedToアトリビュートは、当該オーディオコンポーネントがPresentable Video Componentに関連しているかを示すことができる。このアトリビュートは、コンポーネントフラグメントのid値を有することができる。
NumberOfAudioChnnelsアトリビュートは、オーディオコンポーネントのチャネルの数を示すことができる。
AudioRoleエレメントは、当該オーディオコンポーネントがどのようなロール(Role)を有するかを示すことができる。本発明の一実施例によれば、将来の拡張性を考慮して、このエレメントは整数値を有することができる。
TargetUserProfileエレメント及びTargetDeviceエレメントは、全てのpresentable componentの共通エレメント(common element)に該当し得る。このエレメントはターゲットの属性を示すことができる。
本発明の一実施例に係るAudioRoleエレメントは0〜7の値を有することができる。このエレメントの値が0であればunspecified、1であればComplete main、2であればMusic、3であればDialog、4であればEffects、5であればVisually impaired、6であればHearing impaired、7であればCommentary、8〜255であればReservedであることを示すことができる(L35020)。
図36は、本発明の一実施例に係るCCComponentエレメント及びCCRoleエレメントのxmlスキーマを示す図である。
本発明の一実施例は、ハイブリッド放送で使用されるCCコンポーネント(CC Component)を表現できるようにする方法を提供することができる。
本発明の一実施例に係るCCComponentエレメントは、associatedToアトリビュートを有することができ、CCRoleエレメント、TargetUserProfileエレメント及び/又はTargetDeviceエレメントを下位エレメントとして有することができる(L36010)。
associatedToアトリビュートは、当該CCコンポーネントがPresentable Video Componentに関連しているかを示すことができる。このアトリビュートは、コンポーネントフラグメントのid値を有することができる。
CCRoleエレメントは、当該CCコンポーネントがどのようなロール(Role)を有するかを示すことができる。本発明の一実施例によれば、将来の拡張性を考慮して、このエレメントは整数値を有することができる。
TargetUserProfileエレメント及びTargetDeviceエレメントは、全てのpresentable componentの共通エレメント(common element)に該当し得る。このエレメントは、ターゲットの属性を示すことができる。
本発明の一実施例に係るCCRoleエレメントは0〜2の値を有することができる。このエレメントの値が0であればunspecified、1であればnormal、2であればeasy readerであることを示すことができる(L36020)。
図37は、本発明の一実施例によって、スケーラブルビデオコーディング(scalable video coding)において1つのベースレイヤ(base layer)と2つのエンハンスメントレイヤ(enhancement layer)を含むコンポジットビデオコンポーネント(Composite Video Component)に対してコンポーネントフラグメントのxmlスキーマを示す図である。
本発明の一実施例によれば、同図の上端に位置するコンポーネントフラグメント(L37010)は、id値として“bcast://lge.com/Component/1”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びCompositeコンポーネントであることを示すことができる。
同図の左側に位置するコンポーネントフラグメント(L37020)は、id値として“bcast://lge.com/Component/2”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びElementaryコンポーネントであることを示すことができ、ComponentDataエレメント、ContentTypeアトリビュート、VideoComponentエレメント及びVideoRoleエレメントを用いて、当該コンポーネントがVideoに関するものであり、Base Layer of SVCコンポーネントであることを示すことができる。
同図の右側に位置するコンポーネントフラグメント(L37030)は、id値として“bcast://lge.com/Component/3”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びElementaryコンポーネントであることを示すことができ、ComponentDataエレメント、ContentTypeアトリビュート、VideoComponentエレメント及びVideoRoleエレメントを用いて、当該コンポーネントがVideoに関するものであり、Enhancemnet Layer of SVCコンポーネントであることを示すことができる。
図38は、本発明の一実施例によって、3D video left viewと3D video right viewを含むコンポジットコンポーネント(Composite Component)に対してコンポーネントフラグメントのxmlスキーマを示す図である。
本発明の一実施例によれば、同図の上端に位置するコンポーネントフラグメント(L38010)は、id値として“bcast://lge.com/Component/1”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びCompositeコンポーネントであることを示すことができる。
同図の左側に位置するコンポーネントフラグメント(L38020)は、id値として“bcast://lge.com/Component/2”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びPickoneコンポーネントであることを示すことができ、ComponentDataエレメント、ContentTypeアトリビュート、VideoComponentエレメント及びVideoRoleエレメントを用いて、当該コンポーネントがVideoに関するものであり、3D video left viewコンポーネントであることを示すことができる。
同図の右側に位置するコンポーネントフラグメント(L38030)は、id値として“bcast://lge.com/Component/3”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びPickoneコンポーネントであることを示すことができ、ComponentDataエレメント、ContentTypeアトリビュート、VideoComponentエレメント及びVideoRoleエレメントを用いて、当該コンポーネントがVideoに関するものであり、3D video right viewコンポーネントであることを示すことができる。
図39は、本発明の一実施例によって、コンプリートオーディオコンポーネント(Complete Audio Component)を記述するコンポーネントフラグメントのxmlスキーマを示す図である。
本発明の一実施例によれば、同図の最上端に位置するコンポーネントフラグメント(L39010)は、id値として“bcast://lge.com/Component/1”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びPickoneコンポーネントであることを示すことができる。
同図の2番目の列の左側に位置するコンポーネントフラグメント(L39020)は、id値として“bcast://lge.com/Component/2”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びPickoneコンポーネントであることを示すことができ、ComponentDataエレメント、ContentTypeアトリビュート、AudioComponentエレメント及びAudioRoleエレメントを用いて、当該コンポーネントがAudioに関するものであり、Completely Mainコンポーネントであることを示すことができる。
同図の2番目の列の右側に位置するコンポーネントフラグメント(L39030)は、id値として“bcast://lge.com/Component/3”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びCompositeコンポーネントであることを示すことができる。
同図の3番目の列の左側に位置するコンポーネントフラグメント(L39040)は、id値として“bcast://lge.com/Component/4”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びPickoneコンポーネントであることを示すことができ、ComponentDataエレメント、ContentTypeアトリビュート、AudioComponentエレメント及びAudioRoleエレメントを用いて、当該コンポーネントがAudioに関するものであり、Musicコンポーネントであることを示すことができる。
同図の3番目の列の右側に位置するコンポーネントフラグメント(L39050)は、id値として“bcast://lge.com/Component/5”を有し、ComponentTypeエレメントを用いて、当該コンポーネントがContinuous及びPickoneコンポーネントであることを示すことができ、ComponentDataエレメント、ContentTypeアトリビュート、AudioComponentエレメント及びAudioRoleエレメントを用いて、当該コンポーネントがAudioに関するものであり、Dialogコンポーネントであることを示すことができる。
図40は、本発明の一実施例に係るコンテンツフラグメント(content fragment)内のComponentエレメントのxmlスキーマを示す図である。
本発明の一実施例は、コンテンツに含まれるコンポーネントをサブエレメントとして構成することができる。すなわち、コンテンツフラグメントの内部にComponentエレメントを含ませることができる。ここで、サブエレメントは、下位エレメントと同一の意味を有することができる。
本発明の一実施例に係るComponentエレメントは、コンテンツに含まれるコンポーネント情報を示すことができる。
本発明の一実施例に係るComponentエレメントのタイプはComponentElementTypeであり、ComponentElementTypeは、コンテンツに含まれるコンポーネント情報をシーケンスの形態で定義することができる。したがって、コンテンツに含まれる全てのタイプのコンポーネントが記述され得る。
本発明の一実施例に係るComponentエレメントは、VideoDataエレメント、AudioDataエレメント及び/又はCCDataエレメントをサブエレメントとして有することができる。また、VideoDataエレメントは、VideoRoleエレメント、TargetUserProfileエレメント及び/又はTargetDeviceエレメントをサブエレメントとして有することができ、AudioDataエレメントは、AudioRoleエレメント、TargetUserProfileエレメント及び/又はTargetDeviceエレメントをサブエレメントとして有することができ、CCDataエレメントは、CCRoleエレメント、TargetUserProfileエレメント及び/又はTargetDeviceエレメントをサブエレメントとして有することができる。上述したエレメントについての詳細は前述した。
図41は、本発明の一実施例に係るVideo、Audio及びCCコンポーネント(CC Component)を含むLinear Serviceに対するコンテンツフラグメントのxmlスキーマを示す図である。
本発明の一実施例によって、コンテンツフラグメント内にComponentエレメントを構成すると、Component間のレファレンス(Reference)規定が不要となるので効率的である。したがって、本発明の一実施例に係る受信機は、コンテンツフラグメントを受信すると、当該コンテンツがどのようなコンポーネントで構成されているか、どのロール(role)を有しているかについて直観的に把握することができる。
本発明の一実施例によれば、Componentエレメントは、コンテンツフラグメントに含まれたPricateExtエレメント内で定義されてもよい。
同図の左側の絵及びスキーマを見ると、2Dテニス放送コンテンツは、Video、Audio及びCCコンポーネントを含むことができる。このコンテンツのVideoコンポーネントはPrimary (default) videoを示し、AudioコンポーネントはComplete mainを示し、CCコンポーネントはnormalを示すことができる。
同図の右側の絵及びスキーマを見ると、3Dテニス放送コンテンツは、2つのVideoコンポーネント、Audioコンポーネント及びCCコンポーネントを含むことができる。このコンテンツの1番目のVideoコンポーネントは3D video left viewを示し、2番目のVideoコンポーネントは3D video right viewを示し、AudioコンポーネントはComplete mainを示し、CCコンポーネントはnormalを示すことができる。
図42は、Video、Audio及びCCコンポーネントの間に関連関係を説明するためにコンテンツフラグメント内にComponentエレメントを定義する場合のComponentエレメントのxmlスキーマを示す図である。
本発明の一実施例によれば、一つのコンテンツを構成するコンポーネント間の関連関係に対する定義が必要であり得る。
本発明の一実施例によって、コンテンツフラグメント内にComponentエレメントを構成すると、コンテンツフラグメント内で、当該コンテンツに含まれる全てのコンポーネント(Video、Audio及び/又はCCコンポーネント)を記述するので、コンポーネント間の関連関係を別途に記述する必要がない。
図43は、Video、Audio及びCCコンポーネントの間に関連関係を説明するためにAssociatedToアトリビュートを使用する実施例を示す図である。
本発明の一実施例は、Presentable Video、Audio及びCCコンポーネント(CC Component)の間の関連(Association)関係を規定するために、オーディオコンポーネント(Audio component)とCCコンポーネントの属性としてassociatedToアトリビュートを記述することができる。これによって、本発明の一実施例に係る受信機は、オーディオコンポーネントを受信すると、これと関連関係を結んでいるビデオコンポーネント(Video component)を知ることができる。同様に、CCコンポーネントを受信すると、これと関連関係を結んでいるビデオコンポーネントを知ることができる。
同図を見ると、本発明の一実施例は、コンポーネントフラグメントの下位のComponentDataエレメントの下位のAudioComponentエレメントのアトリビュートとしてassociatedToアトリビュートを定義し、CCComponentエレメントのアトリビュートとしてassociatedToアトリビュートを定義することができる。
図44は、Video、Audio及びCCコンポーネントの間に関連関係を説明するためにassociatedAudio及びassociatedCCアトリビュートを使用する実施例を示す図である。
本発明の一実施例は、Presentable Video、Audio及びCCコンポーネント(CC Component)の間の関連(Association)関係を規定するために、ビデオコンポーネント(Video component)の属性としてassociatedAudio及びassociatedCCアトリビュートを記述することができる。これによって、本発明の一実施例に係る受信機は、ビデオコンポーネント(Video component)を受信すると、これと関連関係を結んでいる全てのAudio及び/又はCCコンポーネントを知ることができる。
同図を見ると、本発明の一実施例は、コンポーネントフラグメントの下位のComponentDataエレメントの下位のVideoComponentエレメントのアトリビュートとして、associatedAudio及び/又はassociatedCCアトリビュートを定義することができる。
図45は、AssociatedToアトリビュートを使用してVideo、Audio及びCCコンポーネントの間に関連関係を説明する実施例を示す図である。
本発明の一実施例によれば、Presentable Audio Componentを記述するコンポーネントフラグメントにおいてAudioComponentエレメントにassociatedToアトリビュートを定義して“bcast://lge.com/Component/1”を参照することによって、当該Presentable Audio Componentと関連するPresentable Video Componentを記述するコンポーネントフラグメントをシグナリングすることができる。
本発明の一実施例によれば、Presentable CC Componentを記述するコンポーネントフラグメントにおいてCCComponentエレメントにassociatedToアトリビュートを定義して“bcast://lge.com/Component/1”を参照することによって、当該Presentable CC Componentと関連するPresentable Video Componentを記述するコンポーネントフラグメントをシグナリングすることができる。
図46は、associatedAudio及び/又はassociatedCCアトリビュートを使用してVideo、Audio及びCCコンポーネントの間に関連関係を説明する実施例を示す図である。
本発明の一実施例によれば、Presentable Video Componentを記述するコンポーネントフラグメントにおいてVideoComponentエレメントにassociatedAudio及びassociatedCCアトリビュートを定義し、それぞれ“bcast://lge.com/Component/2”、“bcast://lge.com/Component/3”を参照することによって、当該Presentable Video Componentと関連するPresentable Audio Component及びPresentable CC Componentを記述するコンポーネントフラグメントをシグナリングすることができる。
図47は、本発明の一実施例に係るフラグメント間の参照関係を示す図である。
本発明の一実施例によって、次世代ハイブリッド放送システムのサービスガイドを提供するためにService、Content及びComponentフラグメントを定義する方法を前述した。
本発明の一実施例は、前述した各フラグメント間の参照関係を定義することによって、次世代ハイブリッド放送システムのサービスガイドがアナウンスメント(announcement)され得る方法を提供することができる。
本発明の一実施例によれば、ComponentフラグメントでService及び/又はContentフラグメントを参照することができる。
同図を見ると、ComponentフラグメントでService及びContentフラグメントを参照し、ContentフラグメントでServiceフラグメントを参照し、ScheduleフラグメントでService、Content及びComponentフラグメントを参照することができる。
図48は、本発明の一実施例によって、フラグメントとの参照関係を示すエレメントを含むComponentフラグメントのxmlスキーマを示す図である。
本発明の一実施例に係るComponentフラグメントは、ServiceReferenceエレメント、ContentReferenceエレメント及び/又はComponentReferenceエレメントを含むことができる。上述した各エレメントは、それぞれのidを示すidRefアトリビュートを有することができる。
ServiceReferenceエレメントは、当該Componentフラグメントで参照するServiceフラグメントを示すことができ、参照するServiceフラグメントのid値を有することができる。
ContentReferenceエレメントは、当該Componentフラグメントで参照するContentフラグメントを示すことができ、参照するContentフラグメントのid値を有することができる。
ComponentReferenceエレメントは、当該Componentフラグメントで参照する上位のComponentフラグメントを示すことができ、参照する上位のComponentフラグメントのid値を有することができる。この場合、前述したComponentTypeエレメントが示すタイプ値の分類によって、Componentフラグメント間の参照関係または上下関係が成立し得る。
図49は、本発明の一実施例によって、フラグメントとの参照関係を示すエレメントを含むScheduleフラグメントのxmlスキーマを示す図である。
本発明の一実施例に係るScheduleフラグメントは、ServiceReferenceエレメント、ContentReferenceエレメント及び/又はComponentReferenceエレメントを含むことができる。上述した各エレメントは、それぞれのidを示すidRefアトリビュートを有することができる。
ServiceReferenceエレメントは、参照するServiceフラグメントを示すことができ、参照するServiceフラグメントのid値を有することができる。これによって、Scheduleフラグメントで当該Serviceの時間情報を提供することができる。
ContentReferenceエレメントは、参照するContentフラグメントを示すことができ、参照するContentフラグメントのid値を有することができる。これによって、Scheduleフラグメントで当該Contentの時間情報を提供することができる。
ComponentReferenceエレメントは、参照するComponentフラグメントを示すことができ、参照するComponentフラグメントのid値を有することができる。これによって、Scheduleフラグメントで当該Componentの時間情報を提供することができる。
図50は、Service、Content及びComponentフラグメントの間の参照関係を説明する実施例を示す図である。
同図を見ると、前述したように、Presentable Audio Componentを記述するコンポーネントフラグメント、Presentable CC Componentを記述するコンポーネントフラグメントは、associatedToアトリビュートを用いて、Presentable Video Componentを記述するコンポーネントフラグメントを参照することができる。
さらに、Presentable Audio Componentを記述するコンポーネントフラグメント、Presentable CC Componentを記述するコンポーネントフラグメント、及びPresentable Video Componentを記述するコンポーネントフラグメントは、ContentReferenceエレメントを用いて、id値が“bcast://lge.com/Content/1”であるContentフラグメントを参照することができる。
さらに、id値が“bcast://lge.com/Content/1”であるContentフラグメントは、ServiceReferenceエレメントを用いて、id値が“bcast://lge.com/Service/1”であるServiceフラグメントを参照することができる。
このように、本発明の一実施例は、フラグメント間の参照関係を定義することによって、ハイブリッド放送システムで提供できるサービスガイドモデルを構成することができる。
図51は、Continuous Componentを記述するComponentフラグメント間の参照関係を説明する実施例を示す図である。
本発明の一実施例は、コンポーネントフラグメント間の参照関係を定義することによって、ハイブリッド放送システムで提供できるContinuous Componentの参照関係を表現することができる。
本発明の一実施例によれば、ComponentType値1〜6に該当するコンポーネントであるContinuous component、Elementary component、Composite component、PickOne component、Complex component及び/又はPresentable componentは、Continuous Componentに該当し得、同図に示されたように、上述したContinuous Component間の参照関係を表現することができる。
本発明の一実施例によれば、Second Enhancement Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/4”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/3”を記述することによって、First Enhancement Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/3”)を参照することができる。
同様に、First Enhancement Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/3”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/2”を記述することによって、Base Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/2”)を参照することができる。
同様に、Base Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/2”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/1”を記述することによって、Composite Componentを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/1”)を参照することができる。
図52は、Appbased Enhancementと関連するComponentを記述するComponentフラグメント間の参照関係を説明する実施例を示す図である。
本発明の一実施例は、コンポーネントフラグメント間の参照関係を定義することによって、ハイブリッド放送システムで提供できるAppbased Enhancementと関連するComponentの参照関係を表現することができる。
本発明の一実施例によれば、ComponentType値7〜13に該当するコンポーネントであるNRT File、NRT Content Item、Application、ATSC3.0 Application、On Demand component、Notification Stream及び/又はAppbased Enhancementは、Appbased Enhancementと関連するComponentに該当し得、同図に示されたように、上述したAppbased Enhancementと関連するComponent間の参照関係を表現することができる。
本発明の一実施例によれば、NRT Fileを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/3”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/2”を記述することによって、NRT Content Itemを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/2”)を参照することができる。
同様に、NRT Content Itemを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/2”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/1”を記述することによって、Appbased Enhancementを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/1”)を参照することができる。
同様に、On Demand componentを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/5”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/1”を記述することによって、Appbased Enhancementを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/1”)を参照することができる。
同様に、Applicationを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/4”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/1”を記述することによって、Appbased Enhancementを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/1”)を参照することができる。
図53は、本発明の一実施例によって、コンテンツフラグメントで関連サービスフラグメントを参照する場合に提供できる機能を示す図である。
本発明の一実施例は、コンテンツで参照するServiceフラグメントを表現するとき、ハイブリッド放送網でサポートする機能を詳細に示すことができるサービスガイド方式を提供できる。
本発明の一実施例に係るContentフラグメントはServiceReferenceエレメントを有することができ、ServiceReferenceエレメントは、idRefアトリビュート、weighアトリビュート及び/又はrelationshipアトリビュートを含むことができる。
idRefアトリビュートは、参照するContentフラグメントで参照するServiceフラグメントのidを示すことができる。
weighアトリビュートは、Serviceフラグメントの参照時、その重要度を示すことができる。
relationshipアトリビュートは、Serviceフラグメントの参照時、ContentフラグメントとServiceフラグメントとの関係を示すことができる。さらに、このアトリビュートの値は、将来の拡張性のために整数値で表現されてもよい。このアトリビュートの値が0であればunspecified、1であればProgramOf、2であればContentItemOf、3であればOnDemandComponentOf、4〜255であればreservedであることを示すことができる。ProgramOfは、当該Contentが、参照されるServiceのProgramに該当することを示すことができ、ContentItemOfは、当該Contentが、参照されるServiceのContentItemに該当することを示すことができ、OnDemandComponentOfは、当該Contentが、参照されるServiceのOnDemandComponentに該当することを示すことができる。
図54は、本発明の一実施例に係るrelationshipアトリビュートを用いて、コンテンツフラグメントで関連サービスフラグメントを参照する実施例を示す図である。
本発明の一実施例に係る受信機は、relationshipアトリビュートを用いてContentフラグメントでServiceフラグメントを参照する場合、両フラグメント間の関係を知ることができる。したがって、本発明の一実施例は、relationshipアトリビュートを通じて、コンポーネントレベル(Component level)まで分析しなくても、当該サービスがユーザにどの属性のコンテンツで構成されるかを、サービスガイドで表現することができる。
同図を見ると、計3個のContentフラグメントは、ServiceReferenceエレメントを用いて、id値として“bcast://lge.com/Service/1”を有するServiceフラグメントを参照している。左側のコンテンツフラグメントは、relationshipアトリビュート値として1を有することによって、参照されるサービスフラグメントのProgramであることを示すことができ、中間のコンテンツフラグメントは、relationshipアトリビュート値として2を有することによって、参照されるサービスフラグメントのContentItemであることを示すことができ、右側のコンテンツフラグメントは、relationshipアトリビュート値として3を有することによって、参照されるサービスフラグメントのOnDemandComponentであることを示すことができる。
図55は、本発明の他の一実施例に係るフラグメント間の参照関係を示す図である。
本発明の一実施例によって、次世代ハイブリッド放送システムのサービスガイドを提供するために、Service、Content及びComponentフラグメントを定義する方法を前述した。
本発明の一実施例は、前述した各フラグメント間の参照関係を定義することによって、次世代ハイブリッド放送システムのサービスガイドがアナウンスメント(announcement)され得る方法を提供することができる。
本発明の一実施例によれば、ServiceフラグメントでContentフラグメント及び/又はComponentフラグメントを参照することができる。
同図を見ると、サービスフラグメントでコンテンツフラグメント及び/又はコンポーネントフラグメントを参照し、コンテンツフラグメントでコンポーネントフラグメントを参照し、ScheduleフラグメントでService、Content及び/又はComponentフラグメントを参照することができる。
本発明の一実施例によれば、特定のサービスを構成するコンテンツ、コンポーネント要素を見つけるためのリソースの節約が可能である。
図56は、本発明の他の一実施例に係る、フラグメントとの参照関係を示すエレメントを含むサービスフラグメント、コンテンツフラグメント及びコンポーネントフラグメントのxmlスキーマを示す図である。
本発明の一実施例に係るサービスガイドの各フラグメントは参照関係を有することができる。
本発明の一実施例に係るサービスフラグメントは、ContentReferenceエレメント及び/又はComponentReferenceエレメントを含むことができる。上述した各エレメントは、それぞれのidを示すidRefアトリビュートを有することができる(L56010)。
ContentReferenceエレメントは、当該サービスフラグメントで参照するContentフラグメントを示すことができ、参照するContentフラグメントのid値を有することができる。
ComponentReferenceエレメントは、当該サービスフラグメントで参照するComponentフラグメントを示すことができ、参照するComponentフラグメントのid値を有することができる。
本発明の一実施例に係るコンテンツフラグメントはComponentReferenceエレメントを含むことができる。このエレメントは、このエレメントのidを示すidRefアトリビュートを有することができる(L56020)。
ComponentReferenceエレメントは、当該コンテンツフラグメントで参照するComponentフラグメントを示すことができ、参照するComponentフラグメントのid値を有することができる。
本発明の一実施例に係るコンポーネントフラグメントはComponentReferenceエレメントを含むことができる。このエレメントは、このエレメントのidを示すidRefアトリビュートを有することができる(L56030)。
ComponentReferenceエレメントは、当該Componentフラグメントで参照する下位のComponentフラグメントを示すことができ、参照する下位のComponentフラグメントのid値を有することができる。この場合、前述したComponentTypeエレメントが示すタイプ値の分類によって、Componentフラグメント間の参照関係または上下関係が成立し得る。
本発明の一実施例に係るScheduleフラグメントは、ServiceReferenceエレメント、ContentReferenceエレメント及び/又はComponentReferenceエレメントを含むことができる。上述した各エレメントは、それぞれのidを示すidRefアトリビュートを有することができる(図示せず)。
ServiceReferenceエレメントは、参照するServiceフラグメントを示すことができ、参照するServiceフラグメントのid値を有することができる。これによって、Scheduleフラグメントで当該Serviceの時間情報を提供することができる。
ContentReferenceエレメントは、参照するContentフラグメントを示すことができ、参照するContentフラグメントのid値を有することができる。これによって、Scheduleフラグメントで当該Contentの時間情報を提供することができる。
ComponentReferenceエレメントは、参照するComponentフラグメントを示すことができ、参照するComponentフラグメントのid値を有することができる。これによって、Scheduleフラグメントで当該Componentの時間情報を提供することができる。
図57は、Service、Content及びComponentフラグメントの間の参照関係を説明する他の一実施例を示す図である。
同図を見ると、前述したように、Presentable Audio Componentを記述するコンポーネントフラグメント、Presentable CC Componentを記述するコンポーネントフラグメントは、associatedToアトリビュートを用いて、Presentable Video Componentを記述するコンポーネントフラグメントを参照することができる。
Id値が“bcast://lge.com/Service/1”であるServiceフラグメントは、ContentReferenceエレメントを用いて、id値が“bcast://lge.com/Content/1”であるContentフラグメントを参照することができる。
Id値が“bcast://lge.com/Content/1”であるContentフラグメントは、ComponentReferenceエレメントを用いて、id値が“bcast://lge.com/Component/1”であるComponentフラグメント(Presentable Video Component)を参照することができる。
このように、本発明の一実施例は、フラグメント間の参照関係を定義することによって、ハイブリッド放送システムで提供できるサービスガイドモデルを構成することができる。
本発明の一実施例は、サービスフラグメントでコンテンツフラグメントを参照し、コンテンツフラグメントでコンポーネントフラグメントを参照する方式のように、上位レベルで下位レベルを参照する方向を使用することによって、リソースを低減することができる。
図58は、Continuous Componentを記述するComponentフラグメント間の参照関係を説明する他の一実施例を示す図である。
本発明の一実施例は、コンポーネントフラグメント間の参照関係を定義することによって、ハイブリッド放送システムで提供できるContinuous Componentの参照関係を表現することができる。
本発明の一実施例によれば、ComponentType値1〜6に該当するコンポーネントであるContinuous component、Elementary component、Composite component、PickOne component、Complex component及び/又はPresentable componentはContinuous Componentに該当し得、同図に示されたように、上述したContinuous Component間の参照関係を表現することができる。
本発明の一実施例によれば、Composite Componentを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/1”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/2”を記述することによって、Base Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/2”)を参照することができる。
同様に、Base Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/2”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/3”を記述することによって、First Enhancement Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/3”)を参照することができる。
同様に、First Enhancement Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/3”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/4”を記述することによって、Second Enhancement Layerを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/4”)を参照することができる。
図59は、Appbased Enhancementと関連するComponentを記述するComponentフラグメント間の参照関係を説明する他の一実施例を示す図である。
本発明の一実施例は、コンポーネントフラグメント間の参照関係を定義することによって、ハイブリッド放送システムで提供できるAppbased Enhancementと関連するComponentの参照関係を表現することができる。
本発明の一実施例によれば、ComponentType値7〜13に該当するコンポーネントであるNRT File、NRT Content Item、Application、ATSC3.0 Application、On Demand component、Notification Stream及び/又はAppbased EnhancementはAppbased Enhancementと関連するComponentに該当し得、同図に示されたように、上述したAppbased Enhancementと関連するComponent間の参照関係を表現することができる。
本発明の一実施例によれば、Appbased Enhancementを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/1”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/2”、“bcast://lge.com/Component/4”及び“bcast://lge.com/Component/5”を記述することによって、NRT Content Itemを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/2”)、Applicationを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/4”)及びOn Demand componentを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/5”)を参照することができる。
同様に、NRT Content Itemを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/2”)は、ComponentReferenceエレメントに“bcast://lge.com/Component/3”を記述することによって、NRT Fileを記述するコンポーネントフラグメント(id=“bcast://lge.com/Component/3”)を参照することができる。
図60及び図61は、本発明の一実施例に係るComponentフラグメントの構成を示す図である。
2つの図面にわたって示されたテーブルは、連結された一つのテーブルに該当する。
本発明の一実施例に係るコンポーネントフラグメントは、idアトリビュート、versionアトリビュート、validFromアトリビュート、validToアトリビュート、ServiceReferenceエレメント、ContentReferenceエレメント、ComponentReferenceエレメント、ComponentTypeエレメント、ComponentRoleエレメント、PrivateExtエレメント及び/又はProprietaryElementsエレメントを含むことができる。ServiceReferenceエレメント、ContentReferenceエレメント及びComponentReferenceエレメントは、それぞれidRefアトリビュートを含むことができる。上述したidアトリビュート及び/又はidRefアトリビュートはURIの形態を有することができ、上述したアトリビュート及び/又はエレメントについての詳細は後述する。
図62は、本発明の他の一実施例に係るComponentフラグメントのxmlスキーマを示す図である。
本発明の一実施例に係るコンポーネントフラグメント(Component fragment)は、コンポーネントが参照するコンテンツ又はサービスの一部分である、コンポーネントを記述することができる。(The ‘Component’ fragment describes a component that is a part of a service or a content that the component refers to.)
本発明の一実施例に係るコンポーネントフラグメントは、idアトリビュート、versionアトリビュート、validFromアトリビュート、validToアトリビュート、ServiceReferenceエレメント、ContentReferenceエレメント、ComponentReferenceエレメント、ComponentTypeエレメント、ComponentRoleエレメント、PrivateExtエレメント及び/又はProprietaryElementsエレメントを含むことができる。
idアトリビュートは、コンポーネントフラグメントのIDを示すことができる。このアトリビュートの値はglobally uniqueであってもよい。
versionアトリビュートは、コンポーネントフラグメントのバージョン情報を示すことができる。
validFromアトリビュートは、コンポーネントフラグメントが有効な最初の時点を示すことができる。
validToアトリビュートは、コンポーネントフラグメントが有効な最後の時点を示すことができる。
ServiceReferenceエレメントは、当該コンポーネントフラグメントが属するサービスフラグメントを参照することができる。
ContentReferenceエレメントは、当該コンポーネントが属するコンテンツフラグメントを参照することができる。
ComponentReferenceエレメントは、当該コンポーネントが属するコンポーネントフラグメントを参照することができる。
ComponentTypeエレメントは、コンポーネントフラグメントが記述するコンテンツのタイプを示すことができる。タイプが混合される場合には、1つ以上のComponentTypeエレメントを使用してタイプを示すことができる。
ComponentRoleエレメントは、当該コンポーネントのロール(role)を示すことができる。本発明の一実施例によれば、該当するコンポーネントがPresentable Video、Composite Video、Presentable AudioまたはPresentable CC componentである場合にコンポーネントロール(Component Role)を有し、このエレメントに対する値についての詳細は後述する。
PrivateExtエレメントは、私有的なまたはアプリケーションに限定された拡張のためのコンテナーを示すことができる。(An element serving as a container for proprietary or applicationspecific extensions.)
ProprietaryElementsエレメントは、私有的なまたはアプリケーションに限定されたエレメントを示すことができる。このエレメントは、1つ以上のサブエレメント又はアトリビュートを含むことができる。
図63は、本発明の他の一実施例に係るComponentTypeエレメントのxmlスキーマを示す図である。
本発明の一実施例に係るコンポーネントは、ハイブリッド放送で送り得る全てのComponentTypeを表現することができる。そのために、本発明の一実施例は、タイプの範囲を整数値で表現することができる。
本発明の一実施例によれば、全てのコンポーネントがコンポーネントデータ(ComponentData)を含んでいるものではないので、受信装置は、コンポーネントフラグメントのタイプ値をまず見つけた後、コンポーネントデータの情報を知ることができる。
本発明の一実施例に係る各コンポーネント間の上下又は従属関係は後述する。
本発明の一実施例によれば、ComponentTypeエレメントのタイプを示すComponentRangeTypeは、最小値として0を、最大値として15を有することができる。
同図に示したように、ComponentTypeエレメントの値が0であれば、定められていないコンポーネント(Unspecified)を示すことができ、1であればContinuous componentを示すことができ、2であればElementary componentを示すことができ、3であればComposite componentを示すことができ、4であればPickOne componentを示すことができ、5であればComplex componentを示すことができ、6であればPresentable Video componentを示すことができ、7であればPresentable Audio componentを示すことができ、8であればPresentable CC componentを示すことができ、9であればNRT Fileを示すことができ、10であればNRT Content Itemを示すことができ、11であればApplicationを示すことができ、12であればATSC3.0 Applicationを示すことができ、13であればOn Demand componentを、14であればNotification Streamを、15であればAppbased Enhancementを、16〜255であればReservedであることを示すことができる。
Continuous componentは、一つの連続するストリームにおいて表現されるコンテンツコンポーネントを示すことができる。例えば、オーディオ、ビデオまたはClosed Captionがこれに該当し得る。
Elementary componentは、シングルエンコーディングに該当するContinuous componentを示すことができる。すなわち、別途のエンコーダによってエンコーディングされるContinuous componentを示すことができる。例えば、サウンドシーケンスのシングルエンコーディング、ピクチャシーケンスのシングルエンコーディングまたはシングルclosed captionトラックがこれに該当し得る。
Composite componentは、同じコンテンツタイプを有し、同じ場面を表現し、一つのプレゼンテーションを作るために組み合わせることができるContinuous componentの集合を構成するコンテンツコンポーネントを示すことができる。例えば、完全なオーディオを提供するために混合される音楽、ダイアローグまたは効果音がこれに該当し得る。また、3D映像を提供するために組み合わされる左目映像または右目映像がこれに該当し得る。
PickOne componentは、同じコンテンツタイプを有し、同じ場面を表現し、一つのプレゼンテーションを作るために選択できるContinuous componentの集合を構成するコンテンツコンポーネントを示すことができる。例えば、同じサウンドシーケンスと異なるビットレートでエンコーディングされたオーディオコンポーネントの集合、同じピクチャシーケンスと異なるビットレートでエンコーディングされたビデオコンポーネントの集合、または同じダイアローグのための一般的なclosed captionトラック及びeasy reader closed captionトラックの集合がこれに該当し得る。
Complex componentは、Composite componentまたはPickOne componentを示すことができる。
Presentable componentは、ユーザに表示されるContinuous componentを示すことができる。このコンポーネントは、Elementary componentまたはComplex componentを含むことができる。
Presentable Video componentは、ユーザに表示されるVideo Continuous componentを示すことができる。
Presentable Audio componentは、ユーザに表示されるAudio Continuous componentを示すことができる。
Presentable CC componentは、ユーザに表示されるCC Continuous componentを示すことができる。
NRT Fileは、非リアルタイムで伝送されるファイルを示すことができる。
NRT Content Itemは、統合された全体として消費される意図で作られた1つ以上のNRTファイルの集合を示すことができる。
Applicationは、それ自体で完全なエンハンスドまたはインタラクティブサービスを構成する文書の集合を示すことができる。前記文書は、HTML、ジャバスクリプト(JavaScript)、CSS、XML及び/又はマルチメディアファイル(multimedia files)を含むことができる。このApplicationは、このapplicationの一部分ではなく他のデータにアクセスすることができる。このApplicationは、NRT Content Itemの特別なケースに該当し得る。
ATSC3.0 Applicationは、ATSC3.0 Application Runtime Environment Specificationに従うApplicationを示すことができる。
On Demand componentは、on demandによって伝送されるコンテンツコンポーネントを示すことができる。
Notification Streamは、Linear Time Base下でアプリケーションのアクションを同期化するためのnotificationを伝送できるストリームを示すことができる。
Appbased Enhancementは、アクションの同期化されたnotificationを伝送する0個以上のNotification Streams、1つ以上のアプリケーション、アプリケーションによって使用される0個以上の異なるNRT Content Items、アプリケーションによって管理される0個以上のOn Demand componentsを含むことができる。
図64は、本発明の一実施例に係るComponentRoleエレメントのxmlスキーマを示す図である。
本発明の一実施例は、ComponentRoleエレメントを使用して、ハイブリッド放送で送り得る全てのコンポーネントのロール(role)を表現することができる。そのために、ComponentRoleエレメントの値は整数値で表現されてもよい。
本発明の一実施例に係るComponentRoleエレメントは、0から21までの値を有することができる。
本発明の一実施例は、Componentがpresentableである場合に有するrole及びcompositeである場合に有するroleをいずれも示すことができるように、このエレメント値の範囲を提供することができる。
本発明の一実施例に係るComponentRoleエレメントが示す値が0であればunspecifiedを、1であればPrimary (default) videoを、2であればAlternative camera viewを、3であればOther alternative video componentを、4であればSign language (例えば、ASL) insetを、5であればFollow subject videoを、6であればBase layer for scalable video encodingを、7であればEnhancement layer for scalable video encoding, with levelを、8であれば3D video left viewを、9であれば3D video right viewを、10であれば3D video depth informationを、11であればPart of video array, <x,y> of <n,m>を、12であればFollowSubject metadataを、13であればComplete mainを、14であればMusicを、15であればDialogを、16であればEffectsを、17であればVisually impairedを、18であればHearing impairedを、19であればCommentaryを、20であればNormalを、21であればEasy readerを、22〜255であればreservedであることを示すことができる。ここで、このエレメント値1〜5はpresentable Video Componentのroleを示すことができ、6〜12はComposite Video Componentのroleを示すことができ、13〜19はpresentable Audio Componentのroleを示すことができ、20〜21はpresentable CC Componentのroleを示すことができる。
図65は、本発明の他の一実施例によって、スケーラブルビデオコーディング(scalable video coding)において一つのベースレイヤ(base layer)と2つのエンハンスメントレイヤ(enhancement layer)を含むコンポジットビデオコンポーネント(Composite Video Component)に対してコンポーネントフラグメントのxmlスキーマを示す図である。
本発明の一実施例によれば、同図の上端に位置するコンポーネントフラグメント(L65010)は、id値として“bcast://lge.com/Component/1”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous及びCompositeコンポーネントであることを示すことができる。
同図の左側に位置するコンポーネントフラグメント(L65020)は、id値として“bcast://lge.com/Component/2”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentReferenceエレメントを用いて“bcast://lge.com/Component/1”を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous、Elementary及びBase Layer of SVCコンポーネントであることを示すことができる。
同図の右側に位置するコンポーネントフラグメント(L65030)は、id値として“bcast://lge.com/Component/3”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentReferenceエレメントを用いて“bcast://lge.com/Component/1”を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous、Elementary及びEnhancement Layer of SVCコンポーネントであることを示すことができる。
図66は、本発明の他の一実施例によって、3D video left viewと3D video right viewを含むコンポジットコンポーネント(Composite Component)に対してコンポーネントフラグメントのxmlスキーマを示す図である。
本発明の一実施例によれば、同図の上端に位置するコンポーネントフラグメント(L66010)は、id値として“bcast://lge.com/Component/1”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous及びCompositeコンポーネントであることを示すことができる。
同図の左側に位置するコンポーネントフラグメント(L66020)は、id値として“bcast://lge.com/Component/2”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentReferenceエレメントを用いて“bcast://lge.com/Component/1”を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous、Pickone及び3D video left viewコンポーネントであることを示すことができる。
同図の右側に位置するコンポーネントフラグメント(L66030)は、id値として“bcast://lge.com/Component/3”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentReferenceエレメントを用いて“bcast://lge.com/Component/1”を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous、Pickone及び3D video right viewコンポーネントであることを示すことができる。
図67は、本発明の他の一実施例によって、コンプリートオーディオコンポーネント(Complete Audio Component)を記述するコンポーネントフラグメントのxmlスキーマを示す図である。
本発明の一実施例によれば、同図の最上端に位置するコンポーネントフラグメント(L67010)は、id値として“bcast://lge.com/Component/1”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous及びPickoneコンポーネントであることを示すことができる。
同図の2番目の列の左側に位置するコンポーネントフラグメント(L67020)は、id値として“bcast://lge.com/Component/2”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentReferenceエレメントを用いて“bcast://lge.com/Component/1”を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous、Pickone及びAudio Compoletely Mainコンポーネントであることを示すことができる。
同図の2番目の列の右側に位置するコンポーネントフラグメント(L67030)は、id値として“bcast://lge.com/Component/3”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentReferenceエレメントを用いて“bcast://lge.com/Component/1”を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous及びCompositeコンポーネントであることを示すことができる。
同図の3番目の列の左側に位置するコンポーネントフラグメント(L67040)は、id値として“bcast://lge.com/Component/4”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentReferenceエレメントを用いて“bcast://lge.com/Component/3”を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous、Pickone及びAudio Musicコンポーネントであることを示すことができる。
同図の3番目の列の右側に位置するコンポーネントフラグメント(L67050)は、id値として“bcast://lge.com/Component/5”を有し、ServiceReferenceエレメントを用いてService1を参照し、ContentReferenceエレメントを用いてContent1を参照し、ComponentReferenceエレメントを用いて“bcast://lge.com/Component/3”を参照し、ComponentTypeエレメントを用いて当該コンポーネントがContinuous、Pickone及びAudio Dialogコンポーネントであることを示すことができる。
図68は、本発明の一実施例に係るコンテンツ(Content)フラグメントの構成を示す図である。
本発明の一実施例は、コンテンツフラグメントの下位エレメントとしてコンポーネント(Component)を定義し、デバイス及びユーザにアナウンスメント(announcement)する方法を提供することができる。
本発明の一実施例によれば、コンポーネントフラグメントを別途に構成することによって、不可避であった構成要素及び/又はアトリビュートの重畳または繰り返し使用を低減することができる。また、ユーザにアナウンスメント情報を直観的に提供することができる。
本発明の一実施例に係るコンテンツフラグメントは、idアトリビュート、versionアトリビュート、validFromアトリビュート、validToアトリビュート、globalContentIDアトリビュート、emergencyアトリビュート、baseCIDアトリビュート、ServiceReferenceエレメント、ProtectionKeyIDエレメント、Nameエレメント、Descriptionエレメント、StartTimeエレメント、EndTimeエレメント、AudioLanguageエレメント、TextLanguageエレメント、Lengthエレメント、ParentalRatingエレメント、TargetUserProfileエレメント、Genreエレメント、Extensionエレメント、PreviewDataReferenceエレメント、BroadcastAreaエレメント、TermsOfUseエレメント及び/又はPrivateExtエレメントを含むことができる。
idアトリビュートは、コンテンツフラグメントのIDを示すことができる。
versionアトリビュートは、当該コンテンツフラグメントのバージョン情報を示すことができる。
validFromアトリビュートは、当該コンテンツフラグメントが有効な最初の時間情報を示すことができる。
validToアトリビュートは、当該コンテンツフラグメントが有効な最後の時間情報を示すことができる。
globalContentIDアトリビュートは、当該コンテンツフラグメントが記述するコンテンツを識別する識別子を示すことができる。
emergencyアトリビュートは、当該コンテンツフラグメントが記述するコンテンツが緊急コンテンツ(emergency content)であるか否かを示すことができる。
baseCIDアトリビュートは、サービス又はプログラムのCIDに関する情報を示すことができる。
ServiceReferenceエレメントは、当該コンテンツフラグメントが参照するサービスを示すことができる。
ProtectionKeyIDエレメントは、保護されたコンテンツにアクセスするために必要なKey識別子を示すことができる。
Nameエレメントは、当該コンテンツフラグメントの名前を示すことができる。
Descriptionエレメントは、当該コンテンツフラグメントに関する説明を示すことができる。
StartTimeエレメントは、当該コンテンツのプレゼンテーションのための開始時間情報を示すことができる。
EndTimeエレメントは、当該コンテンツのプレゼンテーションのための終了時間情報を示すことができる。
AudioLanguageエレメントは、当該コンテンツがオーディオストリームと共に利用可能であり、このときに使用されるオーディオの言語情報を示すことができる。
TextLanguageエレメントは、当該コンテンツがテキストコンポーネントと共に利用可能であり、このときに使用されるテキストの言語情報を示すことができる。
Lengthエレメントは、当該A/Vコンテンツの持続時間を示すことができる。
ParentalRatingエレメントは、当該コンテンツが子供に適しているかに関する基準情報を示すことができる。
TargetUserProfileエレメントは、対象とするユーザに関する情報を示すことができる。
Genreエレメントは、当該コンテンツのジャンル情報を示すことができる。
Extensionエレメントは、当該コンテンツフラグメントと関連のある付加情報を示すことができる。
PreviewDataReferenceエレメントは、当該コンポーネントフラグメントが参照するPreviewDataフラグメントを示すことができる。
BroadcastAreaエレメントは、ブロードキャストコンテンツのための位置情報を含むブロードキャスト地域情報を示すことができる。
TermsOfUseエレメントは、当該フラグメントと関連のあるTerms of Useを示すことができる。
PrivateExtエレメントは、私有的なまたはアプリケーションに限定された拡張のためのコンテナーを示すことができる。(An element serving as a container for proprietary or applicationspecific extensions.)このエレメントは、ProprietaryElementsエレメントをサブエレメントとして有することができ、ProprietaryElementsエレメントは、私有的なまたはアプリケーションに限定されたエレメントを示すことができる。ProprietaryElementsエレメントは、1つ以上のサブエレメントまたはアトリビュートを含むことができる。
本発明の一実施例に係るコンテンツフラグメントのPrivateExtエレメントは、E1レベルのエレメントであるので、Componentエレメントは、PrivateExtエレメントのサブエレメントであってE2レベルに該当し得る。このとき、Componentエレメントは、上述したProprietaryElementsエレメントに該当し得る。
図69、図70、図71、図72は、本発明の一実施例に係るComponentエレメントの構成を示す図である。
計4個の図面にわたって示されたテーブルは、連結された一つのテーブルに該当する。
本発明の一実施例に係るComponentエレメントは、E2レベルに該当し得、コンポーネントに関する詳細な内容を記述できるので、コンポーネントの数だけ存在してもよく、存在しなくてもよい。したがって、0〜Nのcardinalityを有することができる。
本発明の一実施例に係るComponentエレメントは、サブエレメントとして、ComponentTypeエレメント、ComponentRoleエレメント、StartTimeエレメント、EndTimeエレメント、Languageエレメント、Lengthエレメント、ParentalRatingエレメント、DeviceCapabilityエレメント及び/又はTargetDeviceエレメントを含むことができる。
ComponentTypeエレメントは、コンポーネントのタイプを記述するエレメントであってもよい。このエレメントは、コンポーネントエレメントの下位に存在するので、E3レベルに該当し得る。このエレメントは、コンポーネントエレメントのタイプを示す必須要素であるので、cardinalityは1を有することができる。このエレメントの値が0であればunspecified、1であればPresentable Video component、2であればPresentable Audio component、3であればPresentable CC component、4であればAppbased Enhancement、5〜255であればReserved for future useであることを示すことができる。
ComponentRoleエレメントは、コンポーネントのロール(role)を記述するエレメントであってもよい。このエレメントは、コンポーネントエレメントの下位に存在するので、E3レベルに該当し得る。このエレメントは、コンポーネントエレメントのタイプを示す必須要素であるので、cardinalityは1を有することができる。各コンポーネントは、前述したComponentTypeエレメントのタイプに応じてロールを有することができ、ComponentRoleエレメントの値に応じて該当するロールを有することができる。このエレメントの値が0であればunspecifiedを、1であればPrimary (default) videoを、2であればAlternative camera viewを、3であればOther alternative video componentを、4であればSign language (例えば、ASL) insetを、5であればFollow subject videoを、6であればComplete mainを、7であればMusicを、8であればDialogを、9であればEffectsを、10であればVisually impairedを、11であればHearing impairedを、12であればCommentaryを、13であればNormalを、14であればEasy readerを、15であればApp、16であればNRT Content Item、17であればOn Demand component、18であればNotification Stream、19であればStartOver、20であればCompanion Screen、21〜255であればReserved for future useであることを示すことができる。
StartTimeエレメントは、当該コンポーネントのディスプレイが開始する時間を示すことができる。
EndTimeエレメントは、当該コンポーネントのディスプレイが終了する時間を示すことができる。
Languageエレメントは、当該コンポーネントの表現言語を示すことができる。このエレメントは、アトリビュートとしてlanguageSDPTagアトリビュートを有することができる。languageSDPTagアトリビュートは、セッションディスクリプションで示す言語を一致させるためにタグ付けされる値を示すことができる。
Lengthエレメントは、当該コンポーネントのディスプレイが行われる持続時間を示すことができる。
ParentalRatingエレメントは、当該コンポーネントの等級表示情報を示すことができる。
DeviceCapabilityエレメントは、当該コンポーネントをレンダリングするデバイスの性能情報を示すことができる。本発明の一実施例は、このエレメントを用いて、コンポーネントをレンダリングするためのデバイスのcapability情報を提供することができる。このエレメントの値2〜8はデバイスのVideo Rendering Capability情報を示し、9〜15はデバイスのAudio Surround Sound Capability情報を示し、16はAudio Mixing/Rendering Capability情報を示し、17〜21はInput Capability情報を示すことができる。このエレメントの値が0であればUnspecified、1であればBroadband connection、2であればSD、3であればHD、4であればUHD、5であれば8K、6であれば3D video、7であればHigh Dynamic Range Imaging、8であればWide Color Gamut、9であれば2.0 channels、10であれば2.1 channels、11であれば5.1 channels、12であれば6.1 channels、13であれば7.1 channels、14であれば22.1 channels、15であれば3D audio、16であればDialog Level adjustment、17であればmagic remote control input、18であればtouch screen input、19であればmouse input、20であればkeyboard input、21であればapp rendering、22〜255であればReserved for future useであることを示すことができる。ここで、上述したBroadband connectionは、当該componentを配信するためにbroadband connectionが必要であるか否かを示すことができ、Video Rendering Capability情報は、Resolution、2D、3D及び/又はその他のrendering関連情報を示すことができる。Audio Surround Sound Capability情報はオーディオチャネル(audio channel)情報を示すことができ、Audio Mixing/Rendering Capability情報のDialog level adjustmentは、オーディオダイアログレベル(audio Dialog level)を調節できるか否かを示すことができる。Input Capability情報は、特定の入力デバイス(Input device)に合わせて作製された放送プログラムであることを示すことができる。app renderingは、app renderingが必要であるか否かを示すことができる。
TargetDeviceエレメントは、コンポーネントがディスプレイされるターゲットデバイスの情報を示すことができる。このエレメントの値が0であればUnspecified、1であればPrimary、2であればCompanion、3であればInset on Primary Screen(“PictureinPicture”)、4であればReserved for future useであることを示すことができる。
図73は、本発明の一実施例に係るComponentエレメントのxmlスキーマを示す図である。
本発明の一実施例に係るComponentエレメントは、サブエレメントとして、ComponentTypeエレメント、ComponentRoleエレメント、StartTimeエレメント、EndTimeエレメント、Languageエレメント、Lengthエレメント、ParentalRatingエレメント、DeviceCapabilityエレメント及び/又はTargetDeviceエレメントを含むことができる。上述した各エレメントについての詳細は前述した。
図74は、本発明の一実施例に係るLanguageエレメント及びComponentTypeエレメントのxmlスキーマを示す図である。
本発明の一実施例に係るLanguageエレメントは、当該コンポーネントの表現言語を示すことができる。このエレメントは、アトリビュートとして、languageSDPTagアトリビュートを有することができる。languageSDPTagアトリビュートは、セッションディスクリプションで示す言語を一致させるためにタグ付けされる値を示すことができる(L74010)。
本発明の一実施例に係るComponentTypeエレメントは、コンポーネントのタイプを記述するエレメントであってもよい。このエレメントは、コンポーネントエレメントの下位に存在するので、E3レベルに該当し得る。このエレメントは、コンポーネントエレメントのタイプを示す必須要素であるので、cardinalityは1を有することができる。このエレメントの値が0であればunspecified、1であればPresentable Video component、2であればPresentable Audio component、3であればPresentable CC component、4であればAppbased Enhancement、5〜255であればReserved for future useであることを示すことができる(L74020)。
図75は、本発明の一実施例に係るComponentRoleエレメントのxmlスキーマを示す図である。
ComponentRoleエレメントは、コンポーネントのロール(role)を記述するエレメントであってもよい。このエレメントは、コンポーネントエレメントの下位に存在するので、E3レベルに該当し得る。このエレメントは、コンポーネントエレメントのタイプを示す必須要素であるので、cardinalityは1を有することができる。各コンポーネントは、前述したComponentTypeエレメントのタイプに応じてロールを有することができ、ComponentRoleエレメントの値に応じて該当するロールを有することができる。このエレメントの値が0であればunspecifiedを、1であればPrimary (default) videoを、2であればAlternative camera viewを、3であればOther alternative video componentを、4であればSign language (例えば、ASL) insetを、5であればFollow subject videoを、6であればComplete mainを、7であればMusicを、8であればDialogを、9であればEffectsを、10であればVisually impairedを、11であればHearing impairedを、12であればCommentaryを、13であればNormalを、14であればEasy readerを、15であればApp、16であればNRT Content Item、17であればOn Demand component、18であればNotification Stream、19であればStartOver、20であればCompanion Screen、21〜255であればReserved for future useであることを示すことができる。
図76は、本発明の一実施例に係るDeviceCapabilityエレメント及びTargetDeviceエレメントのxmlスキーマを示す図である。
DeviceCapabilityエレメントは、当該コンポーネントをレンダリングするデバイスの性能情報を示すことができる。本発明の一実施例は、このエレメントを用いて、コンポーネントをレンダリングするためのデバイスのcapability情報を提供することができる。このエレメントの値2〜8はデバイスのVideo Rendering Capability情報を示し、9〜15はデバイスのAudio Surround Sound Capability情報を示し、16はAudio Mixing/Rendering Capability情報を示し、17〜21はInput Capability情報を示すことができる。このエレメントの値が0であればUnspecified、1であればBroadband connection、2であればSD、3であればHD、4であればUHD、5であれば8K、6であれば3D video、7であればHigh Dynamic Range Imaging、8であればWide Color Gamut、9であれば2.0 channels、10であれば2.1 channels、11であれば5.1 channels、12であれば6.1 channels、13であれば7.1 channels、14であれば22.1 channels、15であれば3D audio、16であればDialog Level adjustment、17であればmagic remote control input、18であればtouch screen input、19であればmouse input、20であればkeyboard input、21であればapp rendering、22〜255であればReserved for future useであることを示すことができる。ここで、上述したBroadband connectionは、当該componentを配信するためにbroadband connectionが必要であるか否かを示すことができ、Video Rendering Capability情報は、Resolution、2D、3D及び/又はその他のrendering関連情報を示すことができる。Audio Surround Sound Capability情報は、オーディオチャネル(audio channel)情報を示すことができ、Audio Mixing/Rendering Capability情報のDialog level adjustmentは、オーディオダイアログレベル(audio Dialog level)を調節できるか否かを示すことができる。Input Capability情報は、特定の入力デバイス(Input device)に合わせて作製された放送プログラムであることを示すことができる。app renderingは、app renderingが必要であるか否かを示すことができる(L76010)。
TargetDeviceエレメントは、コンポーネントがディスプレイされるターゲットデバイスの情報を示すことができる。このエレメントの値が0であればUnspecified、1であればPrimary、2であればCompanion、3であればInset on Primary Screen(“PictureinPicture”)、4であればReserved for future useであることを示すことができる(L76020)。
図77は、Presentable Video Component(2D/HD)及びPresentable Audio Component(5.1 channels)を伝送する場合、Componentエレメントのxmlスキーマ構造の一実施例を示す図である。
本発明の一実施例によれば、Presentable Video Component(2D/HD)及びPresentable Audio Component(5.1 channels)を伝送する場合、アナウンスメントは、コンテンツフラグメント(Content fragment)内のPrivateExtエレメントのサブエレメント(subelement)として、2つのComponentエレメントを用いることができる(L77010)。
Presentable Video Component(2D/HD)のためのコンポーネントエレメントは、ComponentTypeエレメントの値として1(Video)を有し、ComponentRoleエレメントの値として1(Primary Video)を有し、DeviceCapabilityエレメントの値として3(HD)を有し、TargetDeviceエレメントの値として1(Primary Device)を有することができる(L77010)。
Presentable Audio Component(5.1 channels)のためのコンポーネントエレメントは、ComponentTypeエレメントの値として2(Audio)を有し、ComponentRoleエレメントの値として6(Completely Main)を有し、Languageエレメントの値としてKOR(韓国語)を有し、DeviceCapabilityエレメントの値として11(5.1 channels)を有し、TargetDeviceエレメントの値として1(Primary Device)を有することができる(L77010)。
本発明の一実施例に係る受信機(デバイス)は、DeviceCapabilityエレメントの値を取得した後、当該機能をサポートできるか否かを判断し、ユーザにCapability情報を提供することができる。
同図において、右側上端の図は、HD及び5.1 channelsをサポートするデバイスの表示画面を示すことができる。この場合、本発明の一実施例は、当該デバイスがHD及び5.1 channelsをサポートできることを画面上に示すことができる(L77020)。
同図において、右側下端の図は、HDをサポートするが、5.1 channelsをサポートしないデバイスの表示画面を示すことができる。この場合、本発明の一実施例によれば、5.1 channelsをサポートできない受信機でCapability情報を取得したとき、サポートできない5.1 channels audio情報をグレイアウト(Grayout)処理して画面に示すことができる(L77030)。
図78は、Presentable Video component(UHD)及びPresentable ENG audio componentをブロードキャストで伝送し、Presentable SPA audio componentをブロードバンドで伝送する場合、Componentエレメントのxmlスキーマ構造の一実施例を示す図である。
本発明の一実施例によれば、Presentable Video component(UHD)及びPresentable ENG audio componentをブロードキャストで伝送し、Presentable SPA audio componentをブロードバンドで伝送する場合、アナウンスメントは、コンテンツフラグメント(Content fragment)内のPrivateExtエレメントのサブエレメント(subelement)として、3つのComponentエレメントを用いることができる(L78010)。
Presentable Video component(UHD)のためのコンポーネントエレメントは、ComponentTypeエレメントの値として1(Video)を有し、ComponentRoleエレメントの値として1(Primary Video)を有し、DeviceCapabilityエレメントの値として4(UHD)を有し、TargetDeviceエレメントの値として1(Primary Device)を有することができる(L78010)。
Presentable ENG audio component(through Broadcast)のためのコンポーネントエレメントは、ComponentTypeエレメントの値として2(Audio)を有し、ComponentRoleエレメントの値として6(Completely Main)を有し、Languageエレメントの値としてENG(英語)を有し、TargetDeviceエレメントの値として1(Primary Device)を有することができる(L78010)。
Presentable SPA audio component(through Broadband)のためのコンポーネントエレメントは、ComponentTypeエレメントの値として2(Audio)を有し、ComponentRoleエレメントの値として6(Completely Main)を有し、Languageエレメントの値としてSPA(スペイン語)を有し、DeviceCapabilityエレメントの値として1(ブロードバンドでコンポーネントが伝送される)を有し、TargetDeviceエレメントの値として1(Primary Device)を有することができる(L78010)。
本発明の一実施例に係る受信機(デバイス)は、DeviceCapabilityエレメントの値を取得した後、当該機能をサポートできるか否かを判断し、ユーザにCapability情報を提供することができる。
同図において、右側の図は、Brodaband connectionをサポートできない場合、または、サポートできるが、接続されていない場合に受信機(デバイス)に表示される画面を示すことができる(L78020)。
本発明の一実施例に係る受信機は、DeviceCapabilityの値が1である場合、ブロードバンドで当該コンポーネントが伝送されることを知ることができる。この場合、Brodaband connectionをサポートできないデバイス、またはサポートできるが、接続されていないデバイスは、ブロードバンドで伝送されるコンポーネントの情報をグレイアウト(Grayout)処理して画面に示すことができる。この場合、SPAオーディオ情報をグレイアウト処理して画面に示すことができる(L78020)。
図79は、Presentable Video Component(UHD/Wide Color Gamut)及びPresentable Audio Component(5.1 channels)を伝送する場合、Componentエレメントのxmlスキーマ構造の一実施例を示す図である。
本発明の一実施例によれば、Presentable Video Component(UHD/Wide Color Gamut)及びPresentable Audio Component(5.1 channels)を伝送する場合、アナウンスメントは、コンテンツフラグメント(Content fragment)内のPrivateExtエレメントのサブエレメント(subelement)として、2つのComponentエレメントを用いることができる(L79010)。
Presentable Video Component(UHD/Wide Color Gamut)のためのコンポーネントエレメントは、ComponentTypeエレメントの値として1(Video)を有し、ComponentRoleエレメントの値として1(Primary Video)を有し、DeviceCapabilityエレメントの値として4(UHD)及び8(WCG)を有し、TargetDeviceエレメントの値として1(Primary Device)を有することができる(L79010)。
Presentable Audio Component(5.1 channels)のためのコンポーネントエレメントは、ComponentTypeエレメントの値として2(Audio)を有し、ComponentRoleエレメントの値として6(Completely Main)を有し、Languageエレメントの値としてKOR(韓国語)を有し、DeviceCapabilityエレメントの値として11(5.1channels)を有し、TargetDeviceエレメントの値として1(Primary Device)を有することができる(L79010)。
本発明の一実施例に係る受信機(デバイス)は、DeviceCapabilityエレメントの値を取得した後、当該機能をサポートできるか否かを判断し、ユーザにCapability情報を提供することができる。
同図において、右側上端の図は、UHD、WCG(Wide Color Gamut)及び5.1 channelsをサポートするデバイスの表示画面を示すことができる。この場合、本発明の一実施例は、当該デバイスがUHD、WCG及び5.1 channelsをサポートできることを画面上に示すことができる(L79020)。
同図において、右側下端の図は、UHD及び5.1 channelsをサポートするが、WCGをサポートしないデバイスの表示画面を示すことができる。この場合、本発明の一実施例によれば、WCGをサポートできない受信機でCapability情報を取得したとき、サポートできないWCG情報をグレイアウト処理して画面に示すことができる(L79030)。
図80は、本発明の他の実施例に係る、コンポーネントエレメント(component element)を示す図である。
コンポーネントエレメントは、コンポーネントサブエレメント(Component subelement)のルートエレメント(root element)である。コンポーネントエレメントはE2レベルで開始する。コンポーネントエレメントはコンポーネントに対する詳細な内容を記述するので、コンポーネントの数だけのエレメント(element)が記述され得る。一部のコンポーネントに対して、コンポーネントエレメントが省略されることも可能である。したがって、コンポーネントエレメントは、0..Nのcardinalityを有する。コンポーネントエレメントは、ComponentType属性、ComponentRoleエレメント、Languageエレメント及び/又はEssentialCapabilitiesエレメントを含むことができる。
ComponentTypeフィールドは、コンポーネントの種類(type)を示す属性(attribute)情報を含む。すなわち、ComponentTypeフィールドは、コンポーネントのタイプを示すattributeである。ComponentTypeフィールドは、コンポーネントの種類を示す必須要素であるので、Cardinalityは1と定義され得る。ComponentTypeフィールドは、値に応じて、コンポーネントがPresentable Video、Presentable Audio、Presentable CC(closed caption)及び/又はPresentable Appに該当することを識別することができる。
図示されたメッセージには1つ以上のフィールドが含まれてもよく、それぞれのフィールドは、それぞれの意味又は情報を含むことができる。それぞれのフィールドにはtype情報が割り当てられてもよく、type情報は、‘E’、‘A’、‘E1’、‘E2’、または‘E[n]’の値を有することができる。‘E’は、当該フィールドがエレメントに該当することを示す。‘A’は、当該フィールドが属性(attribute)情報に該当することを示す。‘E1’は、当該フィールドがサブエレメントであることを示す。サブエレメントは、エレメント内で定義される下位エレメントに該当する。‘E2’は、サブエレメントのサブエレメントを示す。すなわち、‘E[n]’は、エレメントの[n1]番目の下位エレメントを示すことができる。
図81は、本発明の一実施例に係る、ComponentRolエレメントを示す図である。
ComponentRoleエレメントは、コンポーネントの役割(role)を記述するエレメントである。ComponentRoleエレメントは、コンポーネントの下位エレメントとして定義されることが好ましいので、ComponentRoleエレメントはE3のレベルで開始し得る。ComponentRoleエレメントはString値を有することができる。ComponentRoleエレメントの値は、アナウンスメントデータ(Announcement Data)の作製時に、放送局で任意の有効なString値として指定されてもよい。ComponentRoleエレメントの値は拡張可能なString値であるので、いかなる値のCapability Stringでも記述が可能である。ターゲット装置(Target Device;例えば、受信機)では、ComponentRoleエレメントの値を用いて、エンドユーザ(End User;例えば、視聴者)に有用な情報を表示することができる。
ComponentRoleエレメントは、コンポーネントに対して、視聴者が認識できる文字の形態の説明を提供する情報を含む。
ComponentRoleエレメントが示し得るコンポーネントの種類は、presentable video componentに対しては、“Primary video”、“Alternative camera view”、“Other alternative video component”、“Sign language inset”及び/又は“Follow subject video”を含むことができる。
ComponentRoleエレメントが示し得るコンポーネントの種類は、presentable audio componentに対しては、“Complete main”、“Music”、“Dialog”、“Effects”、“Visually impaired”、“Hearing impaired”及び/又は“Commentary”を含むことができる。
ComponentRoleエレメントが示し得るコンポーネントの種類は、presentable CC componentに対しては、“Normal”及び/又は“Easy reader”を含むことができる。
ComponentRoleエレメントが示し得るコンポーネントの種類は、presentable App(application) componentに対しては、“On Demand”、“Startover”、及び/又は“CompanionScreen”を含むことができる。
図82は、本発明の他の実施例に係る、コンポーネントエレメントをXML形態で示す図である。
本発明の一実施例に係るコンポーネントエレメントは、コンポーネントが多数の種類のメディアで構成される場合、それぞれのコンポーネントの種類をシグナリングできるので、受信側では、視聴者又は受信機の所望の種類のコンポーネントを事前に識別できるという効果がある。また、コンポーネントの役割を文字の形態で提供できるので、当該情報を消費する視聴者が所望のコンポーネントを容易に認識または選択することができるという効果がある。
本発明の一実施例に係るコンポーネントエレメントは、OMA BCASTで予め定義されたサービスガイドコンテンツフラグメント(Service Guide Content Fragement)に拡張形態で含まれてもよい。
図83は、本発明の他の実施例に係る、コンポーネントエレメントを示す図である。
コンポーネントエレメントは、コンポーネントサブエレメント(Component subelement)のルートエレメント(root element)である。コンポーネントエレメントはE2レベルで開始する。コンポーネントエレメントはコンポーネントに対する詳細な内容を記述するので、コンポーネントの数だけのエレメント(element)が記述され得る。一部のコンポーネントに対して、コンポーネントエレメントが省略されることも可能である。したがって、コンポーネントエレメントは、0..Nのcardinalityを有する。コンポーネントエレメントは、PresentableVideoComponentエレメント、PresentableAudioComponentエレメント、PresentableCCComponentエレメント及び/又はPresentableAppComponentエレメントを含むことができる。
PresentableVideoComponentエレメントは、Presentable Video Componentを記述するエレメントである。PresentableVideoComponentエレメントは、コンポーネントエレメントの下位エレメントであって、E3レベル(level)で開始し得る。PresentableVideoComponentエレメントはstring値を有し、ビデオコンポーネント(video component)の役割(role)を記述することができる。PresentableVideoComponentエレメントは、コンポーネントに対して、視聴者が認識できる文字の形態の説明を提供する情報を含む。PresentableVideoComponentエレメントが示し得るコンポーネントの役割は、“Primary video”、“Alternative camera view”、“Other alternative video component”、“Sign language inset”及び/又は“Follow subject video”を含むことができる。
PresentableAudioComponentエレメントは、Presentable Audio Componentを記述するエレメントである。PresentableAudioComponentエレメントは、コンポーネントエレメントの下位エレメントであって、E3レベルで開始し得る。PresentableAudioComponentエレメントはstring値を有し、オーディオコンポーネント(audio component)の役割(role)を記述する。PresentableAudioComponentエレメントは、コンポーネントに対して、視聴者が認識できる文字の形態の説明を提供する情報を含む。PresentableAudioComponentエレメントが示し得るコンポーネントの役割は、“Complete main”、“Music”、“Dialog”、“Effects”、“Visually impaired”、“Hearing impaired”及び/又は“Commentary”を含むことができる。
図84は、本発明の他の実施例に係る、PresentableCCComponentエレメント及びPresentableAppComponentエレメントを示す図である。
同図で説明されるエレメントは、図83で説明されたコンポーネントエレメントに含まれてもよい。
PresentableCCComponentエレメントは、Presentable CC Componentを記述するエレメントである。PresentableCCComponentエレメントは、コンポーネントエレメントの下位エレメントであって、E3レベルで開始し得る。PresentableCCComponentエレメントはstring値を有し、CCコンポーネント(CC component)の役割(role)を記述することができる。PresentableCCComponentエレメントは、コンポーネントに対して、視聴者が認識できる文字の形態の説明を提供する情報を含む。PresentableCCComponentエレメントが示し得るコンポーネントの役割は、“Normal”及び/又は“Easy reader”を含むことができる。
PresentableAppComponentエレメントは、Presentable App Componentを記述するエレメントである。PresentableAppComponentエレメントは、コンポーネントエレメントの下位エレメントであって、E3レベルで開始し得る。PresentableAppComponentエレメントはstring値を有し、appコンポーネント(app component)の役割(role)を記述する。PresentableAppComponentエレメントは、コンポーネントに対して、視聴者が認識できる文字の形態の説明を提供する情報を含む。PresentableAppComponentエレメントが示し得るコンポーネントの役割は、“On Demand”、“Startover”、及び/又は“CompanionScreen”を含むことができる。
本実施例によってコンポーネントエレメントを構成する場合、コンポーネントフラグメント(Component fragment)を新たに構成するために必要な構成要素及び/又は属性値の繰り返し使用を低減することができ、エンドユーザ(End User)にAnnouncement情報を効率的且つ直観的に提供することができる。
図85は、本発明の他の実施例に係る、コンポーネントエレメントをXML形態で示す図である。
本発明の他の実施例に係るコンポーネントエレメントは、コンポーネントが多数の種類のメディアで構成される場合、それぞれのコンポーネントの種類をシグナリングできるので、受信側では、視聴者又は受信機の所望の種類のコンポーネントを事前に識別できるという効果がある。また、コンポーネントの役割を文字の形態で提供できるので、当該情報を消費する視聴者が所望のコンポーネントを容易に認識または選択することができるという効果がある。また、本発明の他の実施例によれば、コンポーネントのタイプ別にコンポーネントエレメント(Component element)を構成し、各コンポーネントのロールをストリング(String)で記述することによって、拡張可能性を確保できるという効果がある。
本発明の一実施例に係るコンポーネントエレメントは、OMA BCASTで予め定義されたサービスガイドコンテンツフラグメント(Service Guide Content Fragement)に拡張形態で含まれてもよい。
図86は、本発明の一実施例に係る、Essential Capabilitiesエレメントを示す図である。
本発明の一実施例によれば、コンポーネントエレメントはCapability項目を含むことができる。Capability項目は、受信機が当該コンポーネントを適切にデコーディングするために要求される受信機の性能を知らせる情報に該当し得る。Capability項目は、ケイパビリティコード(Capability code)とストリング(String)の組み合わせで構成されてもよい。本発明の一実施例は、ケイパビリティコードとケイパビリティカテゴリ(Capability category)に新しい値を追加で定義することを提案する。
図面を参照すると、Capability項目は、コンポーネントエレメントの下位エレメントとして定義することができる。Capability項目は、EssentialCapabilitiesエレメント、CapabilityCodesエレメント、CapabilityStringエレメント及び/又はCategory属性情報を含むことができる。
EssentialCapabilitiesエレメントは、サービス(メディア、放送サービス)の意味のあるプレゼンテーションのために要求されるcapabilityを記述する。EssentialCapabilitiesエレメントは、CapabilityCodesエレメント、及び/又はCapabilityStringエレメントを含むことができる。EssentialCapabilitiesエレメントは、コンポーネントエレメントの下位エレメントとして定義できるので、E3レベルで開始し得る。
CapabilityCodesエレメントは、capabilityの種類を識別するcodeに対する値を有する。CapabilityCodesエレメントは、1つ以上のcapabilityを示すことができる。
CapabilityStringエレメントは、capabilityを説明するstringを含むことができる。CapabilityStringエレメントは、capabilityに対する説明を文字で表現するための情報を含むことができる。CapabilityStringエレメントはCategory属性情報を含むことができる。
Category属性情報は、CapabilityStringエレメントによって説明されるcapabilityのカテゴリ(category)を示す情報である。
図87は、本発明の一実施例に係る、CapabilityCodeエレメントの値によるcapabilityの意味を示す図である。
CapabilityCodeエレメントの値による意味は、説明する代わりに図面を参照する。
本発明の一実施例によれば、Download Protocolsの項目に新しい値を定義し、当該値が示すcapabilityが‘IP via Broadband’に該当するように設定できる。すなわち、次世代放送システムでは、ブロードバンドのIPを介したデータの受信が可能であるので、IP via Broadbandに該当するDownload protocolにcapabilityの1つの種類として追加することができる。
本発明の一実施例によれば、CapabilityCodeエレメントがRendering Capabilityを識別することもできる。CapabilityCodeエレメントの値に応じて、コンポーネントを使用するために受信機が必要とするRendering Capabilityがシグナリングされ得る。CapabilityCodeエレメントが示すRendering Capabilityは、受信機がいかなる種類のビデオ、オーディオ、アプリケーション、及び/又はCCをレンダリングできるかを示すことができる。
図88は、本発明の一実施例に係る、Category属性情報の値によるCapability Categoryを示す図である。
本発明によれば、capabilityがRendering Capabilityのカテゴリに含まれることを識別できるように、Category属性情報の値を追加で定義することができる。例えば、Category属性情報の値が0x06を有する場合、capabilityがRendering Capabilityのカテゴリに含まれることを示すことができる。
図89は、本発明の一実施例に係る、コンポーネント別にPay Per View(PPV)が提供される過程を示す図である。
本発明の一実施例によれば、Component別に、Payperviewサービスを提供することができる。すなわち、本発明によれば、1つのサービスまたはコンテンツ内で、特定のコンポーネントを有料でサービスすることができる。例えば、本発明によれば、AnnouncementでComponentを定義し、Componentに応じてPayperviewサービスを提供することができる。
そのために、コンポーネントエレメント(Component element)に対する属性及び/又は要素情報をContent内に記述して送信することができる。各Componentは、Payに対する情報を有することができる。放送プログラム(メディア、放送サービス、または放送コンテンツ)は無料であってもよいが、放送プログラムの各コンポーネントの付加的な情報の量と質によって放送局は、コンポーネントに対して料金を課することができる。例えば、放送局は、HDは無料であるが、高画質のためのUHDを視聴するためのデータを伝送するビデオコンポーネント(Video component)を消費するためには、視聴者が料金を払うように設定してもよい。または、放送局は、オーディオ(Audio)のステレオ(Stereo)音響のためのオーディオコンポーネント(Audio component)に対して料金を課することができるように設定してもよい。または、放送局は、選挙プログラムを視聴中、voting appを使用するために必要なコンポーネントに対しては、料金を払わなければ当該コンポーネントを視聴者が消費できないように設定してもよい。これは、本発明で提示するように、Component別にESGを伝送することによって可能なPayperview方式である。
各コンポーネント別に、PPVが設定可能なようにするために、コンポーネントエレメントは、各コンポーネントに対してPPV関連情報を含むことができる。または、ComponentRoleエレメントは、各コンポーネントロール(component role)に対してPPV関連情報を含むことができる。PPV関連情報は、コンポーネントまたはコンポーネントロールに対してPPVが適用されるか否かを識別する情報、PPVのための決済方式に関する情報、PPVのための価格情報、PPVに対する決済が行われた後、認証と関連する情報、及び/又はPPVが決済された後、当該コンポーネントを有効に使用できる期間情報を含むことができる。
図面を参照して、本発明が適用され得る一実施例を説明すると、ESG(Electronic Service Guide)を通じて、放送プログラムにPPVで視聴可能な要素があることを知ることができる。受信機は、PPVで提供されるコンポーネントの項目をESGを介してディスプレイすることができる。視聴者がPPVで視聴可能な要素がある放送プログラムを選択すると、受信機は、PPVで視聴可能な要素が当該プログラムに存在することを知らせ、視聴者に、当該要素をPPVで視聴するか否かを問うUI(User Interface)をディスプレイし、視聴者の選択を受信することができる。本実施例では、放送プログラムが基本的に提供する映像以外に追加の映像が存在する場合を示した。視聴者がAlternative Viewに該当するビデオコンポーネント(Video component)を見るために当該金額を決済すると、Alternative View画面を見ることができる。この過程で、前述した制御ユニットは、PPV関連情報を用いて、特定のコンポーネントに対してPPVが適用されるかを識別する表示を含む放送番組表を生成することができる。前述したディスプレイユニットは、生成された放送番組表をディスプレイすることができる。
Alternative View画面を後で見ることを選択することができる。この場合、受信機は、現在の映像が終了したり、視聴者の所望の特定の時点でAlternative View画面をディスプレイすることができる。または、メインデバイスが提供する基本映像と共に、Alternative View画面をリアルタイムでコンパニオンデバイス(Companion Device)を用いて視聴することも可能である。
図90は、本発明の一実施例に係る、放送プログラムの各コンポーネント別にメディアが提供される順序を示す図である。
受信機は、放送信号を介してESG(Electronic Service Guide)データを受信する(JS90010)。ESGデータは、前述したエレメント、サービスフラグメント、コンテンツフラグメント、スケジュールフラグメント及び/又はコンポーネントフラグメントを含むことができる。
受信機は、サービスフラグメントをパーシングして、チャネルリストに表示される放送局リストを生成する(JS90020)。
受信機は、コンテンツフラグメントをパーシングして、各放送局別に提供されるプログラムのリストを生成する(JS90030)。
受信機は、スケジュールフラグメントをパーシングして、各放送局別に提供されるプログラムのスケジュールを生成する(JS90040)。
受信機は、視聴者/ユーザから放送番組表をディスプレイするようにする命令を受信する(JS90050)。
受信機は、放送サービス又は放送プログラムに含まれるコンポーネントに対する役割がESGに表示されたか否かを判断する(JS90060)。
放送サービス又は放送プログラムに含まれるコンポーネントに対する役割がESGに表示される場合、受信機は、放送番組表で各プログラムに関する詳細情報をディスプレイする(JS90070)。受信機は、コンポーネントの役割に関する情報は、前述したコンポーネントエレメント及びその下位のエレメントから取得することができる。
受信機は、視聴者/ユーザから、特定のプログラムに対する選択又は予約視聴命令を受信する(JS90080)。
受信機は、視聴者/ユーザによって選択された放送プログラムに進入(デコーディング)する(JS90090)。
受信機は、放送プログラムに含まれる各コンポーネントの役割の特性に合わせてVideo、Audio、CC及び/又はAppを画面にディスプレイする(JS90100)。受信機は、視聴者/ユーザが視聴したいVideo、Audio、CC及び/又はAppのコンポーネントを選択する命令を視聴者/ユーザから受信することができる。この場合、各コンポーネントに対するPPVポリシーがある場合、前述した方式でPPVが処理され得る。ESGには、各コンポーネントに対して、PPVポリシーがあるかを知らせる表示がディスプレイされ得る。
受信機がディスプレイするメディアを視聴者/ユーザが視聴する(JS90100)。
一方、放送サービスまたは放送プログラムに含まれるコンポーネントに対する役割がESGに表示されない場合、受信機は、放送番組表にプログラム名及び/又はプログラムの時間情報をディスプレイする(JS90120)。
受信機は、視聴者/ユーザから、放送番組表で特定のプログラムに対する選択又は予約視聴命令を受信する(JS90130)。
受信機は、視聴者/ユーザが選択した放送プログラムに進入(デコーディング)する(JS90140)。
一方、放送視聴中、視聴者/ユーザが、放送番組表をディスプレイするようにする命令を入力すると、受信機は、ステップJS90050から、提示された手順を行う。
図91は、本発明の一実施例に係る、放送プログラムの各コンポーネント別にメディアが提供される画面を示す図である。
L91010を参照すると、ESGに、CNTVという放送サービス(放送局)で提供する‘G’プログラムに対して、それぞれのコンポーネントの役割が記載された図面と、そうでない図面が示されている。例えば、コンポーネントの役割がESGに表示される場合は、ESGは、‘G’プログラムに対して、‘Alternative View’、‘Follow Subject’及び‘Sign Language’を提供するコンポーネントが存在することを示している。
L91020を参照すると、‘G’プログラムがディスプレイされる場合、受信機は、‘Sign language’や‘follow subject video’を共にディスプレイしたり、このようなコンポーネントに対するサムネイル(thumbnail)イメージをディスプレイすることができる。ここで、‘Sign language’は手話に、‘follow subject video’は、現在のプログラムと関連する映像に該当し得る。
L91030を参照すると、‘G’プログラムに対して、‘Alternative View’を視聴者が選択した場合、現在のプログラムで基本的に提供する映像以外に、他の映像を提供する場面が示されている。
図92は、本発明の一実施例に係る、ビデオコンポーネントに対する役割(role)がESGに表示される場合を示す図である。
受信機は、視聴者の放送番組表に対する要求を受信し、放送番組表をディスプレイする。放送番組表には、現在時刻以降の放送プログラムに関する情報がディスプレイされる。特定のプログラムに対しては特定の役割に該当するコンポーネントが提供されるということがESGに表示され得る。例えば、‘B’プログラムに対しては、手話(sign language)コンテンツが提供されてもよい。したがって、手話コンテンツを利用したい視聴者は、‘sign language’が表示されたプログラムを選択して、当該プログラムへチャネル切り替えを行ったり、当該プログラムに対する視聴予約を行うことができる。受信機は、視聴予約されたプログラムの開始時間になると、当該プログラムを視聴するか否かに対する問い合わせを視聴者に提供し、当該プログラムをディスプレすることができる。
図93は、本発明の他の実施例に係る、ビデオコンポーネントに対する役割(role)がESGに表示される場合を示す図である。
受信機は、視聴者の放送番組表に対する要求を受信し、放送番組表をディスプレイする。放送番組表には現在時刻以降の放送プログラムに関する情報がディスプレイされる。特定のプログラムに対しては特定の役割に該当するコンポーネントが提供されるということがESGに表示され得る。例えば、放送番組表は、‘G’プログラムに対して‘Alternative View’が存在することを示すことができる。視聴者が‘G’プログラムを選択すると、受信機は、視聴者に、‘Alternative View’を視聴するか否かに対する問い合わせを提供することができる。受信機が、視聴者から、‘Alternative View’を視聴することを指示する命令を受信すると、受信機は、現在の映像を‘Alternative View’に置換してディスプレイすることができる。または、受信機は、‘Alternative View’をcompanion deviceに伝達して、companion deviceで‘Alternative View’がディスプレイされ得るように処理することができる。
図94は、本発明の他の実施例に係る、ビデオコンポーネントに対する役割(role)がESGに表示される場合を示す図である。
受信機は、視聴者の放送番組表に対する要求を受信し、放送番組表をディスプレイする。放送番組表には、現在時刻以降の放送プログラムに関する情報がディスプレイされる。特定のプログラムに対しては特定の役割に該当するコンポーネントが提供されるということがESGに表示され得る。例えば、放送番組表は、‘I’プログラムに対する‘Follow subject video’コンポーネントが存在することを示すことができる。視聴者が‘I’プログラムを選択すると、受信機は、視聴者に、‘Follow subject video’を確認するか否かに対する問い合わせを提供することができる。受信機が、視聴者から、‘Follow subject video’を確認することを指示する命令を受信すると、受信機は、現在の映像を‘Follow subject video’に置換してディスプレイすることができる。または、受信機は、‘Follow subject video’をcompanion deviceに伝達して、companion deviceで‘Follow subject video’がディスプレイされ得るように処理することができる。
図95は、本発明の一実施例に係る、オーディオコンポーネントに対する役割(role)がESGに表示される場合を示す図である。
受信機は、視聴者の放送番組表に対する要求を受信し、放送番組表をディスプレイする。放送番組表には、現在時刻以降の放送プログラムに関する情報がディスプレイされる。特定のプログラムに対しては特定の役割に該当するコンポーネントが提供されるということがESGに表示され得る。例えば、放送番組表は、‘I’プログラムに対する‘Music’コンポーネントが存在することを示すことができる。‘Music’コンポーネントは、当該プログラムに対してより良い音質のオーディオを提供するコンポーネントに該当し得る。視聴者は、より良い音質のオーディオの提供を受けるために‘I’プログラムを選択し、当該プログラムと‘Music’コンポーネントを共に消費することができる。
図96は、本発明の他の実施例に係る、オーディオコンポーネントに対する役割(role)がESGに表示される場合を示す図である。
受信機は、視聴者の放送番組表に対する要求を受信し、放送番組表をディスプレイする。放送番組表には、現在時刻以降の放送プログラムに関する情報がディスプレイされる。特定のプログラムに対しては特定の役割に該当するコンポーネントが提供されるということがESGに表示され得る。例えば、放送番組表は、‘G’プログラムに対する‘Dialog’コンポーネントが存在することを示すことができる。‘Dialog’コンポーネントは、当該プログラムで特定の出演者のセリフや発言に対する別途のコンポーネントに該当する。視聴者は、‘Dialog’コンポーネントを提供する‘G’プログラムを選択し、当該プログラムの出演者のDialogを別途のスピーカーを介して再生して、当該コンテンツを消費することができる。‘Dialog’コンポーネントが別途に提供される場合、受信機は、Dialogのレベルを別途に調節することができる。
図97は、本発明の他の実施例に係る、オーディオコンポーネントに対する役割(role)がESGに表示される場合を示す図である。
受信機は、視聴者の放送番組表に対する要求を受信し、放送番組表をディスプレイする。放送番組表には、現在時刻以降の放送プログラムに関する情報がディスプレイされる。特定のプログラムに対しては特定の役割に該当するコンポーネントが提供されるということがESGに表示され得る。例えば、放送番組表は、‘D’プログラムに対する‘Visually Impaired’コンポーネントが存在することを示すことができる。‘Visually Impaired’コンポーネントは、当該プログラムで提供する視覚的なコンテンツに対する音声的説明を提供するコンポーネントに該当し得る。‘Visually Impaired’コンポーネントは、視覚障害者のために、プログラムに対する音声的説明を提供するコンポーネントに該当し得る。視聴者は、‘Visually Impaired’コンポーネントを提供する‘D’プログラムを選択し、‘Visually Impaired’コンポーネントに該当するコンテンツを消費することができる。このとき、受信機は、‘Visually Impaired’コンポーネントをmain deivceで再生してもよく、companion deviceに‘Visually Impaired’コンポーネントを伝達し、companion deviceで当該コンポーネントを再生できるように処理してもよい。
図98は、本発明の一実施例に係る、CC(Closed Caption)コンポーネントに対する役割(role)がESGに表示される場合を示す図である。
受信機は、視聴者の放送番組表に対する要求を受信し、放送番組表をディスプレイする。放送番組表には、現在時刻以降の放送プログラムに関する情報がディスプレイされる。特定のプログラムに対しては特定の役割に該当するコンポーネントが提供されるということがESGに表示され得る。例えば、放送番組表は、‘D’プログラムに対する‘Easy Reader’コンポーネントが存在することを示すことができる。‘Easy Reader’コンポーネントは、当該プログラムのコンテンツに対する字幕またはサブタイトルを提供するコンポーネントに該当し得る。字幕またはサブタイトルは1つ以上の言語で提供されてもよい。視聴者は、‘Easy Reader’コンポーネントを提供する‘D’プログラムを選択し、‘Easy Reader’コンポーネントに該当するコンテンツを消費することができる。このとき、受信機は、‘Easy Reader’コンポーネントをmain deivceで再生してもよく、companion deviceに‘Easy Reader’コンポーネントを伝達し、companion deviceで当該コンポーネントを再生できるように処理してもよい。
図99は、本発明の一実施例に係る放送信号送信方法を示す図である。
本発明の一実施例に係る放送信号送信方法は、放送サービスのアクセス情報を含むサービスガイド情報及びコンテンツデータを生成する段階(SL99010)、上記生成されたサービスガイド情報及びコンテンツデータをエンコードする段階(SL99020)、及び/又は上記エンコードされたサービスガイド情報及びコンテンツデータを伝送する段階(SL99030)を含むことができる。ここで、上記サービスガイド情報は、上記放送サービスに関する情報を示すサービスフラグメントを含むことができる。ここで、サービスガイド情報はservice guideを表し、サービスフラグメントはservice fragmentを表すことができる。
本発明の他の実施例によれば、サービスフラグメントは、上記放送サービスの種類を示すサービスタイプ情報を含むことができる。ここで、上記サービスタイプ情報が示す上記放送サービスの種類は、放送スケジュール情報を共に提供するリニアサービス(Linear Service)、アプリケーションに基づくアプリベースサービス(Appbased Service)及び/又はコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)を含むことができる。ここで、サービスタイプ情報は、ServiceTypeエレメントに含まれる情報を表すことができる。これに関する詳細な説明は、図27、図28、図29、図30で前述した。
本発明の更に他の実施例によれば、サービスガイド情報は、上記放送サービスに含まれるコンポーネントに関する情報を示すコンポーネントフラグメントを含むことができる。ここで、上記コンポーネントフラグメントは、上記コンポーネントフラグメントを識別する情報、上記コンポーネントの種類を示すコンポーネントタイプ情報、及び/又は上記コンポーネントの役割を示すコンポーネントロール情報を含むことができる。ここで、コンポーネントフラグメントはcomponent fragmentを表すことができる。ここで、コンポーネントフラグメントを識別する情報は、idアトリビュートに含まれる情報を表すことができる。ここで、コンポーネントタイプ情報は、ComponentTypeエレメントに含まれる情報を表すことができ、コンポーネントロール情報は、ComponentRoleエレメントに含まれる情報を表すことができる。これに関する詳細な説明は、図31、図32、図60、図61、図62で前述した。
本発明の更に他の実施例によれば、コンポーネントタイプ情報が示す上記コンポーネントの種類は、1つの連続するストリームにおいて表現されるコンポーネントを表すコンティニュアスコンポーネント(Continuous component)、独立してエンコードされるコンポーネントを表すエレメンタリコンポーネント(Elementary component)、1つのプレゼンテーションのために組み合わせ可能なコンポーネントを表すコンポジットコンポーネント(Composite component)、及び/又は1つのプレゼンテーションのために選択されるコンポーネントを表すピックワンコンポーネント(PickOne component)を含むことができる。これに関する詳細な説明は、図63で前述した。
本発明の更に他の実施例によれば、コンポーネントロール情報は、上記コンポーネントが、スケーラブルビデオエンコーディングのためのベースレイヤ(base layer)、スケーラブルビデオエンコーディングのためのエンハンスメントレイヤ(enhancement layer)、3Dビデオの左目映像、3Dビデオの右目映像、3Dビデオの奥行き(depth)情報、音楽オーディオ、対話オーディオ、及び/又は子供のための字幕の役割をすることを示すことができる。ここで、スケーラブルビデオエンコーディングのためのベースレイヤ(base layer)は、Base layer for scalable video encoding、スケーラブルビデオエンコーディングのためのエンハンスメントレイヤ(enhancement layer)はEnhancement layer for scalable video encoding,with level、3Dビデオの左目映像は3D video left view、3Dビデオの右目映像は3D video right view、3Dビデオの奥行き情報は3D video depth information、音楽オーディオはMusic、対話オーディオはDialog、子供のための字幕はEasy readerを表すことができる。これに関する詳細な説明は、図64で前述した。
図100は、本発明の一実施例に係る放送信号受信装置の構成を示す図である。
本発明の一実施例に係る放送信号受信装置L100030は、受信部L100010及び/又はデコーダL100020を含むことができる。
受信部は、放送サービスのアクセス情報を含むサービスガイド情報及び/又はコンテンツデータを受信することができる。ここで、サービスガイド情報は、上記放送サービスに関する情報を示すサービスフラグメントを含むことができる。
デコーダは、受信したサービスガイド情報及び/又はコンテンツデータをデコードすることができる。
本発明の他の実施例によれば、サービスフラグメントは、上記放送サービスの種類を示すサービスタイプ情報を含むことができる。ここで、上記サービスタイプ情報が示す上記放送サービスの種類は、放送スケジュール情報を共に提供するリニアサービス(Linear Service)、アプリケーションに基づくアプリベースサービス(Appbased Service)、及び/又はコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)を含むことができる。ここで、サービスタイプ情報は、ServiceTypeエレメントに含まれる情報を表すことができる。これに関する詳細な説明は、図27、図28、図29、図30で前述した。
本発明の更に他の実施例によれば、サービスガイド情報は、上記放送サービスに含まれるコンポーネントに関する情報を示すコンポーネントフラグメントを含むことができる。ここで、上記コンポーネントフラグメントは、上記コンポーネントフラグメントを識別する情報、上記コンポーネントの種類を示すコンポーネントタイプ情報、及び/又は上記コンポーネントの役割を示すコンポーネントロール情報を含むことができる。ここで、コンポーネントフラグメントはComponent fragmentを表すことができる。ここで、コンポーネントフラグメントを識別する情報は、idアトリビュートに含まれる情報を表すことができる。ここで、コンポーネントタイプ情報は、ComponentTypeエレメントに含まれる情報を表すことができ、コンポーネントロール情報は、ComponentRoleエレメントに含まれる情報を表すことができる。これに関する詳細な説明は、図31、図32、図60、図61、図62で前述した。
本発明の更に他の実施例によれば、コンポーネントタイプ情報が示す上記コンポーネントの種類は、1つの連続するストリームにおいて表現されるコンポーネントを表すコンティニュアスコンポーネント(Continuous component)、独立してエンコードされるコンポーネントを表すエレメンタリコンポーネント(Elementary component)、1つのプレゼンテーションのために組み合わせ可能なコンポーネントを表すコンポジットコンポーネント(Composite component)、及び/又は1つのプレゼンテーションのために選択されるコンポーネントを表すピックワンコンポーネント(PickOne component)を含むことができる。これに関する詳細な説明は、図63で前述した。
本発明の更に他の実施例によれば、コンポーネントロール情報は、上記コンポーネントが、スケーラブルビデオエンコーディングのためのベースレイヤ(base layer)、スケーラブルビデオエンコーディングのためのエンハンスメントレイヤ(enhancement layer)、3Dビデオの左目映像、3Dビデオの右目映像、3Dビデオの奥行き情報、音楽オーディオ、対話オーディオ及び/又は子供のための字幕の役割をすることを示すことができる。ここで、スケーラブルビデオエンコーディングのためのベースレイヤ(base layer)はBase layer for scalable video encoding、スケーラブルビデオエンコーディングのためのエンハンスメントレイヤ(enhancement layer)はEnhancement layer for scalable video encoding,with level、3Dビデオの左目映像は3D video left view、3Dビデオの右目映像は3D video right view、3Dビデオの奥行き情報は3D video depth information、音楽オーディオはMusic、対話オーディオはDialog、子供のための字幕はEasy readerを表すことができる。これに関する詳細な説明は、図64で前述した。
図101は、本発明の一実施例に係る放送信号送信装置の構成を示す図である。
本発明の一実施例に係る放送信号送信装置L101040は、生成部L101010、エンコーダL101020、及び/又は伝送部L101030を含むことができる。
生成部は、放送サービスのアクセス情報を含むサービスガイド情報及びコンテンツデータを生成することができる。ここで、上記サービスガイド情報は、上記放送サービスに関する情報を示すサービスフラグメントを含むことができる。
エンコーダは、生成されたサービスガイド情報及びコンテンツデータをエンコードすることができる。
伝送部は、エンコードされたサービスガイド情報及びコンテンツデータを伝送することができる。
本発明の他の実施例によれば、サービスフラグメントは、上記放送サービスの種類を示すサービスタイプ情報を含むことができる。ここで、上記サービスタイプ情報が示す上記放送サービスの種類は、放送スケジュール情報を共に提供するリニアサービス(Linear Service)、アプリケーションに基づくアプリベースサービス(Appbased Service)、及び/又はコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)を含むことができる。ここで、サービスタイプ情報は、ServiceTypeエレメントに含まれる情報を表すことができる。これに関する詳細な説明は、図27、図28、図29、図30で前述した。
図102は、本発明の一実施例に係る放送信号受信方法を示す図である。
本発明の一実施例に係る放送信号受信方法は、放送サービスのアクセス情報を含むサービスガイド情報及びコンテンツデータを受信する段階(SL102010)、及び/又は上記受信したサービスガイド情報及びコンテンツデータをデコードする段階(SL102020)を含むことができる。ここで、サービスガイド情報は、上記放送サービスに関する情報を示すサービスフラグメントを含むことができる。
本発明の他の実施例によれば、サービスフラグメントは、上記放送サービスの種類を示すサービスタイプ情報を含むことができる。ここで、上記サービスタイプ情報が示す上記放送サービスの種類は、放送スケジュール情報を共に提供するリニアサービス(Linear Service)、アプリケーションに基づくアプリベースサービス(Appbased Service)、及び/又はコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)を含むことができる。ここで、サービスタイプ情報は、ServiceTypeエレメントに含まれる情報を表すことができる。これに関する詳細な説明は、図27、図28、図29、図30で前述した。
本発明の更に他の実施例によれば、サービスガイド情報は、上記放送サービスに含まれるコンポーネントに関する情報を示すコンポーネントフラグメントを含むことができる。ここで、上記コンポーネントフラグメントは、上記コンポーネントフラグメントを識別する情報、上記コンポーネントの種類を示すコンポーネントタイプ情報、及び/又は上記コンポーネントの役割を示すコンポーネントロール情報を含むことができる。ここで、コンポーネントフラグメントは、component fragmentを表すことができる。ここで、コンポーネントフラグメントを識別する情報は、idアトリビュートに含まれる情報を表すことができる。ここで、コンポーネントタイプ情報は、ComponentTypeエレメントに含まれる情報を表すことができ、コンポーネントロール情報は、ComponentRoleエレメントに含まれる情報を表すことができる。これに関する詳細な説明は、図31、図32、図60、図61、図62で前述した。
モジュール又はユニットは、メモリ(又は、格納ユニット)に記憶された連続した過程を実行するプロセッサであってもよい。前述した実施例に記述された各段階は、ハードウェア/プロセッサによって実行することができる。前述した実施例に記述された各モジュール/ブロック/ユニットは、ハードウェア/プロセッサとして動作することができる。また、本発明が提示する方法はコードとして実装されるようにするこができる。このコードは、プロセッサが読み出し可能な記憶媒体に書き込まれ、装置(apparatus)が提供するプロセッサによって読み出されるようにすることができる。
説明の便宜のため、各図を個別に説明したが、各図に開示した実施例を組み合わせて新しい実施例として実装するように設計することも可能である。そして、通常の技術者の必要に応じて、以前に説明された実施例を実行するためのプログラムが記録されているコンピュータで読み出し可能な記録媒体を設計することも、本発明の権利範囲に属する。
本発明に係る装置及び方法は、上述したように、説明された実施例の構成と方法に限定されて適用されるものではなく、上述した実施例は、様々な変形が可能なように、各実施例の全部又は一部が選択的に組み合わされて構成されてもよい。
一方、本発明が提案する方法を、ネットワークデバイスに具備された、プロセッサが読み出し可能な記録媒体に、プロセッサが読み出し可能なコードとして実装することができる。プロセッサが読み出し可能な記録媒体は、プロセッサによって読み出されるデータが格納されるいかなる種類の記録装置をも含む。プロセッサが読み出し可能な記録媒体の例には、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあり、また、インターネットを介した伝送などのようなキャリアウェーブの形態で実装されるものも含む。また、プロセッサが読み出し可能な記録媒体は、ネットワークで接続されたコンピュータシステムに分散されて、分散方式でプロセッサが読み出し可能なコードが格納され、実行されてもよい。
また、以上では、本発明の好適な実施例について図示及び説明したが、本発明は、上述した特定の実施例に限定されず、特許請求の範囲で請求する本発明の要旨を逸脱することなく、当該発明の属する技術分野における通常の知識を有する者によって、様々な変形実施が可能であることはもちろんであり、このような変形実施は、本発明の技術的思想や展望から個別的に理解されてはならない。
そして、当該明細書では、物の発明及び方法の発明の両方が説明されており、必要に応じて、両発明の説明は補充的に適用されてもよい。
本発明の思想や範囲内で本発明の様々な変更及び変形が可能であることは当業者にとって明らかである。したがって、本発明は、添付の請求項及びその同等範囲内で提供される本発明の変更及び変形を含むように意図される。
本明細書において、装置の発明も方法の発明も言及されており、装置及び方法の発明に関する説明は互いに補完して適用可能である。
様々な実施例が、本発明を実施するための最良の形態において説明されている。
本発明は、一連の放送信号提供分野で利用可能である。
本発明の思想や範囲内で本発明の様々な変更及び変形が可能であることは当業者にとって明らかである。したがって、本発明は、添付の請求項及びその同等範囲内で提供される本発明の変更及び変形を含むように意図される。

Claims (15)

  1. 放送サービスのアクセス情報を含むサービスガイド情報を生成するステップと、
    前記生成されたサービスガイド情報をエンコードするステップと、
    前記エンコードされたサービスガイド情報を伝送するステップと、
    を有
    前記サービスガイド情報は、前記放送サービスに関する情報を有するサービスフラグメント、及び前記放送サービスのコンテンツデータに関する情報を有するコンテンツフラグメントを含み、
    前記コンテンツフラグメントは、前記コンテンツデータのコンポーネントデータに関するコンポーネントエレメントを有するExtensionエレメントをサブエレメントとして含み、
    前記コンポーネントエレメントは、オーディオコンポーネントエレメント、ビデオコンポーネントエレメント、Closed Captionコンポーネントエレメントを含む、放送信号送信方法。
  2. 前記サービスフラグメントは、前記放送サービスの種類を示すサービスタイプ情報を含み、前記サービスタイプ情報が示す前記放送サービスの前記種類は、放送スケジュール情報を提供するリニアサービス(Linear Service)、アプリケーションに基づくサービス(Appbased Service)、及びコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)の少なくとも1つを含む、請求項1に記載の放送信号送信方法。
  3. 前記オーディオコンポーネントエレメントは、前記コンテンツデータのオーディオコンポーネントを示す情報を含み、前記ビデオコンポーネントエレメントは、前記コンテンツデータのビデオコンポーネントを示す情報を含み、前記Closed Captionコンポーネントエレメントは、前記コンテンツデータのClosed Captionコンポーネントを示す情報を含む、請求項1に記載の放送信号送信方法。
  4. 前記ビデオコンポーネントエレメントは、primary video、alternative camera view、other alternative video component、sign language inset、follow subject video、3D video left view、3D video right view、3D video depth information、part of video array <x, y> of <m, n>、及びfollow subject metadataの1つを示すロール情報を含む、請求項3に記載の放送信号送信方法。
  5. 前記オーディオコンポーネントエレメントは、music、dialog、effects、visually impaired、hearing impaired、及びcommentaryの1つを示すロール情報を含み、
    前記Closed Captionコンポーネントエレメントは、normal及びeasy readerの1つを示すロール情報を含む、請求項3に記載の放送信号送信方法。
  6. 放送サービスのアクセス情報を含むサービスガイド情報を受信するよう構成される受信部と、
    前記受信したサービスガイド情報をデコードするよう構成されるデコーダと、を備え、
    前記サービスガイド情報は、前記放送サービスに関する情報を有するサービスフラグメント、及び前記放送サービスのコンテンツデータに関する情報を有するコンテンツフラグメントを含み、
    前記コンテンツフラグメントは、前記コンテンツデータのコンポーネントデータに関するコンポーネントエレメントを有するExtensionエレメントをサブエレメントとして含み、
    前記コンポーネントエレメントは、オーディオコンポーネントエレメント、ビデオコンポーネントエレメント、Closed Captionコンポーネントエレメントを含む、放送信号受信装置。
  7. 前記サービスフラグメントは、前記放送サービスの種類を示すサービスタイプ情報を含み、前記サービスタイプ情報が示す前記放送サービスの前記種類は、放送スケジュール情報を提供するリニアサービス(Linear Service)、アプリケーションに基づくサービス(Appbased Service)、及びコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)の少なくとも1つを含む、請求項6に記載の放送信号受信装置。
  8. 前記オーディオコンポーネントエレメントは、前記コンテンツデータのオーディオコンポーネントを示す情報を含み、前記ビデオコンポーネントエレメントは、前記コンテンツデータのビデオコンポーネントを示す情報を含み、前記Closed Captionコンポーネントエレメントは、前記コンテンツデータのClosed Captionコンポーネントを示す情報を含む、請求項6に記載の放送信号受信装置。
  9. 前記ビデオコンポーネントエレメントは、primary video、alternative camera view、other alternative video component、sign language inset、follow subject video、3D video left view、3D video right view、3D video depth information、part of video array <x, y> of <m, n>、及びfollow subject metadataの1つを示すロール情報を含む、請求項8に記載の放送信号受信装置。
  10. 前記オーディオコンポーネントエレメントは、music、dialog、effects、visually impaired、hearing impaired、及びcommentaryの1つを示すロール情報を含み、
    前記Closed Captionコンポーネントエレメントは、normal及びeasy readerの1つを示すロール情報を含む、請求項8に記載の放送信号受信装置。
  11. 放送サービスのアクセス情報を含むサービスガイド情報を生成するよう構成される生成部
    前記生成されたサービスガイド情報をエンコードするよう構成されるエンコーダと、
    前記エンコードされたサービスガイド情報を伝送するよう構成される伝送部と、を備え、
    前記サービスガイド情報は、前記放送サービスに関する情報を有するサービスフラグメント、及び前記放送サービスのコンテンツデータに関する情報を有するコンテンツフラグメントを含み、
    前記コンテンツフラグメントは、前記コンテンツデータのコンポーネントデータに関するコンポーネントエレメントを有するExtensionエレメントをサブエレメントとして含み、
    前記コンポーネントエレメントは、オーディオコンポーネントエレメント、ビデオコンポーネントエレメント、Closed Captionコンポーネントエレメントを含む、放送信号送信装置。
  12. 前記サービスフラグメントは、前記放送サービスの種類を示すサービスタイプ情報を含み、前記サービスタイプ情報が示す前記放送サービスの前記種類は、放送スケジュール情報を提供するリニアサービス(Linear Service)、アプリケーションに基づくサービス(Appbased Service)、及びコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)の少なくとも1つを含む、請求項11に記載の放送信号送信装置。
  13. 放送サービスのアクセス情報を含むサービスガイド情報を受信するステップと、
    前記受信したサービスガイド情報をデコードするステップと、
    を有
    前記サービスガイド情報は、前記放送サービスに関する情報を有するサービスフラグメント、及び前記放送サービスのコンテンツデータに関する情報を有するコンテンツフラグメントを含み、
    前記コンテンツフラグメントは、前記コンテンツデータのコンポーネントデータに関するコンポーネントエレメントを有するExtensionエレメントをサブエレメントとして含み、
    前記コンポーネントエレメントは、オーディオコンポーネントエレメント、ビデオコンポーネントエレメント、Closed Captionコンポーネントエレメントを含む、放送信号受信方法。
  14. 前記サービスフラグメントは、前記放送サービスの種類を示すサービスタイプ情報を含み、前記サービスタイプ情報が示す前記放送サービスの前記種類は、放送スケジュール情報を提供するリニアサービス(Linear Service)、アプリケーションに基づくサービス(Appbased Service)、及びコンパニオンデバイスを用いるコンパニオンスクリーンサービス(CompanionScreen Service)の少なくとも1つを含む、請求項13に記載の放送信号受信方法。
  15. 前記オーディオコンポーネントエレメントは、前記コンテンツデータのオーディオコンポーネントを示す情報を含み、前記ビデオコンポーネントエレメントは、前記コンテンツデータのビデオコンポーネントを示す情報を含み、前記Closed Captionコンポーネントエレメントは、前記コンテンツデータのClosed Captionコンポーネントを示す情報を含む、請求項13に記載の放送信号受信方法。
JP2016552928A 2014-04-27 2015-04-27 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法 Active JP6360184B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201461984854P 2014-04-27 2014-04-27
US61/984,854 2014-04-27
US201461991624P 2014-05-12 2014-05-12
US61/991,624 2014-05-12
US201462000515P 2014-05-19 2014-05-19
US62/000,515 2014-05-19
US201462003039P 2014-05-27 2014-05-27
US62/003,039 2014-05-27
PCT/KR2015/004171 WO2015167187A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Publications (2)

Publication Number Publication Date
JP2017514329A JP2017514329A (ja) 2017-06-01
JP6360184B2 true JP6360184B2 (ja) 2018-08-01

Family

ID=54358852

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016534191A Active JP6599864B2 (ja) 2014-04-27 2015-04-27 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
JP2016552928A Active JP6360184B2 (ja) 2014-04-27 2015-04-27 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016534191A Active JP6599864B2 (ja) 2014-04-27 2015-04-27 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法

Country Status (8)

Country Link
US (13) US9888271B2 (ja)
EP (4) EP3139618A4 (ja)
JP (2) JP6599864B2 (ja)
KR (6) KR101801594B1 (ja)
CN (7) CN110267068B (ja)
CA (3) CA2941597C (ja)
MX (1) MX357843B (ja)
WO (5) WO2015167187A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101801594B1 (ko) * 2014-04-27 2017-11-27 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US20170085921A1 (en) * 2014-05-19 2017-03-23 Sharp Kabushiki Kaisha Method for decoding a service guide
WO2015178036A1 (en) * 2014-05-22 2015-11-26 Sharp Kabushiki Kaisha Method for decoding
WO2015194195A1 (en) * 2014-06-20 2015-12-23 Sharp Kabushiki Kaisha Methods for xml representation of device capabilities
CA2959353A1 (en) * 2014-09-05 2016-03-10 Sharp Kabushiki Kaisha Syntax and semantics for device capabilities
WO2016048090A1 (ko) * 2014-09-25 2016-03-31 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
CN108024120B (zh) * 2016-11-04 2020-04-17 上海动听网络科技有限公司 音频生成、播放、接听方法及装置和音频传输系统
KR101967299B1 (ko) * 2017-12-19 2019-04-09 엘지전자 주식회사 방송 신호를 수신하는 차량용 수신 장치 및 방송 신호를 수신하는 차량용 수신 방법
US11360466B2 (en) * 2019-01-04 2022-06-14 Gracenote, Inc. Generation of media station previews using a secondary tuner
CN112990120B (zh) * 2021-04-25 2022-09-16 昆明理工大学 一种利用相机风格分离域信息的跨域行人重识别方法

Family Cites Families (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5900908A (en) * 1995-03-02 1999-05-04 National Captioning Insitute, Inc. System and method for providing described television services
JP4221624B2 (ja) 1998-02-12 2009-02-12 ソニー株式会社 Epg送信装置および方法、epg受信装置および方法、並びに記録媒体
GB2377846B (en) 1998-06-12 2003-03-05 British Sky Broadcasting Ltd Improvements in receivers for television signals
US6732370B1 (en) * 1998-11-30 2004-05-04 Diva Systems Corporation Service provider side interactive program guide encoder
KR100828884B1 (ko) 1999-03-05 2008-05-09 캐논 가부시끼가이샤 데이터베이스 주석 및 검색
US7934232B1 (en) * 2000-05-04 2011-04-26 Jerding Dean F Navigation paradigm for access to television services
KR100391179B1 (ko) * 2000-08-02 2003-07-12 한국전력공사 고방사성미세분진폐기물 원격조종이동형청소장치
US20020078459A1 (en) * 2000-08-30 2002-06-20 Mckay Brent Interactive electronic directory service, public information and general content delivery system and method
US20020170053A1 (en) * 2000-10-26 2002-11-14 General Instrument, Inc. ECM and EMM distribution for multimedia multicast content
US20020170068A1 (en) 2001-03-19 2002-11-14 Rafey Richter A. Virtual and condensed television programs
US7035468B2 (en) 2001-04-20 2006-04-25 Front Porch Digital Inc. Methods and apparatus for archiving, indexing and accessing audio and video data
US7110664B2 (en) 2001-04-20 2006-09-19 Front Porch Digital, Inc. Methods and apparatus for indexing and archiving encoded audio-video data
US7512964B2 (en) * 2001-06-29 2009-03-31 Cisco Technology System and method for archiving multiple downloaded recordable media content
US7908628B2 (en) 2001-08-03 2011-03-15 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator content coding and formatting
US7092888B1 (en) 2001-10-26 2006-08-15 Verizon Corporate Services Group Inc. Unsupervised training in natural language call routing
US20040017831A1 (en) * 2002-04-05 2004-01-29 Jian Shen System and method for processing SI data from multiple input transport streams
US7774815B1 (en) 2002-09-30 2010-08-10 Arris Group, Inc. Context-sensitive interactive television ticker
US8712218B1 (en) 2002-12-17 2014-04-29 At&T Intellectual Property Ii, L.P. System and method for providing program recommendations through multimedia searching based on established viewer preferences
GB0307451D0 (en) * 2003-03-31 2003-05-07 Matsushita Electric Ind Co Ltd Digital receiver with aural interface
GB2405557A (en) 2003-08-27 2005-03-02 Nokia Corp Service identification data relating services at a given frequency to services and identifying their media format
KR100565614B1 (ko) * 2003-09-17 2006-03-29 엘지전자 주식회사 캡션 송수신 방법
US7418472B2 (en) 2003-09-30 2008-08-26 Microsoft Corporation Systems and methods for determining remote device media capabilities
US20050188411A1 (en) 2004-02-19 2005-08-25 Sony Corporation System and method for providing content list in response to selected closed caption word
US7469979B2 (en) 2004-03-19 2008-12-30 Steelcase Inc. Pedestal system
CN1674645A (zh) * 2004-03-24 2005-09-28 乐金电子(沈阳)有限公司 数字电视及其电子节目单的表示方法
KR100617128B1 (ko) * 2004-11-17 2006-08-31 엘지전자 주식회사 디지털 방송 방법 및 장치
US20070124788A1 (en) 2004-11-25 2007-05-31 Erland Wittkoter Appliance and method for client-sided synchronization of audio/video content and external data
TW200704183A (en) * 2005-01-27 2007-01-16 Matrix Tv Dynamic mosaic extended electronic programming guide for television program selection and display
US7614068B2 (en) * 2005-03-18 2009-11-03 Nokia Corporation Prioritization of electronic service guide carousels
US8387089B1 (en) * 2005-05-06 2013-02-26 Rovi Guides, Inc. Systems and methods for providing a scan
AU2006277101C1 (en) * 2005-08-11 2010-11-25 Samsung Electronics Co., Ltd. Method and apparatus for transmitting/receiving access information of broadcast service in a broadcasting system, and system thereof
US7738863B2 (en) 2005-08-25 2010-06-15 Nokia Corporation IP datacasting middleware
US8607271B2 (en) * 2005-08-26 2013-12-10 Nokia Corporation Method to deliver messaging templates in digital broadcast service guide
US8024768B2 (en) 2005-09-15 2011-09-20 Penthera Partners, Inc. Broadcasting video content to devices having different video presentation capabilities
CN101305534A (zh) * 2005-10-14 2008-11-12 诺基亚公司 用服务指南声明终端供应
EP1943837A4 (en) 2005-11-01 2010-08-04 Nokia Corp IDENTIFICATION OF THE SCOPE OF FRAGMENTS OF A SERVICE ELECTRONIC GUIDE AND HIERARCHISATION IN THE FIELD OF APPLICATION
US8763036B2 (en) 2005-11-04 2014-06-24 Nokia Corporation Method for indicating service types in the service guide
KR100871243B1 (ko) * 2005-11-07 2008-11-28 삼성전자주식회사 휴대 방송 시스템에서 서비스 가이드 소스 전송 방법 및 장치
US20070110057A1 (en) 2005-11-07 2007-05-17 Sung-Oh Hwang Method and apparatus for transmitting service guide source in a mobile broadcast system
US7801910B2 (en) 2005-11-09 2010-09-21 Ramp Holdings, Inc. Method and apparatus for timed tagging of media content
EP1951287A2 (de) * 2005-11-22 2008-08-06 Universität Leipzig Arzneimittel zur behandlung von fertilitäts- und schwangerschaftsstörungen, autoimmunerkrankungen und zur induktion einer immunologischen toleranz bei transplantationspatienten und verfahren zur herstellung
JP2009518884A (ja) 2005-11-29 2009-05-07 グーグル・インコーポレーテッド マスメディアのソーシャル及び相互作用的なアプリケーション
KR101179828B1 (ko) 2005-12-16 2012-09-04 삼성전자주식회사 디지털 비디오 방송 시스템에서 전자 서비스 가이드의데이터 모델과 서비스 데이터 스트림과의 연결관계에 따른전자 서비스 가이드의 구성 방법 및 장치
KR100890037B1 (ko) 2006-02-03 2009-03-25 삼성전자주식회사 휴대 방송 시스템에서 서비스 가이드 또는 서비스 가이드프레그먼트에 대한 공유 방법 및 시스템
US8458753B2 (en) 2006-02-27 2013-06-04 Time Warner Cable Enterprises Llc Methods and apparatus for device capabilities discovery and utilization within a content-based network
US8115869B2 (en) 2007-02-28 2012-02-14 Samsung Electronics Co., Ltd. Method and system for extracting relevant information from content metadata
CN101094434B (zh) 2006-06-19 2011-02-02 华为技术有限公司 在移动广播系统中订阅业务相关通知的方法
KR100793801B1 (ko) * 2006-07-06 2008-01-11 엘지전자 주식회사 티브이의 방송 프로그램 안내 표시 방법 및 장치
CN101132292A (zh) 2006-08-22 2008-02-27 华为技术有限公司 一种传输电子节目指南的方法及系统
US20080091713A1 (en) 2006-10-16 2008-04-17 Candelore Brant L Capture of television metadata via OCR
US7689613B2 (en) 2006-10-23 2010-03-30 Sony Corporation OCR input to search engine
US7814524B2 (en) 2007-02-14 2010-10-12 Sony Corporation Capture of configuration and service provider data via OCR
US8296808B2 (en) 2006-10-23 2012-10-23 Sony Corporation Metadata from image recognition
KR100856208B1 (ko) 2006-12-15 2008-09-03 삼성전자주식회사 Dvb-h 시스템에서 방송 데이터 서비스의 어플리케이션정보를 제공하기 위한 방법 및 이를 위한 시스템
DE202007001277U1 (de) * 2007-01-23 2008-03-13 Dbt Gmbh Führungsschuh für einen Walzenlader und Verschleißeinsätze für Führungsschuhe
US8282564B2 (en) * 2007-05-16 2012-10-09 Massachusetts Institute Of Technology Systems and methods for model-based estimation of cardiac output and total peripheral resistance
KR101377951B1 (ko) 2007-05-18 2014-03-25 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보수신 장치
KR101356499B1 (ko) 2007-05-18 2014-01-29 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보송수신 장치
JP4345848B2 (ja) 2007-05-25 2009-10-14 船井電機株式会社 デジタル放送受信機
KR20080107137A (ko) 2007-06-05 2008-12-10 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보송수신 장치
KR101461958B1 (ko) * 2007-06-29 2014-11-14 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101486373B1 (ko) 2007-07-29 2015-01-26 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101420871B1 (ko) * 2007-08-21 2014-07-17 삼성전자주식회사 휴대 방송 서비스에서 멀티 콘텐츠를 제공하는 방법 및장치와 그 시스템
WO2009028855A1 (en) * 2007-08-24 2009-03-05 Lg Electronics Inc. Digital broadcasting system and method of processing data in digital broadcasting system
US20090070659A1 (en) * 2007-09-11 2009-03-12 Legend Silicon Corp. Ldpc decoder with an improved llr update method using a set of relative values free from a shifting action
KR101418591B1 (ko) 2007-10-05 2014-07-10 삼성전자주식회사 휴대 방송 시스템에서의 서비스 가이드 제공 방법 및 장치
KR20090069689A (ko) 2007-12-26 2009-07-01 엘지전자 주식회사 서비스 가이드 정보 처리 방법 및 서비스 가이드 정보 처리장치
CN101500135A (zh) 2008-02-03 2009-08-05 北京视博数字电视科技有限公司 条件接收系统的节目定购方法、系统及其终端
US9503691B2 (en) 2008-02-19 2016-11-22 Time Warner Cable Enterprises Llc Methods and apparatus for enhanced advertising and promotional delivery in a network
JP5225456B2 (ja) * 2008-03-25 2013-07-03 オートリブ ディベロップメント エービー シートベルトテンショナ
US20090249392A1 (en) * 2008-03-28 2009-10-01 Lg Electronics Inc. Digital broadcast receiver and method for processing caption thereof
US20090253416A1 (en) * 2008-04-04 2009-10-08 Samsung Electronics Co. Ltd. Method and system for providing user defined bundle in a mobile broadcast system
EP2109313B1 (en) 2008-04-09 2016-01-13 Sony Computer Entertainment Europe Limited Television receiver and method
CN101583092A (zh) * 2008-05-14 2009-11-18 三星电子株式会社 数据再现设备和数据再现方法
US8272022B2 (en) 2008-11-18 2012-09-18 Lg Electronics Inc. Method for receiving a broadcast signal and broadcast receiver
JP5225037B2 (ja) * 2008-11-19 2013-07-03 株式会社東芝 番組情報表示装置および方法
US8599242B2 (en) * 2008-12-02 2013-12-03 Lg Electronics Inc. Method for displaying 3D caption and 3D display apparatus for implementing the same
US8161512B2 (en) * 2008-12-09 2012-04-17 Lg Electronics Inc. Method for processing targeting descriptor in non-real-time receiver
US8423363B2 (en) 2009-01-13 2013-04-16 CRIM (Centre de Recherche Informatique de Montréal) Identifying keyword occurrences in audio data
WO2010082782A2 (en) * 2009-01-15 2010-07-22 Samsung Electronics Co., Ltd. Rich media-enabled service guide provision method and system for broadcast service
KR20100084104A (ko) 2009-01-15 2010-07-23 삼성전자주식회사 디지털 방송 시스템에서 리치미디어를 이용한 서비스 가이드 제공 방법 및 이를 위한 시스템
JP2010200087A (ja) * 2009-02-26 2010-09-09 Funai Electric Co Ltd 映像機器
KR101076587B1 (ko) 2009-03-03 2011-10-26 엘지전자 주식회사 방송망을 통해 전달되는 서비스 가이드를 통해 선별적으로 컨텐트를 수신하는 방법 및 이를 이용한 단말
JP5440836B2 (ja) * 2009-03-24 2014-03-12 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
US20100250764A1 (en) * 2009-03-31 2010-09-30 Nokia Corporation Method and Apparatus for Signaling Layer Information of Scalable Media Data
US8621520B2 (en) 2009-05-19 2013-12-31 Qualcomm Incorporated Delivery of selective content to client applications by mobile broadcast device with content filtering capability
KR20100124966A (ko) * 2009-05-20 2010-11-30 삼성전자주식회사 복수의 형식을 가지는 디지털 방송 송수신 방법 및 장치
KR20100127162A (ko) * 2009-05-25 2010-12-03 엘지전자 주식회사 단말 내에서 브로드캐스트 서비스를 통해 관련된 콘텐츠를 검색하고 주문하는 방법 및 장치
US20100316131A1 (en) 2009-06-12 2010-12-16 Motorola, Inc. Macroblock level no-reference objective quality estimation of video
US8438600B2 (en) * 2009-08-20 2013-05-07 Lg Electronics Inc. Method of processing EPG metadata in network device and network device for controlling the same
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
JP2011091619A (ja) 2009-10-22 2011-05-06 Sony Corp 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
US8914835B2 (en) 2009-10-28 2014-12-16 Qualcomm Incorporated Streaming encoded video data
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR101179826B1 (ko) 2010-02-26 2012-09-04 고려대학교 산학협력단 열량조절이 가능한 전기로 및 이를 이용한 금속 및 실리콘의 용융방법
US9215493B2 (en) * 2010-03-11 2015-12-15 Lg Electronics Inc. Non-real-time broadcast service processing system and processing method thereof
US8730301B2 (en) * 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
KR20110105092A (ko) 2010-03-18 2011-09-26 삼성전자주식회사 휴대방송 시스템에서 서비스 접속 정보를 제공하기 위한 장치 및 방법
US8572488B2 (en) 2010-03-29 2013-10-29 Avid Technology, Inc. Spot dialog editor
KR20110111335A (ko) * 2010-04-02 2011-10-11 삼성전자주식회사 2차원 컨텐트와 3차원 컨텐트를 제공하기 위한 디지털 방송 컨텐트 전송 방법 및 그 장치, 디지털 방송 컨텐트 수신 방법 및 그 장치
KR20130080777A (ko) 2010-04-16 2013-07-15 엘지전자 주식회사 Iptv 상품에 대한 구매 트랜잭션 방법 및 그를 이용한 iptv 수신기
US20110289533A1 (en) 2010-05-18 2011-11-24 Rovi Technologies Corporation Caching data in a content system
US8694533B2 (en) 2010-05-19 2014-04-08 Google Inc. Presenting mobile content based on programming context
WO2011146276A2 (en) 2010-05-19 2011-11-24 Google Inc. Television related searching
KR20120014509A (ko) * 2010-08-09 2012-02-17 삼성모바일디스플레이주식회사 액정 표시 패널 및 액정 표시 패널 제조 방법
US8898723B2 (en) * 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
CN105554551A (zh) 2011-03-02 2016-05-04 华为技术有限公司 3d格式描述信息的获取方法和装置
US8670505B2 (en) * 2011-03-31 2014-03-11 Subrahmanya Kondageri Shankaraiah Early detection of segment type using BPSK and DBPSK modulated carriers in ISDB-T receivers
EP2695161B1 (en) * 2011-04-08 2014-12-17 Dolby Laboratories Licensing Corporation Automatic configuration of metadata for use in mixing audio programs from two encoded bitstreams
EP2705661A4 (en) 2011-05-01 2014-11-26 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR TRANSMITTING / RECEIVING BROADCAST SERVICE IN DIGITAL BROADCASTING SYSTEM, AND SYSTEM THEREFOR
TWI562560B (en) 2011-05-09 2016-12-11 Sony Corp Encoder and encoding method providing incremental redundancy
US9723362B2 (en) 2011-06-07 2017-08-01 Lg Electronics Inc. Method for transmitting and receiving broadcast service and receiving device thereof
US9584238B2 (en) * 2011-06-24 2017-02-28 Nokia Corporation Accessing service guide information in a digital video broadcast system
CN104025479B (zh) * 2011-10-13 2018-10-19 三星电子株式会社 用于发送和接收多媒体服务的方法和装置
KR101877974B1 (ko) 2011-10-13 2018-07-12 삼성전자주식회사 방송 시스템에서의 제어 메시지 구성 장치 및 방법
US9106265B2 (en) * 2011-11-04 2015-08-11 Silicon Laboratories Inc. Receive data flow path using a single FEC decoder
US9113230B2 (en) * 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
EP2618532A1 (en) * 2012-01-19 2013-07-24 Panasonic Corporation Improved Component Interleaving for Rotated Constellations
US9071799B2 (en) * 2012-02-17 2015-06-30 Echostar Technologies L.L.C. Channel tuning redirect
US9936231B2 (en) 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
KR101915128B1 (ko) 2012-05-17 2018-11-05 엘지전자 주식회사 전자 장치 및 서비스 프로바이더에 대한 정보를 제공하는 방법
WO2014025207A1 (en) * 2012-08-07 2014-02-13 Lg Electronics Inc. A method and an apparatus for processing a broadcast signal including an interactive broadcast service
AU2014214477B2 (en) 2013-02-11 2017-12-21 Bang & Clean Gmbh Method and device for cleaning interiors of tanks and systems
KR102061044B1 (ko) * 2013-04-30 2020-01-02 삼성전자 주식회사 수화 번역 및 화면 해설 서비스 방법 및 시스템
KR101500135B1 (ko) 2013-09-04 2015-03-06 주식회사 포스코 블로우 튜브의 패킹 조립장치
CA2924065C (en) 2013-09-13 2018-05-15 Arris Enterprises, Inc. Content based video content segmentation
CN103848358B (zh) 2014-03-24 2017-03-01 谢国贤 一种塔吊塔身双油缸顶升机构
US9882665B2 (en) 2014-04-21 2018-01-30 Sharp Kabushiki Kaisha Method for decoding a service guide
KR101801594B1 (ko) * 2014-04-27 2017-11-27 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2015178036A1 (en) * 2014-05-22 2015-11-26 Sharp Kabushiki Kaisha Method for decoding

Also Published As

Publication number Publication date
US11070859B2 (en) 2021-07-20
EP3139618A1 (en) 2017-03-08
WO2015167189A1 (ko) 2015-11-05
MX2016010117A (es) 2016-10-07
WO2015167187A1 (ko) 2015-11-05
US20200329261A1 (en) 2020-10-15
CN110234021B (zh) 2021-07-23
KR20180014223A (ko) 2018-02-07
CN105981374B (zh) 2019-08-09
CN110267068B (zh) 2021-11-02
KR101944834B1 (ko) 2019-02-01
US10306277B2 (en) 2019-05-28
CN106170983A (zh) 2016-11-30
KR20160105835A (ko) 2016-09-07
CN110267068A (zh) 2019-09-20
US10306278B2 (en) 2019-05-28
CN105981374A (zh) 2016-09-28
US20170188099A1 (en) 2017-06-29
US20200245005A1 (en) 2020-07-30
US20170171635A1 (en) 2017-06-15
EP3139526A4 (en) 2017-10-11
CN106134213A (zh) 2016-11-16
CA2941597A1 (en) 2015-11-05
CA3077488A1 (en) 2015-11-05
JP2017507506A (ja) 2017-03-16
CA2941597C (en) 2020-05-05
CA3077439C (en) 2023-04-25
KR101801592B1 (ko) 2017-11-27
US20190098342A1 (en) 2019-03-28
WO2015167190A1 (ko) 2015-11-05
KR20160142851A (ko) 2016-12-13
US11570494B2 (en) 2023-01-31
EP3139618A4 (en) 2017-10-11
US10939147B2 (en) 2021-03-02
EP3139623A4 (en) 2017-10-11
CN110177290B (zh) 2021-10-26
JP6599864B2 (ja) 2019-11-06
CN110234021A (zh) 2019-09-13
US20190246150A1 (en) 2019-08-08
JP2017514329A (ja) 2017-06-01
CA3077439A1 (en) 2015-11-05
US10284886B2 (en) 2019-05-07
CN106134112B (zh) 2019-03-08
US20210105511A1 (en) 2021-04-08
EP3073730A4 (en) 2017-08-16
KR101801594B1 (ko) 2017-11-27
US9888271B2 (en) 2018-02-06
US20180146220A1 (en) 2018-05-24
US10887635B2 (en) 2021-01-05
US20170180761A1 (en) 2017-06-22
CN106134213B (zh) 2019-07-12
US10743044B2 (en) 2020-08-11
CA3077488C (en) 2022-08-16
WO2015167186A1 (ko) 2015-11-05
US10567815B2 (en) 2020-02-18
KR101865299B1 (ko) 2018-06-07
US10848797B2 (en) 2020-11-24
CN106134112A (zh) 2016-11-16
EP3073730A1 (en) 2016-09-28
US10666993B2 (en) 2020-05-26
EP3139526A1 (en) 2017-03-08
KR20160106095A (ko) 2016-09-09
US20160269792A1 (en) 2016-09-15
CN106170983B (zh) 2019-07-16
KR101825000B1 (ko) 2018-03-22
KR20160071405A (ko) 2016-06-21
US20190222870A1 (en) 2019-07-18
US20170013285A1 (en) 2017-01-12
US20200137430A1 (en) 2020-04-30
WO2015167184A1 (ko) 2015-11-05
EP3139623A1 (en) 2017-03-08
KR20160102509A (ko) 2016-08-30
CN110177290A (zh) 2019-08-27
KR101801593B1 (ko) 2017-11-27
MX357843B (es) 2018-07-26

Similar Documents

Publication Publication Date Title
JP6360184B2 (ja) 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
US11190846B2 (en) Service guide information transmission method, service guide information reception method, service guide information transmission device, and service guide information reception device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180621

R150 Certificate of patent or registration of utility model

Ref document number: 6360184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250