以下、添付の図面を参照して本発明の好適な実施例を説明する。添付の図面を参照して以下に説明する詳細な説明は、本発明によって具現し得る実施例だけを示すよりは、本発明の例示的な実施例を説明するためのものである。
本発明で使われる大部分の用語は、本明細書でその機能を考慮し、当該分野で広く使われているものから選択されたが、一部の用語は出願人によって任意に選択されたものもあり、その意味は、必要によって次の説明で詳細に説明する。したがって、本発明は、単なる名称又は意味よりは、用語の意図した意味に基づいて理解されなければならない。
本発明は、次世代放送サービスに対する放送信号送信及び受信装置及び方法を提供する。本発明の一実施例に係る次世代放送サービスは、地上波放送サービス、モバイル放送サービス、UHDTVサービスなどを含む。
本発明でいう「シグナリング」とは、サービス情報(SI)が、放送システム、インターネットシステム、及び/又は放送/インターネットコンバージェンス(convergence)システムから送受信されることを意味することができる。サービス情報(SI)は、既存の放送システムから受信された放送サービス情報(例えば、ATSC−SI及び/又はDVB−SI)を含むことができる。
「放送信号」という用語は、地上波放送、ケーブル放送、衛星放送及び/又はモバイル放送から受信された信号及び/又はデータだけでなくインターネット放送、ブロードバンド放送、通信放送、データ放送及び/又はVOD(Video On Demand)などの両方向放送システムから受信された信号及び/又はデータを概念的に含むことができる。
「PLP」という用語は、物理層に含まれるデータを送信する所定の単位を示すことができる。したがって、「PLP」という用語は、必要によって、「データユニット」又は「データパイプ」という用語に代えてもよい。
放送ネットワーク及び/又はインターネットネットワークと連動するように構成されるハイブリッド放送サービスは、デジタルテレビ(DTV)サービスで使われる代表アプリケーションとして用いられてもよい。ハイブリッド放送サービスは、インターネットで地上波放送ネットワークを介して送信される放送A/V(オーディオ/ビデオ)コンテンツに関連したエンハンスメントデータを実時間で送信し、インターネットで放送A/Vコンテンツの一部を実時間で送信し、ユーザが様々なコンテンツを経験できるようにすることができる。
本発明は、IPパケット、MPEG−2TSパケット及び次世代デジタル放送システムで他の放送システムに適用可能なパケットをカプセル化し、IPパケット、MPEG−2TSパケット及びパケットが物理層に送信されるようにする方法を提供することを目標とする。また、本発明は、同じヘッダーフォーマットを用いてレイヤ2シグナリングを送信する方法を提案する。
次に説明するコンテンツは、装置によって具現することができる。例えば、次のプロセスを、シグナリングプロセッサ、プロトコルプロセッサ、プロセッサ及び/又はパケット生成器で行うことができる。
本発明で使用する用語のうち、リアルタイムサービス(real time(RT)service)は、言葉のとおり、実時間サービスを意味する。すなわち、時間に拘束されるサービスである。これに対し、ノンリアルタイムサービス(non−real time(NRT) service)は、RTサービス以外の非実時間サービスを意味する。すなわち、非実時間サービスは、時間に拘束されないサービスである。そして、NRTサービスのためのデータをNRTサービスデータと呼ぶものとする。
本発明に係る放送受信機は、地上波、ケーブル、インターネットなどのような媒体を介して非実時間(NRT)サービスを受信することができる。NRTサービスは、放送受信機の保存媒体に保存された後、既に設定された時間又はユーザの要求によってディスプレイ装置に表示される。NRTサービスは、ファイル形態で受信されて保存媒体に保存されることを一実施例とする。保存媒体は、放送受信機の内部に装着された内蔵HDDであることを一実施例とする。他の例として、保存媒体は、放送受信システムの外部に連結されたUSB(Universal Serial Bus)メモリ、外付けHDDなどとしてもよい。NRTサービスを構成するファイルを受信して保存媒体に保存し、ユーザにサービスするためには、シグナリング情報が必要である。本発明は、これをNRTサービスシグナリング情報又はNRTサービスシグナリングデータと呼ぶものとする。本発明に係るNRTサービスは、IPデータグラムを得る方式によって、Fixed NRTサービスとMobile NRTサービスとに区別することができる。特にFixed NRTサービスは、固定型放送受信機に提供され、Mobile NRTサービスは、移動型放送受信機に提供される。本発明は、Fixed NRTサービスを一実施例として説明するものとする。しかし、本発明がMobile NRTサービスに適用されてもよいことは当然である。
本発明で使う用語のうち、アプリケーション(又は、同期化されたアプリケーション)は、視聴経験(viewing experience)の向上のために、視聴者に両方向経験を提供するデータサービスである。アプリケーションは、TDO(Triggered Declarative Object)、DO(Declarative Object)、又はNDO(NRT Declarative Object)と命名することができる。
本発明で使う用語のうち、トリガー(Trigger)は、シグナリングを識別し、アプリケーション又はアプリケーション内のイベントの提供時点を設定するシグナリングエレメント(signaling element)である。トリガーは、TPT(TDO parameter table)(又は、TDO parameter elementとも呼ぶ。)の位置情報を含むことができる。TPTは、特定範囲内で、アプリケーションの動作のためのメタデータを含むシグナリングエレメントである。
トリガーは、タイムベーストリガー(time base trigger)及び/又はアクチベーショントリガー(activation trigger)の役割を担うことができる。タイムベーストリガーは、イベントの再生時刻の基準を提示するタイムベースを設定するために用いられる。アクチベーショントリガーは、アプリケーション又はアプリケーション内に含まれたイベントの動作時刻を設定するために用いられる。ここで、動作は、アプリケーション又はアプリケーション内のイベントの開始、終了、中止(pause)、kill及び/又はresumeに該当し得る。タイムベースメッセージ(time base messages)がタイムベーストリガーとして用いられてもよく、タイムベーストリガーがタイムベースメッセージとして用いられてもよい。後述されるアクチベーションメッセージ(activation messages)がアクチベーショントリガーとして用いられてもよく、アクチベーショントリガーがアクチベーションメッセージとして用いられてもよい。
メディアタイム(Media Time)は、コンデンツ再生時に、特定の時点を参照するためのパラメータ(parameter)である。
TDO(Triggered Declarative Object)は、放送コンデンツ内の付加情報を示すものである。TDOは、付加情報を放送コンデンツ内でタイミングに合わせてトリガーする概念である。例えば、オーディションプログラムが放送される場合、視聴者が好むオーディション参加者の現在順位などを当該放送コンデンツと共に示すことができ、このオーディション参加者の現在順位などに関する付加情報がTDOに当たる。このようなTDOは、視聴者との両方向交信によって変更されてもよく、視聴者の意図を反映して提供されてもよい。
本発明の一実施例に係る送信装置及び方法は、地上波放送サービスのためのベースプロファイル、モバイル放送サービスのためのハンドヘルドプロファイル、及びUHDTVサービスのためのアドバンスドプロファイルに分類される。この場合、ベースプロファイルは、地上波放送サービス及びモバイル放送サービスの両方のためのプロファイルとして用いることができる。すなわち、ベースプロファイルは、モバイルプロファイルを含むプロフィルの概念を定義するために用いることができる。これは設計者の意図によって変更されてもよい。
本発明は、一実施例によって、非−MIMO(non−Multiple Input Multiple Output)又はMIMO方式を用いて次世代放送サービスに対する放送信号を処理することができる。本発明の一実施例に係る非−MIMO方式は、MISO(Multiple Input Single Output)方式、SISO(Single Input Single Output)方式などを含むことができる。
以下では、説明の便宜のために、MISO又はMIMO方式が2つのアンテナを用いるとするが、本発明は、2つ以上のアンテナを用いるシステムに適用されてもよい。
本発明は、特定の用途に要求される性能を達成しながら、受信機の複雑度を最小化するために、最適化された3つのフィジカルプロファイル(PHY profile)(ベース(base)、ハンドヘルド(handheld)、アドバンスド(advanced)プロファイル)を定義することができる。フィジカルプロファイルは、該当する受信機が具現しなければならない全ての構造のサブセットである。
3つのフィジカルプロファイルは、大部分の機能ブロックを共有するが、特定ブロック及び/又はパラメータではやや異なる。後でフィジカルプロファイルがさらに定義されてもよい。システムの発展のために、ヒューチャプロファイルは、FEF(future extension frame)を通じて単一RF(radio frequency)チャネルに存在するプロファイルとマルチプレクスされてもよい。各フィジカルプロファイルに関する詳細な内容は後述する。
1.ベースプロファイル
ベースプロファイルは主にループトップ(roof−top)アンテナと連結される固定された受信装置の主な用途を示す。ベースプロファイルはある場所に移動してもよいが、比較的停止した受信範ちゅうに属する携帯用装置も含むことができる。ベースプロファイルの用途は、若干の改善された実行によってハンドヘルド装置又は車両用に拡張されてもよいが、このような使用用途はベースプロファイル受信機動作では期待されない。
受信のターゲット信号対雑音比の範囲は略10乃至20dBであるが、これは、既存放送システム(例えば、ATSC A/53)の15dB信号対雑音比の受信能力を含む。受信機の複雑度及び消費電力は、ハンドヘルドプロファイルを使用する、バッテリーで駆動するハンドヘルド装置におけるよりは重要でない。ベースプロファイルに対する重要システムパラメータが、下記の表1に記載されている。
2.ハンドヘルドプロファイル
ハンドヘルドプロファイルは、バッテリー電源で駆動されるハンドヘルド及び車両用装置における使用のために設計される。当該装置は歩行者又は車両の速度で移動することができる。受信機複雑度も消費電力も、共にハンドヘルドプロファイルの装置の具現のために非常に重要である。ハンドヘルドプロファイルのターゲット信号対雑音比の範囲は、略0乃至10dBであるが、より低い室内受信のために意図された場合、0dB未満となるように設定されてもよい。
低い信号対雑音比能力だけでなく、受信機移動性によって現れたドップラー効果に対する復原力は、ハンドヘルドプロファイルの最も重要な性能属性である。ハンドヘルドプロファイルに対する重要システムパラメータが下記の表2に記載されている。
3.アドバンスドプロファイル
アドバンスドプロファイルは、より大きい実行複雑度に対する代価としてより高いチャネル能力を提供する。当該プロファイルはMIMO送信及び受信を用いることを要求し、UHDTVサービスはターゲット用途であり、そのために、当該プロファイルが特別に設計される。向上した能力は、与えられた帯域幅でサービス数の増加、例えば、複数のSDTV又はHDTVサービスを許容するために用いることができる。
アドバンスドプロファイルのターゲット信号対雑音比の範囲は、略20乃至30dBである。MIMO伝送は、初期には既存の楕円分極伝送装備を使用し、将来には全出力交差分極伝送へと拡張されてもよい。アドバンスドプロファイルに対する重要システムパラメータが下記の表3に記載されている。
この場合、ベースプロファイルは、地上波放送サービス及びモバイル放送サービスの両方に対するプロファイルとして用いられてもよい。すなわち、ベースプロファイルを、モバイルプロファイルを含むプロファイルの概念を定義するために用いることができる。また、アドバンスドプロファイルは、MIMOを有するベースプロファイルに対するアドバンスドプロファイルとMIMOを有するハンドヘルドプロファイルに対するアドバンスドプロファイルとに区別することができる。そして、該当の3つのプロファイルは設計者の意図によって変更されてもよい。
次の用語及び定義を本発明に適用することができる。次の用語及び定義は、設計によって変更されてもよい。
補助ストリーム:ヒューチャエクステンション(future extension、将来拡張)又は放送会社やネットワーク運営者によって要求されることによって用いられ得る、まだ定義されていない変調及びコーディングのデータを伝達するセルのシーケンス
ベースデータパイプ(base data pipe):サービスシグナリングデータを伝達するデータパイプ
ベースバンドフレーム(又は、BBFRAME):一つのFECエンコーディング過程(BCH及びLDPCエンコーディング)に対する入力を形成するKbchビットの集合
セル(cell):OFDM伝送の一つのキャリアによって伝達される変調値
コーディングブロック(coded block):PLS1データのLDPCエンコードされたブロック又はPLS2データのLDPCエンコードされたブロックの一つ
データパイプ(data pipe):一つ又は複数のサービス又はサービスコンポーネントを伝達し得るサービスデータ又は関連したメタデータを伝達する物理層(physical layer)におけるロジカルチャネル
データパイプユニット(DPU,data pipe unit):データセルをフレームにおけるデータパイプに割り当て得る基本ユニット
データシンボル(data symbol):プリアンブルシンボル以外のフレームにおけるOFDMシンボル(フレームシグナリングシンボル及びフレームエッジ(edge)シンボルはデータシンボルに含まれる。)
DP_ID:当該8ビットフィールドは、SYSTEM_IDによって識別されたシステム内でデータパイプを唯一に識別する。
ダミーセル(dummy cell):PLS(physical layer signalling)シグナリング、データパイプ、又は補助ストリームのために用いられないで残っている容量を満たすために用いられる擬似ランダム値を伝達するセル
FAC(emergency alert channel、非常警報チャネル):EAS情報データを伝達するフレームの一部
フレーム(frame):プリアンブルによって始まってフレームエッジシンボルによって終了される物理層(physical layer)タイムスロット
フレームレピティションユニット(frame repetition unit;フレーム反復単位):スーパーフレーム(super−frame)で8回反復されるFEFを含む同一又は別個のフィジカルプロファイルに属するフレームの集合
FIC(fast information channel;高速情報チャネル):サービスと該当のベースデータパイプとのマッピング情報を伝達するフレームにおいてロジカルチャネル
FECBLOCK:データパイプデータのLDPCエンコードされたビットの集合
FFTサイズ:基本周期Tのサイクルで表現されたアクティブシンボル周期Tsと同一である特定モードに用いられる名目上のFFTサイズ
フレームシグナリングシンボル(frame signaling symbol):PLSデータの一部を伝達する、FFTサイズ、保護区間(guard interval)、及びスキャッタ(scattered)パイロットパターンの特定組合せにおいてフレームの先頭で用いられるより高いパイロット密度を有するOFDMシンボル
フレームエッジシンボル(frame edge symbol):FFTサイズ、保護区間、及びスキャッタパイロットパターンの特定組合せにおいてフレームの終わりで用いられるより高いパイロット密度を有するOFDMシンボル
フレームグループ(frame−group):スーパーフレームで同じフィジカルプロファイルタイプを有する全フレームの集合
ヒューチャエクステンションフレーム(future extention frame;将来拡張フレーム):プリアンブルによって始まる、将来拡張に用いられ得るスーパーフレームにおける物理層(physical layer)タイムスロット
ヒューチャキャスト(futurecast)UTBシステム:入力が一つ以上のMPEG2−TS、IP(Internet protocol)、又は一般ストリームであり、出力がRFシグナルである、提案された物理層(physical layer)放送システム
インプットストリーム(input stream;入力ストリーム):システムによって最終ユーザに伝達されるサービスの調和(ensemble)のためのデータのストリーム
ノーマル(normal)データシンボル:フレームシグナリングシンボル及びフレームエッジシンボル以外のデータシンボル
フィジカルプロファイル(PHY profile):該当する受信機が具現すべき全ての構造のサブセット
PLS:PLS1及びPLS2で構成された物理層シグナリングデータ
PLS1:PLS2をデコードするために必要なパラメータだけでなく、システムに関する基本情報を伝達する固定されたサイズ、コーディング、変調を有するFSS(frame signalling symbol)で伝達されるPLSデータの一番目の集合
NOTE:PLS1データがフレームグループのデューレーション(duration)で一定である。
PLS2:データパイプ及びシステムに関するより詳細なPLSデータを伝達するFSSで伝送されるPLSデータの二番目の集合
PLS2ダイナミック(dynamic;動的)データ:フレームごとにダイナミック(動的)に変化するPLS2データ
PLS2スタティック(static;静的)データ:フレームグループのデューレーションでスタティック(静的)であるPLS2データ
プリアンブルシグナリングデータ(preamble signaling data):プリアンブルシンボルによって伝達され、システムの基本モードを確認するために用いられるシグナリングデータ
プリアンブルシンボル(preamble symbol):基本PLSデータを伝達し、フレームの先頭に位置する固定された長さのパイロットシンボル
NOTE:プリアンブルシンボルがシステム信号、そのタイミング、周波数オフセット、及びFFTサイズを検出するために高速初期バンドスキャンに主に用いられる。
将来使用(future use)のためにリザーブド(reserved):現在文書で定義されないが、将来に定義されてもよい。
スーパーフレーム(superframe):8個のフレーム反復単位の集合
タイムインターリービングブロック(time interleaving block;TI block):タイムインターリーバメモリの一つの用途に該当する、タイムインターリービングが実行されるセルの集合
タイムインターリービンググループ(time interleaving group;TI group):整数、ダイナミック(動的)に変化するXFECBLOCKの数からなる、特定データパイプに対するダイナミック(動的)容量割り当てが実行される単位
NOTE:タイムインターリービンググループが一つのフレームに直接マップされたり、複数のフレームにマップされてもよい。これは一つ以上のタイムインターリービングブロックを含むことができる。
タイプ1データパイプ(Type1DP):全データパイプがフレームにTDM(time division multiplexing)方式でマップされるフレームのデータパイプ
タイプ2データパイプ(Type2DP):全データパイプがフレームにFDM方式でマップされるフレームのデータパイプ
XFECBLOCK:一つのLDPC FECBLOCKの全ビットを伝達するNcellsセルの集合
図1は、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置の構造を示す。
本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置は、入力フォーマットブロック1000、BICM(bit interleaved coding & modulation)ブロック1010、フレーム生成ブロック1020、OFDM(orthogonal frequency division multiplexing)生成ブロック1030、及びシグナリング生成ブロック1040を含むことができる。放送信号送信装置の各モジュールの動作について説明する。
IPストリーム/パケット及びMPEG2−TSは、主要入力フォーマットであり、他のストリームタイプは一般ストリームとして扱われる。それらのデータ入力に加えて、管理情報が入力され、各入力ストリームに対する該当の帯域幅のスケジューリング及び割り当てを制御する。一つ又は複数のTSストリーム、IPストリーム及び/又は一般ストリーム入力が同時に許容される。
入力フォーマットブロック1000は、それぞれの入力ストリームを、独立したコーディング及び変調が適用される一つ又は複数のデータパイプにデマルチプレクスすることができる。データパイプは、堅固性(robustness)制御のための基本単位であり、これはQoS(Quality of Service)に影響を及ぼす。一つ又は複数のサービス又はサービスコンポーネントが一つのデータパイプによって伝達されてもよい。入力フォーマットブロック1000の詳細な動作は後述する。
データパイプは、一つ又は複数のサービス又はサービスコンポーネントを伝達できるサービスデータ又は関連メタデータを伝達する物理層におけるロジカルチャネルである。
また、データパイプユニットは、一つのフレームでデータセルをデータパイプに割り当てるための基本ユニットである。
入力フォーマットブロック1000で、パリティ(parity)データは誤り訂正のために追加され、エンコードされたビットストリームは複素数値コンステレーションシンボルにマップされる。当該シンボルは該当のデータパイプに用いられる特定インターリービング深さにわたってインターリーブされる。アドバンスドプロファイルにおいて、BICMブロック1010でMIMOエンコーディングが実行され、追加データ経路がMIMO伝送のために出力に追加される。BICMブロック1010の詳細な動作は後述する。
フレーム生成ブロック1020は、一つのフレーム内で入力データパイプのデータセルをOFDMシンボルにマップすることができる。マッピング後、周波数領域ダイバーシチのために、特に、周波数選択的フェージングチャネルを防止するために周波数インターリービングが用いられる。フレーム生成ブロック1020の詳細な動作は後述する。
プリアンブルを各フレームの先頭に挿入した後、OFDM生成ブロック1030は、サイクリックプレフィクス(cyclic prefix)を保護区間として有する既存のOFDM変調を適用することができる。アンテナスペースダイバーシチのために、分散された(distributed)MISO方式が送信機にわたって適用される。また、PAPR(peak−to−average power ratio)方式が時間領域で実行される。柔軟なネットワーク方式のために、当該提案は様々なFFTサイズ、保護区間の長さ、該当のパイロットパターンの集合を提供する。OFDM生成ブロック1030の詳細な動作は後述する。
シグナリング生成ブロック1040は、各機能ブロックの動作に用いられる物理層シグナリング情報を生成することができる。当該シグナリング情報はまた、関心のあるサービスが受信機側で適切に復旧されるように送信される。シグナリング生成ブロック1040の詳細な動作は後述する。
図2、図3、図4は、本発明の実施例に係る入力フォーマットブロック1000を示す。各図について説明する。
図2は、本発明の一実施例に係る入力フォーマットブロックを示す。図2は、入力信号が単一入力ストリーム(single input stream)であるときの入力フォーマットモジュールを示す。
図2に示す入力フォーマットブロックは、図1を参照して説明した入力フォーマットブロック1000の一実施例に該当する。
物理層への入力は、一つ又は複数のデータストリームで構成される。それぞれのデータストリームは一つのデータパイプによって伝達される。モードアダプテーション(mode adaptaion;モード適応)モジュールは、入力されるデータストリームをBBF(baseband frame)のデータフィールドにスライスする。当該システムは3種類の入力データストリーム、すなわち、MPEG2−TS、IP、GS(generic stream)を支援する。MPEG2−TSは、最初のバイトが同期バイト(0x47)である固定された長さ(188バイト)のパケットを特徴とする。IPストリームは、IPパケットヘッダー内でシグナルされる可変長IPデータグラムパケットで構成される。当該システムは、IPストリームに対してIPv4、IPv6の両方を支援する。GSは、カプセル化パケットヘッダー内でシグナルされる可変長のパケット又は一定の長さのパケットで構成されてもよい。
(a)は、信号データパイプに対するモードアダプテーション(モード適応)ブロック2000、及びストリームアダプテーション(stream adaptation;ストリーム適応)2010を示し、(b)は、PLSデータを生成及び処理するためのPLS生成ブロック2020、及びPLSスクランブラ2030を示す。各ブロックの動作について説明する。
入力ストリームスプリッタは、入力されたTS、IP、GSストリームを複数のサービス又はサービスコンポーネント(オーディオ、ビデオなど)ストリームに分割する。モードアダプテーション(モード適応)モジュール2010は、CRCエンコーダ、BB(baseband)フレームスライサ、及びBBフレームヘッダー挿入ブロックで構成される。
CRCエンコーダは、ユーザパケットレベルでの誤り検出のための3種類のCRCエンコーディング、すなわち、CRC−8、CRC−16、CRC−32を提供する。算出されたCRCバイトは、ユーザパケット後に付加される。CRC−8はTSストリームに用いられ、CRC−32はIPストリームに用いられる。GSストリームがCRCエンコーディングを提供しない場合には、提案されたCRCエンコーディングが適用されなければならない。
BBフレームスライサは、入力を内部ロジカルビットフォーマットにマップする。最初の受信ビットはMSBと定義する。BBフレームスライサは、可用データフィールド容量と同数の入力ビットを割り当てる。BBFペイロードと同数の入力ビットを割り当てるために、ユーザパケットストリームがBBFのデータフィールドに見合うようにスライスされる。
BBフレームヘッダー挿入ブロックは、2バイトの固定された長さのBBFヘッダーを、BBフレームの前に挿入することができる。BBFヘッダーは、STUFFI(1ビット)、SYNCD(13ビット)、及びRFU(2ビット)で構成される。固定された2バイトBBFヘッダーだけでなく、BBFは、2バイトBBFヘッダーの終わりに拡張フィールド(1又は3バイト)を有することができる。
ストリームアダプテーション(ストリーム適応)2010は、スタッフィング(stuffing)挿入ブロック及びBBスクランブラで構成される。
スタッフィング挿入ブロックは、スタッフィングフィールドをBBフレームのペイロードに挿入することができる。ストリームアダプテーション(ストリーム適応)に対する入力データがBBフレームを満たすのに十分であれば、STUFFIは0に設定され、BBFはスタッフィングフィールドを有しない。そうでないと、STUFFIは1に設定され、スタッフィングフィールドはBBFヘッダーの直後に挿入される。スタッフィングフィールドは、2バイトのスタッフィングフィールドヘッダー及び可変サイズのスタッフィングデータを含む。
BBスクランブラは、エネルギー分散のために完全なBBFをスクランブルする。スクランブリングシーケンスはBBFと同期化される。スクランブリングシーケンスはフィードバックシフトレジスターによって生成される。
PLS生成ブロック2020は、PLSデータを生成することができる。PLSは、受信機にフィジカルレイヤ(physical layer)データパイプに接続できる手段を提供する。PLSデータはPLS1データ及びPLS2データで構成される。
PLS1データは、PLS2データをデコードするために必要なパラメータだけでなく、システムに関する基本情報を伝達する固定されたサイズ、コーディング、変調を有するフレームでFSSで伝達されるPLSデータの一番目の集合である。PLS1データは、PLS2データの受信及びデコーディングを可能にするために要求されるパラメータを含む基本送信パラメータを提供する。また、PLS1データはフレームグループのデューレーションにおいて一定である。
PLS2データは、データパイプ及びシステムに関するさらに詳細なPLSデータを伝達するFSSで伝送されるPLSデータの二番目の集合である。PLS2は、受信機が所望のデータパイプをデコードする上で十分な情報を提供するパラメータを含む。PLS2シグナリングは、PLS2スタティック(静的)データ(PLS2−STATデータ)及びPLS2ダイナミック(動的)データ(PLS2−DYNデータ)の2種類のパラメータでさらに構成される。PLS2スタティック(静的)データは、フレームグループのデューレーションでスタティック(静的)であるPLS2データであり、PLS2ダイナミック(動的)データは、フレームごとにダイナミック(動的)に変化するPLS2データである。
PLSデータに関する詳細な内容は後述する。
PLSスクランブラ2030は、エネルギー分散のために生成されたPLSデータをスクランブルすることができる。
前述したブロックは省略されてもよく、類似又は同一の機能を有するブロックに代替されてもよい。
図3は、本発明の他の実施例に係る入力フォーマットブロックを示す。
図3に示す入力フォーマットブロックは、図1を参照して説明した入力フォーマットブロック1000の一実施例に該当する。
図3は、入力信号がマルチインプットストリーム(multi input stream;複数の入力ストリーム)に該当する場合、入力フォーマットブロックのモードアダプテーション(モード適応)ブロックを示す。
マルチインプットストリーム(複数の入力ストリーム)を処理するための入力フォーマットブロックのモードアダプテーション(モード適応)ブロックは、複数の入力ストリームを独立して処理することができる。
図3を参照すると、マルチインプットストリーム(複数の入力ストリーム)をそれぞれ処理するためのモードアダプテーション(モード適応)ブロックは、入力ストリームスプリッタ3000、入力ストリームシンクロナイザ3010、コンペンセーティングディレイ(compensating delay;補償遅延)ブロック3020、ヌルパケット削除ブロック3030、ヘッダー圧縮ブロック3040、CRCエンコーダ3050、BBフレームスライサ3060、及びBBヘッダー挿入ブロック3070を含むことができる。モードアダプテーション(モード適応)ブロックの各ブロックについて説明する。
CRCエンコーダ3050、BBフレームスライサ3060、及びBBヘッダー挿入ブロック3070の動作は、図2を参照して説明したCRCエンコーダ、BBフレームスライサ、及びBBヘッダー挿入ブロックの動作に該当するので、その説明は省略する。
入力ストリームスプリッタ3000は、入力されたTS、IP、GSストリームを複数のサービス又はサービスコンポーネント(オーディオ、ビデオなど)ストリームに分割する。
入力ストリームシンクロナイザ3010は、ISSYと呼ぶことができる。ISSYは、いかなる入力データフォーマットに対しても、CBR(constant bit rate)及び一定の終端間伝送(end−to−end transmission)遅延を保障するに適した手段を提供することができる。ISSYは、TSを伝達する複数のデータパイプの場合に常に用いられ、GSストリームを伝達する複数のデータパイプに選択的に用いられる。
コンペンセーティングディレイ(補償遅延)ブロック3020は、受信機でさらにメモリを必要とせずにTSパケット再結合メカニズムを許容するために、ISSY情報の挿入に続く分割されたTSパケットストリームを遅延させることができる。
ヌルパケット削除ブロック3030は、TS入力ストリームの場合にのみ用いられる。一部のTS入力ストリーム又は分割されたTSストリームは、VBR(variable bit−rate)サービスをCBR TSストリームに収容するために、存在する多数のヌルパケットを有することができる。この場合、不要な伝送オーバーヘッドを避けるために、ヌルパケットは確認されて伝送されなくてもよい。受信機で、除去されたヌルパケットは、伝送に挿入されたDNP(deleted null−packet;削除されたヌルパケット)カウンタを参照して元の正確な場所に再挿入可能であるため、CBRが保障され、タイムスタンプ(PCR)更新が不要になる。
ヘッダー圧縮ブロック3040は、TS又はIP入力ストリームに対する伝送効率を増加させるために、パケットヘッダー圧縮を提供することができる。受信機は、ヘッダーの特定部分に対する先験的な(a priori)情報を有することができるため、この知られた情報は送信機で削除されてもよい。
TSに対して、受信機は同期バイト構成(0x47)及びパケット長(188バイト)に関する先験的な情報を有することができる。入力されたTSが一つのPIDだけを有するコンデンツを伝達すると、すなわち、一つのサービスコンポーネント(ビデオ、オーディオなど)又はサービスサブコンポーネント(SVCベースレイヤ、SVCエンハンスメントレイヤ、MVCベースビュー、又はMVC依存ビュー)に対してのみ、TSパケットヘッダー圧縮がTSに(選択的に)適用されてもよい。TSパケットヘッダー圧縮は、入力ストリームがIPストリームである場合に選択的に用いられる。
上記のブロックは省略されてもよく、類似又は同一の機能を有するブロックに代替されてもよい。
図4は本発明の他の実施例に係る入力フォーマットブロックを示す。
図4に示す入力フォーマットブロックは、図1を参照して説明した入力フォーマットブロック1000の一実施例に該当する。
図4は、入力信号がマルチインプットストリーム(複数の入力ストリーム)に該当する場合、入力フォーマットモジュールのストリームアダプテーション(ストリーム適応)ブロックを示す。
図4を参照すると、マルチインプットストリーム(複数の入力ストリーム)をそれぞれ処理するためのモードアダプテーション(モード適応)ブロックは、スケジューラ4000、1−フレームディレイ(delay)ブロック4010、スタッフィング挿入ブロック4020、インバンド(In−band)シグナリングブロック4030、BBフレームスクランブラ4040、PLS生成ブロック4050、PLSスクランブラ4060を含むことができる。ストリームアダプテーション(ストリーム適応)ブロックの各ブロックについて説明する。
スタッフィング挿入ブロック4020、BBフレームスクランブラ4040、PLS生成ブロック4050、PLSスクランブラ4060の動作は、図2を参照して説明したスタッフィング挿入ブロック、BBスクランブラ、PLS生成ブロック、PLSスクランブラ4060の動作に該当するので、その説明は省略する。
スケジューラ4000は、各データパイプのFECBLOCKの量から全体フレームにわたって全体のセル割り当てを決定することができる。PLS、EAC及びFICに対する割り当てを含めて、スケジューラは、フレームのFSSのPLSセル又はインバンド(In−band)シグナリングで伝送されるPLS2−DYNデータの値を生成する。FECBLOCK、EAC、FICに関する詳細な内容は後述する。
1−フレームディレイブロック4010は、次のフレームに関するスケジューリング情報が、データパイプに挿入されるインバンド(In−band)シグナリング情報に関する現フレームを介して伝送され得るように、入力データを一つの伝送フレームだけ遅延させることができる。
インバンド(In−band)シグナリングブロック4030は、PLS2データの遅延されない部分をフレームのデータパイプに挿入することができる。
前述したブロックは省略されてもよく、類似又は同一の機能を有するブロックに代替されてもよい。
図5は、本発明の一実施例に係るBICMブロックを示す。
図5に示すBICMブロックは、図1を参照して説明したBICMブロック1010の一実施例に該当する。
前述したように、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置は、地上波放送サービス、モバイル放送サービス、UHDTVサービスなどを提供することができる。
QoSが本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置によって提供されるサービスの特性に依存するので、それぞれのサービスに該当するデータは別個の方式で処理されなければならない。したがって、本発明の一実施例に係るBICMブロックは、SISO、MISO、MIMO方式をそれぞれのデータ経路に該当するデータパイプに独立して適用することによって、そこに入力されるデータパイプを独立して処理することができる。結果的に、本発明の一実施例に係る次世代放送サービスに対する放送信号送信装置は、それぞれのデータパイプを通じて伝送される各サービス又はサービスコンポーネントに対するQoSを調節することができる。
(a)は、ベースプロファイル及びハンドヘルドプロファイルによって共有されるBICMブロックを示し、(b)は、アドバンスドプロファイルのBICMブロックを示す。
ベースプロファイル及びハンドヘルドプロファイルによって共有されるBICMブロック及びアドバンスドプロファイルのBICMブロックは、それぞれのデータパイプを処理するための複数の処理ブロックを含むことができる。
ベースプロファイル及びハンドヘルドプロファイルに対するBICMブロック及びアドバンスドプロファイルに対するBICMブロックのそれぞれの処理ブロックについて説明する。
ベースプロファイル及びハンドヘルドプロファイルに対するBICMブロックの処理ブロック5000は、データFECエンコーダ5010、ビットインターリーバ5020、コンステレーションマッパー(mapper)5030、SSD(signal space diversity)エンコーディングブロック5040、タイムインターリーバ5050を含むことができる。
データFECエンコーダ5010は、外部コーディング(BCH)及び内部コーディング(LDPC)を用いてFECBLOCK手順を生成するために入力BBFにFECエンコーディングを実行する。外部コーディング(BCH)は選択的なコーディング方法である。データFECエンコーダ5010の具体的な動作については後述する。
ビットインターリーバ5020は、効率的に実現可能な構造を提供しながら、データFECエンコーダ5010の出力をインターリーブし、LDPCコード及び変調方式の組合せによって最適化された性能を達成することができる。ビットインターリーバ5020の具体的な動作については後述する。
コンステレーションマッパー5030は、QPSK、QAM−16、不均一QAM(NUQ−64、NUQ−256、NUQ−1024)又は不均一コンステレーション(NUC−16、NUC−64、NUC−256、NUC−1024)を用いてベース及びハンドヘルドプロファイルでビットインターリーバ5020からのそれぞれのセルワードを変調したり、アドバンスドプロファイルでセルワードデマルチプレクサ5010−1からのセルワードを変調し、電力の正規化されたコンステレーションポイントelを提供することができる。当該コンステレーションマッピングは、データパイプに対してのみ適用される。NUQが任意の形態を有するのに対し、QAM−16及びNUQは正方形を有することが観察される。それぞれのコンステレーションが90度の倍数だけ回転されると、回転されたコンステレーションは元のものと正確に重なる。回転対称特性によって失敗及び虚数コンポーネントの容量及び平均電力が互いに同一となる。NUQ及びNUCはいずれも各コードレート(code rate)に対して特別に定義され、用いられる特定の一つは、PLS2データに保管されたパラメータDP_MODによってシグナルされる。
SSDエンコーディングブロック5040は、2次元、3次元、4次元でセルをプリコードし、劣悪なフェージング条件で受信堅固性(robustness)を増加させることができる。
タイムインターリーバ5050はデータパイプレベルで動作することができる。タイムインターリービングのパラメータはそれぞれのデータパイプに対して別々に設定されてもよい。タイムインターリーバ5050の具体的な動作に関しては後述する。
アドバンスドプロファイルに対するBICMブロックの処理ブロック5000−1は、データFECエンコーダ、ビットインターリーバ、コンステレーションマッパー、及びタイムインターリーバを含むことができる。ただし、処理ブロック5000−1は、セルワードデマルチプレクサ5010−1及びMIMOエンコーディングブロック5020−1をさらに含むという点で処理ブロック5000と区別される。
また、処理ブロック5000−1におけるデータFECエンコーダ、ビットインターリーバ、コンステレーションマッパー、タイムインターリーバの動作は、前述したデータFECエンコーダ5010、ビットインターリーバ5020、コンステレーションマッパー5030、タイムインターリーバ5050の動作に該当するので、その説明は省略する。
セルワードデマルチプレクサ5010−1は、アドバンスドプロファイルのデータパイプがMIMO処理のために単一セルワードストリームを二重セルワードストリームに分離するために用いられる。セルワードデマルチプレクサ5010−1の具体的な動作に関しては後述する。
MIMOエンコーディングブロック5020−1は、MIMOエンコーディング方式を用いてセルワードデマルチプレクサ5010−1の出力を処理することができる。MIMOエンコーディング方式は、放送信号の送信のために最適化されている。MIMO技術は容量増加を得るための有望な方式であるが、チャネル特性に依存する。特に放送に対して、別個の信号伝播特性による両アンテナ間の受信信号電力差又はチャネルの強いLOSコンポーネントは、MIMOから容量利得を得ることを困難にさせる。提案されたMIMOエンコーディング方式は、MIMO出力信号のうちの一つの位相ランダム化及び回転ベースプリコーディングを用いてこの問題を克服する。
MIMOエンコーディングは、送信機及び受信機の両方で少なくとも2つのアンテナを必要とする2x2MIMOシステムのために意図される。2つのMIMOエンコーディングモードは、本提案であるFR−SM(full−rate spatial multiplexing)及びFRFD−SM(full−rate full−diversity spatial multiplexing)で定義される。FR−SMエンコーディングは、受信機側での比較的小さい複雑度の増加から容量増加を提供するが、FRFD−SMエンコーディングは、受信機側での大きい複雑度の増加から容量増加及び追加的なダイバーシチ利得を提供する。提案されたMIMOエンコーディング方式は、アンテナ極性配置を制限しない。
MIMO処理はアドバンスドプロファイルフレームに要求されるが、これは、アドバンスドプロファイルフレームにおける全てのデータパイプがMIMOエンコーダによって処理されるということを意味する。MIMO処理はデータパイプレベルで適用される。コンステレーションマッパー出力のペア(pair;対)であるNUQ(e1,i及びe2,i)は、MIMOエンコーダの入力として供給される。MIMOエンコーダ出力ペア(対)(g1,i及びg2,i)は、それぞれの送信アンテナの同一キャリアk及びOFDMシンボルlによって送信される。
前述したブロックは省略されてもよく、類似又は同一の機能を有するブロックに代替されてもよい。
図6は、本発明の他の実施例に係るBICMブロックを示す。
図6に示すBICMブロックは、図1を参照して説明したBICMブロック1010の一実施例に該当する。
図6は、PLS、EAC、及びFICの保護のためのBICMブロックを示す。EACは、EAS情報データを伝達するフレームの一部であり、FICは、サービスと該当するベースデータパイプとの間でマッピング情報を伝達するフレームにおけるロジカルチャネルである。EAC及びFICに関する詳細な説明は後述する。
図6を参照すると、PLS、EAC、及びFICの保護のためのBICMブロックは、PLS FECエンコーダ6000、ビットインターリーバ6010、及びコンステレーションマッパー6020を含むことができる。
また、PLS FECエンコーダ6000は、スクランブラ、BCHエンコーディング/ゼロ挿入ブロック、LDPCエンコーディングブロック、及びLDPCパリティパンクチャリング(puncturing)ブロックを含むことができる。BICMブロックの各ブロックについて説明する。
PLS FECエンコーダ6000は、スクランブルされたPLS1/2データ、EAC及びFICセクションをエンコードすることができる。
スクランブラは、BCHエンコーディング及びショートニング(shortening)及びパンクチャされたLDPCエンコーディングの前にPLS1データ及びPLS2データをスクランブルすることができる。
BCHエンコーディング/ゼロ挿入ブロックは、PLS保護のためのショートニングされたBCHコードを用いて、スクランブルされたPLS1/2データに外部エンコーディングを行い、BCHエンコーディングの後にゼロビットを挿入することができる。PLS1データに対してのみ、ゼロ挿入の出力ビットをLDPCエンコーディングの前にパーミュテーション(permutation)することができる。
LDPCエンコーディングブロックは、LDPCコードを用いてBCHエンコーディング/ゼロ挿入ブロックの出力をエンコードすることができる。完全なコーディングブロックを生成するために、C
ldpc及びパリティビットP
ldpcは、それぞれのゼロが挿入されたPLS情報ブロックI
ldpcから組織的にエンコードされ、その後に付加される。
PLS1及びPLS2に対するLDPCコードパラメータは、次の表4のとおりである。
LDPCパリティパンクチャリングブロックは、PLS1データ及びPLS2データに対してパンクチャリングを行うことができる。
ショートニングがPLS1データ保護に適用されると、一部のLDPCパリティビットはLDPCエンコーディング後にパンクチャされる。また、PLS2データ保護のために、PLS2のLDPCパリティビットがLDPCエンコーディング後にパンクチャされる。それらのパンクチャされたビットは伝送されない。
ビットインターリーバ6010は、それぞれのショートニング及びパンクチャされたPLS1データ及びPLS2データをインターリーブすることができる。
コンステレーションマッパー6020は、ビットインターリーブされたPLS1データ及びPLS2データをコンステレーションにマップすることができる。
前述したブロックは省略されてもよく、類似又は同一の機能を有するブロックに代替されてもよい。
図7は、本発明の一実施例に係るフレーム生成ブロックを示す。
図7に示すフレーム生成ブロックは、図1を参照して説明したフレーム生成ブロック1020の一実施例に該当する。
図7を参照すると、フレーム生成ブロックは、ディレイコンペセーション(delay compensation;遅延補償)ブロック7000、セルマッパー7010、及び周波数インターリーバ7020を含むことができる。フレーム生成ブロックの各ブロックに関し説明する。
ディレイコンペセーション(遅延補償)ブロック7000は、データパイプと該当するPLSデータとの間のタイミングを調節し、送信機側でそれらの同時性を保障することができる。入力フォーマットブロック及びBICMブロックによるデータパイプの遅延を扱うことによって、PLSデータはデータパイプだけ遅延される。BICMブロックの遅延は主にタイムインターリーバ5050に起因する。インバンド(In−band)シグナリングデータは、次のタイムインターリービンググループの情報を、シグナルされるデータパイプよりも1フレーム先に伝達されるようにすることができる。ディレイコンペセーション(遅延補償)ブロックは、それに応じてインバンド(In−band)シグナリングデータを遅延させる。
セルマッパー7010は、PLS、EAC、FIC、データパイプ、補助ストリーム、及びダミーセルを、フレーム内でOFDMシンボルのアクティブ(active)キャリアにマップすることができる。セルマッパー7010の基本機能は、それぞれのデータパイプ、PLSセル、及びEAC/FICセルに対するタイムインターリービングによって生成されたデータセルを、存在するなら、一つのフレーム内でそれぞれのOFDMシンボルに該当するアクティブ(active)OFDMセルのアレイにマップすることである。(PSI(program specific information)/SIのような)サービスシグナリングデータは個別的に収集され、データパイプによって送られてもよい。セルマッパーは、フレーム構造の構成及びスケジューラによって生成されたダイナミックインフォメーション(dynamic information;動的情報)によって動作する。フレームに関する詳細な内容は後述する。
周波数インターリーバ7020は、セルマッパー7010から受信されたデータセルをランダムにインターリーブして周波数ダイバーシチを提供することができる。また、周波数インターリーバ7020は、単一フレームで最大のインターリービング利得を得るために、他のインターリービングシード(seed)順序を用いて、2つの順次的なOFDMシンボルで構成されたOFDMシンボルペア(対)で動作することができる。
前述したブロックは省略されてもよく、類似又は同一の機能を有するブロックに代替されてもよい。
図8は、本発明の一実施例に係るOFDM生成ブロックを示す。
図8に示すOFDM生成ブロックは、図1を参照して説明したOFDM生成ブロック1030の一実施例に該当する。
OFDM生成ブロックは、フレーム生成ブロックによって生成されたセルによってOFDMキャリアを変調し、パイロットを挿入し、伝送のための時間領域信号を生成する。また、当該ブロックは、順次に保護区間を挿入し、PAPR減少処理を適用して最終RF信号を生成する。
図8を参照すると、フレーム生成ブロックは、パイロット及びリザーブドトーン(reserved tone)挿入ブロック8000、2D−eSFN(single frequency network)エンコーディングブロック8010、IFFT(inverse fast Fourier transform)ブロック8020、PAPR減少ブロック8030、保護区間挿入ブロック8040、プリアンブル挿入ブロック8050、その他システム挿入ブロック8060、及びDACブロック8070を含むことができる。フレーム生成ブロックの各ブロックについて説明する。
パイロット及びリザーブドトーン挿入ブロック8000は、パイロット及びリザーブドトーンを挿入することができる。
OFDMシンボル内の様々なセルは、受信機で先験的に知られた送信された値を有するパイロットとして知られた参照情報に変調される。パイロットセルの情報は、分散パイロット、連続パイロット、エッジパイロット、FSS(frame signalling symbol)パイロット、及びFES(frame edge symbol)パイロットで構成される。各パイロットは、パイロットタイプ及びパイロットパターンによって特定の増加電力レベルで送信される。パイロット情報の値は、与えられたシンボルで一つがそれぞれの伝送キャリアに対するものである一連の値に該当する参照シーケンスから誘導される。パイロットは、フレーム同期化、周波数同期化、時間同期化、チャネル推定、伝送モード識別のために用いられてもよく、さらに、位相雑音を追跡するために用いられてもよい。
参照シーケンスから取った参照情報は、フレームのプリアンブル、FSS及びFES以外の全シンボルにおいて分散パイロットセルで送信される。連続パイロットは、フレームの全シンボルに挿入される。連続パイロットの数及び位置はFFTサイズ及び分散パイロットパターンにいずれも依存する。エッジキャリアは、プリアンブルシンボル以外の全シンボルでエッジパイロットである。これらは、スペクトルのエッジまで周波数インターポレーション(interpolation;補間)を許容するために挿入される。FSSパイロットはFSSに挿入され、FESパイロットはFESに挿入される。それらはフレームのエッジまで時間インターポレーション(補間)を許容するために挿入される。
本発明の一実施例に係るシステムは、非常に堅固な伝送モードを支援するために、分散MISO方式が選択的に用いられるSFNを支援する。2D−eSFNは、それぞれがSFNで他の送信機位置にある複数の送信アンテナを用いる分散MISO方式である。
2D−eSFNエンコーディングブロック8010は、SFN構成で時間及び周波数ダイバーシチを生成するために2D−eSFN処理をし、複数の送信機から送信された信号の位相を歪ませることができる。したがって、長時間の低い平面フェージング又は深いフェージングによるバースト誤りが軽減する。
IFFTブロック8020は、OFDM変調方式を用いて2D−eSFNエンコーディングブロック8010からの出力を変調することができる。パイロット(又は、リザーブドトーン)として指定されていないデータシンボルにおける全セルは、周波数インターリーバからのデータセルのうち一つを伝達する。これらのセルはOFDMキャリアにマップされる。
PAPR減少ブロック8030は、時間領域で様々なPAPR減少アルゴリズムを用いて入力信号にPAPR減少を実行する。
保護区間挿入ブロック8040は保護区間を挿入することができ、プリアンブル挿入ブロック8050は、信号の前にプリアンブルを挿入することができる。プリアンブルの構造に関する詳細な内容は後述する。その他、システム挿入ブロック8060は、放送サービスを提供する2つ以上の別個の放送送信/受信システムのデータが同一のRF信号帯域で同時に伝送され得るように、時間領域で複数の放送送信/受信システムの信号をマルチプレクスすることができる。ここで、2つ以上の別個の放送送信/受信システムとは、別個の放送サービスを提供するシステムのことをいう。別個の放送サービスは、地上波放送サービス、モバイル放送サービスなどを意味することができる。それぞれの放送サービスに関連したデータは別個のフレームで伝送されてもよい。
DACブロック8070は、入力されたデジタル信号をアナログ信号に変換して出力することができる。DACブロック8070から出力された信号は、物理層プロファイルによって複数の出力アンテナから伝送されてもよい。本発明の一実施例に係る送信アンテナは、垂直又は水平の極性を有することができる。
前述したブロックは、設計によって省略されてもよく、類似又は同一の機能を有するブロックに代替されてもよい。
図9は、本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置の構造を示す。
本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置は、図1を参照して説明した次世代放送サービスに対する放送信号送信装置に対応し得る。
本発明の一実施例に係る次世代放送サービスに対する放送信号受信装置は、同期及び復調モジュール9000、フレームパーシングモジュール9010、デマッピング及びデコーディングモジュール9020、出力プロセッサ9030、及びシグナリングデコーディングモジュール9040を含むことができる。放送信号受信装置の各モジュールの動作について説明する。
同期及び復調モジュール9000は、m個の受信アンテナを通じて入力信号を受信し、放送信号受信装置に該当するシステムに対して信号検出及び同期化を実行し、放送信号送信装置によって実行される手順の逆手順に該当する復調を実行することができる。
フレームパーシングモジュール9010は、入力信号フレームをパースし、ユーザによって選択されたサービスが伝送されるデータを抽出することができる。放送信号送信装置がインターリービングを実行すると、フレームパーシングモジュール9010は、インターリービングの逆過程に該当するデインターリービングを実行することができる。この場合、抽出されるべき信号及びデータの位置がシグナリングデコーディングモジュール9040から出力されたデータをデコードすることによって取得され、放送信号送信装置によって生成されたスケジューリング情報を復元することができる。
デマッピング及びデコーディングモジュール9020は、入力信号をビット領域データに変換した後、必要によって、それをデインターリーブすることができる。デマッピング及びデコーディングモジュール9020は、伝送効率のために適用されたマッピングに対するデマッピングを実行し、デコーディングを通じて伝送チャネルで発生した誤りを訂正することができる。この場合、デマッピング及びデコーディングモジュール9020は、シグナリングデコーディングモジュール9040から出力されたデータをデコードすることによって、デマッピング及びデコーディングのために必要な伝送パラメータを取得することができる。
出力プロセッサ9030は、伝送効率を向上させるために、放送信号送信装置によって適用される様々な圧縮/信号処理手順の逆手順を実行することができる。この場合、出力プロセッサ9030は、シグナリングデコーディングモジュール9040から出力されたデータで必要な制御情報を取得することができる。出力プロセッサ9030の出力は、放送信号送信装置に入力される信号に該当し、MPEG−TS、IPストリーム(v4又はv6)及びGSであってもよい。
シグナリングデコーディングモジュール9040は、同期及び復調モジュール9000によって復調された信号からPLS情報を取得することができる。前述したように、フレームパーシングモジュール9010、デマッピング及びデコーディングモジュール9020、出力プロセッサ9030は、シグナリングデコーディングモジュール9040から出力されたデータを用いてその機能を実行することができる。
図10は、本発明の一実施例に係るフレーム構造を示す。
図10は、フレームタイムの構成例及びスーパーフレームにおけるFRU(frame repetition unit;フレーム反復単位)を示す。(a)は、本発明の一実施例に係るスーパーフレームを示し、(b)は、本発明の一実施例に係るFRUを示し、(c)は、FRUにおける様々なフィジカルプロファイル(PHY profile)のフレームを示し、(d)は、フレームの構造を示す。
スーパーフレームは8個のFRUを含むことができる。FRUは、フレームのTDMに対する基本マルチプレクシング単位であり、スーパーフレームで8回反復される。
FRUにおいて各フレームはフィジカルプロファイル(ベース、ハンドヘルド、アドバンスドプロファイル)のいずれか一つ又はFEFに属する。FRUにおいてフレームの最大許容数は4であり、与えられたフィジカルプロファイルは、FRUにおいて0回乃至4回の回数を有することができる(例えば、ベース、ベース、ハンドヘルド、アドバンスド)。フィジカルプロファイル定義は、必要時には、プリアンブルにおけるPHY_PROFILEのリザーブド値を用いて拡張されてもよい。
FEF部分は、含まれるなら、FRUの終わりに挿入される。FEFがFRUに含まれる場合、FEFの最大数はスーパーフレームにおいて8である。FEF部分が互いに隣接することは推奨されない。
一つのフレームは、複数のOFDMシンボル及びプリアンブルにさらに分離される。(d)に示すように、フレームは、プリアンブル、一つ以上のFSS、ノーマルデータシンボル、FESを含む。
プリアンブルは、高速ヒューチャキャストUTBシステム信号検出を可能にし、信号の効率的な送信及び受信のための基本伝送パラメータの集合を提供する特別なシンボルである。プリアンブルに関する詳細な内容は後述する。
FSSの主な目的は、PLSデータを伝達することである。高速同期化及びチャネル推定のために、これによるPLSデータの高速デコーディングのために、FSSは、ノーマルデータシンボルに比べてより高密度のパイロットパターンを有する。FESはFSSと全く同じパイロットを有するが、これは、FES直前のシンボルに対して外挿(extrapolation)無しで、FES内における周波数だけのインターポレーション(補間)及び時間的補間(temporal interpolation)を可能にする。
図11は、本発明の一実施例に係るフレームのシグナリング階層構造を示す。
図11は、シグナリング階層構造を示すが、これは、3個の主要部分であるプリアンブルシグナリングデータ11000、PLS1データ11010、及びPLS2データ11020に分割される。毎フレームごとにプリアンブル信号によって伝達されるプリアンブルの目的は、フレームの基本伝送パラメータ及び伝送タイプを示すことである。PLS1は、受信機が関心のあるデータパイプに接続するためのパラメータを含むPLS2データに接続してデコーティング可能にさせる。PLS2は毎フレームごとに伝達され、2つの主要部分であるPLS2−STATデータとPLS2−DYNデータとに分割される。PLS2データのスタティック(静的)及びダイナミック(動的)部分には必要時にパディングが続く。
図12は、本発明の一実施例に係るプリアンブルシグナリングデータを示す。
プリアンブルシグナリングデータは、受信機がフレーム構造内でPLSデータに接続し、データパイプを追跡できるようにするために必要な21ビットの情報を伝達する。プリアンブルシグナリングデータに関する詳細な内容は、次のとおりである。
PHY_PROFILE:当該3ビットフィールドは、現フレームのフィジカルプロファイルタイプを示す。各フィジカルプロファイルタイプのマッピングは、下記の表5のように与えられる。
FFT_SIZE:当該2ビットフィールドは、下記の表6で説明したとおり、フレームグループ内で現フレームのFFTサイズを示す。
GI_FRACTION:当該3ビットフィールドは、下記の表7で説明したとおり、現スーパーフレームにおける保護区間一部(fraction)値を示す。
EAC_FLAG:当該1ビットフィールドは、EACが現フレームで提供されるか否かを示す。当該フィールドが1に設定されると、EASが現フレームで提供される。当該フィールドが0に設定されると、EASが現フレームで伝達されない。当該フィールドはスーパーフレーム内でダイナミック(動的)に転換されてもよい。
PILOT_MODE:当該1ビットフィールドは、現フレームグループで現フレームに対してパイロットモードがモバイルモードなのか又は固定モードなのかを示す。当該フィールドが0に設定されると、モバイルパイロットモードが用いられる。当該フィールドが1に設定されると、固定パイロットモードが用いられる。
PAPR_FLAG:当該1ビットフィールドは、現フレームグループで現フレームに対してPAPR減少が用いられるか否かを示す。当該フィールドが1に設定されると、トーン予約(tone reservation)がPAPR減少のために用いられる。当該フィールドが0に設定されると、PAPR減少が用いられない。
FRU_CONFIGURE:当該3ビットフィールドは、現スーパーフレームで存在するFRUのフィジカルプロファイルタイプ構成を示す。現スーパーフレームで全プリアンブルにおける当該フィールドにおいて、現スーパーフレームで伝達される全プロファイルタイプが識別される。当該3ビットフィールドは、下記の表8に示すように、それぞれのプロファイルに対して別々に定義される。
RESERVED:当該7ビットフィールドは、将来使用のためにリザーブド(reserved)される。
図13は、本発明の一実施例に係るPLS1データを示す。
PLS1データは、PLS2の受信及びデコーディングを可能にするために必要なパラメータを含む基本伝送パラメータを提供する。前述したように、PLS1データは、一つのフレームグループの全デューレーションで変化しない。PLS1データのシグナリングフィールドの具体的な定義は次のとおりである。
PREAMBLE_DATA:当該20ビットフィールドは、EAC_FLAG以外のプリアンブルシグナリングデータのコピーである。
NUM_FRAME_FRU:当該2ビットフィールドは、FRU当たりのフレーム数を示す。
PAYLOAD_TYPE:当該3ビットフィールドは、フレームグループで伝達されるペイロードデータのフォーマットを示す。PAYLOAD_TYPEは、表9に示すようにシグナルされる。
NUM_FSS:当該2ビットフィールドは、現フレームでFSSの数を示す。
SYSTEM_VERSION:当該8ビットフィールドは、伝送される信号フォーマットのバージョンを示す。SYSTEM_VERSIONは、主バージョン及び副バージョンの2つの4ビットフィールドに分離される。
主バージョン:SYSTEM_VERSIONフィールドのMSBである4ビットは、主バージョン情報を示す。主バージョンフィールドにおける変化は、互換が不可能な変化を示す。デフォルト値は0000である。当該標準で述べているバージョンに対して、値が0000に設定される。
副バージョン:SYSTEM_VERSIONフィールドのLSBである4ビットは、副バージョン情報を示す。副バージョンフィールドにおける変化は、互換が可能である。
CELL_ID:これは、ATSCネットワークで地理的セルを唯一に識別する16ビットフィールドである。ATSCセルカバレッジは、ヒューチャキャストUTBシステム当たりに用いられる周波数の数によって一つ以上の周波数で構成されてもよい。CELL_IDの値が知られないか又は特定されないと、当該フィールドは0に設定される。
NETWORK_ID:これは、現ATSCネットワークを唯一に識別する16ビットフィールドである。
SYSTEM_ID:該当16ビットフィールドは、ATSCネットワーク内でヒューチャキャストUTBシステムを唯一に識別する。ヒューチャキャストUTBシステムは、入力が一つ以上の入力ストリーム(TS、IP、GS)であり、出力がRF信号である地上波放送システムである。ヒューチャキャストUTBシステムは、存在するなら、FEF及び一つ以上のフィジカルプロファイルを伝達する。同じヒューチャキャストUTBシステムは、別個の入力ストリームを伝達し、別個の地理的領域で別個のRFを用いることができ、ローカルサービス挿入を許容する。フレーム構造及びスケジューリングは一つの場所で制御され、ヒューチャキャストUTBシステム内で全ての伝送に対して同一である。一つ以上のヒューチャキャストUTBシステムはいずれも同一のフィジカル構造及び構成を有するという同一のSYSTEM_ID意味を有することができる。
次のループ(loop)は、各フレームタイプの長さ及びFRU構成を示すFRU_PHY_PROFILE、FRU_FRAME_LENGTH、FRU_GI_FRACTION、RESERVEDで構成される。ループ(loop)サイズは、FRU内で4個のフィジカルプロファイル(FEFを含む)がシグナルされるように固定される。NUM_FRAME_FRUが4よりも小さいと、用いられないフィールドはゼロで埋められる。
FRU_PHY_PROFILE:当該3ビットフィールドは、関連したFRUの(i+1)番目のフレーム(iはループ(loop)インデックス)のフィジカルプロファイルタイプを示す。当該フィールドは表8に示すものと同じシグナリングフォーマットを用いる。
FRU_FRAME_LENGTH:当該2ビットフィールドは、関連したFRUの(i+1)番目のフレームの長さを示す。FRU_GI_FRACTIONと共にFRU_FRAME_LENGTHを用いると、フレームデューレーションの正確な値が得られる。
FRU_GI_FRACTION:当該3ビットフィールドは、関連したFRUの(i+1)番目のフレームの保護区間の一部の値を示す。FRU_GI_FRACTIONは、表7に従ってシグナルされる。
RESERVED:当該4ビットフィールドは、将来使用のためにリザーブド(reserved)される。
次のフィールドは、PLS2データをデコードするためのパラメータを提供する。
PLS2_FEC_TYPE:当該2ビットフィールドは、PLS2保護によって用いられるFECタイプを示す。FECタイプは、表10に従ってシグナルされる。LDPCコードに関する詳細な内容は後述する。
PLS2_MOD:当該3ビットフィールドは、PLS2によって用いられる変調タイプを示す。変調タイプは表11に従ってシグナルされる。
PLS2_SIZE_CELL:当該15ビットフィールドは、現フレームグループで伝達されるPLS2に対する全コーディングブロックのサイズ(QAMセルの数に特定される。)であるCtotal_partial_blockを示す。当該値は、現フレームグループの全デューレーションにおいて一定である。
PLS2_STAT_SIZE_BIT:当該14ビットフィールドは、現フレームグループに対するPLS2−STATのサイズをビット数で示す。当該値は、現フレームグループの全デューレーションにおいて一定である。
PLS2_DYN_SIZE_BIT:当該14ビットフィールドは、現フレームグループに対するPLS2−DYNのサイズをビット数で示す。当該値は、現フレームグループの全デューレーションにおいて一定である。
PLS2_REP_FLAG:当該1ビットフラグは、PLS2反復モードが現フレームグループで用いられるか否かを示す。当該フィールドの値が1に設定されると、PLS2反復モードは活性化される。当該フィールドの値が0に設定されると、PLS2反復モードは非活性化される。
PLS2_REP_SIZE_CELL:当該15ビットフィールドは、PLS2反復が用いられる場合、現フレームグループの毎フレームごとに伝達されるPLS2に対する部分コーディングブロックのサイズ(QAMセルの数に特定される。)であるCtotal_partial_blockを示す。反復が用いられない場合、当該フィールドの値は0と同一である。当該値は、現フレームグループの全デューレーションにおいて一定である。
PLS2_NEXT_FEC_TYPE:当該2ビットフィールドは、次のフレームグループの毎フレームで伝達されるPLS2に用いられるFECタイプを示す。FECタイプは表10に従ってシグナルされる。
PLS2_NEXT_MOD:当該3ビットフィールドは、次のフレームグループの毎フレームで伝達されるPLS2に用いられる変調タイプを示す。変調タイプは表11に従ってシグナルされる。
PLS2_NEXT_REP_FLAG:当該1ビットフラグは、PLS2反復モードが次のフレームグループで用いられるか否かを示す。当該フィールドの値が1に設定されると、PLS2反復モードは活性化される。当該フィールドの値が0に設定されると、PLS2反復モードは非活性化される。
PLS2_NEXT_REP_SIZE_CELL:当該15ビットフィールドは、PLS2反復が用いられる場合、次のフレームグループの毎フレームごとに伝達されるPLS2に対する全コーディングブロックのサイズ(QAMセルの数に特定される。)であるCtotal_full_blockを示す。次のフレームグループで反復が用いられない場合、当該フィールドの値は0と同一である。当該値は現フレームグループの全デューレーションにおいて一定である。
PLS2_NEXT_REP_STAT_SIZE_BIT:当該14ビットフィールドは、次のフレームグループに対するPLS2−STATのサイズをビット数で示す。当該値は、現フレームグループで一定である。
PLS2_NEXT_REP_DYN_SIZE_BIT:当該14ビットフィールドは、次のフレームグループに対するPLS2−DYNのサイズをビット数で示す。当該値は、現フレームグループで一定である。
PLS2_AP_MODE:当該2ビットフィールドは、現フレームグループでPLS2に対して追加パリティが提供されるか否かを示す。当該値は、現フレームグループの全デューレーションにおいて一定である。下記の表12は当該フィールドの値を提供する。当該フィールドの値が00に設定されると、現フレームグループで追加パリティがPLS2に対して用いられない。
PLS2_AP_SIZE_CELL:当該15ビットフィールドは、PLS2の追加パリティビットのサイズ(QAMセルの数に特定される)を示す。当該値は、現フレームグループの全デューレーションにおいて一定である。
PLS2_NEXT_AP_MODE:当該2ビットフィールドは、次のフレームグループの毎フレームごとにPLS2シグナリングに対して追加パリティが提供されるか否かを示す。当該値は、現フレームグループの全デューレーションにおいて一定である。表12は、当該フィールドの値を定義する。
PLS2_NEXT_AP_SIZE_CELL:当該15ビットフィールドは、次のフレームグループの毎フレームごとにPLS2の追加パリティビットのサイズ(QAMセルの数に特定される)を示す。当該値は、現フレームグループの全デューレーションにおいて一定である。
RESERVED:該当32ビットフィールドは将来使用のためにリザーブド(reserved)される。
CRC_32:全PLS1シグナリングに適用される32ビット誤り検出コード
図14は、本発明の一実施例に係るPLS2データを示す。
図14は、PLS2データのPLS2−STATデータを示す。PLS2−STATデータは、フレームグループ内で同一であるが、PLS2−DYNデータは現フレームに対して特定の情報を提供する。
PLS2−STATデータのフィールドに対して次に具体的に説明する。
FIC_FLAG:当該1ビットフィールドは、FICが現フレームグループで用いられるか否かを示す。当該フィールドの値が1に設定されると、FICは現フレームで提供される。当該フィールドの値が0に設定されると、FICは現フレームで伝達されない。当該値は、現フレームグループの全デューレーションにおいて一定である。
AUX_FLAG:当該1ビットフィールドは、補助ストリームが現フレームグループで用いられるか否かを示す。当該フィールドの値が1に設定されると、補助ストリームは現フレームで提供される。当該フィールドの値が0に設定されると、補助フレームは現フレームで伝達されない。当該値は、現フレームグループの全デューレーションにおいて一定である。
NUM_DP:該当6ビットフィールドは、現フレーム内で伝達されるデータパイプの数を示す。当該フィールドの値は1〜64であり、データパイプの数はNUM_DP+1である。
DP_ID:当該6ビットフィールドは、フィジカルプロファイル内でDPを唯一に識別する。
DP_TYPE:当該3ビットフィールドはデータパイプのタイプを示す。これは、下記の表13に従ってシグナルされる。
DP_GROUP_ID:当該8ビットフィールドは、現データパイプが関連しているデータパイプグループを識別する。これは、受信機が同じDP_GROUP_IDを有する特定サービスと関連しているサービスコンポーネントのデータパイプに接続するために用いられてもよい。
BASE_DP_ID:当該6ビットフィールドは、管理階層で用いられる(PSI/SIのような)サービスシグナリングデータを伝達するデータパイプを示す。BASE_DP_IDで示すデータパイプは、サービスデータと共にサービスシグナリングデータを伝達するノーマルデータパイプであってもよく、サービスシグナリングデータだけを伝達する専用データパイプであってもよい。
DP_FEC_TYPE:当該2ビットフィールドは、関連したデータパイプによって用いられるFECタイプを示す。FECタイプは、下記の表14に従ってシグナルされる。
DP_COD:当該4ビットフィールドは、関連したデータパイプによって用いられるコードレート(code rate)を示す。コードレート(code rate)は、下記の表15に従ってシグナルされる。
DP_MOD:当該4ビットフィールドは、関連したデータパイプによって用いられる変調を示す。変調は、下記の表16に従ってシグナルされる。
DP_SSD_FLAG:当該1ビットフィールドは、SSDモードが関連したデータパイプで用いられるか否かを示す。当該フィールドの値が1に設定されると、SSDが用いられる。当該フィールドの値が0に設定されると、SSDは用いられない。
次のフィールドは、PHY_PROFILEがアドバンスドプロファイルを示す010と同一である場合にのみ表される。
DP_MIMO:当該3ビットフィールドは、どのタイプのMIMOエンコーディング処理が関連したデータパイプに適用されるかを示す。MIMOエンコーディング処理のタイプは、下記の表17に従ってシグナルされる。
DP_TI_TYPE:当該1ビットフィールドは、タイムインターリービングのタイプを示す。0の値は、一つのタイムインターリービンググループが一つのフレームに該当し、一つ以上のタイムインターリービングブロックを含むことを示す。1の値は、一つのタイムインターリービンググループが一つよりも多いフレームで伝達され、一つのタイムインターリービングブロックのみを含むことを示す。
DP_TI_LENGTH:当該2ビットフィールド(許容された値は、1、2、4、8のみである。)の使用は、次のようなDP_TI_TYPEフィールド内で設定される値によって決定される。
DP_TI_TYPEの値が1に設定されると、当該フィールドは、それぞれのタイムインターリービンググループがマップされるフレームの数であるPIを示し、タイムインターリービンググループ当たりに一つのタイムインターリービングブロックが存在する(NTI=1)。当該2ビットフィールドで許容されるPIの値は、下記の表18に定義される。
DP_TI_TYPEの値が0に設定されると、当該フィールドは、タイムインターリービンググループ当たりのタイムインターリービングブロックの数N
TIを示し、フレーム当たりに一つのタイムインターリービンググループが存在する(P
I=1)。当該2ビットフィールドで許容されるP
Iの値は、下記の表18に定義される。
DP_FRAME_INTERVAL:当該2ビットフィールドは、関連したデータパイプに対するフレームグループ内でフレーム間隔(IJUMP)を示し、許容された値は1,2,4,8(該当する2ビットフィールドはそれぞれ00,01,10,11)である。フレームグループの全フレームに現れないデータパイプに対して、当該フィールドの値は、順次的なフレーム間の間隔と同一である。例えば、データパイプが1,5,9,13などのフレームで現れると、当該フィールドの値は4に設定される。全フレームに現れるデータパイプに対して、当該フィールドの値は1に設定される。
DP_TI_BYPASS:当該1ビットフィールドは、タイムインターリーバ5050の可用性を決定する。データパイプに対してタイムインターリービングが用いられないと、それは1に設定される。一方、タイムインターリービングが用いられると、それは0に設定される。
DP_FIRST_FRAME_IDX:当該5ビットフィールドは、現データパイプが発生するスーパーフレームの最初のフレームのインデックスを示す。DP_FIRST_FRAME_IDXの値は、0〜31である。
DP_NUM_BLOCK_MAX:当該10ビットフィールドは、当該データパイプに対するDP_NUM_BLOCKSの最大値を示す。当該フィールドの値はDP_NUM_BLOCKSと同じ範囲を有する。
DP_PAYLOAD_TYPE:当該2ビットフィールドは、与えられたデータパイプによって伝達されるペイロードデータのタイプを示す。DP_PAYLOAD_TYPEは、下記の表19に従ってシグナルされる。
DP_INBAND_MODE:当該2ビットフィールドは、現データパイプがインバンド(In−band)シグナリング情報を伝達するか否かを示す。インバンド(In−band)シグナリングタイプは、下記の表20に従ってシグナルされる。
DP_PROTOCOL_TYPE:当該2ビットフィールドは、与えられたデータパイプによって伝達されるペイロードのプロトコルタイプを示す。それは、入力ペイロードタイプが選択されると、下記の表21に従ってシグナルされる。
DP_CRC_MODE:当該2ビットフィールドは、CRCエンコーディングが入力フォーマットブロックで用いられるか否かを示す。CRCモードは、下記の表22に従ってシグナルされる。
DNP_MODE:当該2ビットフィールドは、DP_PAYLOAD_TYPEがTS(‘00’)に設定される場合に、関連したデータパイプによって用いられるヌルパケット削除モードを示す。DNP_MODEは、下記の表23に従ってシグナルされる。DP_PAYLOAD_TYPEがTS(‘00’)でなければ、DNP_MODEは00の値に設定される。
ISSY_MODE:当該2ビットフィールドは、DP_PAYLOAD_TYPEがTS(‘00’)に設定される場合に、関連したデータパイプによって用いられるISSYモードを示す。ISSY_MODEは、下記の表24に従ってシグナルされる。DP_PAYLOAD_TYPEがTS(‘00’)でなければ、ISSY_MODEは00の値に設定される。
HC_MODE_TS:当該2ビットフィールドは、DP_PAYLOAD_TYPEがTS(‘00’)に設定される場合に、関連したデータパイプによって用いられるTSヘッダー圧縮モードを示す。HC_MODE_TSは、下記の表25に従ってシグナルされる。
HC_MODE_IP:当該2ビットフィールドは、DP_PAYLOAD_TYPEがIP(‘01’)に設定される場合に、IPヘッダー圧縮モードを示す。HC_MODE_IPは、下記の表26に従ってシグナルされる。
PID:当該13ビットフィールドは、DP_PAYLOAD_TYPEがTS(‘00’)に設定され、HC_MODE_TSが01又は10に設定される場合に、TSヘッダー圧縮のためのPID数を示す。
RESERVED:当該8ビットフィールドは、将来使用のためにリザーブド(reserved)される。
次のフィールドは、FIC_FLAGが1と同一である場合にのみ現れる。
FIC_VERSION:当該8ビットフィールドは、FICのバージョンナンバーを示す。
FIC_LENGTH_BYTE:当該13ビットフィールドは、FICの長さをバイト単位で示す。
RESERVED:当該8ビットフィールドは、将来使用のためにリザーブド(reserved)される。
次のフィールドは、AUX_FLAGが1と同一である場合にのみ現れる。
NUM_AUX:当該4ビットフィールドは、補助ストリームの数を示す。ゼロは、補助ストリームが用いられないことを示す。
AUX_CONFIG_RFU:当該8ビットフィールドは将来使用のためにリザーブド(reserved)される。
AUX_STREAM_TYPE:当該4ビットは、現補助ストリームのタイプを示すための将来使用のためにリザーブド(reserved)される。
AUX_PRIVATE_CONFIG:該当28ビットフィールドは、補助ストリームをシグナリングするための将来使用のためにリザーブド(reserved)される。
図15は、本発明の他の実施例に係るPLS2データを示す。
図15は、PLS2データのPLS2−DYNを示す。PLS2−DYNデータの値は一つのフレームグループのデューレーションで変化してもよいが、フィールドのサイズは一定である。
PLS2−DYNデータのフィールドの具体的な内容は、次のとおりである。
FRAME_INDEX:当該5ビットフィールドは、スーパーフレーム内で現フレームのフレームインデックスを示す。スーパーフレームの最初のフレームのインデックスは0に設定される。
PLS_CHANGE_COUNTER:当該4ビットフィールドは、構成が変化する前のスーパーフレームの数を示す。構成が変化する次のスーパーフレームは、当該フィールド内でシグナルされる値で示す。当該フィールドの値が0000に設定されると、これは、いかなる予定された変化も予測されないことを意味する。例えば、1の値は、次のスーパーフレームに変化があることを示す。
FIC_CHANGE_COUNTER:当該4ビットフィールドは、構成(すなわち、FICのコンテンツ)が変化する前のスーパーフレームの数を示す。構成が変化する次のスーパーフレームは、当該フィールド内でシグナルされる値で示す。当該フィールドの値が0000に設定されると、これは、いかなる予定された変化も予測されないことを意味する。例えば、0001の値は、次のスーパーフレームに変化があるということを示す。
RESERVED:当該16ビットフィールドは、将来使用のためにリザーブド(reserved)される。
次のフィールドは、現フレームで伝達されるデータパイプと関連したパラメータを説明するNUM_DPにおけるループ(loop)に現れる。
DP_ID:当該6ビットフィールドは、フィジカルプロファイル内でデータパイプを唯一に示す。
DP_START:当該15ビット(又は、13ビット)フィールドは、DPUアドレシング(addressing)技法を用いてデータパイプの最初の開始位置を示す。DP_STARTフィールドは、下記の表27に示すように、フィジカルプロファイル及びFFTサイズによって異なる長さを有する。
DP_NUM_BLOCK:当該10ビットフィールドは、現データパイプに対する現タイムインターリービンググループでFECブロックの数を示す。DP_NUM_BLOCKの値は、0〜1023である。
RESERVED:当該8ビットフィールドは、将来使用のためにリザーブド(reserved)される。
次のフィールドは、EACと関連したFICパラメータを示す。
EAC_FLAG:当該1ビットフィールドは、現フレームでEACの存在を示す。該当ビットはプリアンブルでEAC_FLAGと同じ値である。
EAS_WAKE_UP_VERSION_NUM:当該8ビットフィールドは、自動活性化指示のバージョンナンバーを示す。
EAC_FLAGフィールドが1に等しいと、次の12ビットがEAC_LENGTH_BYTEフィールドに割り当てられる。EAC_FLAGフィールドが0に等しいと、次の12ビットがEAC_COUNTERに割り当てられる。
EAC_LENGTH_BYTE:当該12ビットフィールドは、EACの長さをバイトで示す。
EAC_COUNTER:当該12ビットフィールドは、EACが到達するフレーム以前のフレームの数を示す。
次のフィールドは、AUX_FLAGフィールドが1と同一である場合にのみ現れる。
AUX_PRIVATE_DYN:当該48ビットフィールドは、補助ストリームをシグナリングするための将来使用のためにリザーブド(reserved)される。当該フィールドの意味は、設定可能なPLS2−STATでAUX_STREAM_TYPEの値に依存する。
CRC_32:全PLS2に適用される32ビット誤り検出コード。
図16は、本発明の一実施例に係るフレームのロジカル(logical)構造を示す。
前述したように、PLS、EAC、FIC、データパイプ、補助ストリーム、ダミーセルは、フレームでOFDMシンボルのアクティブ(active)キャリアにマップされる。PLS1及びPLS2は、初めには一つ以上のFSSにマップされる。その後、存在するなら、EACセルは直後のPLSフィールドにマップされ、次に存在すると、FICセルが続く。データパイプは、存在すると、PLS又はEAC、FIC後にマップされる。タイプ1データパイプが初めて続き、その次にタイプ2データパイプが続く。データパイプのタイプの具体的な内容は後述する。一部の場合に、データパイプは、EASに対する一部の特殊データ又はサービスシグナリングデータを伝達することができる。補助ストリーム又はストリームは、存在するなら、データパイプに続き、ここには順にダミーセルが続く。前述した順序、すなわち、PLS、EAC、FIC、データパイプ、補助ストリーム、及びダミーセルの順でそれらを全て共にマップすると、フレームでセル容量を正確に満たす。
図17は、本発明の一実施例に係るPLSマッピングを示す。
PLSセルは、FSSのアクティブ(active)キャリアにマップされる。PLSが占めるセルの数によって、一つ以上のシンボルがFSSとして指定され、FSSの数NFSSは、PLS1におけるNUM_FSSでシグナルされる。FSSは、PLSセルを伝達する特殊なシンボルである。警告性及び遅延時間(latency)はPLSで重大な事案であるため、FSSは高いパイロット密度を有し、高速同期化及びFSS内における周波数のみのインターポレーション(補間)を可能にする。
PLSセルは、図17の例に示すように、下向き方式でFSSのアクティブキャリアにマップされる。PLS1セルははじめには、最初のFSSの最初のセルからセルインデックスの昇順でマップされる。PLS2セルは、PLS1の最後のセルの直後に続き、マッピングは、最初のFSSの最後のセルインデックスまで下向き方式で続く。必要なPLSセルの全数が一つのFSSのアクティブキャリアの数を超えると、マッピングは次のFSSに進行され、最初のFSSと全く同じ方式で続けて行われる。
PLSマッピングが完了した後、データパイプが次に伝達される。EAC、FIC、又は両方が現フレームに存在すると、これらはPLSとノーマルデータパイプとの間に配置される。
図18は、本発明の一実施例に係るEACマッピングを示す。
EACは、EASメッセージを伝達する専用チャネルであり、EASに対するデータパイプに連結される。EAS支援は提供されるが、EAC自体は全てのフレームに存在してもよく、存在しなくてもよい。存在するなら、EACは、PLS2セルの直後にマップされる。PLSセルを除けば、FIC、データパイプ、補助ストリーム又はダミーセルのいずれもEACの前に位置しない。EACセルのマッピング手順はPLSと全く同一である。
EACセルは、図18の例に示すように、PLS2の次のセルからセルインデックスの昇順でマップされる。EASメッセージの大きさによって、図18に示すように、EACセルは、少ないシンボルを占めることができる。
EACセルは、PLS2の最後のセルの直後に続き、マッピングは、最後のFSSの最後のセルインデックスまで下向き方式で続けて行われる。必要なEACセルの全数が最後のFSSの残っているアクティブキャリアの数を超えると、マッピングは次のシンボルに進行され、FSSと全く同じ方式で続けて行われる。この場合のマッピングに対する次のシンボルはノーマルデータシンボルであり、これは、FSSに比べてより多いアクティブキャリアを有する。
EACマッピングが完了した後、存在するなら、FICが次に伝達される。FICが伝送されないと(PLS2フィールドでシグナリングによって)、データパイプがEACの最後のセルの直後に続く。
図19は、本発明の一実施例に係るFICマッピングを示す。
(a)は、EAC無しのFICセルのマッピングの例を示し、(b)は、EACと共にFICセルのマッピングの例を示す。
FICは、高速サービス取得及びチャネルスキャンを可能にするために階層間情報を伝達する専用チャネルである。当該情報は主に、データパイプ間のチャネルバインディング情報及び各放送会社のサービスを含む。高速スキャンのために、受信機はFICをデコードし、放送会社ID、サービス数、BASE_DP_IDのような情報を取得することができる。高速サービスの取得のために、FICだけでなくベースデータパイプもBASE_DP_IDを用いてデコードすることができる。それが伝達するコンデンツを除いて、ベースデータパイプは、ノーマルデータパイプと全く同じ方式でエンコードされてフレームにマップされる。したがって、ベースデータパイプに関する追加説明は不要である。FICデータが生成されて管理階層で消費される。FICデータのコンデンツは、管理階層仕様に説明されたとおりである。
FICデータは選択的であり、FICの使用はPLS2のスタティック(静的)である部分でFIC_FLAGパラメータによってシグナルされる。FICが用いられると、FIC_FLAGは1に設定され、FICに対するシグナリングフィールドは、PLS2のスタティック(静的)である部分で定義される。当該フィールドでシグナルされるものはFIC_VERSIONであり、FIC_LENGTH_BYTE.FICは、PLS2と同じ変調、コーディング、タイムインターリービングパラメータを用いる。FICは、PLS2_MOD及びPLS2_FECのような同一のシグナリングパラメータを共有する。FICデータは、存在するなら、PLS2又はEACの直後にマップされる。ノーマルデータパイプ、補助ストリーム、又はダミーセルのいずれもFICの前に位置しない。FICセルをマップする方法は、EACと全く同一であり、これはさらにPLSと同一である。
PLS後のEAC無しで、FICセルは、(a)の例に示すように、PLS2の次のセルからセルインデックスの昇順でマップされる。FICデータサイズによって、(b)に示すように、FICセルは数個のシンボルに対してマップされる。
FICセルは、PLS2の最後のセルの直後に続き、マッピングは、最後のFSSの最後のセルインデックスまで下向き方式で続けて行われる。必要なFICセルの全数が最後のFSSの残っているアクティブキャリアの数を超えると、マッピングは次のシンボルに進行され、FSSと全く同じ方式で続けて行われる。この場合のマッピングに対する次のシンボルはノーマルデータシンボルであり、これはFSSに比べてより多いアクティブキャリアを有する。
EASメッセージが現フレームで伝送されると、EACがFICに先行し、FICセルが(b)に示すように、EACの次のセルからセルインデックスの昇順でマップされる。
FICマッピングが完了した後、一つ以上のデータパイプがマップされ、ここには、存在するなら、補助ストリーム、ダミーセルが続く。
図20は、本発明の一実施例に係るデータパイプのタイプを示す。
(a)はタイプ1データパイプを示し、(b)はタイプ2データパイプを示す。
先行するチャネル、すなわち、PLS、EAC、FICがマップされた後、データパイプのセルがマップされる。データパイプは、マッピング方法によって2タイプのいずれかに分類される。
タイプ1データパイプ:データパイプがTDMによってマップされる。
タイプ2データパイプ:データパイプがFDMによってマップされる。
データパイプのタイプは、PLS2のスタティック(静的)である部分でDP_TYPEフィールドで示す。図20は、タイプ1データパイプ及びタイプ2データパイプのマッピング順序を示す。タイプ1データパイプはまずセルインデックスの昇順でマップされた後、最後のセルインデックスに到達すると、シンボルインデックスが1ずつ増加する。次のシンボル内で、データパイプはp=0から始まって、セルインデックスの昇順で続けてマップされる。一つのフレームで共にマップされる複数のデータパイプと共に、それぞれのタイプ1データパイプは、データパイプのTDMと類似に、時間でグルーピングされる。
タイプ2データパイプはまずシンボルインデックスの昇順でマップされ、フレームの最後のOFDMシンボルに到達すると、セルインデックスは1ずつ増加し、シンボルインデックスは最初の可用シンボルに戻った後、そのシンボルインデックスから始まって増加する。一つのフレームで複数のデータパイプをマップした後、それぞれのタイプ2データパイプはデータパイプのFDMと類似に、周波数でグルーピングされる。
タイプ1データパイプ及びタイプ2データパイプは必要時にはフレームで共存してもよいが、タイプ1データパイプが常にタイプ2データパイプに先行するという制限がある。タイプ1及びタイプ2データパイプを伝達するOFDMセルの全数は、データパイプの伝送に利用可能なOFDMセルの全数を超えてはならない。
ここで、DDP1は、タイプ1データパイプが占めるOFDMセルの数に該当し、DDP2は、タイプ2データパイプが占めるセルの数に該当する。PLS、EAC、FICがいずれもタイプ1データパイプと同じ方式でマップされるため、これらはいずれも、「タイプ1マッピング規則」にしたがう。したがって、一般に、タイプ1マッピングがタイプ2マッピングに先行する。
図21は、本発明の一実施例に係るデータパイプマッピングを示す。
(a)は、タイプ1データパイプをマップするためのOFDMセルのアドレシングを示し、(b)は、タイプ2データパイプをマップするためのOFDMセルのアドレシングを示す。
タイプ1データパイプ(0,…,DDP1−1)をマップするためのOFDMセルのアドレシングは、タイプ1データパイプのアクティブデータセルに対して定義される。アドレシング方式は、それぞれのタイプ1データパイプに対するタイムインターリービングからのセルがアクティブデータセルに割り当てられる順序を定義する。それはまた、PLS2のダイナミック(動的)部分でデータパイプの位置をシグナルするために用いられる。
EAC及びFIC無しで、アドレス0は、最後のFSSでPLSを伝達する最後のセルの直後にくるセルのことをいう。EACが伝送され、FICが該当のフレームにないと、アドレス0は、EACを伝達する最後のセルの直後にくるセルのことをいう。FICが該当のフレームで伝送されると、アドレス0は、FICを伝達する最後のセルの直後にくるセルのことをいう。タイプ1データパイプに対するアドレス0は、(a)に示すような2種類の異なる場合を考慮して算出することができる。(a)の例で、PLS、EAC、FICは全て送信されると仮定する。EACとFICのいずれか一つ又は両方が省略される場合への拡張は自明である。(a)の左図に示すように、FICまで全てのセルをマップした後にFSSに残っているセルがあると、
タイプ2データパイプ(0,…,DDP2−1)をマップするためのOFDMセルのアドレシングは、タイプ2データパイプのアクティブデータセルに対して定義される。アドレシング方式は、それぞれのタイプ2データパイプに対するタイムインターリービングからのセルがアクティブデータセルに割り当てられる順序を定義する。それはまた、PLS2のダイナミック(動的)部分でデータパイプの位置をシグナルするために用いられる。
(b)に示すように、3種類のやや異なる場合が可能である。(b)の最も左図に示す一番目の場合に、最後のFSSにあるセルは、タイプ2データパイプマッピングに用いられてもよい。中央の図に示す二番目の場合に、FICはノーマルシンボルのセルを占めるが、当該シンボルにおけるFICセルの数はCFSSよりも大きくない。(b)の右図に示す三番目の場合は、当該シンボルにマップされたFICセルの数がCFSSを超えるという点を除けば、二番目の場合と同一である。
PLS、EAC、FICがタイプ1データパイプと同じ「タイプ1マッピング規則」にしたがうので、タイプ1データパイプがタイプ2データパイプに先行する場合への拡張は自明である。
データパイプユニット(DPU)は、フレームでデータセルをデータパイプに割り当てる基本単位である。
DPUは、フレームでデータパイプの位置を発見するためのシグナリング単位と定義される。セルマッパー7010は、それぞれのデータパイプに対してタイムインターリービングによって生成されたセルをマップすることができる。タイムインターリーバ5050は、一連のタイムインターリービングブロックを出力し、それぞれのタイムインターリービングブロックはXFECBLOCKの可変数を含み、これは結局、セルの集合で構成される。XFECBLOCKにおけるセルの数Ncellsは、FECBLOCKサイズ、Nldpc、コンステレーションシンボル当たりに伝送されるビット数に依存する。DPUは、与えられたフィジカルプロファイルで支援されるXFECBLOCKにおけるセルの数Ncellsの全ての可能な値の最大公約数と定義される。セルにおけるDPUの長さは、LDPUと定義される。それぞれのフィジカルプロファイルは、FECBLOCKサイズの別個の組合せ及びコンステレーションシンボル当たりに異なるビット数を支援するので、LDPUは、フィジカルプロファイルに基づいて定義される。
図22は、本発明の一実施例に係るFEC構造を示す。
図22は、ビットインターリービング前の本発明の一実施例に係るFEC構造を示す。前述したように、データFECエンコーダは外部コーディング(BCH)及び内部コーディング(LDPC)を用いてFECBLOCK手順を生成するために、入力BBFにFECエンコーディングを実行することができる。図示されたFEC構造は、FECBLOCKに該当する。また、FECBLOCK及びFEC構造は、LDPCコードワードの長さに該当する同一の値を有する。
図22に示すように、BCHエンコーディングがそれぞれのBBF(Kbchビット)に適用された後、LDPCエンコーディングがBCH−エンコードされたBBF(Kldpcビット=Nbchビット)に適用される。
Nldpcの値は、64800ビット(ロングFECBLOCK)又は16200ビット(ショートFECBLOCK)である。
下記の表28及び表29は、ロングFECBLOCK及びショートFECBLOCKのそれぞれに対するFECエンコーディングパラメータを示す。
BCHエンコーディング及びLDPCエンコーディングの具体的な動作は、次のとおりである。
12−誤り訂正BCHコードがBBFの外部エンコーディングに用いられる。ショートFECBLOCK及びロングFECBLOCKに対するBBF生成多項式は、全ての多項式を乗算することによって得られる。
LDPCコードは、外部BCHエンコーディングの出力をエンコードするために用いられる。完成されたB
ldpc(FECBLOCK)を生成するために、P
ldpc(パリティビット)がそれぞれのI
ldpc(BCH−エンコードされたBBF)から組織的にエンコードされ、I
ldpcに付加される。完成されたB
ldpc(FECBLOCK)は、次の式で表現される。
ロングFECBLOCK及びショートFECBLOCKに対するパラメータは、上記の表28及び表29にそれぞれ与えられる。
ロングFECBLOCKに対してNldpc−Kldpcパリティビットを計算する具体的な手順は次のとおりである。
2)パリティーチェックマトリクスのアドレスの一番目の行で特定されたパリティビットアドレスで一番目の情報ビットi
0を累算する(accumulate)。パリティーチェックマトリクスのアドレスの詳細な内容は後述する。例えば、比率13/15に対して、
3)次の359個の情報ビットi
s、s=1,2,…,359に対して、次の式を用いてパリティビットアドレスでi
sを累算する。
ここで、xは、最初のビットi
0に該当するパリティビット累算器のアドレスを示し、Q
ldpcは、パリティーチェックマトリクスのアドレスで特定されたコードレート(code rate)依存定数である。上記の例である、比率13/15に対する、したがって情報ビットi
1に対するQ
ldpc=24に続いて、次の動作が実行される。
4)361番目の情報ビットi360に対して、パリティビット累算器のアドレスは、パリティーチェックマトリクスのアドレスの2番目の行に与えられる。同様の方式で、次の359個の情報ビットis、s=361,362,…,719に対するパリティビット累算器のアドレスは、式6を用いて得られる。ここで、xは情報ビットi360に該当するパリティビット累算器のアドレス、すなわち、パリティーチェックマトリクスの2番目の行のエントリを示す。
5)同様の方式で、360個の新しい情報ビットの全てのグループに対して、パリティーチェックマトリクスのアドレスからの新しい行は、パリティビット累算器のアドレスを求めるために用いられる。
全情報ビットが利用された後、最終パリティビットが次のように得られる。
ここで、p
i、i=0,1,...N
ldpc−K
ldpc−1の最終コンデンツは、パリティビットp
iと同一である。
表30を表31に代え、ロングFECBLOCKに対するパリティーチェックマトリクスのアドレスをショートFECBLOCKに対するパリティーチェックマトリクスのアドレスに代えることを除けば、ショートFECBLOCKに対する当該LDPCエンコーディング手順は、ロングFECBLOCKに対するt LDPCエンコーディング手順にしたがう。
図23は、本発明の一実施例に係るビットインターリービングを示す。
LDPCエンコーダの出力はビットインターリーブされるが、これは、QCB(quasi−cyclic block)インターリービング及び内部グループインターリービングが続くパリティインターリービングで構成される。
(a)はQCBインターリービングを示し、(b)は内部グループインターリービングを示す。
FECBLOCKは、パリティインターリーブすることができる。パリティインターリービングの出力において、LDPCコードワードは、ロングFECBLOCKで180個の隣接するQCBで構成され、ショートFECBLOCKで45個の隣接するQCBで構成される。ロング又はショートFECBLOCKにおけるそれぞれのQCBは、360ビットで構成される。パリティインターリービングされたLDPCコードワードは、QCBインターリービングによってインターリーブされる。QCBインターリービングの単位はQCBである。パリティインターリービングの出力におけるQCBは、図23に示すように、QCBインターリービングによってパーミュテーションされるが、ここでFECBLOCKの長さによってNcells=64800/ηmod又は16200/ηmodである。QCBインターリービングパターンは、変調タイプ及びLDPCコードレート(code rate)の各組合せに固有である。
QCBインターリービング後に、内部グループインターリービングが、下記の表32に定義された変調タイプ及び次数(ηmod)によって実行される。一つの内部グループに対するQCBの数N
QCB_IGも定義される。
内部グループインターリービング過程は、QCBインターリービング出力のNQCB_IG個のQCBで実行される。内部グループインターリービングは、360個の列及びNQCB_IG個の行を用いて内部グループのビットを書き込み・読み取りする過程を含む。書き込み動作で、QCBインターリービング出力からのビットが行方向に書き込まれる。読み取り動作は、列方向に実行されて、各行からm個のビットを読み取る。ここで、mはNUCの場合に1に等しく、NUQの場合に2に等しい。
図24は、本発明の一実施例に係るセル−ワードマルチプレクシングを示す。
図24で、(a)は、8及び12bpcu MIMOに対するセル−ワードマルチプレクシングを示し、(b)は、10bpcu MIMOに対するセル−ワードマルチプレクシングを示す。
ビットインターリービング出力のそれぞれのセルワード(c0,l,c1,l,…,cηmod-1,l)は、一つのXFECBLOCKに対するセル−ワードマルチプレクシング過程を説明する(a)に示すように、(d1,0,m,d1,1,m…,d1,ηmod-1,m)及び(d2,0,m,d2,1,m…,d2,ηmod-1,m)にマルチプレクスされる。
MIMOエンコーディングのために異なるタイプのNUQを利用する10bpcu MIMOの場合に、NUQ−1024に対するビットインターリーバが再使用される。ビットインターリーバ出力のそれぞれのセルワード(c0,l,c1,l,…,c9,l)は、(b)に示すように、(d1,0,m,d1,1,m…,d1,3,m)及び(d2,0,m,d2,1,m…,d2,5,m)にマルチプレクスされる。
図25は、本発明の一実施例に係るタイムインターリービングを示す。
(a)乃至(c)は、タイムインターリービングモードの例を示す。
タイムインターリーバは、データパイプレベルで動作する。タイムインターリービングのパラメータはそれぞれのデータパイプに対して別々に設定されてもよい。
PLS2−STATデータの一部に現れる次のパラメータは、タイムインターリービングを構成する。
DP_TI_TYPE(許容された値:0又は1):タイムインターリービングモードを示す。0は、タイムインターリービンググループ当たりに複数のタイムインターリービングブロック(一つ以上のタイムインターリービングブロック)を有するモードを示す。この場合、一つのタイムインターリービンググループは一つのフレームに(フレーム間インターリービング無しで)直接マップされる。1は、タイムインターリービンググループ当たりに一つのタイムインターリービングブロックだけを有するモードを示す。この場合、タイムインターリービングブロックは、一つ以上のフレームにわたって拡散される(フレーム間インターリービング)。
DP_TI_LENGTH:DP_TI_TYPE=‘0’であれば、当該パラメータは、タイムインターリービンググループ当たりのタイムインターリービングブロックの数NTIである。DP_TI_TYPE=‘1’である場合、当該パラメータは、一つのタイムインターリービンググループから拡散されるフレームの数PIである。
DP_NUM_BLOCK_MAX(許容された値:0乃至1023):タイムインターリービンググループ当たりのXFECBLOCKの最大数を示す。
DP_FRAME_INTERVAL(許容された値:1,2,4,8):与えられたフィジカルプロファイルの同一のデータパイプを伝達する2つの順次的なフレーム間のフレームの数IJUMPを示す。
DP_TI_BYPASS(許容された値:0又は1):タイムインターリービングがデータフレームに用いられないと、当該パラメータは1に設定される。タイムインターリービングが用いられると、0に設定される。
さらに、PLS2−DYNデータからのパラメータDP_NUM_BLOCKは、データグループの一つのタイムインターリービンググループによって伝達されるXFECBLOCKの数を示す。
タイムインターリービングがデータフレームに用いられないと、次のタイムインターリービンググループ、タイムインターリービング動作、タイムインターリービングモードは考慮されない。しかし、スケジューラからのダイナミック(動的)構成情報のためのディレイコンペセーション(遅延補償)ブロックは依然として必要である。それぞれのデータパイプで、SSD/MIMOエンコーディングから受信したXFECBLOCKは、タイムインターリービンググループにグルーピングされる。すなわち、それぞれのタイムインターリービンググループは整数個のXFECBLOCKの集合であり、ダイナミック(動的)に変化する数のXFECBLOCKを含むはずである。インデックスnのタイムインターリービンググループにあるXFECBLOCKの数は、NxBLOCK_Group(n)で示し、PLS2−DYNデータでDP_NUM_BLOCKとしてシグナルされる。このとき、NxBLOCK_Group(n)は、最小値0から、最大の値が1023である最大値NxBLOCK_Group_MAX(DP_NUM_BLOCK_MAXに該当)まで変化してもよい。
それぞれのタイムインターリービンググループは、一つのフレームに直接マップされたり、P
I個のフレームにわたって拡散される。また、それぞれのタイムインターリービンググループは、一つ以上(N
TI個)のタイムインターリービングブロックに分離される。ここでそれぞれのタイムインターリービングブロックは、タイムインターリーバメモリの一つの使用に該当する。タイムインターリービンググループ内のタイムインターリービングブロックは、やや異なる数のXFECBLOCKを含むことができる。タイムインターリービンググループが複数のタイムインターリービンググループに分離されると、それは一つのフレームにのみ直接マップされる。下記の表33に示すように、タイムインターリービングには3つのオプションがある(タイムインターリービングを省略する追加オプションを除く)。
それぞれのデータパイプで、タイムインターリービングメモリは、入力されたXFECBLOCK(SSD/MIMOエンコーディングブロックから出力されたXFECBLOCK)を保存する。入力されたXFECBLOCKは、
また、タイムインターリーバ5050から出力されたXFECBLOCKは、
と定義されると仮定する。
一般に、タイムインターリーバは、フレーム生成手順の前にデータパイプデータに対するバッファーとしても働くはずである。これは、それぞれのデータパイプに対して2個のメモリバンクによって達成される。最初のタイムインターリービングブロックは一番目のバンクに書き込まれる。一番目のバンクから読み取られる間に、2番目のタイムインターリービングブロックが2番目のバンクに書き込まれる。
タイムインターリービングはツイストされた行−列ブロックインターリーバである。
図26は、本発明の一実施例に係るツイストされた行−列ブロックインターリーバの基本動作を示す。
図26(a)は、タイムインターリーバで書き込み動作を示し、図26(b)は、タイムインターリーバで読み取り動作を示す。(a)に示すように、一番目のXFECBLOCKはタイムインターリービングメモリの一番目の列に列方向に書き込まれ、二番目のXFECBLOCKは次の列に書き込まれ、このような動作が続けて行われる。
結果的に、読み取られるセル位置は、座標
によって算出される。
図27は、本発明の他の実施例に係るツイストされた行−列ブロックインターリーバの動作を示す。
図28は、本発明の一実施例に係るツイストされた行−列ブロックインターリーバの対角線方向読み取りパターンを示す。
図29は、本発明の一実施例に係るそれぞれのインターリービングアレイからのインターリービングされたXFECBLOCKを示す。
図30は、本発明の一実施例に係る、次世代放送システムのためのプロトコルスタック(Protocol Stack)を示す図である。
本発明に係る放送システムは、IP(Internet Protocol)中心ブロードキャストネットワーク(IP centric broadcast network)とブロードバンド(broadband)とが結合されたハイブリッド放送システムに該当し得る。
本発明に係る放送システムは、既存のMPEG−2ベースの放送システムとの互換性が維持されるように設計することができる。
本発明に係る放送システムは、IP中心ブロードキャストネットワーク(IP centric broadcast network)、ブロードバンド(broadband)ネットワーク、及び/又は移動通信ネットワーク(mobile communication network又はcellular network)の結合に基づくハイブリッド放送システムに該当してもよい。
同図を参照すると、物理層(Physical layer)は、ATSCシステム及び/又はDVBシステムのような放送システムで採用する物理的プロトコルを用いることができる。例えば、本発明に係る物理層では、送/受信機は地上波放送信号を送信/受信し、放送データを含む伝送フレーム(transport frame)を適切な形態に変換することができる。
暗号化(Encapsulation)層では、物理層から取得した情報から、IPデータグラム(datagram)を取得したり、取得したIPデータグラムを特定フレーム(例えば、RSフレーム、GSE−lite、GSE或いは信号フレームなど)に変換する。ここで、フレームは、IPデータグラムの集合を含むことができる。例えば、暗号化層で送信機は、物理層で処理されたデータを伝送フレームに含めたり、受信機は、物理層から取得した伝送フレームからMPEG−2TS、IPデータグラムを抽出する。
FIC(fast information channel)は、サービス及び/又はコンテンツに接近可能にさせるための情報(例、サービスIDとフレームとのマッピング情報など)を含む。FICはFAC(Fast Access Channel)と命名されてもよい。
本発明の放送システムは、IP(Internet Protocol)、UDP(User Datagram Protocol)、TCP(Transmission Control Protocol)、ALC/LCT(Asynchronous Layered Coding / Layered Coding Transport)、RCP/RTCP(Rate Control Protocol / RTP Control Protocol)、HTTP(Hypertext Transfer Protocol)、FLUTE(File Delivery over Unidirectional Transport)などのプロトコルを用いることができる。これらのプロトコル間のスタック(stack)については同図に示す構造を参照すればよい。
本発明の放送システムにおいてデータは、ISOBMFF(ISO base media file format)の形態で伝送することができる。ESG(Electrical Service Guide)、NRT(Non Real Time)、A/V(Audio / Video)及び/又は一般データをISOBMFFの形態で伝送することができる。
ブロードキャストネットワークによるデータの伝送は、線形コンテンツ(linear content)の伝送及び/又は非線形コンテンツ(non−linear content)の伝送を含むことができる。
RTP/RTCPベースのA/V、データ(closed caption、emergency alert messageなど)の伝送は、線形コンテンツの伝送に該当し得る。
RTPペイロードは、NAL(Network Abstraction Layer)が含まれたRTP/AVストリーム形態及び/又はISO based media file formatで暗号化(encapsulation)された形態で伝送されてもよい。RTPペイロードの伝送は線形コンテンツの伝送に該当し得る。ISO based media file formatで暗号化された形態の伝送は、A/Vなどに対するMPEG DASH media segmentを含むことができる。
FLUTEベースESGの伝送、non−timed dataの伝送、NRT contentの伝送は、非線形コンテンツの伝送に該当し得る。それらは、MIME typeのファイル形態及び/又はISO based media file formatで暗号化された形態で伝送されてもよい。ISO based media file formatで暗号化された形態の伝送はA/Vなどに対するMPEG DASH media segmentを含むことができる。
ブロードバンドネットワークによる伝送は、コンテンツに対する伝送とシグナリングデータに対する伝送とに区分して考えることができる。
コンテンツの伝送は、線形コンテンツ(A/V、データ(closed caption、emergency alert messageなど)の伝送と非線形コンテンツ(ESG、non−timed dataなど)の伝送、MPEG DASHベースのMedia segment(A/V、data)伝送を含む。
シグナリングデータの伝送は、放送網で伝送されるシグナリングテーブル(signaling table)(MPEG DASHのMPDを含む)を含む伝送が可能である。
本発明の放送システムでは、放送網を介して送信された線形/非線形コンテンツ間の同期化、或いは放送網を介して伝送されるコンテンツとブロードバンドで送信されたコンテンツ間の同期化を支援することができる。例えば、一つのUDコンテンツが放送網とブロードバンドで分離されて同時に伝送される場合、受信機は、伝送プロトコルに依存したタイムライン(timeline)を調整し、放送網のコンテンツとブロードバンドのコンテンツとを同期化した後、一つのUDコンテンツとして再構成することができる。
本発明の放送システムのアプリケーション層は、両方向性(Interactivity)、個人化(Personalization)、第2スクリーン(Second Screen)、ACR(automatic content recognition)などの技術的特徴を具現することができる。このような特徴は、例えば、北−米放送標準であるATSC2.0からATSC3.0への拡張において重要な特徴である。例えば、両方向性の特徴のために、HTML5が用いられてもよい。
本発明の放送システムのプレゼンテーション(Presentation)層では、コンポーネント間又は両方向アプリケーション間の空間的、時間的関係を識別するためにHTML及び/又はHTML5が用いられてもよい。
本発明でシグナリング(Signaling)は、コンテンツ及び/又はサービスの効果的な取得を支援するためのシグナリング情報を含む。シグナリングデータは、バイナリ或いはXML形態などで表現することができ、地上波放送網或いはブロードバンドを介して伝達することができる。
実時間放送A/Vコンテンツ及び/又はデータの場合、ISO Base Media File Formatなどで表現することができる。この場合、放送A/Vコンテンツ及び/又はデータは、地上波放送網を介して実時間で伝達されてもよく、IP/UDP/FLUTEに基づいて非実時間で伝達されてもよい。又は、放送A/Vコンテンツ及び/又はデータに対して、インターネット網を介してDASH(Dynamic Adaptive Streaming over HTTP)などを用いて実時間でコンテンツのストリーミングを受けたり、要請して受けることができる。本発明の一実施例に係る放送システムは、このようにして受けた放送A/Vコンテンツ及び/又はデータを組み合わせ、両方向性サービス、第2スクリーンサービスなどの様々なエンハンスドサービスを視聴者に提供することができる。
図31は、本発明の一実施例に係る放送伝送フレームを示す。
図31の実施例において、放送伝送フレームは、P1パート、L1パート、共通PLP(Common PLP)パート、インターリーブされたPLP(Scheduled & Interleaved PLP’s)パート及び補助データ(Auxiliary data)パートを含む。
図31の実施例において、放送送信装置は、放送伝送フレーム(transport frame)のP1パートを介して伝送シグナル探知(transport signal detection)のための情報を伝送する。また、放送送信装置は、P1パートを介して放送信号のチューニングのためのチューニング情報を伝送することができる。
図31の実施例において、放送送信装置は、L1パートを介して、放送伝送フレームの構成及び各PLPの特性を伝送する。このとき、放送受信装置100は、P1に基づいてL1パートをデコードして放送伝送フレームの構成及び各PLPの特性を取得することができる。
図31の実施例において、放送送信装置は、共通PLPパートを介して、PLP間に共通に適用される情報を伝送することができる。具体的な実施例によって、放送伝送フレームは共通PLPパートを含まなくてもよい。
図31の実施例において、放送送信装置は、放送サービスに含まれた複数のコンポーネントをインターリーブされた(interleaved)PLPパートを介して伝送する。このとき、インターリーブされたPLPパートは複数のPLPを含む。
図31の実施例において、放送送信装置は、それぞれの放送サービスを構成するコンポーネントがそれぞれどのPLPで伝送されるかをL1パート又は共通PLPパートを介してシグナリングすることができる。ただし、放送受信装置100が、放送サービススキャンなどのために具体的な放送サービス情報を取得するためには、インターリーブされたPLPパートの複数のPLPを全てデコードしなければならない。
図31の実施例とは異なり、放送送信装置は、放送伝送フレームを介して伝送される放送サービス及び放送サービスに含まれたコンポーネントに関する情報を含む別途のパートを含む、放送伝送フレームを伝送することができる。このとき、放送受信装置100は、別途のパートを介して迅速に放送サービス及び放送サービスに含まれたコンポーネントに関する情報を取得することができる。これについては、図32を参照して説明する。
図32は、本発明の他の実施例に係る放送伝送フレームを示す。
図32の実施例において、放送伝送フレームは、P1パート、L1パート、高速情報チャネル(Fast Information Channel、FIC)パート、インターリーブされたPLP(Scheduled & Interleaved PLP’s)パート及び補助データ(Auxiliary data)パートを含む。
FICパートを除いた他のパートは、図31の実施例と同一である。
放送送信装置は、FICパートを介して高速情報(fast information)を伝送する。高速情報は、伝送フレームを介して伝送される放送ストリームの構成情報(configuration information)、簡略な放送サービス情報、及び当該サービス/コンポーネントと関連するサービスシグナリングを含むことができる。放送受信装置100は、FICパートに基づいて放送サービスをスキャンすることができる。具体的に、放送受信装置100は、FICパートから放送サービスに関する情報を抽出することができる。
図33は、本発明の一実施例に係る放送サービスを伝送する伝送パケットの構造を示す。
図33の実施例において、放送サービスを伝送する伝送パケットは、Network Protocolフィールド、Error Indicatorフィールド、Stuffing Indicatorフィールド、Pointer fieldフィールド、Stuffing bytesフィールド及びペイロード(payload)データを含む。
Network Protocolフィールドは、ネットワークプロトコルがどのタイプであるかを示す。
Error Indicatorフィールドは、当該伝送パケットに誤りが検出されたか否かを表示する。具体的に、Error Indicatorフィールドの値が0であれば、当該パケットから誤りが検出されていないことを示し、Error Indicatorフィールドの値が1であれば、当該パケットから誤りが検出されたことを示すことができる。具体的な実施例において、Error Indicatorフィールドは1ビットフィールドであってもよい。
Stuffing Indicatorフィールドは、当該伝送パケットにスタッフィングバイト(stuffing bytes)が含まれているか否かを表示する。このとき、スタッフィングバイトは、固定されたパケットの長さを維持するためにペイロードに含まれるデータを示す。具体的な実施例において、Stuffing Indicatorフィールドの値が1であれば、伝送パケットがスタッフィングバイトを含み、Stuffing Indicatorフィールドの値が0であれば、伝送パケットがスタッフィングバイトを含まないことを示すことができる。具体的な実施例において、Stuffing Indicatorフィールドは1ビットフィールドであってもよい。
Pointer fieldフィールドは、当該伝送パケットのペイロード部分において新しいネットワークパケットの開始地点を表示する。具体的な実施例において、Pointer fieldの値が0x7FFである場合、新しいネットワークパケットの開始地点がないことを示すことができる。また、具体的な実施例において、Pointer fieldの値が0x7FFでない場合、伝送パケットヘッダーの最後の部分から新しいネットワークパケットの開始地点までのオフセット(offset)値を示すことができる。具体的な実施例において、Pointer fieldフィールドは11ビットフィールドであってもよい。
Stuffing_Bytesフィールドは、固定されたパケット長を維持するためにヘッダーとペイロードデータとの間を埋めるスタッフィングバイトを示す。
このような放送サービスを受信するための放送受信装置の構成については、図34を参照して説明する。
図34は、本発明の一実施例に係るNetwork Protocolフィールドの意味を示す図である。
Network Protocolフィールドは、ネットワークプロトコルのタイプを示す情報である。具体的な実施例において、Network Protocolフィールドの値は、IPv4プロトコルであるか、それとも、フレームパケットタイプであるかを示すことができる。具体的に、図34の実施例のように、Network Protocolフィールドの値が000である場合、IPv4プロトコルを示すことができる。また、具体的に、図34の実施例のように、Network Protocolフィールドの値が111である場合、frame_packet_typeプロトコルを示すことができる。このとき、framed_packet_typeは、ATSC A/153によって定義されたプロトコルであり得る。具体的に、framed_packet_typeは、長さに関する情報を示すフィールドを含まないネットワークパケットプロトコルを示すことができる。具体的な実施例において、Network Protocolフィールドは3ビットフィールドであってもよい。
図35は、本発明の一実施例に係る放送受信装置の構成を示す。
図35の実施例において、放送受信装置100は、放送受信部110、インターネットプロトコル(Internet Protocol、IP)通信部130及び制御部150を含む。
放送受信部110は、チャネル同期化部(Channel Synchronizer)111、チャネルイコライザー(channel equalizer)113及びチャネルデコーダ(channel decoder)115を含む。
チャネル同期化部111は、放送信号を受信できる基底帯域(baseband)でデコーディングが可能なようにシンボル周波数とタイミングを同期化する。
チャネルイコライザー113は、同期化された放送信号の歪みを補償する。具体的に、チャネルイコライザー113は、マルチパス(multipath)、ドップラー効果などによる同期化された放送信号の歪みを補償する。
チャネルデコーダ115は、歪みが補償された放送信号をデコードする。具体的に、チャネルデコーダ115は、歪みが補償された放送信号から伝送フレーム(transport frame)を抽出する。このとき、チャネルデコーダ115は、前方誤り訂正(Forward Error Correction、FEC)を行うことができる。
IP通信部130は、インターネット網を介してデータを受信し、送信する。
制御部150は、シグナリングデコーダ151、伝送パケットインターフェース153、広帯域パケットインターフェース155、基底帯域動作制御部157、共通プロトコルスタック(Common Protocol Stack)159、サービスマップデータベース161、サービスシグナリングチャネルプロセッシングバッファ(buffer)及びパーサー(parser)163、A/Vプロセッサ165、放送サービスガイドプロセッサ167、アプリケーションプロセッサ169及びサービスガイドデータベース171を含む。
シグナリングデコーダ151は、放送信号のシグナリング情報をデコードする。
伝送パケットインターフェース153は、放送信号から伝送パケットを抽出する。このとき、伝送パケットインターフェース153は、抽出した伝送パケットからシグナリング情報又はIPデータグラムなどのデータを抽出することができる。
広帯域パケットインターフェース155は、インターネット網から受信したデータからIPパケットを抽出する。このとき、広帯域パケットインターフェース155は、IPパケットからシグナリングデータ又はIPデータックラムを抽出することができる。
基底帯域動作制御部157は、基底帯域から放送情報受信情報を受信することと関連する動作を制御する。
共通プロトコルスタック159は、伝送パケットからオーディオ又はビデオを抽出する。
A/Vプロセッサ165は、オーディオ又はビデオを処理する。
サービスシグナリングチャネルプロセッシングバッファ(buffer)及びパーサー(parser)163は、放送サービスをシグナリングするシグナリング情報をパースし、バッファリングする。具体的に、サービスシグナリングチャネルプロセッシングバッファ及びパーサー163は、IPデータグラムから放送サービスをシグナリングするシグナリング情報をパースし、バッファリングすることができる。
サービスマップデータベース161は、放送サービスに関する情報を含む放送サービスリストを格納する。
サービスガイドプロセッサ167は、地上波放送サービスのプログラムを案内する地上波放送サービスガイドデータを処理する。
アプリケーションプロセッサ169は、放送信号からアプリケーション関連情報を抽出し、処理する。
サービスガイドデータベース171は、放送サービスのプログラム情報を格納する。
図36は、本発明の他の実施例に係る放送受信装置の構成を示す。
図36の実施例において、放送受信装置100は、放送受信部110、インターネットプロトコル(Internet Protocol、IP)通信部130及び制御部150を含む。
放送受信部110は、放送受信部110が行う複数の機能のそれぞれを行う1つ又は複数のプロセッサ、1つ又は複数の回路、及び1つ又は複数のハードウェアモジュールを含むことができる。具体的に、放送受信部110は、種々の半導体部品が一つに集積されるシステムオンチップ(System On Chip、SOC)であってもよい。このとき、SOCは、グラフィック、オーディオ、ビデオ、モデムなどの各種マルチメディア用部品と、プロセッサ及びD−RAMなどの半導体とが一つに統合された半導体であってもよい。放送受信部110は、物理層モジュール119及び物理層IPフレームモジュール117を含むことができる。物理層モジュール119は、放送網の放送チャネルを介して放送関連信号を受信し、処理する。物理層IPフレームモジュール117は、物理層モジュール119から取得したIPデータグラムなどのデータパケットを特定のフレームに変換する。例えば、物理層モジュール119は、IPデータグラムなどをRS Frame又はGSEなどに変換することができる。
IP通信部130は、IP通信部130が行う複数の機能のそれぞれを行う1つ又は複数のプロセッサ、1つ又は複数の回路、及び1つ又は複数のハードウェアモジュールを含むことができる。具体的に、IP通信部130は、種々の半導体部品が一つに集積されるシステムオンチップ(System On Chip、SOC)であってもよい。このとき、SOCは、グラフィック、オーディオ、ビデオ、モデムなどの各種マルチメディア用部品と、プロセッサ及びD−RAMなどの半導体とが一つに統合された半導体であってもよい。IP通信部130は、インターネット接近制御モジュール131を含むことができる。インターネット接近制御モジュール131は、インターネット通信網(broad band)を介してサービス、コンテンツ及びシグナリングデータのうちの少なくともいずれか1つを取得するための放送受信装置100の動作を制御する。
制御部150は、制御部150が行う複数の機能のそれぞれを行う1つ又は複数のプロセッサ、1つ又は複数の回路、及び1つ又は複数のハードウェアモジュールを含むことができる。具体的に、制御部150は、種々の半導体部品が1つに集積されるシステムオンチップ(System On Chip、SOC)であってもよい。このとき、SOCは、グラフィック、オーディオ、ビデオ、モデムなどの各種マルチメディア用部品と、プロセッサ及びD−RAMなどの半導体とが一つに統合された半導体であってもよい。制御部150は、シグナリングデコーダ151、サービスマップデータベース161、サービスシグナリングチャネルパーサー163、アプリケーションシグナリングパーサー166、アラートシグナリングパーサー168、ターゲッティングシグナリングパーサー170、ターゲッティングプロセッサ173、A/Vプロセッサ161、アラーティングプロセッサ162、アプリケーションプロセッサ169、スケジュールドストリーミングデコーダ181、ファイルデコーダ182、ユーザ要請ストリーミングデコーダ183、ファイルデータベース184、コンポーネント同期化部185、サービス/コンテンツ取得制御部187、再分配モジュール189、装置マネージャー193及びデータシェアリング部191のうちの少なくともいずれか1つを含むことができる。
サービス/コンテンツ取得制御部187は、放送網又はインターネット通信網を介して取得したサービス、コンテンツ、サービス又はコンテンツと関連するシグナリングデータの取得のための受信機の動作を制御する。
シグナリングデコーダ151はシグナリング情報をデコードする。
サービスシグナリングパーサー163はサービスシグナリング情報をパースする。
アプリケーションシグナリングパーサー166は、サービスと関連するシグナリング情報を抽出し、パースする。このとき、サービスと関連するシグナリング情報は、サービススキャンと関連するシグナリング情報であってもよい。また、サービスと関連するシグナリング情報は、サービスを介して提供されるコンテンツと関連するシグナリング情報であってもよい。
アラートシグナリングパーサー168は、アラーティング関連シグナリング情報を抽出し、パースする。
ターゲッティングシグナリングパーサー170は、サービス又はコンテンツを個人化(personalization)するための情報またはターゲッティング情報をシグナリングする情報を抽出し、パースする。
ターゲッティングプロセッサ173は、サービス又はコンテンツを個人化するための情報を処理する。
アラーティングプロセッサ162は、アラーティング関連シグナリング情報を処理する。
アプリケーションプロセッサ169は、アプリケーション関連情報及びアプリケーションの実行を制御する。具体的に、アプリケーションプロセッサ169は、ダウンロードされたアプリケーションの状態及びディスプレイパラメータを処理する。
A/Vプロセッサ161は、デコードされたオーディオ又はビデオ、アプリケーションデータなどに基づいてオーディオ/ビデオのレンダリング関連動作を処理する。
スケジュールドストリーミングデコーダ181は、予め放送会社などのコンテンツ提供業者が定めた日程に従ってストリーミングされるコンテンツであるスケジュールドストリーミングをデコードする。
ファイルデコーダ182は、ダウンロードされたファイルをデコードする。特に、ファイルデコーダ182は、インターネット通信網を介してダウンロードされたファイルをデコードする。
ユーザ要請ストリーミングデコーダ183は、ユーザの要請によって提供されるコンテンツ(On Demand Content)をデコードする。
ファイルデータベース184はファイルを格納する。具体的に、ファイルデータベース184は、インターネット通信網を介してダウンロードしたファイルを格納することができる。
コンポーネント同期化部185は、コンテンツ又はサービスを同期化する。具体的に、コンポーネント同期化部185は、スケジュールドストリーミングデコーダ181、ファイルデコーダ182及びユーザ要請ストリーミングデコーダ183のうちの少なくともいずれか1つを介して取得したコンテンツの再生時間などに対する同期化を行う。コンポーネント同期化部185は、放送ネットワークと異なる異種ネットワークを介して伝送される異種ストリームと放送ストリームとの同期のための(後述する)情報を含む追加パケットを取得することができる。
サービス/コンテンツ取得制御部187は、サービス、コンテンツ、サービス又はコンテンツと関連するシグナリング情報のうちの少なくともいずれか1つを取得するための受信機の動作を制御する。
再分配モジュール189は、放送網を介してサービス又はコンテンツを受信できない場合、サービス、コンテンツ、サービス関連情報及びコンテンツ関連情報のうちの少なくともいずれか1つの取得をサポートするための動作を行う。具体的に、外部の管理装置300にサービス、コンテンツ、サービス関連情報及びコンテンツ関連情報のうちの少なくともいずれか1つを要請することができる。このとき、外部の管理装置300はコンテンツサーバーであってもよい。
装置マネージャー193は、連動可能な外部装置を管理する。具体的に、装置マネージャー193は、外部装置の追加、削除及び更新のうちの少なくともいずれか1つを行うことができる。また、外部装置は、放送受信装置100との接続及びデータ交換が可能である。
データシェアリング部191は、放送受信装置100と外部装置との間のデータ伝送動作を行い、交換関連情報を処理する。具体的に、データシェアリング部191は、外部装置にA/Vデータ又はシグナリング情報を伝送することができる。また、データシェアリング部191は、外部装置からA/Vデータ又はシグナリング情報を受信することができる。
図37は、本発明の一実施例に係る、次世代放送システムにおいてサービス及び/又はコンテンツを取得する構造を示す図である。
本発明で提案した方案は、次世代放送システムでは、受信機が、サービスあるいはコンテンツを、放送網あるいはインターネット網を介して効率的に取得できるようにする。
同図は、ハイブリッド放送システムでのサービスあるいはコンテンツの取得のための一例を示す。
例えば、サービス0(Service 0)は、それぞれ1つのビデオ(video)とオーディオ(audio)で構成され、各ビデオ/オーディオは、地上波放送網を介して伝送されるIPストリーム(IP stream)を介して取得することができる。
サービス1(Service 1)の場合、ビデオを伝送するIPストリーム及びオーディオを伝送するIPストリームは一つのPLPを介して伝送されるので、受信機は、当該PLPをデコードすると、サービス1を取得することができる。
サービスN(Service N)の場合、ビデオは地上波放送網を介して伝送されるが、オーディオの場合、インターネット網を介して取得することができる。
上記のように、受信機がサービス0、サービス1、またはサービスNに含まれるコンポーネントを取得する過程において、前述した本発明の実施例を使用することができる。すなわち、受信機は、サービス0、サービス1、またはサービスNに含まれるそれぞれのコンポーネントを伝送するPLPを識別して、当該PLPをデコードし、所望のサービスを取得することができる。
図38は、本発明の一実施例に係る放送サービスシグナリングテーブルを示す。
放送サービスシグナリングテーブルは、放送サービスを識別する情報、放送サービスの現在の状態を示す情報、放送サービスのネーム、放送サービスのチャネルナンバー、放送サービスに対する保護アルゴリズムが適用されたか否かを示す情報、放送サービスのカテゴリー情報、及び放送サービスが含むメディアコンポーネントをシグナリングするメディアコンポーネントシグナリング情報のうちの少なくともいずれか1つを含むことができる。放送サービスが含むメディアコンポーネントをシグナリングするメディアコンポーネントシグナリング情報は、それぞれのメディアコンポーネントが当該放送サービスに必須であるか否かを示す情報を含むことができる。また、放送サービスが含むメディアコンポーネントをシグナリングするメディアコンポーネントシグナリング情報は、それぞれのコンポーネントと関連する情報を含むことができる。
具体的に、図38の実施例のように、放送サービスシグナリングテーブルは、table_idフィールド、section_syntax_indicatorフィールド、private_indicatorフィールド、section_lengthフィールド、table_id_extensionフィールド、version_numberフィールド、current_next_indicatorフィールド、section_numberフィールド、last_section_numberrフィールド、num_servicesフィールド、service_idフィールド、service_statusフィールド、SP_indicatorフィールド、short_service_name_lengthフィールド、short_service_nameフィールド、channel_numberフィールド、service_categoryフィールド、num_componentsフィールド、essential_component_indicatorフィールド、num_component_level_descriptorフィールド、component_level_descriptorフィールド、num_service_level_descriptorsフィールド、及びservice_level_descriptorフィールドのうちの少なくともいずれか1つを含むことができる。
table_idフィールドは、放送サービスシグナリング情報テーブルの識別子を示す。このとき、table_idフィールドの値は、ATSC A/65で定義されたreserved id値のうち1つであってもよい。具体的な実施例において、table_idフィールドは8ビットフィールドであってもよい。
section_syntax_indicatorフィールドは、放送サービスシグナリング情報テーブルのMPEG−2 TS標準のロング(long)形式のプライベートセクションテーブル(private section table)であるか否かを示す。具体的な実施例において、section_syntax_indicatorフィールドは1ビットフィールドであってもよい。
private_indicatorフィールドは、現在のテーブルがプライベートセクション(private section)に該当するか否かを示す。具体的な実施例において、private_indicatorフィールドは1ビットフィールドであってもよい。
section_lengthフィールドは、section_lengthフィールド以降に含まれたセクションの長さを示す。具体的な実施例において、section_lengthフィールドは12ビットフィールドであってもよい。
table_id_extensionフィールドは、table_idフィールドと結合して放送サービスシグナリング情報テーブルを識別する値を示す。特に、table_idフィールドは、サービスシグナリング情報テーブルのプロトコルバージョンを示すSMT_protocol_versionフィールドを含むことができる。具体的な実施例において、SMT_protocol_versionフィールドは8ビットフィールドであってもよい。
version_numberフィールドは、サービスシグナリングテーブルのバージョンを示す。放送受信装置100は、vserion_numberフィールドの値に基づいて、サービスシグナリング情報テーブルの情報を用いるか否かを決定することができる。具体的に、version_numberフィールドの値が以前に受信したサービスシグナリングテーブルのバージョンと同一である場合、サービスシグナリングテーブルの情報を用いなくてもよい。具体的な実施例において、version_numberフィールドは5ビットフィールドであってもよい。
current_next_indicatorフィールドは、放送サービスシグナリングテーブルの情報が現在使用可能であるか否かを示す。具体的に、current_next_indicatorフィールドの値が1である場合、放送サービスシグナリングテーブルの情報が使用可能であることを示すことができる。また、current_next_indicatorフィールドの値が1である場合、放送サービスシグナリングテーブルの情報を次に使用できることを示すことができる。具体的な実施例において、current_next_indicatorフィールドは1ビットフィールドであってもよい。
section_numberフィールドは、現在のセクションの番号を示す。具体的な実施例において、section_numberフィールドは8ビットであってもよい。
last_section_numberフィールドは、最後のセクションの番号を示す。放送サービスシグナリングテーブルの大きさが大きい場合、複数のセクションに分けられて伝送され得る。このとき、放送受信装置100は、section_numberフィールドとlast_section_numberフィールドに基づいて、放送サービスシグナリングテーブルに必要な全てのセクションが受信されたか否かを判断する。具体的な実施例において、last_section_numberフィールドは8ビットフィールドであってもよい。
service_idフィールドは、放送サービスを識別する識別子を示す。具体的な実施例において、service_idフィールドは16ビットフィールドであってもよい。
service_statusフィールドは、放送サービスの現在の状態を示す。具体的に、放送サービスが現在利用可能であるか否かを示すことができる。具体的な実施例において、service_statusフィールドの値が1である場合、放送サービスが現在利用可能であることを示すことができる。具体的な実施例において、放送受信装置100は、service_statusフィールドの値に基づいて、当該放送サービスを放送サービスリスト及び放送サービスガイドに表示するか否かを決定することができる。例えば、放送受信装置100は、当該放送サービスが利用不可能な場合、当該放送サービスを放送サービスリストと放送サービスガイドに表示しなくてもよい。他の具体的な実施例において、放送受信装置100は、service_statusフィールドの値に基づいて、当該放送サービスに対する接近を制限することができる。例えば、当該放送サービスが利用不可能な場合、放送受信装置100は、当該放送サービスに対するチャネルアップ/ダウンキーを用いた接近を制限することができる。具体的な実施例において、service_statusフィールドは2ビットフィールドであってもよい。
SP_indicatorフィールドは、当該放送サービス内の1つ以上のコンポーネントがサービスプロテクション(protection)が適用されたかを示すことができる。例えば、SP_indicatorの値が1である場合、当該放送サービス内の1つ以上のコンポーネントにサービスプロテクションが適用されたことを示すことができる。具体的な実施例において、SP_indicatorフィールドは1ビットフィールドであってもよい。
short_service_name_lengthフィールドは、short_service_nameフィールドの大きさを示す。
short_service_nameフィールドは、放送サービスのネームを示す。具体的に、short_service_nameフィールドは、放送サービスのネームを要約して表示することができる。
channel_numberフィールドは、当該放送サービスの仮想チャネルナンバーを表示する。
service_categoryフィールドは、放送サービスのカテゴリーを示す。
num_componentsフィールドは、当該放送サービスが含むメディアコンポーネントの個数を示す。具体的な実施例において、num_componentフィールドは5ビットフィールドであってもよい。
essential_component_indicatorフィールドは、当該メディアコンポーネントが当該放送サービスの再生(presentation)のために必要な必須のメディアコンポーネントであるかを示す。具体的な実施例において、essential_component_indicatorフィールドは1ビットフィールドであってもよい。
num_component_level_descriptorフィールドは、component_level_descriptorフィールドの個数を示す。具体的な実施例において、num_component_level_descriptorフィールドは4ビットフィールドであってもよい。
component_level_descriptorフィールドは、当該コンポーネントに対する付加的な属性を含む。
num_service_level_descriptorsフィールドは、service_level_descriptorフィールドの個数を示す。具体的な実施例において、num_service_level_descriptorsフィールドは4ビットフィールドであってもよい。
service_level_descriptorフィールドは、当該サービスに対する付加的な属性を含む。
サービスシグナリングテーブルは、アンサンブルに関する情報をさらに含むことができる。アンサンブルは、1つ以上のサービスが同一の前方誤り訂正(Forward Error Correction、FEC)が適用されて伝送される場合、1つ以上のサービスの集合を示す。
図39は、本発明の一実施例に係るservice_categoryフィールドの意味を示す図である。
service_categoryフィールドは、TVサービス、ラジオサービス、放送サービスガイド、RIサービス及び緊急警告(Emergency Alerting)のいずれかを示すことができる。例えば、図示の実施例のように、service_categoryフィールドの値が0x01である場合、TVサービスを示し、service_categoryフィールドの値が0x02である場合、ラジオサービスを示し、service_categoryフィールドの値が0x03である場合、RIサービスを示し、service_categoryフィールドの値が0x08である場合、サービスガイドを示し、service_categoryフィールドの値が0x09である場合、緊急警報を示すことができる。具体的な実施例において、service_categoryフィールドは6ビットフィールドであってもよい。
図40は、本発明の他の実施例に係る放送サービスシグナリングテーブルを示す。
具体的に、図40の実施例のように、放送サービスシグナリングテーブルは、num_ensemble_level_descriptorsフィールド及びensemble_level_descriptorフィールドをさらに含むことができる。
num_ensemble_level_descriptorsフィールドは、ensemble_level_descriptorフィールドの個数を示す。具体的な実施例において、num_ensemble_level_descriptorsフィールドは4ビットフィールドであってもよい。
ensemble_level_descriptorフィールドは、当該アンサンブルに対する付加的な属性を含む。
また、サービスシグナリングテーブルは、メディアコンポーネントを識別するために、メディアコンポーネントを識別するストリーム識別子情報をさらに含むことができる。
図41は、本発明の他の実施例に係るストリーム識別子ディスクリプタを示す。
ストリーム識別子情報は、descriptor_tagフィールド、descriptor_lengthフィールド及びcomponent_tagフィールドのうちの少なくともいずれか1つを含むことができる。
descriptor_tagフィールドは、当該ディスクリプタがストリーム識別子情報を含むディスクリプタであることを示す。具体的な実施例において、descriptor_tagフィールドは8ビットフィールドであってもよい。
descriptor_lengthフィールドは、当該フィールド以降のストリーム識別子情報の長さを示す。具体的な実施例において、descriptor_lengthフィールドは8ビットフィールドであってもよい。
component_tagフィールドは、メディアコンポーネントを識別するメディアコンポーネント識別子を示す。このとき、メディアコンポーネント識別子は、当該シグナリング情報テーブル上で他のメディアコンポーネントのメディアコンポーネント識別子と異なる唯一(unique)の値を有することができる。当該具体的な実施例において、component_tagフィールドは8ビットフィールドであってもよい。
放送サービスシグナリングテーブルを伝送し、受信する動作については、以下で説明する。
上述した放送サービステーブルをビットストリームの形式で説明したが、具体的な実施例によって、放送サービステーブルはXML形式であってもよい。
図42は、本発明の一実施例に係る放送送信装置が放送サービスシグナリングテーブルを伝送する動作を示す。
本発明の一実施例に係る放送送信装置は、放送信号を送信する送信部、及び放送送信装置の動作を制御する制御部を含むことができる。送信部は、送信部が行う複数の機能のそれぞれを行う1つ又は複数のプロセッサ、1つ又は複数の回路、及び1つ又は複数のハードウェアモジュールを含むことができる。具体的に、送信部は、種々の半導体部品が一つに集積されるシステムオンチップ(System On Chip、SOC)であってもよい。このとき、SOCは、グラフィック、オーディオ、ビデオ、モデムなどの各種マルチメディア用部品と、プロセッサ及びD−RAMなどの半導体とが一つに統合された半導体であってもよい。制御部は、制御部が行う複数の機能のそれぞれを行う1つ又は複数のプロセッサ、1つ又は複数の回路、及び1つ又は複数のハードウェアモジュールを含むことができる。具体的に、制御部は、種々の半導体部品が一つに集積されるシステムオンチップ(System On Chip、SOC)であってもよい。このとき、SOCは、グラフィック、オーディオ、ビデオ、モデムなどの各種マルチメディア用部品と、プロセッサ及びD−RAMなどの半導体とが一つに統合された半導体であってもよい。
放送送信装置は、制御部を介して、伝送パケットに含めて伝送するデータを取得する(S101)。放送送信装置が伝送するデータは、リアルタイムコンテンツ又はリアルタイムコンテンツと関連するメタデータであってもよい。具体的に、リアルタイムコンテンツは、地上波放送網などを介して伝送される放送A/Vコンテンツ、又は放送A/Vコンテンツに関連する向上したデータ(enhancement data)であってもよい。
放送送信装置は、制御部を介して取得したデータが、データの伝送のために使用する伝送パケットが含み得る大きさを超えるか否かを判断する(S103)。具体的に、放送送信装置が使用する伝送パケットが、固定されたパケット長を使用するプロトコルをベースとすることができる。このとき、伝送しようとするデータが、パケットがカバーできる大きさを超える場合、円滑なデータの伝送が難しいことがある。また、伝送しようとするデータがパケットに比べて非常に小さい場合、一つのパケットに小さな大きさの1つのデータのみを伝送することは、非効率的なパケット活用となり得る。したがって、上述した非効率性を克服するために、放送送信装置は制御部を介して伝送パケットとデータの大きさを比較する。
もし、放送送信装置が、伝送するデータを、伝送パケットが含むことができない大きさであると判断した場合、放送送信装置は、制御部を介して伝送するデータをセグメンテーション(Segmentation)する(S105)。セグメンテーションされたデータは、複数の伝送パケットに分けられて伝送され得る。そして、複数の伝送パケットは、セグメンテーションされたデータを識別するための情報をさらに含むことができる。更に他の実施例において、セグメンテーションされたデータを識別するための情報は、伝送パケットではなく、別途のデータグラムを介して伝送されてもよい。
放送送信装置は、制御部を介してセグメンテーションされたデータの識別のための値をパケットペイロードに設定する(S107)。
放送送信装置は、制御部を介してセグメンテーションされたデータ又は伝送パケットよりも小さい大きさを有するデータをパケット化(packetizing)する(S109)。具体的に、放送送信装置は、データを伝送可能な形態に加工する。加工された放送パケットは、パケットヘッダー(Packet header)とパケットペイロード(Packet payload)を含むことができる。また、パケットペイロードは、データとペイロードのヘッダーを含むことができる。ここで、ペイロードヘッダーは、パケットヘッダーと別途に、パケットペイロードに含まれたペイロードデータをシグナリングするためのフィールドである。また、セグメンテーションされたデータを含むパケットペイロードは、ペイロードのヘッダーと共に、セグメンテーションされたデータヘッダーを含むことができる。ここで、セグメンテーションされたデータヘッダーは、ペイロードヘッダーと別途に、パケットペイロードに含まれたペイロードデータをシグナリングするためのフィールドである。
一実施例において、放送送信装置は、一つのデータを一つのパケットにパケット化することができる。他の実施例において、放送送信装置は、複数のデータを一つのパケットにパケット化することができる。更に他の実施例において、放送送信装置は、一つのデータを複数のパケットに分割してパケット化することができる。
上述したように、データの大きさ又はパケットの長さに応じて、パケット化された伝送パケットが変わり得る。したがって、放送送信装置は、互いに異なる伝送パケットを区別可能な形態で伝送する必要がある。一実施例において、放送送信装置は、制御部を介して、伝送パケットのペイロードヘッダーにパケットの形態を示す情報を含めてデータをパケット化することができる。他の一実施例において、放送送信装置の制御部は、ペイロードヘッダーに含まれた情報のみで伝送するデータを区別することが難しい場合に、伝送パケットの種類を識別できる情報をさらに含めてデータをパケット化することができる。
放送送信装置は、送信部を介して、パケット化された放送パケットを伝送する(S111)。一実施例において、放送パケットの伝送は地上波放送網を介して行われてもよい。他の実施例において、放送パケットの伝送はインターネット網を介して行われてもよい。
図43は、本発明の一実施例に係る放送受信装置がパケット化された放送パケットを受信する動作を示す。
放送受信装置100は、放送受信部110を介して、パケット化された伝送パケットを受信する(S201)。
放送受信装置100は、制御部150を介して、受信された伝送パケットからペイロードヘッダーを抽出する(S203)。制御部150は、伝送パケットのペイロードから、データを含むペイロードデータ、及びペイロードデータをシグナリングするペイロードヘッダーを取得することができる。具体的に、放送受信装置100の制御部150は、パケットペイロードに含まれた放送コンテンツ、及び放送コンテンツと関連する向上したコンテンツのうちの少なくとも1つを提供するための付加的な情報を、受信した伝送パケットから抽出することができる。
一実施例において、放送受信装置100の制御部150は、ペイロードヘッダーから、ペイロード誤り判断情報、ペイロード優先順位情報及びペイロードタイプ情報のうちの少なくとも1つを抽出することができる。具体的に、ペイロード誤り判断情報は、放送パケットに含まれたペイロードに誤りが存在するか否か、または当該ペイロードが定められたシンタックス(syntax)に違反する内容を含んでいるか否かを示す。
また、優先順位情報は、ペイロードに含まれたデータの優先順位を示す。具体的に、優先順位情報は、ペイロードに含まれたデータの属性情報を示す。例えば、ファイルフォーマットメディアデータのシグナリング情報を含んでいるペイロードの場合、当該パケットの優先順位情報は最も高い優先順位に設定されている。
また、ペイロードタイプ情報は、ペイロードデータを含むパケットペイロードのタイプを示す。例えば、放送送信装置が一つのパケットペイロードに一つのデータをパケット化したか、または複数のパケットペイロードに一つのデータを分けてパケット化したかを示すことができる。
放送受信装置100は、制御部150を介して抽出されたペイロードヘッダーに含まれた情報から、ペイロードに含まれたデータがメディアデータであるか否かを判断する(S205)。具体的に、放送受信装置100の制御部150は、パケットヘッダー情報に基づいて、当該パケットに含まれたペイロードの類型を判断することができる。一実施例において、ペイロードの類型は、放送コンテンツ及び放送コンテンツと関連する向上したコンテンツのうちの少なくとも1つを含むメディアデータであり得る。他の実施例において、ペイロードの類型は、メディアデータを提供するのに必要な付加情報を含むメタデータであり得る。
放送受信装置100の制御部150は、ペイロードに含まれたデータがメディアデータであると判断した場合、全体のメディアデータが、受信した一つの伝送パケットに含まれているか否かを判断する(S207)。具体的な実施例において、伝送パケットの長さと全体のメディアデータの大きさに応じて、一つの伝送パケットに全体のメディアデータを放送送信装置がパケット化することができる。他の実施例において、放送送信装置は、全体のメディアデータを分けてそれぞれ互いに異なる伝送パケットにパケット化することができる。したがって、放送受信装置100の制御部150は、コンテンツの出力のための完全なメディアデータを抽出するために、放送パケットの類型をペイロードヘッダーを通じて判断することができる。
一方、本発明の一実施例において、放送受信装置100の制御部150が、ペイロードに含まれたデータがメディアデータではないと判断した場合は、以下、図66で詳細に説明する。
一つの伝送パケットに全体のメディアデータが含まれていると判断した場合、制御部150は、一つのパケットペイロードからメディアデータを抽出する(S209)。一実施例において、放送受信装置100の制御部150は、一つの伝送パケットから一つのメディアデータのみを抽出することができる。他の実施例において、放送受信装置100の制御部150は、一つの伝送パケットから複数のメディアデータを抽出することができる。一方、一つの伝送パケットに全体のメディアデータが含まれていないと判断した場合、制御部150は、ペイロードヘッダー及びセグメンテーションデータヘッダーに基づいて、複数のパケットペイロードからメディアデータを抽出する(S211)。具体的に、制御部150は、ペイロードヘッダー及びセグメンテーションデータヘッダーから、分けられてパケット化されたメディアデータの情報を取得することができる。したがって、制御部150は、取得した情報によって分けられたメディアデータを識別することができる。言い換えると、制御部150は、取得した情報によって分けられたメディアデータの順序を取得することができる。制御部150は、当該順序に基づいて互いに異なる伝送パケットから取得したメディアデータを組み合わせる(concatenate)ことができる。
放送受信装置100は、制御部150を介してコンテンツを提供する(S213)。一実施例において、制御部150は、抽出したメディアデータに基づいてコンテンツを提供することができる。他の実施例において、制御部150は、組み合わされたメディアデータに基づいてコンテンツを提供することができる。
制御部150は、A/Vコンテンツを出力することができる。他の実施例において、放送受信装置100は、A/Vコンテンツと関連する向上したデータ(enhancement data)を出力することもできる。
図44は、本発明の実施例に係るパケットの構成を示す。
パケットベースのデータ伝送プロトコル上で、各パケットは、通常、図40に示されたようにパケットヘッダーとパケットペイロードで構成される。パケットヘッダーは、パケットが含んでいるパケットペイロードの情報を含むことができる。パケットペイロードは、放送網又はインターネット網を介して伝送しようとするメディアデータを含むことができる。パケットペイロードが含むメディアデータは、オーディオ、ビデオ、向上したサービス及び付加情報のうちの少なくともいずれか1つであってもよい。
図45は、本発明の実施例に係るリアルタイムコンテンツ伝送のためのRTP(Real−time Transport Protocol)パケットの構造を示す。
RTPパケットは、RTPヘッダー(RTP Header)及びRTPペイロード(RTP Payload)を含むことができる。また、RTPヘッダーは、タイムスタンプ(Timestamp)、同期化ソース識別子(Synchronization source identifier)及び寄与ソース識別子(Contributing source identifier)のうちの少なくとも1つを含むことができる。
RTPヘッダーは、V(version)フィールド、P(padding)フィールド、X(extension)フィールド、CCフィールド、M(Marker bit)フィールド、ペイロードタイプフィールド、シーケンス番号(Sequence Number)フィールド及びタイムスタンプフィールドのうちの少なくとも1つのフィールドを含むことができる。
V(version)フィールドは、当該RTPのバージョン情報を示す。具体的な実施例において、V(version)フィールドは2ビットであってもよい。
P(padding)フィールドは、ペイロード内にパディングビットが存在するか否かを示す。具体的な実施例において、P(padding)フィールドは1ビットであってもよい。
X(extension)フィールドは、RTPヘッダー内にエクステンションフィールドが存在するか否かを示す。具体的な実施例において、X(extension)フィールドは1ビットであってもよい。
CCフィールドは、寄与ソース(Contributing source)の数を示す。具体的な実施例において、CCフィールドは4ビットであってもよい。
M(Marker bit)フィールドは、ペイロードタイプに応じて互いに異なる意味を示すことができる。例えば、トランスポートオブジェクト(transport object)がファイルである場合、ファイルの終わりを示すことができる。他の例として、トランスポートがビデオ又はオーディオデータである場合、関連するアクセスユニット(access unit)の最初又は最後のオブジェクトであることを示すことができる。具体的な実施例において、M(Marker bit)フィールドは1ビットであってもよい。
ペイロードタイプフィールドは、RTPペイロードのタイプを示す。具体的な実施例において、ペイロードタイプフィールドは7ビットであってもよい。
シーケンス番号フィールドは、RTPパケットのシーケンスナンバーを示す。具体的な実施例において、シーケンス番号フィールドは16ビットであってもよい。
タイムスタンプフィールドは、RTPパケットと関連する時間情報を示すことができる。タイムスタンプフィールドは、ペイロードタイプフィールドの値によって異なって解釈され得る。具体的な実施例において、Timestampフィールドは32ビットであってもよい。
RTPペイロードは、RTPヘッダーのペイロードタイプに応じてオーディオ/ビデオアクセスユニット(access unit)が含まれ得る。例えば、H.264の場合、NAL(network abstract layer)ユニットなどが含まれ得る。
図46は、本発明の一実施例に係るISO base media file format(以下、「ISO BMFF」という)をベースとするメディアファイルフォーマットを示す。
図46に示されたように、メディアファイルフォーマットは、通常、1つのftypと1つ又はそれ以上のmoov、moof及びmdatを含むことができる。
ftypは、メディアファイルのタイプ及び適合性を示す。ftypは、メディアファイルにおいて可能な限り前部に位置する。
moovは、全てのメディアデータのためのコンテナである。具体的に、プレゼンテーションのシングルトラック(track)のためのコンテナボックスである。プレゼンテーションは、1つ又はそれ以上のトラックで構成されてもよい。それぞれのトラックは、プレゼンテーション内で他のトラックと独立している。一実施例において、トラックは、メディアデータを含むことができ、他の実施例において、トラックは、パケット化されたストリーミングプロトコルのための情報を含むことができる。
mdatは、メディアデータのコンテナであり、moofは、mdatに関する情報を含んでいる。
図47は、本発明の一実施例に係るパケットペイロードのペイロードヘッダーの構成を示す。
現在、リアルタイム伝送プロトコルは、ほとんどメディアファイルのアクセスユニット(access unit)などをベースとして伝送している。具体的に、アクセスユニットとは、メディアファイル又はデータを伝送する最小単位を意味する。したがって、メディアファイルフォーマットベースのデータをリアルタイムで伝送する方案に対する考慮が不足している点がある。
本発明の一実施例に係る放送送信装置は、一つの伝送パケットに含まれたペイロードを介して一つのファイルフォーマットベースのメディアデータを伝送することができる。この場合の伝送パケットは、シングルユニットパケット(Single unit packet)と呼ぶことができる。他の実施例において、放送送信装置は、一つの伝送パケットに含まれたペイロードを介して複数のファイルフォーマットベースのメディアデータを伝送することができる。この場合の伝送パケットは、アグリゲーションパケット(Aggregation packet)と呼ぶことができる。更に他の一実施例に係る放送送信装置は、一つのファイルフォーマットベースのメディアデータを複数の伝送パケットに分けて伝送することができる。この場合の伝送パケットは、フラグメント化されたパケット(Fragmented packet)と呼ぶことができる。更に他の実施例において、放送送信装置は、一つの伝送パケットのペイロードを介して、メディアストリームに対する一つ又は複数のメタデータを伝送することができる。更に他の実施例において、放送送信装置は、一つのメタデータを複数の伝送パケットのペイロードを介して伝送することができる。
また、本発明の一実施例に係る放送送信装置は、様々なプロトコルを介してメディアデータを伝送することができる。上述したプロトコルは、リアルタイム伝送プロトコル(real−time transport protocol(RTP))、非同期階層化コーディング(asynchronous layered coding(ALC))及び階層化コーディング伝送(layered coding transport(LCT))のうちの少なくともいずれか1つであってもよい。
具体的に、放送送信装置は、伝送パケットのヘッダーにペイロードタイプに関する情報を示すフィールドを挿入し、当該フィールドを介して、ペイロード内にファイルフォーマットベースのメディアデータが含まれていることを示すことができる。例えば、RTPの場合、ヘッダーのpayload typeフィールドがペイロードのデータタイプを示し、当該フィールドに特定の値をファイルフォーマットベースのメディアデータのためのpayload type値として割り当てることができる。そして、この場合、RTPパケットヘッダーのMフィールドは、一つのメディアファイルの終わりを含むデータがパケットのペイロードに含まれたとき、1にセットされてもよい。
上述した課題を解決するために、本発明の一実施例に係るペイロードヘッダーは、ペイロードが含むデータ上に誤り又はシンタックス誤りがあるか否かを示す情報、データの優先順位を示す情報、及びデータのタイプを示す情報のうちの少なくとも1つを含むことができる。この場合、ペイロードヘッダーに含まれたペイロードが含むデータ上に誤り又はシンタックス誤りを示す情報をFフィールドと呼ぶことができる。一実施例において、ペイロードヘッダーに含まれたペイロードが含むデータ上に誤り又はシンタックス誤りを示す情報は、forbidden_zero_bitであって、ペイロードが含むデータ上に誤りが発生したり、シンタックス違反が発生する場合、1にセットされてもよい。具体的に、ペイロードヘッダーに含まれたペイロードが含むデータ上に誤り又はシンタックス誤りを示す情報は、1ビットであってもよい。
また、この場合、ペイロードヘッダーに含まれたデータの優先順位を示す情報は、Priorityフィールドと呼ぶことができる。一実施例において、データの優先順位を示す情報は、ペイロードデータの優先順位を示すフィールドである。そして、データの優先順位を示す情報は、ペイロードデータがメディアファイルフォーマット上で重要なメタデータを含むか否かを示すことができる。
ISO BMFFを例に挙げると、ftyp又はmoovなどを含むペイロードデータの場合、データの優先順位を示す情報は、最も高い順位にセットされてもよい。一実施例において、データの優先順位を示す情報は、放送送信装置の制御部を介して、最も高い優先順位(highest)、最も高い優先順位に比べて相対的に低い順位(medium)、最も低い優先順位(low)を示すことができる。この場合、データの優先順位を示す情報は、最も高い優先順位で0x00、最も高い優先順位に比べて相対的に低い順位で0x01、そして、最も低い優先順位で0x02に設定されてもよい。上述した設定値は一つの例示に過ぎず、他の任意の値に設定されてもよい。
また、この場合、データのタイプを示す情報をtypeフィールドと呼ぶことができる。具体的に、データのタイプを示す情報を介して、放送受信装置100の制御部150は、伝送パケットが一つのパケットで一つのデータを伝送するパケットであるか、一つのパケットで複数の互いに異なるデータを伝送するパケットであるか、または一つのデータを複数個に分けたデータを伝送するパケットであるかを識別することができる。
また、放送受信装置100の制御部150は、データのタイプを示す情報を介して、伝送パケットがコンテンツの時間情報を含むメタデータを伝送するパケットであるか、または伝送パケットがコンテンツの説明情報を含むメタデータを伝送するパケットであるかを識別することができる。
一実施例において、放送送信装置は、一つのパケットで一つのデータを伝送するパケットの場合、データのタイプを示す情報を0x00に設定することができる。また、放送送信装置は、一つのパケットで複数の互いに異なるデータを伝送するパケットの場合、データのタイプを示す情報を0x01に設定することができる。また、放送送信装置は、一つのデータを分けたデータを伝送するパケットの場合、データのタイプを示す情報を0x02に設定することができる。
また、放送送信装置は、メディアデータではなく、コンテンツの再生(presentation)又はデコーディング(decoding)時間情報を含むメタデータをパケット化して伝送することができる。この場合、放送送信装置は、データのタイプを示す情報を0x03に設定することができる。一方、上述した時間情報をタイムライン(timeline)データと呼ぶことができる。
また、放送送信装置は、コンテンツの説明情報を含むメタデータをパケット化して伝送することができる。この場合、放送送信装置は、データのタイプを示す情報を0x04に設定することができる。一方、上述した情報をラベリング(labeling)データと呼ぶことができる。
しかし、上述した設定値は一つの実施例に過ぎず、本発明が上述した値によって限定されるものではない。具体的な実施例において、typeフィールドは5ビットであってもよい。
図48は、一つのパケットに一つのメディアデータがパケット化された伝送パケットのペイロードの構成を示す。
図示のように、一つのパケットに一つのメディアデータが含まれたパケットをシングルユニットパケット(Single unit packet)と呼ぶことができる。シングルユニットパケットのペイロードは、ペイロードヘッダー及びペイロードデータを含むことができる。ペイロードデータは、一つのファイルフォーマットベースのメディアデータを含むフラグメント化された(fragmented)データを含むことができる。一実施例において、伝送プロトコルが固定長の伝送パケットを使用する場合、ペイロードデータは、フラグメント化されたデータ以外にパディング(padding)ビットをさらに含むことができる。ここで、パディングビットは、伝送パケットにおいてデータで埋めて残った空間を埋めるためのビットを意味する。
図49は、一つのパケットに一つのメディアデータがパケット化された伝送パケットのペイロードの構成を示す。
同図は、伝送パケットの具体的な例を示す。図示のように、ペイロードヘッダーは、ペイロードが含むデータ上に誤り又はシンタックス誤りがあるか否かを示す情報、データの優先順位を示す情報、及びデータのタイプを示す情報のうちの少なくとも1つを含むことができる。
図示の一例において、ペイロードが含むデータ上に誤り又はシンタックス誤りがあるか否かを示す情報は、誤り及びシンタックス違反がないという内容を示す値を含むことができる。具体的な実施例において、当該値は0であってもよい。
データの優先順位を示す情報は、ペイロードデータ内のメディアファイルがftypなどの重要なデータを含むので、最も高い優先順位を有することができる。上述したように、ftypの場合、メディアファイルをシグナリングするための情報を含むところ、最も高い優先順位を有することができる。具体的な実施例において、最も高い優先順位を示す値は0x00であってもよい。
データのタイプを示す情報は、一つのパケットペイロード内に一つのメディアファイルが全て含まれているので、シングルユニットパケットを示すことができる。具体的な実施例において、データのタイプを示す情報は0x00の値を有することができる。追加的に、メディアファイルの長さと伝送プロトコルに応じて、パディングビットが選択的にペイロードデータに挿入されてもよい。
図50は、一つのパケットに複数の互いに異なるメディアデータがパケット化された伝送パケットの構成を示す。
上述したパケットは、アグリゲーションパケット(Aggregation packet)と呼ぶことができる。図50に示したように、一つの伝送パケットのペイロードが複数の互いに異なるファイルフォーマットベースのメディアデータを含む場合、ペイロードデータは複数のアグリゲーションユニット(Aggregation unit)を含むことができる。それぞれのアグリゲーションユニットは、異なるファイルフォーマットベースのメディアデータを含むことができる。追加的に、伝送プロトコルが固定長のパケットを使用する場合、ペイロードデータはパディング(padding)ビットを含むことができる。
一実施例において、一つのアグリゲーションユニットは、アグリゲーションユニットの長さを示す情報及びアグリゲーションデータのうちの少なくとも1つを含むことができる。この場合、アグリゲーションユニットの長さを示す情報をAggregation unit lengthフィールドと呼ぶことができる。具体的な実施例において、アグリゲーションユニットは16ビットであってもよい。また、アグリゲーションユニットデータは、一つのファイルが含むデータを示す。
図51は、アグリゲーションユニットの構成を示す他の実施例を示す図である。
一つのアグリゲーションユニットは、追加的に、アグリゲーションユニット内に含まれたファイルのタイプを示す情報をさらに含むことができる。
アグリゲーションのタイプを示す情報は、Aggregation unit typeフィールドと呼ぶことができる。具体的な実施例において、この場合、放送送信装置は、アグリゲーションタイプを0x00に設定することができる。
他の実施例において、アグリゲーションタイプは、MPEG−DASH()でのセルフイニシアライジングセグメント(Self−initializing Segment)形態のファイルを当該アグリゲーションユニットが含んでいることを示すことができる。ここで、セルフイニシアライジングセグメントは、別途のイニシアライジングセグメントなしに、イニシアライジングセグメントとメディアセグメントを統合したものである。具体的に、メディアセグメントとメディアセグメントのメディア形態を含むことができる。具体的な実施例において、この場合、放送送信装置は、アグリゲーションタイプを0x01に設定することができる。
更に他の実施例において、アグリゲーションタイプは、MPEG−DASHでのイニシアライジングセグメント(Initialization Segment)形態のファイルを当該アグリゲーションユニットが含んでいることを示すことができる。ここで、イニシアライジングセグメントは、ISO BMFFに従うフォーマットである。具体的に、イニシアライジングセグメントはftyp、moovを含まなければならない。そして、moofを含んではならない。具体的な実施例において、この場合、放送送信装置は、アグリゲーションタイプを0x02に設定することができる。
図52は、フラグメント化されたパケットのペイロードの構成の一実施例を示す。
同図は、一つのメディアデータが複数の伝送パケットに分けられてパケット化された伝送パケット(以下、「フラグメント化されたパケット(Fragmented packet)」という)のペイロードの構成を示す。
図示のように、フラグメント化されたパケットのペイロードはフラグメンテーションユニット(Fragmentation unit)を含むことができる。追加的に、フラグメント化されたパケットのペイロードは、伝送プロトコルが固定長のパケットを使用する場合、パディング(Padding)ビットが含まれ得る。
一実施例において、フラグメンテーションユニット(FU)は、フラグメンテーションユニットヘッダー(Fragmentation unit header)及びフラグメンテーションユニットデータ(Fragmentation unit data)のうちの少なくともいずれか1つを含むことができる。フラグメンテーションユニットデータは、一つのファイルフォーマットベースのメディアデータの一部分を含むことができる。フラグメンテーションユニットヘッダーはフラグメンテーションユニットデータの情報を含むことができる。
具体的に、フラグメンテーションユニットヘッダーは、フラグメンテーションユニットデータが全体のファイルメディアデータのうち開始部分のデータを含んでいるか否かを示す情報、フラグメンテーションユニットデータが全体のファイルメディアデータのうち終了部分のデータを含んでいるか否かを示す情報、及びフラグメンテーションユニットのタイプを示す情報のうちの少なくともいずれか1つを含むことができる。
一実施例において、全体のファイルメディアデータのうち開始部分のデータを含んでいるか否かを示す情報をStart bitフィールドと呼ぶことができる。具体的に、開始部分のデータは、全体のメディアデータの最初のビットを含む全体のデータの一部であってもよい。
例えば、当該ペイロードのフラグメンテーションユニットデータが開始部分のデータを含んでいる場合、放送送信装置は、全体のファイルメディアデータのうち開始部分のデータを含んでいるか否かを示す情報を1に設定することができる。具体的に、全体のファイルメディアデータのうち開始部分のデータを含んでいるか否かを示す情報は1ビットであってもよい。
一実施例において、全体のファイルメディアデータのうち終了部分のデータを含んでいるか否かを示す情報をEnd bitフィールドと呼ぶことができる。具体的に、終了部分のデータは、全体のメディアデータの最後のビットを含む全体のデータの一部であってもよい。
例えば、当該ペイロードのフラグメンテーションユニットデータが終了部分のデータを含んでいる場合、放送送信装置は、全体のファイルメディアデータのうち終了部分のデータを含んでいるか否かを示す情報を1に設定することができる。具体的に、全体のファイルメディアデータのうち終了部分のデータを含んでいるか否かを示す情報は1ビットであってもよい。
一実施例において、フラグメンテーションユニットのタイプを示す情報は、フラグメンテーションユニットタイプフィールドと呼ぶことができる。
一実施例において、フラグメンテーションユニットタイプは、当該パケットが、ファイルフォーマットベースの基本的なファイルをフラグメンテーションユニットが含んでいることを示すことができる。具体的に、ファイルフォーマットベースの基本的なファイルは、ISO BMFFに基づいたファイルフォーマットを有するメディアファイルであってもよい。具体的な実施例において、この場合、放送送信装置は、フラグメンテーションユニットタイプを0x00に設定することができる。
他の実施例において、フラグメンテーションユニットタイプは、MPEG−DASH()でのセルフイニシアライジングセグメント形態のファイルを当該フラグメンテーションユニットが含んでいることを示すことができる。具体的な実施例において、この場合、放送送信装置は、フラグメンテーションユニットタイプを0x01に設定することができる。
更に他の実施例において、フラグメンテーションユニットタイプは、MPEG−DASHでのイニシアライジングセグメント形態のファイルを当該フラグメンテーションユニットが含んでいることを示すことができる。具体的な実施例において、この場合、放送送信装置は、フラグメンテーションユニットを0x02に設定することができる。
更に他の実施例において、フラグメンテーションユニットタイプは、MPEG−DASHでのメディアセグメント(media segment)形態のファイルを当該フラグメンテーションユニット(Fragmentation unit)が含んでいることを示すことができる。具体的な実施例において、この場合、放送送信装置は、フラグメンテーションユニットを0x03に設定することができる。
具体的に、フラグメンテーションユニットタイプを示す情報は6ビットであってもよい。
図53は、フラグメント化されたパケットのペイロードの構成の他の実施例を示す。
図示の実施例は、伝送パケットのヘッダーに伝送パケットの順序と関連する情報が存在しない場合に適用することができる。
図示のように、フラグメンテーションユニット(FU)に含まれたフラグメンテーションユニットヘッダーは、フラグメンテーションユニットデータが全体のファイルメディアデータのうち開始部分のデータを含んでいるか否かを示す情報、フラグメンテーションユニットデータが全体のファイルメディアデータのうち終了部分のデータを含んでいるか否かを示す情報、フラグメンテーションユニットのタイプを示す情報、及びフラグメンテーションユニットの全体のデータでの順序を示す情報のうちの少なくとも1つを含むことができる。上述した情報のうちフラグメンテーションユニットの順序を示す情報を除いた残りの情報は、前述した内容と同一である。
フラグメンテーションユニットの順序を示す情報は、Fragmentation numberフィールドと呼ぶこともできる。具体的に、放送送信装置は、ファイルフォーマットベースのメディアデータが複数のフラグメント化されたパケットに分けられた場合、フラグメンテーションユニットの順序を示す情報に値を設定し、当該パケットの順序を割り当てる。具体的に、Fragmentation numberフィールドは8ビットであってもよい。
図54は、本発明の一実施例において、放送送信装置がISO BMFFベースのメディアファイルをフラグメンテーションして複数個のパケットに分けることを示す。
図54に示されたように、ISO BMFFベースのメディアファイルは、ftyp、moov、及び複数のmoof及びmdatを含むことができる。
放送送信装置は、ISO BMFFベースのメディアファイルを複数個に分け、それぞれ互いに異なるフラグメンテーションユニットデータに含ませることができる。また、放送送信装置は、ISO BMFFベースのメディアファイルを分けると共に、ペイロードヘッダーに関連情報を含ませることができる。
図55は、放送送信装置がパケット化した第1フラグメンテーションユニットデータの具体的な実施例を示す。
図示のように、本発明の一実施例において、放送送信装置は、ペイロードヘッダーのFフィールドを、当該パケットに誤り又はシンタックスの誤りがないものと判断し、0に設定する。
また、放送送信装置は、Priorityフィールドを、最も高い優先順位を示す値に設定することができる。具体的に、当該値は0x00であってもよい。
また、放送送信装置は、Typeフィールドを、当該パケットが一つのファイルフォーマットベースのメディアファイルを複数のペイロードに分けて伝送するパケットを示す値に設定することができる。具体的に、当該値は0x02であってもよい。
ペイロードデータはフラグメンテーションユニットを含むことができ、再びフラグメンテーションユニットは、Start bitフィールド、End bitフィールド、フラグメンテーションユニットタイプフィールド、及びフラグメンテーションユニットデータフィールドを含むことができる。
放送送信装置は、Start bitフィールドを、当該パケットがメディアファイルの開始データを含む内容を示す値に設定することができる。具体的に、図54で、第1フラグメンテーションユニットがメディアデータの開始データを含んでいるところ、放送送信装置は、当該内容を示す値をstart bitフィールドに設定することができる。
一方、放送送信装置は、図55で例として挙げている第1フラグメンテーションユニットのEnd bitフィールドを、メディアファイルの終了データを含んでいないという内容を示す値に設定することができる。具体的な実施例において、放送送信装置は、当該パケットがメディアファイルの終了データを含んでいないという内容を示すために、End bitフィールドを0に設定することができる。
一方、放送送信装置は、図55で例として挙げているフラグメンテーションユニットタイプフィールドを、第1フラグメンテーションユニットがファイルフォーマットベースの基本的な形態のファイルを含んでいるという内容を示す値に設定することができる。具体的に、ファイルフォーマットベースの基本的な形態とは、ISO BMFFに従うファイルフォーマットデータであってもよい。具体的な実施例において、放送送信装置は、フラグメンテーションユニットタイプフィールドを0x00に設定して当該内容を示すことができる。
図56は、フラグメンテーションユニットデータのうち開始データを除いた残りのデータを含むフラグメンテーションユニットの一実施例を示す。
図示のように、本発明の一実施例において、放送送信装置は、ペイロードヘッダーのFフィールドを、当該パケットに誤り又はシンタックスの誤りがないことを示す値に設定する。具体的な実施例において、放送送信装置は、Fフィールドを0に設定することができる。また、放送送信装置は、図56に示されたペイロードデータが相対的に低い優先順位を有することを示す値にPriorityフィールドを設定する。
具体的な実施例において、第2フラグメンテーションユニットからは、全体のメディアデータをシグナリングするデータを含まなくてもよい。したがって、第1フラグメンテーションユニットよりも優先順位が相対的に低いところ、Priorityフィールドが、相対的に低い優先順位を有する値に設定され得る。例えば、当該値は0x01であってもよい。
また、放送送信装置は、Typeフィールドを、当該パケットが一つのファイルフォーマットベースのメディアファイルを複数のペイロードに分けて伝送するパケットを示すFragmented packetとして0x02に設定する。
図57は、ペイロードデータが、開始データを含むフラグメンテーションユニットデータ及び終了データを含むフラグメンテーションユニットデータを含まない場合のペイロードの構成を示す。
本発明の一実施例において、放送送信装置は、フラグメンテーションユニットデータが開始データ及び終了データを含んでいないところ、start bitフィールド及びend bitフィールドを、当該情報を示す値に設定することができる。具体的な実施例において、放送送信装置は、start bit及びend bitフィールドをいずれも0に設定することができる。
また、放送送信装置は、フラグメンテーションユニットタイプフィールドを、ファイルフォーマットベースの基本的な形態のファイルを含んでいるという内容をフラグメンテーションユニットタイプフィールドの特定の値として設定することができる。具体的に、ファイルフォーマットベースの基本的な形態とは、ISO BMFFに従うファイルフォーマットデータであってもよい。具体的な実施例において、放送送信装置は、フラグメンテーションユニットタイプフィールドを0x00に設定して当該内容を示すことができる。パケットに分けられたそれぞれのファイルフォーマットベースのメディアデータは、全体のファイルにおいて固有の順序を有することができる。放送受信装置100は、制御部150を介して分けられたフラグメンテーションユニットデータが全体のデータのうち開始部分を含むことを、Start bitフィールドに基づいて識別することができる。また、フラグメンテーションユニットデータが全体のデータのうち終了部分を含むことを、End bitフィールドに基づいて識別することができる。しかし、Start bitフィールド及びEnd bitフィールドのみで識別できない場合があり得る。
フラグメンテーションユニットデータが全体のデータのうち開始データ又は終了データを含んでいない場合、放送受信装置100は、一実施例において、ペイロードに含まれたフラグメンテーションユニットデータの順序を示す情報を介して当該パケットを識別することができる。具体的に、フラグメンテーションユニットデータの順序を示す情報は、フラグメンテーションナンバーフィールドであってもよい。また、放送送信装置は、当該フラグメンテーションユニットデータの順序を、上述したフラグメンテーションフィールドに設定することができる。
しかし、他の実施例において、伝送パケットは、フラグメンテーションユニットデータの順序情報を含まなくてもよい。この場合、一実施例において、放送送信装置は、パケットヘッダーにフラグメンテーションユニットデータの順序を識別するための情報を挿入することができる。パケットヘッダーに含まれたフラグメンテーションユニットデータの順序を識別するための情報は、シーケンスナンバー(Sequence number)フィールドと呼ぶことができる。更に他の実施例において、放送送信装置は、IPデータグラムのオフセット(offset)情報に、フラグメンテーションユニットデータの順序を識別するための情報を挿入することもできる。
図58は、分けられた全体のメディアデータのうち終了データを含むフラグメンテーションユニットを含むペイロードの構成を示す。具体的に、同図は、ペイロードデータが、開始データを含むフラグメンテーションユニットデータを含んではいないが、終了データを含むフラグメンテーションユニットデータを含む場合のペイロードの構成を示す。
本発明の一実施例において、放送送信装置は、図58のフラグメンテーションユニットデータが終了データを含んでいるところ、start bitフィールド及びend bitフィールドを、当該情報を示す値に設定することができる。具体的な実施例において、放送送信装置は、start bitを0に設定することができる。そして、放送送信装置は、end bitフィールドを1に設定することができる。
また、放送送信装置は、フラグメンテーションユニットタイプフィールドを、当該パケットが含むメディアデータがISO BMFFベースのftypから始まる基本的な形態のファイルを含む内容を示すように設定することができる。具体的な実施例において、放送送信装置は、フラグメンテーションユニットタイプフィールドを0x00に設定することができる。
放送送信装置が伝送パケットを介して伝送できるデータは、上述したメディアデータと共にメタデータ(metadata)があり得る。
メタデータは、メディアデータを提供するために必要な付加情報を示す。以下、図59乃至図66では、メタデータを伝送パケットにパケット化して送信及び受信する放送送信装置、放送送信装置の動作方法、放送受信装置及び放送受信装置の動作方法を提案する。
また、以下では、メタデータの一例として、タイムライン(timeline)情報を中心に説明する。タイムライン情報とは、メディアコンテンツのための一連の時間情報である。具体的に、タイムライン情報は、再生(presentation)又はデコードするための一連の時間情報であってもよい。
また、タイムライン情報は、基本タイムライン(Base timeline)情報を含むことができる。基本タイムラインとは、複数の互いに異なる伝送網を介して伝送されるメディアデータを同期化するために必要な基準タイムラインを意味する。具体的に、第1伝送網を介して伝送されるメディアデータのタイムラインに、第2伝送網を介して伝送されるメディアデータのタイムラインをマップする場合、第1伝送網を介して伝送されるメディアデータのタイムラインが基本タイムラインとなる。
一方、放送送信装置は、メタデータをXMLのフォーマットで表現することができる。また、放送送信装置は、メタデータを、シグナリングテーブルに含まれ得るディスクリプタの形態で表現することもできる。
図59は、本発明の一実施例に係るメタデータのタイムラインシグナリングテーブルを示す。
本発明の一実施例において、タイムラインシグナリングテーブルは、タイムラインと関連するメタデータであることを示す情報、または当該メタデータがタイムラインコンポーネントアクセスユニット(timeline component access unit)構造を含んでいることを示す情報を含むことができる。上述した情報をidentifierフィールドと呼ぶことができる。具体的な実施例において、identifierフィールドは8ビットであってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、タイムラインコンポーネントアクセスユニットのタイムライン情報の長さを示す情報を含むことができる。上述した情報をAU_lengthフィールドと呼ぶことができる。具体的な実施例において、AU_lengthフィールドは32ビットであってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、タイムラインコンポーネントアクセスユニットと関連するサービス、及びコンテンツコンポーネントに関する位置情報を含んでいるか否かを示す情報を含むことができる。上述した情報をlocation_flagフィールドと呼ぶことができる。具体的な実施例において、location_flagフィールドは1ビットであってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、タイムラインコンポーネントアクセスユニットが含むタイムスタンプ(timestamp)のバージョン情報を含むことができる。タイムスタンプとは、連続的なタイムラインにおいて当該アクセスユニットが出力されなければならない時間情報を示す。上述した情報をtimestamp_versionフィールドと呼ぶことができる。具体的な実施例において、timestamp_versionフィールドは1ビットであってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、タイムラインコンポーネントアクセスユニットのタイムスタンプタイプ情報を含むことができる。上述した情報をtimestamp_typeフィールドと呼ぶことができる。
一実施例において、タイムスタンプタイプ情報は、タイムラインコンポーネントアクセスユニットと関連するサービス又はコンテンツコンポーネントのデコーディング時点を示す値が設定されてもよい。具体的に、コンテンツコンポーネントのデコーディング時点は、デコーディングタイムスタンプ(decoding timestamp)と呼ぶことができる。具体的な一実施例において、放送送信装置は、タイムスタンプタイプ情報を、当該情報がデコーディング時点を示す場合、0x00に設定することができる。
他の実施例において、タイムスタンプタイプ情報は、タイムラインコンポーネントアクセスユニットと関連するサービス又はコンテンツコンポーネントの再生時点を示す値が設定されてもよい。具体的に、コンテンツコンポーネントの再生時点は、プレゼンテーションタイムスタンプ(Presentation timestamp)と呼ぶことができる。具体的な一実施例において、放送送信装置は、タイムスタンプタイプ情報を、当該情報がプレゼンテーション時点を示す場合、0x01に設定することができる。
一方、具体的な実施例において、timestamp_typeフィールドは1ビットであってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、タイムラインコンポーネントアクセスユニットのタイムスタンプフォーマット情報を含むことができる。上述した情報をtimestamp_formatフィールドと呼ぶことができる。
一実施例において、タイムスタンプフォーマット情報は、タイムラインコンポーネントアクセスユニットが含むタイムスタンプがメディアタイム(Media time)のフォーマットであることを示すことができる。具体的な実施例において、放送送信装置は、timestamp_formatフィールドを0x00に設定して、当該アクセスユニットのタイムスタンプフォーマットがメディアタイムフォーマットであることを示すことができる。
他の実施例において、タイムスタンプフォーマット情報は、タイムラインコンポーネントアクセスユニットに含まれたタイムスタンプがネットワークタイムプロトコル(Network time protocol(NPT))のフォーマットであることを示すことができる。具体的な実施例において、放送送信装置は、timestamp_formatフィールドを0x01に設定して、当該アクセスユニットのタイムスタンプフォーマットがNPTフォーマットであることを示すことができる。
他の実施例によれば、タイムスタンプフォーマット情報は、タイムラインコンポーネントアクセスユニットに含まれるタイムスタンプがMPEG DASHメディアプレゼンテーションタイムのフォーマットであることを示すことができる。特定の実施例によれば、放送送信装置は、timestamp_formatフィールドを0x02に設定して、当該アクセスユニットのタイムスタンプフォーマットがMPEG DASHメディアプレゼンテーションタイムであることを示すことができる。メディアタイムを示すmedia_timeフィールドは、MPEF DASHのメディアプレゼンテーションタイムを示すことができる。
他の実施例によれば、タイムスタンプフォーマット情報は、タイムラインコンポーネントアクセスユニットに含まれるタイムスタンプがNPT(now playing time)のフォーマットであることを示すことができる。特定の実施例によれば、放送送信装置は、timestamp_formatフィールドを0x03に設定して、当該アクセスユニットのタイムスタンプフォーマットがNPTフォーマットであることを示すことができる。
他の実施例によれば、タイムスタンプフォーマット情報は、タイムラインコンポーネントアクセスユニットに含まれるタイムスタンプがタイムコードのフォーマットであることを示すことができる。特定の実施例によれば、放送送信装置は、timestamp_formatフィールドを0x04に設定して、当該アクセスユニットのタイムスタンプフォーマットがタイムコードフォーマットであることを示すことができる。また、本発明の特定の実施例によれば、timestamp_formatフィールドは4ビットフィールドであってもよい。
他の実施例によれば、タイムスタンプフォーマット情報は、タイムラインコンポーネントアクセスユニットに含まれるタイムスタンプがPTP(precision time protocol)のフォーマットであることを示すことができる。
他の実施例によれば、タイムスタンプフォーマット情報は、将来の使用のために予備として残した0x05〜0x0Eの値を有する。
他の実施例によれば、タイムスタンプフォーマット情報は、個人使用のためのタイムスタンプフォーマットを示す値(0x0F)を有することができる。
また、本発明の実施例によれば、タイムラインシグナリングテーブルは、タイムラインコンポーネントアクセスユニットに含まれるタイムライン内の情報と関連するサービス又はコンテンツのコンポーネントに対する位置情報を含むことができる。前記情報は、位置フィールドと呼ぶことができる。位置フィールドは、MPEG DASHの識別子MPD(Media Presentation Description)又はストリーム、コンテンツコンポーネントまたはサービスのMPD URLを示すことができる。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、上述した位置情報の長さを示す情報を含むことができる。位置情報の長さを示す情報をlocation_lengthフィールドと呼ぶことができる。具体的な実施例において、location_lengthフィールドは8ビットであってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、タイムラインマッチングの基準となり得る基本タイムラインのタイムスタンプフォーマットバージョン情報を含むことができる。上述した情報をorigin_timestamp_versionフィールドと呼ぶことができる。
一実施例において、origin_timestamp_versionフィールドが0に設定されると、タイムスタンプフォーマットが32ビットフォーマットを有することを示すことができる。他の一実施例において、origin_timestamp_versionフィールドが1に設定されると、タイムスタンプフォーマットが64ビットフォーマットを有することを示すことができる。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、基本タイムラインのタイムスタンプタイプ情報を含むことができる。上述した情報をorigine_timestamp_typeフィールドと呼ぶことができる。
一実施例において、origine_timestamp_typeフィールドは、基本タイムラインと関連するサービス又はコンテンツコンポーネントのデコーディング時点を示す値が設定されてもよい。具体的に、コンテンツコンポーネントのデコーディング時点は、デコーディングタイムスタンプ(decoding timestamp)と呼ぶことができる。具体的な一実施例において、放送送信装置は、当該情報がデコーディング時点を示す場合、origine_timestamp_typeフィールドを0x00に設定することができる。
他の実施例において、origine_timestamp_typeフィールドは、基本タイムラインと関連するサービス又はコンテンツコンポーネントの再生時点を示す値が設定されてもよい。具体的に、コンテンツコンポーネントの再生時点は、プレゼンテーションタイムスタンプ(Presentation timestamp)と呼ぶことができる。具体的な一実施例において、放送送信装置は、当該情報がプレゼンテーション時点を示す場合、origine_timestamp_typeフィールドを0x01に設定することができる。
本発明の一実施例において、タイムラインシグナリングテーブルは、基本タイムラインに対するタイムスタンプフォーマットを示す情報を含むことができる。上述した情報をorigin_timestamp_formatフィールドと呼ぶことができる。
一実施例において、origin_timestamp_formatフィールドは、基本タイムラインのタイムスタンプがメディアタイム(Media time)のフォーマットであることを示すことができる。具体的な実施例において、放送送信装置は、origin_timestamp_formatフィールドを0x00に設定して、当該基本タイムラインのタイムスタンプフォーマットがメディアタイムフォーマットであることを示すことができる。
他の実施例において、origin_timestamp_formatフィールドは、基本タイムラインのタイムスタンプがネットワークタイムプロトコル(Network time protocol(NPT))のフォーマットであることを示すことができる。具体的な実施例において、放送送信装置は、origin_timestamp_formatフィールドを0x01に設定して、当該基本タイムラインのタイムスタンプフォーマットがNPTフォーマットであることを示すことができる。
更に他の実施例によれば、origin_timestamp_formatフィールドは、基本タイムラインのタイムスタンプがMPEG DASHメディアプレゼンテーションタイムのフォーマットであることを示すことができる。特定の実施例によれば、放送送信装置は、timestamp_formatフィールドを0x02に設定して、当該基本タイムラインのタイムスタンプフォーマットがMPEG DASHメディアプレゼンテーションタイムであることを示すことができる。
更に他の実施例によれば、origin_timestamp_formatフィールドは、基本タイムラインのタイムスタンプがNPT(now playing time)のフォーマットであることを示すことができる。特定の実施例によれば、放送送信装置は、origin_timestamp_formatフィールドを0x03に設定して、当該基本タイムラインのタイムスタンプフォーマットがNPTフォーマットであることを示すことができる。
更に他の実施例によれば、origin_timestamp_formatフィールドは、基本タイムラインのタイムスタンプがタイムコードのフォーマットであることを示すことができる。特定の実施例によれば、放送送信装置は、origin_timestamp_formatフィールドを0x04に設定して、当該基本タイムラインのタイムスタンプフォーマットがタイムコードフォーマットであることを示すことができる。
更に他の実施例によれば、origin_timestamp_formatフィールドは、基本タイムラインのタイムスタンプがPTP(precision time protocol)のフォーマットであることを示すことができる。
origin_timestamp_formatフィールドに対する値(0x05〜0x0E)は、将来の使用のために予備として残す。
origin_timestamp_formatフィールドは、このフィールドが個人使用のために使用されることを示す値(0x0F)を有することができる。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、タイムラインマッピングの基準となり得る基本タイムラインと関連するサービス及びコンテンツコンポーネントの位置情報を含んでいるか否かを示す情報を含むことができる。上述した情報をorigin_location_flagフィールドと呼ぶことができる。一実施例において、origin_location_flagフィールドが0以外の値に設定される場合、タイムラインAU(timeline AU)は、origin_location_lengthフィールド及びorigin_locationフィールドのうちの少なくともいずれか1つを含むことができる。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、基本タイムラインと関連するサービス又はコンテンツに対する位置情報を含むことができる。上述した情報はorigin_locationフィールドと呼ぶことができる。具体的な一実施例において、origin_locationフィールドに含まれた情報は、IPアドレス、ポートナンバーまたはURI形態であってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、基本タイムラインと関連するサービス又はコンテンツに対する位置情報の長さ情報を含むことができる。上述した情報をorigin_location_lengthフィールドと呼ぶことができる。具体的な実施例において、origin_location_lengthフィールドは8ビットであってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、タイムラインマッピングの基準となる基本タイムラインがメディアタイムの形態である場合、使用可能なタイムスケール(time scale)の情報を含むことができる。上述した情報をorigin_timescaleフィールドと呼ぶことができる。例えば、MPEG−2 TSの場合、タイムスケールは9000Hzを示すことができる。具体的な実施例において、origin_timescaleフィールドは32ビットであってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは基本タイムライン上のメディアタイム情報を含むことができる。上述した情報をorigin_media_timeフィールドと呼ぶことができる。一方、origin_media_timeフィールドは、origin_timestamp_typeに応じてその意味が変わり得る。例えば、origin_timestamp_typeがPTSを意味する場合、origin_media_timeフィールドは再生時点を示すことができる。他の例として、origin_timestamp_typeがDTSを意味する場合、origin_media_timeフィールドはデコーディング時点を示すことができる。具体的な実施例において、origin_media_timeフィールドは、origin_timestamp_versionフィールドが0に設定された場合、32ビットであってもよく、origin_timestamp_versionフィールドが1に設定された場合、64ビットであってもよい。
また、本発明の一実施例において、タイムラインシグナリングテーブルは、基本タイムラインのタイムスタンプ情報を含むことができる。上述した情報をorigin_timestampフィールドと呼ぶことができる。基本タイムラインタイムスタンプ情報は、origin_timestamp_formatフィールドの値に応じて互いに異なるフォーマットのタイムスタンプを示すことができる。また、origin_timestamp_typeフィールドの値に応じて、基本タイムラインタイムスタンプ情報が互いに異なる意味を示すことができる。例えば、origin_timestamp_typeフィールドがPTSをシグナリングする場合、基本タイムラインタイムスタンプ情報は再生時間を示すことができる。
例えば、origin_timestamp_typeフィールドがDTSを示し、origin_timestamp_formatフィールドが0x01である場合、当該origin_timestampフィールドは、NTPで表現されたデコーディング時点を示すことができる。具体的な実施例において、origin_timestampフィールドは、origin_timestamp_versionフィールドが0である場合、32ビットであってもよく、origin_timestamp_versionフィールドが1である場合、64ビットであってもよい。
一実施例において、origin_timestamp_formatフィールドがリザーブド(reserved)を示す場合、タイムラインAUは、private_data_lengthフィールド及びprivate_data_bytes()フィールドのうちの少なくともいずれか1つを含むことができる。
private_data_lengthフィールドは、private_data_bytes()フィールドのバイト単位の長さを示すことができる。具体的な実施例において、private_data_lengthフィールドは16ビットであってもよい。
private_data_bytes()フィールドは、private_data_lengthフィールドが示す長さだけprivatelyを定義したり、将来の拡張内容を含むことができる。
図60は、伝送パケットのペイロードデータに一つのメタデータがパケット化されたペイロードデータの構成を示す。
一実施例において、ペイロードデータはメタデータを含むことができ、メタデータはメディアストリーム関連タイムラインデータを含むことができる。また、一実施例において、放送送信装置が伝送プロトコルとして固定長のパケットを使用する場合、ペイロードデータはパディングビットをさらに含むことができる。
図61は、伝送パケットのペイロードデータがタイムラインに対するメタデータを含む場合の一実施例を示す。
一実施例において、ペイロードヘッダーは、Fフィールド、Priorityフィールド及びTypeフィールドのうちの少なくとも1つを含むことができる。
一実施例において、放送送信装置は、Fフィールドを、ペイロード内に誤りが存在せず、シンタックス違反もないことを示す値に設定することができる。具体的に、放送送信装置は、Fフィールドを0に設定することができる。また、放送送信装置は、Priorityフィールドを、ペイロードデータがメディアファイル構成の重要なデータを全て含むところ、最も高い優先順位を示す値に設定することができる。具体的に、放送送信装置は、Priorityフィールドを0x00に設定することができる。また、放送送信装置は、Typeフィールドを、ペイロード内にタイムライン情報のメタデータを含む情報を示す値に設定することができる。具体的に、放送送信装置は、Typeフィールドを0x03に設定することができる。また、メタデータは、前述したシンタックスを含むことができる。
図62は、一つの伝送パケットに多数のメタデータがパケット化された場合を示す。
図示のように、一つの伝送パケットが多数のメタデータを含む場合をアグリゲーションパケット(Aggregation packet)と呼ぶことができる。一実施例において、ペイロードデータは、複数のアグリゲーションユニットを含むことができる。
アグリゲーションパケットは、メディアストリーム、ビデオデータのペイロード、またはオーディオデータのペイロードのためのメタデータを含むことができる。
一実施例において、アグリゲーションユニットは、メタデータの長さを示す情報を含むことができる。他の実施例において、アグリゲーションユニットは、メタデータヘッダーフィールドが別途に存在する場合、メタデータヘッダーフィールドとメタデータフィールドの長さの和を示す情報を含むことができる。上述した情報は、metadata lengthフィールドと呼ぶことができる。
図63は、一つの伝送パケットが複数のタイムライン情報を含む場合を示す。
具体的に、一つのメディアストリームに関連してそれぞれ基準が異なる複数個のタイムライン情報を一つの伝送パケットが含んでいる場合を示す。一実施例において、伝送パケットはペイロードヘッダーを含むことができ、ペイロードヘッダーの内容は、図62の内容と同一である。
また、一実施例において、ペイロードデータは2つのアグリゲーションユニットを含むことができる。しかし、ペイロードデータが含むアグリゲーションユニットの個数は2つ以上であってもよい。
一実施例において、それぞれのアグリゲーションユニットは、図62に示されたように、metadata lengthフィールド、metadata headerフィールド及びタイムライン情報を含むメタデータフィールドのうちの少なくともいずれか1つを含むことができる。
しかし、図示の第1アグリゲーションユニットは、第1タイムラインを含むメタデータフィールドを含むことができ、第2アグリゲーションユニットは、第2タイムラインを含むメタデータフィールドを含むことができる。具体的な実施例において、それぞれのタイムラインは、互いに異なる基準に基づいたデータを有することができる。例えば、第1タイムラインは、メディアタイムに基づいたデータを有し、第2タイムラインは、NTPに基づいたデータを有することができる。
図64は、一つのメタデータを複数個の伝送パケットに分けてパケット化したパケットペイロードを示す。
一実施例において、一つのメタデータの長さが伝送パケットの長さよりも大きい場合があり得、この場合、放送送信装置は、当該メタデータを複数個の伝送パケットに分けて伝送することができる。図64に示されたように、伝送パケットは、ペイロードヘッダー、メタデータフラグメントヘッダー及びメタデータフラグメントのうちの少なくとも1つを含むことができる。追加的に、伝送プロトコルが固定長のパケットを使用する場合、伝送パケットはパディングビットを含むこともできる。
図示のように、一実施例において、メタデータフラグメントヘッダーは、当該伝送パケットのペイロードデータに含まれたメタデータフラグメントが全体のメタデータの開始部分を含んでいるか否かを示す情報を含むことができる。具体的に、開始部分のデータは、全体のメディアデータの最初のビットを含む全体のデータの一部であってもよい。上述した情報はstart bitフィールドと呼ぶことができる。具体的な実施例において、start bitフィールドは1ビットであってもよい。一実施例において、放送送信装置は、当該伝送パケットが含んでいるメタデータフラグメントが全体のメタデータの開始部分を含んでいる場合に、start bitを1に設定することができる。
他の一実施例において、メタデータフラグメントヘッダーは、当該伝送パケットのペイロードデータに含まれたメタデータフラグメントが全体のメタデータの終わり部分を含んでいるか否かを示す情報を含むことができる。具体的に、終わり部分のデータは、全体のメディアデータの最後のビットを含む全体のデータの一部であってもよい。上述した情報はend bitフィールドと呼ぶことができる。具体的な実施例において、end bitフィールドは1ビットであってもよい。一実施例において、放送送信装置は、当該伝送パケットが含んでいるメタデータフラグメントが全体のメタデータの終わり部分を含んでいる場合に、end bitを1に設定することができる。
更に他の実施例において、メタデータヘッダーは、メタデータタイプを示す情報を含むことができる。上述した情報はmetadata typeフィールドと呼ぶことができる。具体的な実施例において、メタデータタイプが、当該メタデータフラグメントがタイムライン情報を含んでいることを示すことができる。この場合、放送送信装置は、metadata typeフィールドを0x00に設定することができる。更に他の実施例において、メタデータタイプが、当該メタデータフラグメントがラベリング関連メタデータを含んでいることを示すことができる。この場合、放送送信装置は、metadata typeフィールドを0x01に設定することができる。また、具体的な実施例において、metadata typeフィールドは5ビットであってもよい。
図65は、メタデータフラグメントヘッダーの更に他の実施例を示す。
ここで、前述した内容と同一の部分の説明は省略する。
本発明の一実施例において、メタデータフラグメントヘッダーは、当該パケットペイロードに含まれたメタデータフラグメントの順序を示す情報を含むことができる。上述した情報は、Fragmentation numberフィールドと呼ぶことができる。放送受信装置100は、パケットペイロードに含まれたメタデータフラグメント順序情報に基づいて、当該パケットが何番目のメタデータを含んでいるかを判断することができる。
図66は、本発明の一実施例に係る放送受信装置が放送パケットを受信する動作を示す。
放送受信装置100の制御部150は、図43のステップS205において、ペイロードに含まれたデータがメディアデータではないと判断した場合、一つの伝送パケットに全体のメタデータが含まれているか否かを判断する(S301)。具体的に、制御部150は、ペイロードヘッダー情報から、ペイロードに含まれたデータがメディアデータではなくメタデータであることを判断することができる。そして、制御部150は、当該メタデータ全体が一つの伝送パケットに全て含まれて伝送されたか否かを判断する。上述したように、一つの伝送パケットに1つ又は複数の互いに異なるメタデータが含まれてもよい。または、一つのメタデータが分けられて複数の互いに異なる伝送パケットに含まれてもよい。
本発明の一実施例において、放送受信装置100の制御部150が、一つの伝送パケットに全体のメタデータが含まれていると判断した場合、制御部150は、一つのパケットペイロードからメタデータを抽出する(S303)。具体的に、制御部150は、ペイロードヘッダーを抽出し、抽出されたペイロードヘッダーに基づいてメタデータを抽出する。一実施例において、制御部150は、一つのパケットペイロードから一つのメタデータを抽出することができる。他の実施例において、制御部150は、一つのパケットペイロードから複数のメタデータを抽出することもできる。本発明の更に他の実施例において、放送受信装置100の制御部150が、一つのメタデータが複数の伝送パケットに分けられて含まれていると判断することができる。この場合、制御部150は、複数のパケットペイロードからメタデータを抽出する(S305)。具体的な実施例において、一つのメタデータが複数の伝送パケットに分けられてパケット化されてもよい。放送受信装置100の制御部150は、パケットペイロードからメタデータシグナリングデータを取得する。そして、制御部150は、取得したシグナリングデータに基づいて複数のパケットペイロードからメタデータを抽出することができる。
放送受信装置100の制御部150は、抽出したメタデータに基づいてコンテンツを提供する(S307)。具体的な実施例において、制御部150は、メタデータからコンテンツの再生又はデコーディング時間情報を取得することができる。他の実施例において、制御部150は、メタデータからコンテンツを説明する情報を取得することもできる。
図67は、放送網を介してはRTPプロトコルを用いてビデオストリームを伝送し、インターネット網を介してはファイルフォーマットベースのメディアデータを用いてビデオストリームを伝送する場合を示す。この場合、放送受信装置100は、タイムライン関連メタデータを含むRTPパケットあるいはIP/UDPパケットを受信した後、RTPプロトコルベースのビデオストリームと、DASHベースのビデオストリームとの間のタイムラインをマッチングさせ、関連するストリーム間の復号化及び再生を可能にすることができる。
図68は、本発明の他の実施例による、タイムラインコンポーネントユニット(timeline component access unit)のシンタックス(syntax)を示す図である。
タイムラインコンポーネントAU(Timeline component AU)は、放送網あるいはインターネット網を介して伝送されるメディアストリームに関連する追加のメタデータを含むことができる。このようなメタデータのうちメディアストリームと関連するタイムラインに対するメタデータを含むタイムラインコンポーネントAUが図示されている。
タイムラインコンポーネントAUは、XMLなどの別の形態のフォーマットで表現されてもよい。
タイムラインコンポーネントAUは、identifier情報、AU_length情報、location_flag情報、origin_timestamp_flag情報、timestamp_version情報、timestamp_type情報、timestamp_format情報、location_length情報、location情報、origin_timestamp_version情報、origin_timestamp_type情報、origin_timestamp_format情報、origin_location_flag情報、origin_location_length情報、origin_location情報、origin_timescale情報、origin_media_time情報、origin_timestamp情報、private_data_length情報、private_data_bytes()情報、timescale情報、media_time情報、timestamp情報、及び/又はdata_bytes()情報を含むことができる。
前述したタイムラインコンポーネントAUのシンタックス(Syntax)に含まれる情報と同一の名称を有する情報についての説明は、前述した説明で代替する。
Identifier情報は、タイムラインと関連するメタデータであることを示す識別子、またはタイムラインコンポーネントアクセスユニット(AU)構造を含んでいることを示す識別子であってもよい。
AU_length情報は、タイムラインコンポーネントAUが含む情報の長さを示すことができる。
location_flag情報は、タイムラインコンポーネントAUが含む情報と関連するサービス及びコンテンツコンポーネントなどに対する位置情報を含んでいるか否かを示すことができる。
origin_timestamp_flag情報は、オリジンタイムスタンプ(origin timestamp)と関連する情報を含むか否かを示すことができる。
timestamp_version情報は、タイムラインコンポーネントAUが含むタイムスタンプのバージョン情報を示すことができる。
timestamp_type情報は、タイムラインコンポーネントAUが含むタイムスタンプのタイプを示すことができる。例えば、timestamp_type情報の値が0x00である場合、関連するサービス/コンテンツコンポーネントのアクセスユニット(access unit)などのデータ(例えば、オーディオアクセスユニット(audio access unit))のデコーディング時点を示すデコーディングタイムスタンプ(DTS)を示すことができ、timestamp_type情報の値が0x01である場合、関連するサービス/コンテンツコンポーネントなどのアクセスユニットなどのデータ(例えば、オーディオアクセスユニット)の再生時点を示すプレゼンテーションタイムスタンプ(PTS)を示すことができる。
timestamp_format情報は、タイムラインコンポーネントAUが含むタイムスタンプのフォーマットを示すことができる。例えば、timestamp_format情報の値が0x00である場合、メディアタイム(media time)であることを示し、0x01である場合、NTP(Network Time Protocol)であることを示し、0x02である場合、PTPであることを示し、0x03である場合、タイムコード(timecode)であることを示すことができ、将来の拡張のために0x04〜0x0Fの値をリザーブ(reserve)することができる。
location_length情報は、locationフィールドに対する長さを示すことができる。
location情報は、タイムラインコンポーネントAUが含む情報と関連するサービス及びコンテンツコンポーネントなどに対する位置情報を示すことができる。位置情報は、IPアドレス/ポートナンバー、あるいはURIなどの形態で示すことができる。
origin_timestamp_version情報は、タイムラインマッピングの基準となり得る基本タイムライン(base timeline)に対するタイムスタンプフォーマットのバージョンを示すことができる。当該フィールドの値が0である場合、32ビットフォーマットの形式を、1である場合、64ビットフォーマットの形式を使用していることを示すことができる。例えば、ビデオストリームが放送網を介して伝達され、オーディオストリームがインターネット網を介して伝送される場合、ビデオストリームにオーディオストリームのタイムラインマッピングを行う場合に基準となる基本タイムラインは、放送網で伝達されるビデオストリームのタイムスタンプとなり得る。このような場合、origin_timestamp_versionは、放送網を介して伝送されるビデオストリームに対するタイムスタンプ形式を示すことができる。
origin_timestamp_type情報は、タイムラインマッピングの基準となり得る基本タイムラインに対するタイムスタンプのタイプを示すことができる。例えば、origin_timestamp_type情報の値が0x00である場合、基本タイムラインと関連するサービス/コンテンツコンポーネントなどのアクセスユニット(access unit)などのデータ(例えば、オーディオアクセスユニット(audio access unit))のデコーディング時点を示すデコーディングタイムスタンプ(DTS)を示すことができ、origin_timestamp_type情報の値が0x01である場合、基本タイムラインと関連するサービス/コンテンツコンポーネントなどのアクセスユニットなどのデータ(例えば、オーディオアクセスユニット(audio access unit))の再生時点を示すプレゼンテーションタイムスタンプ(PTS)を示すことができる。
origin_timestamp_format情報は、タイムラインマッピングの基準となり得る基本タイムラインに対するタイムスタンプのフォーマットを示すことができる。例えば、origin_timestamp_format情報の値が0x00である場合、メディアタイム(media time)であることを示し、0x01である場合、NTP(Network Time Protocol)であることを示し、0x02である場合、PTPであることを示し、0x03である場合、タイムコードであることを示すことができ、0x04〜0x0Fの値は、将来の拡張のためにリザーブ(reserve)することができる。
origin_location_flag情報は、タイムラインマッピングの基準となり得る基本タイムラインと関連するサービス及びコンテンツコンポーネントなどに対する位置情報を含んでいるか否かを示すことができる。
origin_location_length情報は、origin_locationフィールドに対する長さを示すことができる。
origin_location情報は、タイムラインマッピングの基準となり得る基本タイムラインと関連するサービス及びコンテンツコンポーネントなどに対する位置情報を示すことができる。origin_location情報は、IPアドレス/ポートナンバー、あるいはURIなどの形態で示すことができる。
origin_timescale情報は、タイムラインマッピングの基準となる基本タイムラインのメディアタイム(media time)の表現時に使用できるタイムスケールを示すことができる。例えば、MPEG−2 TSの場合、タイムスケールは90K値を有することができる。
origin_media_time情報は、タイムラインマッピングの基準となる基本タイムライン上でメディアタイムを示すことができる。origin_timestamp_typeによって、該当するメディアタイムの意味する内容が異なり得る。例えば、origin_timestamp_typeがPTSである場合、origin_media_time情報は、再生時点に対するメディアタイムを示すことができ、origin_timestamp_typeがDTSである場合、origin_media_time情報は、デコーディング時点に対するメディアタイムを示すことができる。origin_media_time情報は、origin_timestamp_versionの値が0である場合に32ビットで、当該フィールドの値が1である場合に64ビットで表すことができる。
origin_timestamp情報は、タイムラインマッピングの基準となる基本タイムライン上で、origin_timestamp_formatのフィールド値に応じて互いに異なるフォーマットのタイムスタンプを示すことができ、origin_timestamp_typeによって、origin_timestamp情報に該当するタイムスタンプの意味が異なり得る。例えば、origin_timestamp_typeがDTSを示し、origin_timestamp_formatの値が‘0x01’の場合、origin_timestamp情報の当該タイムスタンプは、NTPで表現されたデコーディング時点を示すことができる。origin_timestamp情報は、origin_timestamp_versionの値が0である場合に32ビットで、当該フィールドの値が1である場合に64ビットで表すことができる。
private_data_length情報は、後続するprivate_data_bytesのバイト単位の長さを示すことができる。
private_data_bytes()情報は、private_data_lengthの長さだけprivatelyを定義したり、将来の拡張内容を含むことができる領域を示す。
timescale情報は、メディアタイムの表現時に使用できるタイムスケールを示すことができる。
media_time情報はメディアタイムを示すことができる。timestamp_typeによって、media_time情報に該当するメディアタイムの意味する内容が異なり得る。例えば、timestamp_typeがPTSである場合、media_time情報は、再生時点に対するメディアタイムを示すことができる。media_time情報は、timestamp_versionの値が0である場合に32ビットで、当該フィールドの値が1である場合に64ビットで表すことができる。
timestamp情報は、timestamp_formatのフィールド値に応じて互いに異なるフォーマットのタイムスタンプを示すことができ、timestamp_typeによって、timestamp情報に該当するタイムスタンプの意味が異なり得る。例えば、timestamp_typeがDTSを示し、timestamp_formatの値が‘0x01’の場合、timestamp情報に該当するtimstampは、NTPで表現されたデコーディング時点を示すことができる。timestamp情報は、timestamp_versionの値が0である場合に32ビットで、当該フィールドの値が1である場合に64ビットで表すことができる。
data_bytes()情報は、将来の拡張内容を含むできるようにするフィールド又は領域を示す。
MPEG DASHの特定のタイムスケール(例えば、10000hz)で表現されるメディアプレゼンテーションタイム(media presentation time)を、NTPベースのタイムスタンプとマッピングさせることができるようにすることによって、RTPプロトコルを介して伝達されるオーディオ/ビデオストリームなどのデータと、MPEG DASHを介して伝達されるオーディオ/ビデオなどのデータとをNTPなどの基本タイムラインをベースとして同期化して、放送コンテンツを復号又は再生することができる。
図69は、本発明の一実施例に係る、リアルタイムコンテンツ伝送プロトコル上でメディアの同期化をサポートするための伝送パケットフォーマットを示す図である。
リアルタイムコンテンツ伝送をサポートする伝送プロトコル、例えば、RTP(Real−time transport protocol)の場合、RTPパケットは、オーディオアクセスユニット又はビデオネットワークアブストラクションレイヤ(network abstraction layer;NAL)ユニットを含むことができる。RTP上で複数のオーディオ/ビデオストリーム間の同期を取って復号及び/又は再生をサポートするためにRTCP(RTP control protocol)パケットを用いることができる。送信端で生成する、RTCP(RTP control protocol)パケットは、各RTPパケットヘッダーに含まれるRTPタイムスタンプとNTP(Network time protocol)との間のマッチング関係を含み、受信端では、当該情報を用いて、ストリーム間の復号化及び再生時間をNTPベースのタイムライン(timeline)にマッチングして同期化を行う。
そのためのRTCP送信者報告パケット(RTCP sender report packet)は、V(version)情報、P(padding)情報、受信報告カウント(Reception report count;RC)情報、ペイロードタイプ(Payload Type)情報、長さ(Length)情報、同期化ソース識別子(Synchronization source identifier)情報、NTPタイムスタンプ(NTP timestamp)情報、RTPタイムスタンプ(RTP Timestamp)情報、送信者パケットカウント(sender’s packet count)情報、送信者オクテットカウント(sender’s octet count)情報、受信報告ブロック(reception report block)、及び/又はプロファイル特定拡張(Profile−specific extension)を含むことができる。
V(version)情報は、RTPプロトコルのバージョン情報を示す。
P(padding)情報は、ペイロード内にパディングビットが存在するか否かを示す。
受信報告カウント(RC)情報は、受信報告(reception report)の数を示す。
ペイロードタイプ情報は、RTCPパケットのペイロードのタイプを示す。ペイロードタイプ情報は、ペイロードに含まれたものが、送信者報告(sender report)、受信報告、またはアプリケーション特定パケット(application−specific packet)であることを示すことができる。
長さ情報は、RTCPパケットの長さを示す。
同期化ソース識別子情報は、ストリームのソースを識別する識別子である。
NTPタイムスタンプ情報は、ネットワークタイムプロトコル(network time protocol)のタイムスタンプを64ビットで表現する。
RTPタイムスタンプ情報は、NTPタイムスタンプフィールドと関連するRTPタイムスタンプの値を示す。
送信者のパケットカウント情報は、送信を開始した後、このSRパケットが生成されるまで送信者によって送信されたRTPデータパケットの総数に対応する。カウントは、送信者がSSRC識別子を変更するとリセットされる。
送信者のオクテットカウント情報は、送信を開始した後、このSRパケットが生成されるまで送信者によってRTPデータパケットで伝送されるペイロードオクテット(即ち、ヘッダー及びパディングを含まないこと)の総数に対応する。カウントは、送信者がSSRC識別子を変更するとリセットされる。このフィールドは、平均ペイロードデータレートを推定するのに使用することができる。
プロファイル特定拡張は、伝送プロトコルプロファイルによって拡張して使用できるフィールドを示すことができる。プロファイルなどに特化された情報などを含むことができるフィールドであって、プロファイルなどによって異なる情報が含まれたり、解釈され得る。
図70は、本発明の一実施例に係る、プロファイル特定拡張を示す図である。
RTCPの送信者報告(sender report)パケットのプロファイル特定拡張(profile−specific extension)フィールドに同一の網を介して伝送される異なる伝送プロトコルパケット、または異なる網を介して伝達される異なる伝送プロトコルベースのパケット(例えば、ブロードバンド(broadband)で伝達されるMPEG DASHセグメントなど)とのタイム同期化をサポートするための情報を追加することができる。当該パケットは、異なる形態で構成され得る。例えば、NTPタイムスタンプをベースとして、NTPタイムスタンプを、RTPタイムスタンプ又はDASHメディアプレゼンテーションタイム(DASH media presentation time)とマッピングすることができる。
前述したRTCP送信者報告パケットに含まれるプロファイル特定拡張は、プロファイルバージョン(Profile version)情報、位置フラグ(Location Flag)情報、タイムスタンプフォーマット(Timestamp format)情報、タイムスタンプ(Timestamp)情報、及び/又は位置(Location)情報を含むことができる。
プロファイルバージョン情報は、プロファイルのバージョン情報を示すことができる。
位置フラグ情報は、位置(location)フィールドが含まれているか否かを示すことができる。
タイムスタンプフォーマット情報は、含まれたタイムスタンプ(timestamp)フィールドのフォーマットを示すことができる。
例えば、タイムスタンプフォーマット情報の値として0x00、0x07〜0x0Fはリザーブド(reserved)された場合である。タイムスタンプフォーマット情報の値が0x01である場合、メディアタイム(media time)であることを示し、0x02である場合、NTP(Network Time Protocol)であることを示し、0x03である場合、NPT(normal playing time)であることを示し、0x04である場合、SMPTEタイムコード(SMPTE time code)であることを示し、0x05である場合、90KHzベースのタイムスタンプ(timestamp)であることを示し、0x06である場合、GPS時間(GPS time)であることを示すことができる。
タイムスタンプフォーマット情報の値が0x01である場合、タイムスタンプフィールドのフォーマットがメディアタイムであることを示すことができ、メディアタイムは、MPEG DASHのメディアプレゼンテーションタイムに該当し得る。
タイムスタンプ情報は、関連するタイミング情報を含むことができる。例えば、タイムスタンプ情報は、関連するMPEG DASHのMPDのプレゼンテーション基準クロック(presentation reference clock)情報を含むことができる。タイムスタンプ情報は、タイムスケール(timescale)及び/又は当該タイムスケールベースの基準タイムライン(reference timeline)などのタイミング情報を含むことができる。
位置情報は、タイムスタンプフィールド値と関連するMPEG DASHのMPD関連情報(例えば、MPD idあるいはURL)を示すことができる。
その他にも、前述したタイムラインコンポーネントアクセスユニット(timeline component access unit)のシンタックスに含まれる情報がプロファイル特定拡張に含まれ得る。
図71は、本発明の一実施例に係る、アプリケーション定義RTCPパケット(Application−Defined RTCP Packet)であるRTCPアプリケーションパケットを示す図である。
RTCPパケットは、V(version)情報、P(padding)情報、サブタイプ(Subtype)情報、ペイロードタイプ(Payload Type)情報、長さ(Length)情報、ネーム(Name)情報、及び/又はアプリケーション従属データ(Application−dependent data)を含むことができる。
V(version)情報は、RTPプロトコルのバージョン情報を示す。
P(padding)情報は、ペイロード内にパディングビットが存在するか否かを示す。
サブタイプ情報は、RTCPパケットペイロードのサブタイプに関する情報を示すことができる。
ペイロードタイプ情報は、RTCPパケットのペイロードのタイプを示す。ペイロードタイプ情報は、ペイロードにアプリケーション特定パケット(application−specific packet)が含まれていることを示すことができる。
長さ情報は、RTCPパケットの長さを示す。
ネーム情報は、アプリケーションのネームなどの情報を含むことができる。
アプリケーション従属データは、アプリケーション制限的な情報を含むことができる。
図72は、本発明の一実施例に係る、アプリケーション従属データ(application−dependent data)を示す図である。
本発明の一実施例によれば、アプリケーション従属データフィールドを用いて、タイム同期化のためのタイミング情報を送信/受信することができる。
アプリケーション従属データフィールドは、データタイプ(data type)情報、バージョン(version)情報、位置フラグ(Location Flag)情報、タイムスタンプフォーマット(Timestamp format)情報、NTPタイムスタンプ(NTP timestamp)情報、タイムスタンプ(Timestamp)情報、及び/又は位置(Location)情報を含むことができる。
データタイプ情報は、当該フィールドに含まれたデータのタイプを示すことができる。
バージョン情報は、当該パケットのプロファイルのバージョン情報を示すことができる。
位置フラグ情報は、当該パケットが位置フィールドを含んでいるか否かを示すことができる。
タイムスタンプフォーマット情報は、含まれたタイムスタンプフィールドのフォーマットを示すことができる。例えば、タイムスタンプフォーマット情報の値のうち、0x00、0x07〜0x0Fは、将来の使用のためにリザーブド(reserved)されたものであってもよい。タイムスタンプフォーマット情報の値が0x01である場合、メディアタイムであることを示し、0x02である場合、NTP(Network Time Protocol)であることを示し、0x03である場合、NPT(normal playing time)であることを示し、0x04である場合、SMPTEタイムコード(SMPTE time code)であることを示し、0x05である場合、90KHzベースのタイムスタンプであることを示し、0x06である場合、GPS時間であることを示すことができる。
例えば、MPEG DASHのメディアプレゼンテーションタイム(media presentation time)の場合、タイムスタンプフォーマット情報の値が0x01であるメディアタイムとして表すことができ、または、他の値をさらに割り当てることで、MPEG DASHのメディアプレゼンテーションタイムであることを示すこともできる。
NTPタイムスタンプ情報は、ネットワークタイムプロトコルのタイムスタンプを示す。
タイムスタンプ情報は、関連するタイミング情報を含むことができる。例えば、タイムスタンプ情報は、関連するMPEG DASHのMPDのプレゼンテーション基準クロック(presentation reference clock)情報を含むことができる。タイムスタンプ情報は、タイムスケール及び/又は当該タイムスケールベースの基準タイムライン(reference timeline)などのタイミング情報を含むことができる。
位置情報は、タイムスタンプフィールド値と関連するMPEG DASHのMPD関連情報(例えば、MPD idあるいはURL)を示すことができる。
前述したアプリケーション従属データ(application−dependent data)フィールドを用いる場合、放送網としてRTP送信/受信プロトコルを使用し、インターネット網を介してMPEG DASHベースのメディアデータを送信/受信する場合、MPEG DASHメディアプレゼンテーションタイムをネットワーク伝送プロトコル(Network transport protocol)のタイムスタンプにマッピングすることができる。オーディオ/ビデオデータのRTPタイムスタンプもまた、NTPタイムスタンプとマッピングすることができるので、RTPパケットとMPEG DASHデータとの間の同期化をなし、放送コンテンツの復号及び/又は再生を行うことができる。
図73は、本発明の実施例として、放送システムに適用できるプロトコルスタックを示す。
地上波放送チャネルにおいて、ストリーミングデータ(例えば、ビデオ、オーディオ、クローズドキャプション)は、IP/UDPを介してRTP又はALC/LCTエクステンションを介して伝達されてもよい。特に、ストリーミングデータのアクセスユニットはRTPを介して伝達されるか、またはストリーミングデータのアクセスユニットのセットを含むISO BMFFオブジェクトがALC/LCTエクステンションを介して伝達されてもよい。また、非リアルタイムファイルは、ACL/LCTを介してFLUTEを介して伝達されてもよい。また、IP/UDPデータグラム又はリンク層シグナリングは、リンク層で暗号化(encapsulate)され、暗号化された形態で伝達されてもよい。
ブロードバンドネットワークにおいて、MPEG DASHはストリーミングデータの伝達をサポートし、HTTPはユニキャストチャネルを介したファイル伝達をサポートすることができる。マルチキャストチャネルを介して、ストリーミングデータはMPEG DASH又はRTPを介して伝達され、ファイルはFLUTEを介して伝達され得る。
同図は、クロック基準ストリームを含んで未来の放送システムでのコンテンツ伝達のためのこれらのプロトコルスタックの例を示す。クロック基準ストリームは、様々なソースから提供され得る様々なストリーム(例えば、ビデオ、オーディオまたはデータストリーム)間の基準タイミングを提供するデータまたは情報を含むことができる。
リンク層内の暗号化について、以下でさらに説明する。任意のリンク層暗号化なしに、関連パケットを直接送信できる異なる方法が存在し得る。
リンク層は、IPパケット、MPEG−2 TS及び/又は他のプロトコルパケットの暗号化を提供する。リンク層暗号化を用いて、物理層は、ネットワーク層プロトコルタイプと独立して一つの暗号化パケットフォーマットを処理することができる。基本的に、ネットワーク層パケットは、リンク層パケットのペイロードに変換される。物理層リソースを効率的に使用するために、リンク層パケットへのネットワーク層パケットの連接(concatenation)及びセグメンテーション(segmentation)が行われてもよい。
連接について、ネットワーク層パケットが小さい場合、リンク層パケットのペイロードはいくつかのネットワーク層パケットを含む。リンク層パケットヘッダーは、連接を行うフィールドを含む。リンク層パケットヘッダーは、ネットワーク層パケットに対する連接が存在するか否かを特定する情報、ネットワーク層パケット間の連接順序を特定する情報及び/又はリンク層パケットで連接されるネットワーク層パケットの数を特定する情報を含むことができる。
セグメンテーション及びリアセンブリ(reassembly)について、ネットワーク層パケットが過度に大きいため物理層で処理できない場合、ネットワーク層パケットは2つのセグメントに分割される。リンク層パケットヘッダーは、送信側でのセグメンテーション及び受信側でのリアセンブリを行うフィールドを含む。リンク層パケットヘッダーは、このリンク層パケットのペイロードが含まれ得るネットワーク層パケットを特定する情報、ネットワーク層パケットのセグメンテーションの数を特定する情報、ネットワーク層パケット内のセグメンテーションのそれぞれの順序を特定する情報、及び/又はネットワーク層パケットの最初のセグメンテーション及び/又は最後のセグメンテーションを特定する情報を含むことができる。
オーバーヘッドの減少のために、リンク層は、IPフロー内のオーバーヘッドの減少のための選択的ヘッダー圧縮を提供する。ヘッダー圧縮はRoHC(Robust Header compression)フレームワークに基づくことができる。RoHCフレームワークは単方向モードで動作することができる。
リンク層シグナリング伝送について、リンク層は、高速情報チャネル、EAS(Emergency Alert System)メッセージ及び/又はオーバーヘッドの減少のための情報などのリンク層で生成されたシグナリングなどのシグナリング情報の伝送を提供する。
高速情報チャネルを介したシグナリングについて、高速情報チャネルの主な目的は、迅速なチャネルスキャン及びサービス獲得のための必須情報を効果的に伝達することである。この情報は、主に放送サービスと物理データパイプとの間の結合(binding)情報を含む。
EASシグナリングの伝送について、物理層が、適切な帯域幅を有する特殊緊急警報チャネルをサポートして基本緊急警報メッセージ(例えば、共通警報プロトコルメッセージ)を伝達すると、このチャネルは、緊急警報関連シグナリング及び基本緊急警報メッセージを伝達することができる。追加のメディアファイルは個別データパイプを介して伝達されてもよい。物理層のみが、緊急警報メッセージが利用可能な低帯域幅通知(low bandwidth notification)をサポートする場合、基本警報メッセージ及び追加のメディアファイルは個別データパイプを介して伝達され得る。これらの場合、個別データパイプが高いロバスト性(robustness)を有するように構成され得る。
シグナリングの概要、及び未来の放送システムにおいてシグナリング情報を得るために装置が経る「ブートストラップ」プロセスの説明は、以下に記載される。それぞれの放送システムで3つのシグナリングレベルが存在し得る。
(a)各サービス(例えば、ネーム、チャネル番号、サービスタイプ)に関する核心情報(skeletal information)を有する放送ストリーム内の少なくとも1つのコンポーネント、及び(PHY層が専用物理層パイプを提供せず、このような細部情報に対する専用IPマルチキャストアドレス/ポートが存在しない場合)各サービスに関する細部情報の位置に対するポインタを有する全てのサービスのリスト。このリストは、高速サービススキャンの間、サービステーブルを形成するのに使用することができる。
(b)(サービス位置記述語(Service Location Descriptor)を除いた)A/65 VCTと類似の放送ストリーム内の少なくとも1つのコンポーネント、又は1つ以上のコンポーネントを含む各サービスに対するDASH MPDのURL又はA/153 SMT内のサービスレベル情報、及び(この情報がサービスレベル情報と同一の位置にない場合)サービスのコンポーネントに関する細部情報の位置に対するポインタを有するそれぞれの属性。
(c)A/153 SMT内のMPEG−2 PMT又はコンポーネントレベル情報と類似の各サービスの各コンポーネントまたはDASH MPDの位置及び特性。コンポーネントの位置は、物理チャネル、物理層パイプ、IPマルチキャストアドレス及びポート、及び放送によって伝達されたコンポーネントに対する(適用可能な)ALC/LCT+セッションのTSI、または(ブロードバンドを介して伝達されたコンポーネントと関連するDASH MPD内のDASH表示又はDASH適応セットを示す情報を有する)ブロードバンドを介して伝達されたコンポーネントに対するDASH MPDのURLを含む。このシグナリングの目的で、クロック基準ストリームはサービスのコンポーネントとして見なされる。
視聴者がサービスを選択すると、装置は、サービススキャンの間、レベル(a)シグナリングから形成されたサービステーブルで探し、サービスのコンポーネントを見つけることができる物理チャネルを決定する。
その後、装置は、適切な物理チャネルに同調し、レベル(b)及びレベル(c)シグナリングをアクセスして必要な追加の情報を得る。
図74は、本発明の実施例として、RTPプレゼンテーション時間から受信機壁時計時間への変換を示す図である。
放送システムは、放送ストリームのリアルタイム連続コンテンツ伝達をサポートすることができる。
放送及びマルチキャスト伝達について、放送及びマルチキャスト−RTP及び/又はALC/LCT+を通じてISO BMFF−を介した連続コンテンツのリアルタイム伝達に対して2つの異なる方法が記述される。これら2つの方法がサポートされる場合、同一のサービス内で使用することができない。
RTP伝達について、RTPを介した連続コンテンツコンポーネントの伝達が、コンテンツのリアルタイム放送又はマルチキャスト伝達のためにサポートされ得る。このような伝達は、timed−textクローズドキャプション、H.264ビデオ、HEVCビデオ、HE AACオーディオなどの伝達されるメディアのタイプに対する適切な追加ペイロード仕様及びリアルタイムアプリケーション(RTP)のための伝送プロトコルに従うことができる。特に、RTCP SR(RTP control protocol sender report)パケットは、放送又はマルチキャストを介して伝達される異なる連続コンテンツコンポーネント間の同期化に使用することができる。
放送を介して受信機に伝達されることは、(プロトコル経路RTP/IP−マルチキャスト/UDP/IPを用いる)連続コンポーネントトラックのそれぞれに対する1つの放送IPマルチキャストRTPストリーム、例えば、ビデオ、オーディオ及びクローズドキャプション、及び/又は(プロトコル経路RTP/IP−マルチキャスト/UDP/IPを用いる)連続コンポーネントトラックのそれぞれに対する1つの放送IPマルチキャストRTCP SRストリームで構成されてもよい。
放送を介して伝達される1つ以上の連続コンポーネントを同期化するために、次のアプローチを開発することができる。
連続コンポーネントトラックのそれぞれに対して、トラックのためのRTCPストリーム内のNTP(Network Time Protocol)タイムスタンプ(N(i))及び/又は当該RTP(リアルタイム伝送プロトコル)タイムスタンプ(R(i))を用いて、(RTPタイムラインに関する)RTPパケットヘッダー内のプレゼンテーション時間をNTPタイムラインに関するプレゼンテーション時間に変換する。この明細書において、NTPタイムラインは、タイミングがマッピングされ得る基準タイムラインの例である。NTPタイムラインは、基準タイムラインで代替されたり、基準タイムラインと結合され得る。基準タイムラインは、NTPタイムライン、GPSタイムライン、PTP(Precision Time Protocol)タイムライン、NPT(Now Playing Time)及び/又はUTC(Coordinated Universal Time)を含む。
PTRが特定のRTPパケットヘッダー内のプレゼンテーション時間であり、N(i)及びR(i)が最近のRTCPパケットからの値であれば、変換式は、
PTN=N(i)+(PTR−R(i))/(RTPクロックレート)
である。ここで、PTNは、NTPタイムラインに関するプレゼンテーション時間である。
サービスが先に選択され、一つのRTCPパケットが受信されると、シグナリングされた公称(nominal)RTPクロックレートがこの計算に使用され得る。より多くのRTCPパケットが受信されることによって、実際のRTPクロックレートに対するより正確な値が、値
(R(i+1)−R(i))/(N(i+1)−N(i))
から得られる。ここで、R(i)及びN(i)は、RTCPパケットからの値であり、R(i+1)及びN(i+1)は、次のRTCPパケットからの値である。図面は、この状況の例を示す。
パケットが受信される時点でRTCPパケット内のNTPタイムスタンプ(N(i))を受信機壁時計時間(W(i))と比較し、それら2つの間の任意のオフセットを決定する。(伝達遅延及び受信機壁時計とサーバーNTPクロックとの間の可能な不一致の組み合わせが、ゼロではないオフセットを誘発し得る。)このオフセットを用いてRTPパケットヘッダー内のプレゼンテーション時間をサーバーNTPタイムラインに関する値(PTN)から受信機壁時計クロックタイムラインに関する値(PTW)に調節する。
同図は、RTPパケット内のアクセスユニットのプレゼンテーションタイムスタンプ(PTR)からのNTPタイムラインに関するプレゼンテーション時間(PTN)へ及び壁時計クロックタイムラインに関するプレゼンテーション時間(PTW)への変換を示す。
図75は、一つのビデオトラック、一つのオーディオトラック及び一つのクローズドキャプショントラックがRTPで放送を介して伝達される場合のプロトコルスタックを示す図である。
一つのビデオトラック、一つのオーディオトラック及び一つのクローズドキャプショントラックがいずれも放送を介して伝達されるとき、放送を介して受信機に伝達されるものが、(プロトコル経路RTCP/IP−マルチキャスト/UDP/IPを用いる)3つのトラック、すなわち、一つのビデオ、一つのオーディオ及び一つのクローズドキャプションのそれぞれに対する一つの放送IPマルチキャストRTPストリーム及び/又は(プロトコル経路RTCP/IP−マルチキャスト/UDP/IPを用いる)3つのトラックのそれぞれに対する一つの放送IPマルチキャストRTCP SRストリームで構成され得る、次の使用ケースを考慮する。
受信機は、シグナリングを用いて3つのRTPストリーム(オーディオ、ビデオ、CCトラック)、及び/又は3つのRTCPストリーム(オーディオ、ビデオ、CCトラック)のIPマルチキャストアドレス及びポートを得ることができる。
受信機は、ビデオ、オーディオ及び/又はクローズドキャプショントラックに対するRTPパケットが到達したとき、放送からそれらを抽出することができる。
受信機は、ビデオ、オーディオ及び/又はクローズドキャプショントラックに対するRTCPパケットが到達したとき、放送からそれらを抽出することができる。
3つのトラックのそれぞれに対して、受信機は、トラックに対するRTCPストリーム内のNTPタイムスタンプ(N(i))及び当該RTPタイムスタンプ(R(i))を用いて、(RTPタイムラインに関する)RTPパケットヘッダー内のプレゼンテーション時間をNTPタイムラインに関するプレゼンテーション時間に変換することができる。PTRが特定のRTPパケットヘッダー内のプレゼンテーションであり、N(i)及びR(i)が最近のRTCPパケットからの値であれば、変換式は、PTN=(N(i)+(PTR−R(i))/(RTPクロックレート)であり、ここで、PTNは、NTPタイムラインに関するプレゼンテーション時間である。サービスが先に選択され、一つのRTCPパケットのみが受信される場合、シグナリングされた公称RTPクロックレートがこの計算に使用され得る。より多くのRTCPパケットが受信されることによって、実際のRTPクロックレートに対するより正確な値が、値
(R(i+1)−R(i))/(N(i+1)−N(i))
から得られ、R(i)及びN(i)は、一つのRTCPパケットからの値であり、R(i+1)及びN(i+1)は、次のRTCPパケットからの値である。図2は、この状況の例を示す。
受信機は、パケットが受信される時点でRTCPパケット内のNTPタイムスタンプ(N(i))を受信機壁時計時間(W(i))と比較し、それらの2つの間の任意のオフセットを決定することができる。(伝達遅延及び受信機壁時計とサーバーNTPクロックとの間の可能な不一致(discrepancy)の組み合わせが、ゼロではないオフセットを誘発し得る。)このオフセットを用いて、RTPパケットヘッダー内のプレゼンテーション時間をサーバーNTPタイムラインに関する値(PTN)から受信機壁時計クロックタイムラインに関する値(PTW)に調節する。上述した図面はこの計算の例を提供する。
受信機は、適切な壁時計時間でRTPストリーム内のアクセスユニットを提示することができる。
図76は、一つのビデオトラック、一つのオーディオトラック及び一つのクローズドキャプショントラックが、ALC/LCT+を通じてISO BMFFで放送を介して伝達される場合のプロトコルスタックを示す図である。
ALC/LCT+(Asynchronous Layered Coding/Layered Coding Transport+)パケットに含まれるISO BMFF(ISO base media file format)オブジェクトを介した連続コンテンツコンポーネントの伝達が、コンテンツのリアルタイム放送又はマルチキャスト伝達のためにサポートされ得る。ISO BMFFオブジェクトは、アプリケーションに応じて特定されるプロファイルによるMPEG ISO BMFFによってフォーマットされ得る。ALC/LCT+パケットは、追加のLCTヘッダーエクステンションでフォーマットされてプレゼンテーションタイミング情報を伝達することができる。プレゼンテーションタイミング情報は、ISO BMFFオブジェクトの開始を含むパケットに対するプレゼンテーションタイムスタンプを含むことができる。このようなプレゼンテーションタイムスタンプは、ISO BMFFオブジェクトタイムラインの開始を、次の段落に記載されたタイムベース内の適切なポイントにマップすることができる。URLをそれぞれのISO BMFFオブジェクトと関連付ける必要がある場合(例えば、MPDがシグナリングに使用される場合)、それぞれのISO BMFFオブジェクトは、コンテンツ−位置フィールドを含むHTTP−スタイルヘッダーを有することができる。または、ISO BMFFオブジェクトの開始を含むALC/LCT+パケットは、関連付けられたURLを含むLCTエクステンションヘッダーを有することができる。
「放送タイムライン」は、放送又はマルチキャストを介して放送タイムラインクロック基準値を伝送することによって確立され得る。この放送タイムラインは、LCTヘッダーエクステンション内のプレゼンテーションタイミング情報に対する基準時間ベースとして機能することができる。
ALC/LCT+を通じてISO BMFFオブジェクトを介してリアルタイム放送又はマルチキャストモードで伝達される1つ以上の連続コンテンツコンポーネントを含む任意のサービスは、個別「タイムベース」コンポーネントを含んでタイムベースを定義して、プレゼンテーションのための基準タイムベースとして機能することができる。このタイムベースコンポーネントは、適切な間隔で送信されるタイムスタンプパケットで構成されてもよい。タイムスタンプは、PCR値がMPEG−2環境でシステムクロックを確立するのに使用されることと同じ方式でデコーダによって使用され、デコーダ側のシステムクロックを確立できるエンコーダ側のシステムクロックのサンプルを示すことができる。
放送を介して受信機に伝達されることは、(プロトコル経路Ref−Clock/IP−マルチキャスト/UDP/IPを用いる)放送タイムラインに対するクロック基準タイムスタンプを含む一つの放送IPマルチキャストストリーム及び/又は連続コンポーネントトラック(例えば、ビデオ、オーディオ及びクローズドキャプション)のそれぞれに対する一つの放送ISO BMFFストリームで構成されてもよい。
一つの放送IPマルチキャストストリームが(プロトコル経路Ref−Clock/IP−マルチキャスト/UDP/IPを用いる)放送タイムラインのためのクロック基準時間を含む場合、タイムラインのタイムスケールは通常のクロック時間であってもよい(例えば、クロックは、任意の適切なフォーマットで表現されるサーバーでのUTC時間であってもよい)。
連続コンポーネントトラックのそれぞれに対する一つの放送ISO BMFFストリームが使用される場合、それぞれのISO BMFFファイルはALC/LCT+オブジェクトとして伝達され得る。
連続コンポーネントトラックのそれぞれに対する一つの放送ISO BMFFストリームが使用される場合、ISO BMFFファイルの開始を含むALC/LCT+パケットは、放送タイムラインに対してISO BMFFファイルのタイムラインに対する開始時間を提供するLCTエクステンションヘッダーを有する。
連続コンポーネントトラックのそれぞれに対する一つの放送ISO BMFFストリームが使用されるとき、URLをそれぞれのISO BMFFファイルと関連付ける必要がある場合(例えば、MPDがシグナリングに使用される場合)、それぞれのISO BMFFファイルは、コンテンツ−位置フィールドを含むHTTP−スタイルヘッダーを有することができる。または、ISO BMFFファイルの開始を含むALC/LCT+パケットは、関連付けられたURLを含むLCTエクステンションヘッダーを有することができる。
一つのビデオトラック、一つのオーディオトラック及び一つのクローズドキャプションがいずれも放送を介して伝達される使用ケースを考慮する。
受信機は、シグナリングを用いてクロック基準ストリームのIPマルチキャストアドレス及びポート、及び/又はビデオ、オーディオ及びクローズドキャプショントラックに対するISO BMFFストリームを伝達するALC/LCT+セッションのためのTSI(Transport Stream Identifier)値及びIPマルチキャストアドレス及びポートを得ることができる。
受信機は、タイムスタンプが現れたとき、クロック基準ストリームからそれを抽出し、それを用いて放送タイムラインと受信機「壁時計」時間との間のオフセットを決定することができる。
受信機は、ビデオ、オーディオ及びクローズドキャプショントラックのためのISO BMFFファイルが現れたとき、それを放送から抽出することができる。
受信機は、前記ステップで決定されたオフセットによって調節されたそれぞれのBMFFファイルのALC/LCT+エクステンションヘッド内のプレゼンテーションタイムスタンプを用いて、それぞれのISO BMFFファイルのタイムラインに対する壁時計開始時間を設定することができる。
受信機は、各ISO BMFFファイルに対する壁時計開始時間及びファイル内の内部関連タイミング情報に基づいて、適切な壁時計時間にBMFFファイル内のアクセスユニットを提示することができる。
放送システムは、放送ストリームのユニキャスト伝達をサポートすることができる。
MPEG DASH(Dynamic adaptive streaming over HTTP)がISO BMFFの仕様によるセグメントと共に、ユニキャストチャネルを介した連続コンポーネントのリアルタイム伝達のためにサポートされ得る。「ライブ」DASHプロファイル及び「事前記録(pre−recorded)」DASHプロファイルは、(線形サービスの一部として又はオンデマンド(on−demand)サービスの一部として)ライブコンテンツの伝達のために意図されたライブプロファイル及び事前記録されたコンテンツの伝達のために意図された事前記録されたプロファイルと共にこの目的で特定され得る。
固定及びモバイル受信機へのリアルタイム連続コンテンツ伝達のための誤り訂正は物理層でサポートされてもよい。
本発明の実施例としての放送システムは、非リアルタイム(NRT)ファイル(又はデータ)伝達をサポートすることができる。
放送又はマルチキャストを介したファイルの非リアルタイム伝達がサポートされてもよい。
ファイルの非リアルタイム伝達のための誤り訂正は、FEC(Forward Error Correction)及び伝達後のリペアーを用いてサポートされてもよい。
ユニキャストを介したファイルの非リアルタイム伝達は、HTTP 1.1及びTLS 1.2を介したHTTP 1.1を介してサポートされてもよい。
コンテンツファイルの非リアルタイム伝達をサポートするために、サポートされるファイルフォーマットを特定する必要がある。特に、他のコンテンツとの同期化が可能なように、連続メディアを含むファイルのファイルフォーマットを特定する必要がある。
図77は、本発明の実施例として、放送チャネルでRTPを介して伝達される連続メディアコンポーネントと、ブロードバンドを介してDASHを介して伝達される連続メディアコンポーネントとの間の同期化の動作例を示す図である。
放送ストリームが、互いに異なる伝送経路を介して、互いに異なるタイプで伝達されてもよい。放送又はマルチキャストを介してリアルタイムで伝達される多数のメディアコンポーネントストリームと、ユニキャストブロードバンドチャネルを介して伝達された映画フラグメントを伝達するDASHセグメントとの間の同期化のためのモデルが具現される必要がある。
RTP(放送又はマルチキャスト)及びDASH(ユニキャスト)の組み合わせのために、前記説明で記載されたように、RTPを介して伝達されたそれぞれの連続メディアコンポーネントは、関連するRTCP SRストリームを有することができる。それぞれのRTCP SRパケットは、NTPクロック基準タイムスタンプ及び当該RTPクロック基準タイムスタンプを伝達することができ、これは、RTPタイムラインをNTPタイムラインにマップするのに使用することができる。したがって、(RTPパケットヘッダー内のRTPプレゼンテーションタイムスタンプによって指示され得る)RTPストリーム内のアクセスユニットのプレゼンテーション時間は、NTPタイムラインへのRTPタイムラインのマッピングによって決定され得る。
DASH(ユニキャスト)を介して伝達されたコンテンツをRTP(放送又はマルチキャスト)を介して伝達されたコンテンツと同期化するために、DASHメディアプレゼンテーションタイムラインからNTPタイムラインへのマッピングを確立する必要がある。DASHメディアプレゼンテーションタイムラインからNTPタイムラインへのマッピングを確立するのに必要な情報は、放送又はマルチキャストで伝達されてもよい。
同図は、放送チャネルでRTPを介して伝達される連続メディアコンポーネントと、ブロードバンドを介してDASHを介して伝達される連続メディアコンポーネントとの間の同期化の動作例を示す。NTPタイムラインへのDASHメディアプレゼンテーションタイムラインと関連する情報のマッピングは、放送又はマルチキャストを介して(例えば、以下の図面で緑色のパケット)伝達されてもよい。
図78は、本発明の実施例として、放送チャネルでRTPを介して伝達される連続メディアコンポーネントと、ブロードバンドを介してDASHを介して伝達される連続メディアコンポーネントとの間の同期化方法を示す図である。
同期化を達成する一つの方法は、RTCPフォーマットカスタマイゼーションメカニズムを用いてRTCPパケットにDASHメディアプレゼンテーションクロック基準タイムスタンプを含ませることである。これを、アプリケーション定義RTCPパケットと呼ぶことができる。また、DASHメディアプレゼンテーションクロック基準タイムスタンプがRTPクロック基準タイムスタンプ及びNTPクロック基準タイムスタンプと共にRTCPパケット(特に、送信者報告パケット)に含まれてもよい。
図79は、本発明の実施例として、アプリケーション定義RTCPパケットの例を示す図である。
アプリケーション定義RTCPパケットは、V(バージョン)、P(パディング)、サブタイプ、ペイロードタイプ、長さ、ネーム及び/又はアプリケーション従属データを含むことができる。アプリケーション従属データは、データタイプ、バージョン、位置フラグ、タイムスタンプフォーマット、NTPタイムスタンプ、タイムスタンプ及び/又は位置を含むことができる。
V(バージョン)は、RTPプロトコルのバージョンを示す。
P(パディング)は、ペイロード内のパディングビットの存在を示す。
サブタイプは、RTCPパケットペイロードのサブタイプ情報を記述する。
ペイロードタイプは、RTCPパケットペイロードのタイプを示す。
長さは、RTCPパケットの長さを示す。
ネームは、アプリケーション名を含む。
アプリケーション従属データは、アプリケーション従属データを含む。
データタイプは、アプリケーション従属データのタイプ情報を示す。
バージョンは、このアプリケーション従属データのバージョンを示す。
位置フラグは、アプリケーション従属データ内の位置フィールドの存在を示す。
タイムスタンプフォーマットはタイムスタンプフィールドのフォーマットを示す。例えば、次のように互いに異なるフォーマットを示すことができる。例えば、0x00:リザーブド、0x01:メディアタイム、0x02:NTP(Network Time Protocol)、0x03:正常再生時間、0x04:SMPTEタイムコード、0x05:90KHzベースのタイムスタンプ、0x06:GPS時間、0x07〜0x0F:リザーブド、MPEG DASHの場合、このフィールドは、「メディアタイム」を示す0x01を含むことができる。
NTPタイムスタンプは、ネットワークタイムプロトコルのタイムスタンプ値を含む。
タイムスタンプは、時間基準クロック情報(例えば、タイムスケール、タイムスケールベースのプレゼンテーションタイムスタンプなど)を含む。例えば、MPEG DASHの場合、DASHメディアプレゼンテーションクロック基準タイムスタンプを含むことができる。
位置は、関連する位置値、例えば、DASH MPD id又はURLを含む。
図80は、本発明の実施例として、RTCP送信者報告パケットヘッダーの例を示す図である。
DASHメディアプレゼンテーションクロック基準タイムスタンプは、RTPクロック基準タイムスタンプ及びNTPクロック基準タイムスタンプと共に、RTCPパケット(特に、送信者報告パケット)に含まれてもよい。
RTCP送信者報告パケット内に含まれる情報についての説明は、前述の説明を参照することができる。
RTCP送信者報告パケットは、バージョン、位置フラグ、タイムスタンプフォーマット、タイムスタンプ及び/又は位置を含むことができる。
バージョンはプロファイルバージョンを示す。
位置フラグは、プロファイル特定データ内の位置フィールドの存在を示す。
タイムスタンプフォーマットはタイムスタンプフィールドのフォーマットを示す。例えば、次のように互いに異なるフォーマットを示すことができる。例えば、0x00:リザーブド、0x01:メディアタイム、0x02:NTP(Network Time Protocol)、0x03:正常再生時間、0x04:SMPTEタイムコード、0x05:90KHzベースのタイムスタンプ、0x06:GPS時間、0x07〜0x0F:リザーブド。
タイムスタンプは、時間基準クロック情報(例えば、タイムスケール、タイムスケールベースのプレゼンテーションタイムスタンプなど)を含む。例えば、MPEG DASHの場合、DASHメディアプレゼンテーションクロック基準タイムスタンプを含むことができる。
位置は、関連する位置値、例えば、DASH MPD id又はURLを含む。
図81は、本発明の実施例として、RTPのハイブリッド伝達のためのプロトコルスタックを示す図である。
同期化を達成する他の方法は、放送又はマルチキャストを介して伝達されたサービス内の個別「DASH−NTPタイムベースマッピング」コンポーネントを含んでDASHメディアプレゼンテーションタイムラインをNTPタイムラインにマップすることである。
放送又はブロードバンドを介して受信機に伝達されることは、(プロトコル経路RTP/IP−マルチキャスト/UDP/IPを用いる)放送連続コンポーネントトラック、例えば、ビデオ、オーディオ及びクローズドキャプションのそれぞれに対する一つの放送IPマルチキャストRTPストリーム、(プロトコル経路RTP/IP−マルチキャスト/UDP/IPを用いる)放送連続コンポーネントトラックのそれぞれに対する一つの放送IPマルチキャストRTCP SRストリーム、(プロトコル経路ISO BMFF/DASH/HTTP(S)/TCP/IP)を用いる)DASHを用いてブロードバンドを介して利用可能な1つ以上の連続コンポーネントトラック、及び/又はDASHメディアプレゼンテーションタイムライン上のNTPタイムスタンプ及び当該時間を含む一つの放送IPマルチキャストストリームで構成されてもよい。(概念的に、DASHコンポーネントに対するRTCPストリームとして考えることができる。)その目的は、(プロトコル経路Ref−Clocks/IP−マルチキャスト/UDP/IPを用いて)DASHメディアプレゼンテーションタイムラインをNTPタイムラインにマップすることである。
一つのビデオトラック、一つのオーディオトラック及び一つのクローズドキャプショントラックが放送を介して伝達され、第2オーディオトラックがユニキャストブロードバンドを介して伝達される、次のハイブリッド伝達を使用するケースを考慮することができる。
図面は、この場合のコンテンツ伝達のためのプロトコルスタックを示す。クロスハッチングされた灰色のオーディオトラックはプレゼンテーションに使用されない。
受信機は、シグナリングを用いて、どのオーディオトラックが提示されるか(この場合、代替(alternate)オーディオトラック)を決定し、放送ビデオ及びクローズドキャプションRTP/RTCPストリームのためのIPマルチキャストアドレス及びポートを取得し、DASH−NTPクロックマッピングストリームのためのIPマルチキャストアドレス及びポートを取得し、及び/又は代替オーディオストリームのブロードバンドDASH伝達のためのMPDのURLを取得することができる。
受信機は、MPDのURLを用いてDASH MPDを検索することができる。
受信機は、ビデオ及びクローズドキャプショントラックのためのRTPパケットが到達すると、それを放送から抽出することができる。
受信機は、ビデオ及びクローズドキャプショントラックのためのRTCPパケットが到達すると、それを放送から抽出することができる。
受信機は、NTP−DASHクロックマッピングパケットが到達すると、それを抽出することができる。
ビデオ及びクローズドキャプショントラックに対して、RTP伝達と同様に、受信機は、トラックに対するRTCPストリーム内のNTPタイムスタンプ(N(i))及び当該RTPタイムスタンプ(R(i))を用いて、(RTPタイムラインに関する)RTPパケットヘッダー内のプレゼンテーション時間をNTPタイムラインに関するプレゼンテーション時間に変換することができる。
受信機は、NTP−DASHクロックマッピングパケットを用いて、DASHメディアプレゼンテーションタイムラインをNTPタイムラインにマップすることができる(これらの両タイムラインのタイムスケールは通常のクロック時間であるため、それらの間のオフセットを決定する必要がある)。
受信機は、パケットが受信される時点でRTCPパケット内のNTPタイムスタンプを受信機壁時計時間と比較し、それらの間の任意のオフセットを決定することができる。(伝達遅延及び受信機壁時計とサーバーNTPクロックとの間の可能な不一致の組み合わせが、ゼロではないオフセットを誘発し得る。)このオフセットを用いて、RTPパケットヘッダー内のプレゼンテーション時間をNTPタイムラインから受信機壁時計タイムラインに調節し、DASHメディアプレゼンテーションタイムラインとNTPタイムラインとの間のマッピングを調節して、DASHメディアプレゼンテーションタイムラインと受信機壁時計タイムラインとの間のマッピングを得ることができる。
受信機は、適切な壁時計時間でRTPストリーム(ビデオ及びクローズドキャプショントラック)内のアクセスユニットを提示することができる。
前記ステップのマッピングを用いて、受信機は、現在の受信機壁時計時間に対応するDASHメディアプレゼンテーションタイムライン内の時間を決定することができる。MPDを用いて、当該DASH期間、所望のオーディオトラックを含むDASH表示、DASHセグメント及びそのセグメントのURLを決定する。
受信機は、そのDASHセグメント及び後続のセグメントを検索することができる。そして、前記ステップのマッピングを用いて、適切な壁時計時間にそれらの内のアクセスユニットを提示する。
図82は、本発明の実施例として、受信機壁時計タイムラインへのDASHプレゼンテーション時間の変換を示す図である。
DASHメディアプレゼンテーションタイムラインに関するプレゼンテーション時間(PTD)は、NTPタイムラインに関するプレゼンテーション時間(PTN)に変換された後、壁時計時間に対するプレゼンテーション時間(PTW)に変換される。
図83は、本発明の実施例として、ALC/LCT+を介して伝達されたコンテンツと、DASH(ユニキャスト)を介して伝達されたコンテンツとの同期化を示す図である。
本文書に記載されたように、放送タイムラインは、連続コンテンツがALC/LCT+を介して伝達される度に確立され、ALC/LCT+パケットのLCTヘッダーエクステンション内のプレゼンテーションタイミング情報のための基準タイムベースとして機能することができる。DASH(ユニキャスト)を介して伝達されたコンテンツと、ALC/LCT+(放送又はマルチキャスト)を介して伝達されたコンテンツとを同期化するために、DASHメディアプレゼンテーションタイムラインから放送タイムラインへのマッピングを確立するのに必要な情報が、図示のように放送又はマルチキャストで伝達されてもよい。
情報は、タイムラインコンポーネントAU(又は放送タイムラインパケット又はタイムベースコンポーネント)に対応し得る。
放送網及びインターネットなどの異種網を介して伝送されるストリームが、上述した放送システムの受信機で一つのサービスのために同期化されて使用される可能性がある。例えば、図示のように、ビデオストリームが放送網を介して伝送され、オーディオストリームがインターネットを介して伝送される場合、2つのストリームは1つのサービスのために同期化され、デコーディングされ、再生される必要がある。すなわち、ビデオが放送網を介して取得され、オーディオがインターネットを介して取得されて一つのサービスを用いる。例えば、放送網で提供された言語から異なる言語で記録されたオーディオを用いて同一のコンテンツを見ることを望む視聴者は、インターネットを介して所望の言語で記録された当該コンテンツのオーディオを受信し、受信されたオーディオを使用することができる。
しかし、2つのストリームは互いに異なるタイムラインを有し、したがって、2つのタイムライン間のマッピングを行うメカニズムが必要である。ここで、タイムラインのそれぞれは、各伝送網を介して伝送されたデータ又はコンテンツの再生またはデコーディングのための基準として機能する絶対又は相対時間を示すことができる。サービスにおいて、放送網を介して伝送されるビデオ内に含まれるコンテンツがインターネットを介して伝送されるオーディオに含まれるコンテンツと同一である必要がある。
本実施例は、放送網及びインターネットなどの異種網を介して伝送されたストリーム間の同期化のためにタイムラインコンポーネントを用いる方法及び装置を提案する。タイムラインコンポーネントストリームは、1つ以上のタイムラインコンポーネントアクセスユニット(AU)を含むことができる。タイムラインコンポーネントAUは、タイムラインコンポーネントに隣接して配置されてもよい。
タイムラインコンポーネントAUは、インターネットを介して伝送されるストリームのタイムラインが、放送網を介して伝送されるストリームのタイムラインにマップされる例を示す。放送網を介して伝送されるパケットのヘッダーが、放送網を介して伝送されるストリームのタイムラインに関する情報を含む場合、放送網を介して伝送可能なタイムラインコンポーネントAUは、異種網(例えば、インターネット)を介して伝送されるストリームのデコーディングタイムスタンプ(DTS)、プレゼンテーションタイムスタンプ(PTS)などのタイムスタンプ情報を含むことができる。異種網(例えば、インターネット)を介して伝送されるストリームのタイムラインに関する情報がタイムラインコンポーネントAUに含まれる場合、異種網(例えば、インターネット)を介して伝送されるストリームのタイムラインに関する情報が放送網を介して伝送されるストリームと同一のパケット構造でパケット化され得る。この方式で、パケットヘッダーに含まれる放送網を介して伝送されるストリームのタイムスタンプが、インターネットを介して伝送されたストリームのタイムスタンプに一対一マッピングされてもよく、両ストリームは、一つのタイムラインで同期化され、デコーディングされ、再生されてもよい。
プレゼンテーションタイムスタンプ(PTS)は、視聴者に提示されるとき、プログラムの個別エレメンタリストリーム(例えば、ビデオ、オーディオ、サブタイトル)の同期化を達成するのに使用されるMPEG伝送ストリーム、MPEGプログラムストリームまたは類似データストリーム内のタイムスタンプメタデータフィールドである。PTSは、プログラムの全体のクロック基準、プログラムクロック基準(PCR)またはシステムクロック基準(SCR)に関連する単位で与えられ、また、これは、伝送ストリーム又はプログラムストリームで伝送される。
デコードタイムスタンプ(DTS)は、アクセスユニットが受信機バッファーから瞬間的に除去されてデコードされる時間を示す。これは、ピクチャリオーダリング(picture reordering)がBピクチャに使用される場合にのみプレゼンテーションタイムスタンプ(PTS)と異なる。DTSが使用されると、PTSはビットストリームで提供されてもよい。
前記説明は、一つの網を介して伝送されたストリームが、互いに異なるタイムラインを使用する場合に適用することができる。例えば、上述した方式が用いられると、複数の異種網を介して伝送されたストリームを収集し、そのストリームを視聴者に提供するリレイサービス提供者は、互いに異なるストリームの同期化に対するリプロセッシングを直接行う必要がない。
タイムラインコンポーネントAUは、XMLなどの他のフォーマットで表現されてもよい。タイムラインコンポーネントAUは、identifier情報、version情報、AU_length情報、location_flag情報、PTS_flag情報、DTS_flag情報、media_time_flag情報、NTP_time_flag情報、PTP_time_flag情報、timecode_flag情報、PCR_time_flag情報、location_length情報、location情報、timescale情報、media_time_PTS情報、media_time_DTS情報、NTP_time_PTS情報、NTP_time_DTS情報、PTP_time_PTS情報、PTP_time_DTS情報、timecode_PTS情報、timecode_DTS情報、PCR_time_PTS情報及び/又はPCR_time_DTS情報を含むことができる。
identifier情報は、タイムラインコンポーネントAUの構造を固有に示す識別子である。
version情報は、下位PTS、DTSなどのタイムスタンプフィールドの長さを示すことができる。例えば、長さは、バージョン情報が1の値を有するとき、64ビットに対応し、バージョン情報が0の値を有するとき、32ビットに対応し得る。
AU_length情報は、タイムラインコンポーネントAUの長さを示すことができる。
location_flag情報は、タイムラインコンポーネントAUが外部網を介して伝送されたストリームの位置情報を含むか否かを示す。
PTS_flag情報は、タイムラインコンポーネントAUがPTS値を含むか否かを示す。
DTS_flag情報は、タイムラインコンポーネントAUがDTS値を含むか否かを示す。
media_time_flag情報は、メディアタイムフォーマットを有するタイムスタンプが含まれるか否かを示す。
NTP_time_flag情報は、NTPフォーマットを有するタイムスタンプが含まれるか否かを示す。
PTP_time_flag情報は、PTPフォーマットを有するタイムスタンプが含まれるか否かを示す。
timecode_flag情報は、SMPTE(society of motion picture and television engineers)タイムコードフォーマットを有するタイムスタンプが含まれるか否かを示す。
PCR_time_flag情報は、MPEG−2 TSのPCRベースのタイムスタンプが含まれるか否かを示す。
location_length情報は、位置フィールドの長さを示す。
location情報は、異種網を介して伝送されるストリームの固有のID又はURLを示す。位置情報が固有のIDを示す場合、位置情報は、シグナリングデータなどの情報にリンクされることによって使用され得る。
timescale情報は、メディアタイムスケールを示す。タイムスケール情報は、他の情報によって指示された時間単位を識別する情報である。
media_time_PTS情報は、メディアタイムフォーマットで表現されるPTSを示す。
media_time_DTS情報は、メディアタイムフォーマットで表現されるDTSを示す。
NTP_time_PTS情報は、NPTフォーマットで表現されるPTSを示す。
NTP_time_DTS情報は、NPTフォーマットで表現されるDTSを示す。
PTP_time_PTS情報は、PTPフォーマットで表現されるPTSを示す。
PTP_time_DTS情報は、PTPフォーマットで表現されるDTSを示す。
PTP_time_PTS情報又はPTP_time_DTS情報は、32ビット、64ビットまたは80ビットのサイズを有することができる。
timecode_PTS情報は、SMPTEタイムコードフォーマットで表現されるPTSを示す。
timecode_DTS情報は、SMPTEタイムコードフォーマットで表現されるDTSを示す。
PCR_time_PTS情報は、PCRフォーマットで表現されるPTSを示す。
PCR_time_DTS情報は、PCRフォーマットで表現されるDTSを示す。
本発明の実施例によれば、受信機は、タイムラインコンポーネントAUに含まれる少なくとも1つのタイムスタンプ情報を位置情報によって識別された外部網内のストリームに適用することによって、放送網を介して伝送されたストリームを異種網を介して伝送されたストリームと同期化することができる。
タイムラインコンポーネントAUは、XMLなどの他のフォーマットで表現されてもよい。タイムラインコンポーネントAUは、identifier情報、version情報、AU_length情報、location_flag情報、PTS_flag情報、DTS_flag情報、timestamp_version_flag情報、timestamp_type情報、location_length情報、location情報、timescale情報、media_time_PTS情報、media_time_DTS情報、timestamp_type_PTS情報及び/又はtimestamp_to_DTS情報(又はtimestamp_type_DTS情報)を含むことができる。
上述したタイムラインコンポーネントAUのシンタックスに含まれる情報と同一の用語に対応する情報の説明は、前記説明で代替される。
timestamp_version_flag情報は、マップされるタイムラインのタイムスタンプフォーマットを示す。例えば、timestamp_version_flag情報が0の値を有するとき、32ビットフォーマットが使用され、timestamp_version_flag情報が1の値を有するとき、64ビットフォーマットが使用されることを示すことができる。
timestamp_type情報は、マップされるタイムラインのタイムスタンプのタイプを示す。例えば、timestamp_type情報は、情報が0x00の値を有するとき、タイプがメディアタイムに対応することを示し、情報が0x01の値を有するとき、タイプがNTPに対応することを示し、情報が0x02の値を有するとき、タイプがPTPに対応することを示し、情報が0x03の値を有するとき、タイプがタイムコードに対応することを示す。情報が0x04〜0x1Fの値を有するとき、タイプは後で定義され得、値はリザーブド(reserved)される。
タイムスケール情報は、マップされるタイムラインのメディアタイムを示すタイムスケールを示すことができる。例えば、MPEG−2 TSにおいて、タイムスケールは90Kの値を有することができる。
media_time_PTS情報は、マップされるタイムラインのプレゼンテーションタイムスタンプ、すなわち、再生が行われる時点に対するメディアタイムを示すことができる。media_time_PTS情報は、timestamp_version_flagの値が0であるとき、32ビットフォーマットで指示され、その値が1であるとき、64ビットフォーマットで指示されてもよい。
media_time_DTS情報は、マップされるタイムラインのデコーディングタイムスタンプ、すなわち、デコーディングが行われる時点に対するメディアタイムを示すことができる。media_time_DTS情報は、timestamp_version_flagの値が0であるとき、32ビットフォーマットで指示され、その値が1であるとき、64ビットフォーマットで指示されてもよい。
timestamp_type_PTS情報は、マップされるタイムラインのタイムスタンプタイプによるプレゼンテーションタイムスタンプ、すなわち、再生が行われる時点を示すことができる。timestamp_type_PTS情報は、timestamp_version_flagの値が0であるとき、32ビットフォーマットで指示され、その値が1であるとき、64ビットフォーマットで指示されてもよい。例えば、timestamp_typeフィールド値がNTPを示す場合、timestamp_type_PTSフィールド値は、NTPベースの再生時点に対するタイムスタンプ値を有することができる。
timestamp_type_DTS情報は、マップされるタイムラインのタイムスタンプタイプによるデコーディングタイムスタンプ、すなわち、デコーディングが行われる時点を示すことができる。timestamp_type_DTS情報は、timestamp_version_flagの値が0であるとき、32ビットフォーマットで指示され、その値が1であるとき、64ビットフォーマットで指示されてもよい。例えば、timestamp_typeフィールド値がNTPを示す場合、timestamp_type_DTSフィールド値は、NTPベースのデコーディング時点に対するタイムスタンプ値を有することができる。
タイムラインコンポーネントを用いて異種網を介して伝送される伝送ストリーム間のタイムラインの共有を通じた上述した同期化方式において、タイムラインは、放送網伝送ストリームのパケットヘッダーのタイムスタンプをパケットペイロードのタイムラインコンポーネントAUに含まれるインターネット伝送ストリームのタイムスタンプに一対一マッピングすることによって共有され得る。
しかし、タイムスタンプ関連情報は、放送網伝送パケットのヘッダーに存在しないことがある。
図示のように、タイムスタンプ関連情報が伝送パケットのヘッダーに存在しない場合、タイムライン内の本来のタイムスタンプに対する追加の情報が必要である。タイムラインは、本来のタイムスタンプをインターネット伝送ストリームのタイムスタンプに一対一マッピングすることによって放送網とインターネットとの間で共有されてもよい。
本来のタイムスタンプ及び異種網(例えば、インターネット)内の伝送ストリームのタイムスタンプに関連する情報が、タイムラインコンポーネントAUに含まれてもよい。
本来のタイムスタンプは、基準タイムライン上のタイムスタンプとして定義されてもよい。例えば、上述した実施例において、放送網を介して伝送されるストリームに対するタイムスタンプは、本来のタイムスタンプとして定義されてもよい。
本発明の他の実施例に係るタイムラインコンポーネントAUのシンタックスは、上述したタイムラインコンポーネントAUのシンタックスに加え、本来のタイムスタンプに関連する情報を含むことができる。
タイムラインコンポーネントAUは、identifier情報、version情報、AU_length情報、location_flag情報、origin_PTS_flag情報、origin_DTS_flag情報、origin_PTS情報、origin_DTS情報、location_length情報、PTS_flag情報、DTS_flag情報、media_time_flag情報、NTP_time_flag情報、PTP_time_flag情報、timecode_flag情報、PCR_time_flag情報、location_URL_length情報、location_URL情報、timescale情報、media_time_PTS情報、media_time_DTS情報、NTP_time_PTS情報、NTP_time_DTS情報、PTP_time_PTS情報、PTP_time_DTS情報、timecode_PTS情報、timecode_DTS情報、PCR_time_PTS情報及び/又はPCR_time_DTS情報を含むことができる。
上述したタイムラインコンポーネントAUのシンタックスに含まれる情報と同一の用語に対応する情報の説明は、前記説明で代替される。
origin_PTS_flag情報は、タイムラインコンポーネントAUがorigin_PTS値を含むか否かを示す。
origin_DTS_flag情報は、タイムラインコンポーネントAUがorigin_DTS値を含むか否かを示す。
origin_PTS情報は、タイムラインマッピングの基準ベースタイムライン上の現在のパケットのPTSを示す。
origin_DTS情報は、タイムラインマッピングの基準ベースタイムライン上の現在のパケットのDTSを示す。
location_URL_length情報は、location_URL情報の長さを示す。
location_URL情報は、異種網を介して伝送されるストリームのURL又は異種網を介して伝送されるストリームを固有に識別する識別子を示すことができる。
受信機は、放送網で伝送ストリームのパケットペイロードからタイムラインコンポーネントAUを取得し、タイムラインコンポーネントAU内のorigin_PTS情報及び/又はorigin_DTS情報をパースし、パースされた情報に基づいて、放送網で伝送ストリームのためのタイムスタンプ情報を取得することができる。受信機は、origin_PTS情報及び/又はorigin_DTS情報を通じて取得された放送網内の伝送ストリームのタイムスタンプ及びタイムスタンプコンポーネントAUに含まれる異種網のためのタイムスタンプに関連する情報を用いて、放送網の伝送ストリームを異種網の伝送ストリームと同期化することができる。
図84は、本発明の実施例として、ALC/LCT+を介して伝達されたコンテンツとDASH(ユニキャスト)を介して伝達されたコンテンツとの同期化方式を示す図である。
ALC/LCT+を介して伝達されるそれぞれの連続メディアコンポーネントが、ALCエクステンションヘッダー内の放送タイムラインクロック基準タイムスタンプを有するか、またはサービスの個別放送「タイムベース」コンポーネントが、適切な間隔で放送タイムラインクロック基準タイムスタンプを伝達することができる。
放送タイムラインクロック基準タイムスタンプがALCエクステンションヘッダーに含まれる場合、当該DASHメディアプレゼンテーションタイムライン基準タイムスタンプが共に含まれることで、DASHメディアプレゼンテーションタイムラインから放送タイムラインへのマッピングを提供することができる。
放送クロック基準タイムスタンプがサービスの個別放送タイムベースコンポーネントに含まれる場合、当該DASHメディアプレゼンテーションタイムライン基準タイムスタンプが共に個別放送タイムベースコンポーネントに含まれることで、DASHメディアプレゼンテーションタイムラインから放送タイムラインへのマッピングを提供することができる。
放送又はブロードバンドを介して受信機に伝達されることは、「放送タイムライン」に対するクロック基準タイムスタンプ及びDASHを用いて(プロトコル経路Ref−Clocks/IP−Multicast/UDP/IPを用いて)ブロードバンドを介して利用可能な代替オーディオストリームのDASHメディアプレゼンテーションタイムラインに対する当該タイムスタンプを含む一つの放送IPマルチキャストストリーム、及び連続コンポーネントトラック(例えば、ビデオ、オーディオ及びクローズドキャプション)のそれぞれに対する一つの放送ISO BMFFストリームで構成され得る。それぞれのISO BMFFファイルは、(プロトコル経路ISO BMFF/ALC/LCT+IP−Multicast/UDP/IPを用いて)ALC/LCT+オブジェクト、及び/又は(プロトコル経路ISO BMFF/DASH/HTTP(S)/TCP/IPを用いて)DASHを用いてブロードバンドを介して利用可能な1つ以上の連続コンポーネントトラックとして伝達され得る。
「放送タイムライン」に対するクロック基準タイムスタンプ及びDASHを用いてユニキャストブロードバンドを介して利用可能な代替オーディオストリームのDASHメディアプレゼンテーションタイムラインに対する当該タイムスタンプを含む一つの放送IPマルチキャストストリームのために、タイムラインのタイムスケールが通常のクロック時間であり、例えば、クロックは、任意の適切なフォーマット(おそらく、NTPフォーマット)で表現されるサーバーでのUTC時間であってもよい。
連続コンポーネントトラック(例えば、ビデオ、オーディオ及びクローズドキャプション)のそれぞれに対する一つの放送ISO BMFFストリームに対して、ISO BMFFファイルの開始を含むALC/LCT+パケットは、「放送タイムライン」に対してISO BMFFファイルのタイムラインに対する開始時間を提供するLCTエクステンションヘッダーを有する。URLをそれぞれのISO BMFFファイルと関連付ける必要がある場合(例えば、MPDがシグナリングに使用される場合)、それぞれのISO BMFFファイルは、コンテンツ−位置フィールドを含むHTTP−スタイルヘッダーを有することができる。または、ISO BMFFファイルの開始を含むALC/LCT+パケットは、関連付けられたURLを含むLCTエクステンションヘッダーを有することができる。
一つのビデオトラック、一つのオーディオトラック及び/又は一つのクローズドキャプショントラックが放送を介して伝達され、第2オーディオトラックがユニキャストブロードバンドを介して伝達される、次のハイブリッド伝達を使用するケースを考慮する。
図85は、本発明の実施例として、ALC/LCT+を通じてISO BMFFのハイブリッド伝達のためのプロトコルスタックを示す図である。
クロスハッチングされた灰色のオーディオトラックはプレゼンテーションに使用されない。
受信機は、シグナリングを用いて、どのオーディオトラックが提示されるか(この場合、代替オーディオトラック)を決定し、IPマルチキャストアドレス及びポート、及びビデオ及びクローズドキャプショントラックを伝達するALC/LCT+セッションのためのTSI値を得、クロック基準/マッピングストリームのためのIPマルチキャストアドレス及びポートを得、及び/又は代替オーディオストリームのブロードバンドDASH伝達のためのMPDのURLを得ることができる。
受信機は、MPDのURLを用いてDASH MPDを検索(retrieve)することができる。
受信機は、タイムスタンプが現れるとき、クロック基準/マッピングストリームからそれを抽出し、それを用いて「放送タイムライン」と受信機「壁時計」タイムラインとの間のオフセットを決定し、DASHメディアプレゼンテーションタイムラインと「放送タイムライン」との間のオフセットを決定することができる。これは、DASHメディアプレゼンテーションタイムラインから受信機「壁時計」タイムラインへのマッピングを招く。
受信機は、ビデオ及びクローズドキャプショントラックに対する放送ISO BMFFファイルが現れるとき、放送からそれを抽出することができる。
受信機は、前記ステップで決定されたオフセットによって調節されたそれぞれのBMFFファイルのALC/LCT+エクステンションヘッド内のプレゼンテーションタイムスタンプを用いて、各ISO BMFFファイルのタイムラインに対する壁時計開始時間を設定することができる。
受信機は、各ISO BMFFファイルのための壁時計開始時間及びファイル内の内部タイミング情報に基づいて、適切な時間に放送BMFFファイル内のアクセスユニットを提示することができる。
前記ステップで得たタイムラインマッピングを用いて、受信機は、現在の受信機壁時計時間に対応するDASHメディアプレゼンテーションタイムライン内の時間を決定することができる。MPDを用いて、当該DASH期間、所望のオーディオトラックを含むDASH表示及びセグメントのURLを決定する。適切なDASHセグメントを検索し、それらを適切な壁時計時間に提示する。
前記2つの方法は、他の伝送プロトコルが放送チャネルに使用されるときに適用することができる。
放送システムは、より多くの情報をユーザに提示するために、リアルタイム連続コンテンツ及びNRTファイルが結合される放送コンテンツを提供することができる。
非リアルタイムファイルからの連続コンテンツのプレイアウト(play−out)とリアルタイムで伝達される連続コンテンツを同期化するために、同期化に対する一般的なアプローチは、ファイルベースのコンテンツのタイムラインをリアルタイム連続コンテンツのタイムラインにマップすることである。
例えば、同期化は、RTPの場合、ファイルベースのコンテンツのタイムラインをNTPタイムベースにマップしたり、放送/マルチキャストコンテンツの場合、ALC/LCTを介してISO BMFF内の放送タイムラインにマップすることができる。同様に、ファイルからの連続コンテンツのプレイアウトをユニキャストを介して伝達される連続コンテンツと同期化しようとする場合、一般的なアプローチは、ファイルベースのコンテンツのタイムラインをDASHメディアプレゼンテーションタイムラインにマップすることである。
ファイルベースのコンテンツのタイムラインを決定する方法は、ファイルフォーマットによって決定される。同期化メカニズムを特定するために、ファイルベースのタイムラインのクロックレート、及びこのタイムラインに対してファイル内の第1プレゼンテーションユニットのプレゼンテーション時間を要求する必要がある。ファイルベースのコンテンツのタイムラインに関するこの情報が決定される方法は、ファイルフォーマットによって決定され得る。タイムラインは、ファイル内の第1プレゼンテーションユニットに対応する開始時間及びクロックレートを特定し、ファイル内の全てのプレゼンテーションユニットは、このタイムラインに対してプレゼンテーション時間を有する。
適切なタイムラインマッピング情報がシグナリングされ得る。NTP時間、放送タイムライン時間またはファイルの開始に対応するDASHメディアプレゼンテーションタイムライン時間がシグナリングされ得る。これは、ファイル内の任意のプレゼンテーションユニットのプレゼンテーション時間が、このタイムラインに対して計算されるようにすることができる。
放送システムは、サービスシグナリングデータをエンコードして受信機に送信することができ、サービスシグナリングデータは、受信機で放送コンテンツを獲得するのに使用される。
サービスシグナリングをハンドリングできる一つの方法は、サービスモデルを反映する新たなサービスシグナリングデータ構造を定義し、このようなシグナリングの伝達のための適切なメカニズムを特定することである。このようなデータ構造は、連続コンポーネントのリアルタイムユニキャスト伝達をサポートするためにDASH MPDファイルを参照する方法を含む必要がある。
サービスシグナリングをハンドリングできる他の方法は、DASH MPD構造を用いて、リアルタイムで伝達される全ての連続コンポーネントをシグナリングし、これを任意のデータ構造で増加(augment)させてコンポーネントの他のカテゴリーをシグナリングすることである。
前述した、本発明の方法は、前述した送信機又は受信機によって行うことができる。
本発明の説明は、明瞭化のために、添付の図面のそれぞれを参照して説明するが、添付の図面に示す実施例を併合することによって新しい実施例を設計することもできる。以上の説明で言及した実施例を実行するプログラムが記録されたコンピュータ読み取り可能記録媒体が当業者の必要によって設計されると、これも、添付した特許請求の範囲及びその均等物の範囲に属することができる。
本発明に係る装置及び方法は、以上の説明で言及された実施例の構成及び方法によって制限されない。以上の説明で言及された実施例は、全体的に又は部分的に互いに選択的に結合される方式で構成され、様々な変形が可能である。
また、本発明に係る方法は、ネットワーク装置に提供されるプロセッサ読み取り可能記録媒体でプロセッサ読み取り可能コードとして具現することができる。プロセッサ読み取り可能媒体は、プロセッサによって読み取り可能なデータを格納できるいかなる種類の記録装置も含むことができる。プロセッサ読み取り可能記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ記憶装置などがあり、また、インターネットを介した伝送などのようなキャリアウェーブの形態で具現されるものも含む。また、プロセッサ読み取り可能記録媒体は、ネットワークを介して接続されたコンピュータシステムに分散され、分散方式でプロセッサ読み取り可能コードが格納され、実行されてもよい。
当業者は、本発明の思想及び範囲から逸脱することなく本発明の様々な変形及び変更が可能であることが理解できる。したがって、本発明は、添付した特許請求の範囲及びその均等物の範囲内で提供される本発明の変形及び変更をカバーする。
装置及び方法発明が本明細書に言及されており、それらの装置及び方法発明の説明は相互補完的に適用されてもよい。
様々な実施例が、発明を実施するための形態において記載された。