JP2023145144A - 放送システム、受信機、受信方法、及びプログラム - Google Patents

放送システム、受信機、受信方法、及びプログラム Download PDF

Info

Publication number
JP2023145144A
JP2023145144A JP2022052461A JP2022052461A JP2023145144A JP 2023145144 A JP2023145144 A JP 2023145144A JP 2022052461 A JP2022052461 A JP 2022052461A JP 2022052461 A JP2022052461 A JP 2022052461A JP 2023145144 A JP2023145144 A JP 2023145144A
Authority
JP
Japan
Prior art keywords
audio
mpeg
receiver
descriptor
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022052461A
Other languages
English (en)
Inventor
智夫 西垣
Tomoo Nishigaki
秀樹 鈴木
Hideki Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2022052461A priority Critical patent/JP2023145144A/ja
Publication of JP2023145144A publication Critical patent/JP2023145144A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stereophonic System (AREA)

Abstract

【課題】受信機の能力に応じて、適切な音声再生を行うことができる。【解決手段】MPEG-Hオーディオを音声コンポーネントに含む放送を受信する受信機であって、放送の放送波から、MPEG-Hオーディオが存在するか否かを示す識別情報を、多重化レイヤーで取得し、識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択し、選択された音声コンポーネントの音声データを復号化する。【選択図】図15

Description

本発明は、放送システム、受信機、受信方法、及びプログラムに関する。
放送において、MPEG-Hオーディオ等のオブジェクトベースの音声信号を用いることが検討されている。
特許文献1には、音声オブジェクトの音声信号(オブジェクトベースの音声信号)を優先信号とし、優先して再生することが記載されている。
特開2021-124719号公報
特許文献1では、音声符号装置がオブジェクトベースの音声信号を符号化し、そのビットストリームを対象にして、音声復号装置が復号処理を行う。
しかしながら、放送を受信する受信機には、オブジェクトベースの音声信号を処理する能力を有しないものも存在する。受信機の能力に応じて、適切な音声再生を行うことができることが望まれる。
本発明は上記の点に鑑みてなされたものであり、受信機の能力に応じて、適切な音声再生を行うことができる放送システム、受信機、受信方法、及びプログラムを提供する。
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、MPEG-Hオーディオを音声コンポーネントに含む放送を行う放送システムであって、受信機が、前記放送の放送波から、MPEG-Hオーディオが存在するか否かを示す識別情報を、多重化レイヤーで取得する分離部と、前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択する制御部と、選択された音声コンポーネントの音声データを復号化する復号化部と、を備える、放送システムである。
(2)また、本発明の一態様は、MPEG-Hオーディオを音声コンポーネントに含む放送を受信する受信部と、前記放送の放送波から、MPEG-Hオーディオが存在するか否かを示す識別情報を、多重化レイヤーで取得する分離部と、前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択する制御部と、選択された音声コンポーネントの音声データを復号化する復号化部と、を備える、受信機である。
(3)また、本発明の一態様は、受信機における受信方法であって、MPEG-Hオーディオを音声コンポーネントに含む放送を受信し、前記放送の放送波から、MPEG-Hオーディオが存在するか否かを示す識別情報を、多重化レイヤーで取得し、前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択し、選択された音声コンポーネントの音声データを復号化する受信方法である。
(4)また、本発明の一態様は、MPEG-Hオーディオを音声コンポーネントに含む放送を受信する受信部と、前記放送の放送波から、MPEG-Hオーディオが存在するか否かを示す識別情報を、多重化レイヤーで取得する取得部と、を備える受信機のコンピュータに、前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択する選択手順を実行させ、選択された音声コンポーネントの音声データを復号化させる、を実行させるためのプログラムである。
本発明によれば、受信機の能力に応じて、適切な音声再生を行うことができる。
本発明の実施形態に係る放送システムSysの構成の一例を示す図である。 本実施形態に係る放送システムの一例を示す図である。 本実施形態に係る放送システムの比較例を示す図である。 本実施形態に係る放送システムSysの別の一例を示す図である。 本実施形態に係る放送システムSysの概略を説明する説明図である。 本実施形態に係るプロトコルスタックの構造の一例を示す図である。 本実施形態に係るMPTのデータ構造を示す図である。 本実施形態に係る受信機のハードウェア構成を示す概略図である。 本実施形態に係る音声モードの一覧の一例を表す図である。 本実施形態に係る受信機内の信号処理の流れの一例を表す概略図である。 本実施形態に係る音声切替メニューの一例を示す図である。 本実施形態に係るMH-音声コンポーネント記述子の構造の一例を示す概略図である。 本実施形態に係る送出運用規則の一例を表す概略図である。 本実施形態に係る受信処理規準の一例を表す概略図である。 本実施形態に係る切替えの詳細例を表すフローチャートである。 本実施形態に係る切替えの別の詳細例を表すフローチャートである。 本変形例に係るMH-MPEG-Hオーディオ記述子の構造の一例を示す概略図である。 本変形例に係る送出運用規則の一例を表す概略図である。 本変形例に係る受信処理規準の一例を表す概略図である。 本実施形態に係るサイマル音声の運用の一例を示す概略図である。 本実施形態に係るサイマル音声の運用の別の一例を示す概略図である。
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
[システム構成]
図1は、本発明の実施形態に係る放送システムSysの構成の一例を示す図である。
放送システムSysは、放送局の放送装置1(「放送局1」という)、中継局Sa、受信機2、放送局サーバ3、及び事業者サーバ4を具備する。放送は、例えば地上デジタル放送であるが、例えば高度BS(Broadcasting Satellites)デジタル放送又は高度広帯域CS(Communication Satellites)デジタル放送であってもよい。また本発明は、これらの放送に限られず、放送は、中継局Saを用いない放送であってもよい。また放送は、ケーブルテレビ等の有線放送であってもよい。中継局Saは、例えば、デジタル中継局であるが、放送衛星であってもよい。
放送システムSysでは、放送局の放送局1から放送波によってデジタル放送信号、アプリケーション制御情報、提示に関する制御情報などを送出する。サービス事業者は、事業者サーバ4から、番組に関連するメタデータや動画コンテンツ等を提供する。
アプリケーション制御情報は、番組と連動するアプリケーション等を本システム対応受信機に周知するとともに起動・終了のためのコマンド、制御情報を送るものである。
提示に関する制御情報は、アプリケーションと放送番組の同一TV画面上での重ね合わせやアプリケーションの提示の可否に関する制御情報を送るものである。
放送局は、放送システムSysにおいて、放送局サーバ3を運営する。放送局サーバ3は、番組タイトル、番組ID、番組概要、出演者、放送日時などのメタデータの提供を行う。放送局がサービス事業者に提供する情報は、放送局サーバ3が備えるAPI(Application Programming Interface)を通して提供される。
サービス事業者は、放送システムSysによるサービスを提供する者であり、サービスを提供するためのコンテンツ、アプリケーションの制作・配信、個々のサービスを実現するための放送局サーバ3の運営を行う。ここで、サービスには、放送と通信を連携させる放送通信連携サービスが含まれる。
放送局サーバ3は、「アプリケーションの管理・配布」のため、受信機2に対してアプリケーションの送出を行う。放送局サーバ3は、「サービス毎のサーバ」として、個々のサービス(MPEG-Hサービス、VOD番組レコメンドサービス、多言語字幕サービス等)を実現するためのサーバ機能を提供する。
MPEG-Hは、デジタルコンテナ標準、動画圧縮標準、音声圧縮標準、そして2つの順応試験標準のため、ISO/IEC Moving Picture Experts Group(MPEG)の開発下にある一連の標準である。MPEG-Hオーディオでは、例えば、オブジェクトベース音響が可能である。オブジェクトベース音響の「オブジェクト」とは、音楽や人の声などの番組を構成する音の素材一つ一つである。オブジェクトベース音響では、音の素材ごとに音声信号が記録され、素材ごとの音声制御が可能である。また、受信機2で再生する時に、素材の再生位置情報を基に、実際に置かれているスピーカーの位置に合わせて番組を再生することも可能である。
放送局サーバ3は、こうしたサービスの機能面を実現するだけでなく、サービスを構成するコンテンツ(MPEG-Hオーディオデータ、VODコンテンツ、字幕データなど)の送出も行う。放送局サーバ3は、「リポジトリ」として、放送システムSysのアプリケーションを配布するために登録し、受信機2からの問い合わせに応じて提供可能なアプリケーションの一覧の提供や検索を行う。
受信機2には、既存デジタル放送の受信機能に加えて、放送通信連携サービスを実現するための機能を備えたものも含まれる。受信機2には、ブロードバンドネットワーク接続機能に加え、次の機能を有している。
・放送からのアプリケーション制御信号に応じてアプリケーションを実行する機能
・放送と通信間の連携による提示を行う機能
・端末連携機能
ここで、端末には、例えば、スマートフォンやスマートスピーカー等のユーザー端末が含まれる。受信機2の端末連携機能は、他の端末の要求に応じて番組情報などの放送リソースにアクセスしたり、再生制御当の受信機機能を呼び出したりする。
また、アプリケーションの例としては、MPEG-Hオーディオのデジタルミキサーが含まれる。ユーザー(「受信者」ともいう)は、事業者サーバ4から受信したデジタルミキサーを用いて、音の素材ごとの音声信号に対して音の強弱又はエフェクト等の調整や音の素材間のバランスを調整できる。これらの調整は、スピーカーごとに行うこともできる。
より具体的には、受信機2は、次の機能を有する。
受信機2は、「放送受信再生」機能として、放送電波を受信し、特定の放送サービスを選局して、サービスを構成する映像、音声、字幕、データ放送を同期再生する機能を有する。
受信機2は、「通信コンテンツ受信再生」機能として、通信ネットワーク上のサーバ(例えば事業者サーバ4)に置かれた映像コンテンツにアクセスし、VODストリーミングとして受信し、コンテンツを構成する映像、音声、字幕を同期再生する機能を有する。
受信機2は、「アプリケーション制御」機能として、通信ネットワーク上のサーバあるいは放送信号から取得したアプリケーション制御情報に基づき、主にマネージドアプリケーションに関してアプリケーションエンジンに対して働きかけ、アプリケーション単位のライフサイクル及びイベントの制御・管理を行う機能を有する。
受信機2は、「アプリケーションエンジン」機能として、アプリケーションを取得し、実行する機能を有する。この機能は、例えばHTML5ブラウザで実現される。
受信機2は、「提示同期制御」機能として、放送受信による映像・音声等のストリームと、ストリーミング受信による映像・音声等のストリーム提示同期を制御する機能を有する。
受信機2は、「アプリケーションロンチャー」機能として、主に放送外マネージドアプリケーションをユーザーが選択、起動するためのナビゲーション機能を有する。
図2は、本実施形態に係る放送システムSysの一例を示す図である。
図2の受信機2は、MPEG-Hの音声に対応した受信機である。
放送局1は、映像信号と音声信号を多重化し、多重化された信号を送信する。多重化方式としてMMT(MPEG Media Transport)・TLV(Type Length Value)が用いられる。
放送局1は、MPEG-4の音声(チャンネルベースの音声:例えば音声12~音声14)の信号とMPEG-Hの音声(オブジェクトベースの音声:音声11)の信号の両方を含む音声信号A11(「高度オーディオ信号」とも称する)を生成して送信する。
このように、放送局1は、高度オーディオ信号と、MPEG-4オーディオ信号と、を並列して送出する。
より具体的には、放送局1は、MPEG-Hの音声を音声コンポーネント(アセット)とし、この音声コンポーネントとMPEG-4の音声の各音声コンポーネントとが多重化された高度オーディオ信号A11を、生成する。この多重化は、各音声コンポーネントの音声データ列が符号化された後に行われる。放送局1は、この高度オーディオ信号A11が多重化された放送波を送出する。
放送局1は、アセット情報を記述するテーブルにおいて、MPEG-Hオーディオ信号(オブジェクトベースの音声:音声11)が存在するかどうかを記述子で記述する(図12参照)。なお、MPEG-Hオーディオ信号が存在するかどうかを記述子は、高度オーディオ信号A11が存在するかどうかの記述子であってもよく、MPEG-Hオーディオ信号が含まれているかどうかを示してもよい。
MMTでは、映像や音声などのコンポーネントをアセットと定義する。
MPEG-Hの音声11の一例は、レベル3として、チャンネル音声が最大11.1ch、セリフ音声が日本語又は英語、解説音声が日本語の音声である。受信機2は、レベル3では、MPEG-Hの再生処理に加えて、同時に16chの復号処理の能力が必要となる。MPEG-Hの音声11の別の一例は、レベル4として、チャンネル音声が最大22.2ch、セリフ音声が日本語又は英語、解説音声が日本語の信号である。受信機2は、レベル4では、MPEG-Hの再生処理に加えて、同時に28chの復号処理の能力が必要となる。
MPEG-4の音声の一例は、音声12が7.1chの日本語、音声13がステレオの日本語、音声14が7.1chの英語の音声である。音声13は、音声12のサイマル放送(同時並行放送)の音声である。
受信機2は、チューナー211、Demux(デマルチプレクサ)22、セレクタ231、音声デコーダー232、ミキサー233、及び映像デコーダー241を含んで構成される。受信機2の詳細な構成については、後述する。
チューナー211は、アンテナを介して放送波を受信し、ユーザー操作に基づいて選択されていているチャンネルに同調(選局)する。同調された信号は復調され、データとしてDemux22へ入力される。
Demux22は、入力されたデータを、映像データ列、音声データ列、文字スーパーデータ列、字幕データ列等に分離する。分離された音声データ列は、セレクタ231へ出力される。分離された映像データ列は、映像デコーダー241へ出力される。
ここで、Demux22は、音声データ列について、MPEG-Hの音声11と、MPEG-4の各音声12、13、14と、の各音声コンポーネントの音声データ列に分離する。より具体的には、Demux22は、アセット情報を記述するテーブルにおいて、MPEG-Hオーディオ信号が存在するかどうかを記述子で判断する。Demux22は、MPEG-Hオーディオ信号が存在すると判断した場合、受信機2がMPEG-Hの音声デコード能力があるときには、高度オーディオ信号のデータから音声11、音声12、音声13、及び音声14を分離する。Demux22は、MPEG-Hオーディオ信号が存在しないと判断した場合、音声12、音声13、及び音声14だけを分離する。
Demux22から出力された各音声コンポーネントの音声データ列は、セレクタ231に入力される。セレクタ231は、ユーザー操作又は受信機2の能力に応じて、音声コンポーネントの音声データ列を選択する。受信機2の能力には、例えば、同時にデコードできるチャンネル数、又は再生できるスピーカーの種類や能力が含まれる。セレクタ231は、選択した音声データ列を音声デコーダー232へ出力する。
音声デコーダー232は、セレクタ231から入力された音声コンポーネントの音声データ列を復号化する。
ミキサー233は、音声デコーダー232に復号化された音声データ列がMPEG-Hの音声データ列である場合には、音の素材ごとの音声を合成して、ダウンミックス処理を行う。ダウンミックス処理をされた音声データ列は、音声に変換されてスピーカーから出力される。音声デコーダー232に復号化された音声データ列がMPEG-4の音声データ列である場合には、その音声データ列は、音声に変換されてスピーカーから出力される。つまり、MPEG-4の音声データ列に対しては、音の素材ごとの音声の合成や、ダウンミックス処理が行われない。
Demux22から出力された映像データ列は、映像デコーダー241に入力される。
映像デコーダー241は、入力された映像データ列を復号化する。復号化された映像データ列は、必要に応じた色空間変換処理が行われ、ディスプレイでの映像の表示に用いられる。なお、Demux22に分離された文字スーパーデータ列及び字幕データ列は、それぞれ、文字スーパーデコーダー及び字幕デコーダー(不図示)で復号化され、復号かされた文字列は、映像に重畳される。
以上のとおり、本実施形態に係る受信機2は、MPEG-Hオーディオ(音声)を音声コンポーネントに含む放送で、MPEG-Hオーディオ信号が存在することを示す情報を、多重化レイヤーで取得する。受信機2は、自装置の能力に応じた音声コンポーネントを選択するので、受信機2の能力に応じて、適切な音声再生を行うことができる。
図3は、本実施形態に係る放送システムSysの比較例を示す図である。
この図は、放送局C1が、MPEG-Hの音声のみを送出する場合の一例である。この例では、MPEG-Hの音声は、MPEG-4の音声と多重化もされない。
この例は、MPEG-Hの音声は、唯一の音声コンポーネントとして運用されている例である。そのため、アセット情報を記述するテーブルにおいて、MPEG-Hオーディオ信号が存在するかどうかを記述子も含まれていない。この場合、DemuxC22は、MPEG-Hの音声を音声コンポーネント(音声の構成)として取得ができるが、処理可能かどうか(レベル等)が判断できない。DemuxC22から出力された音声データ列は、音声デコーダーC232にて復号され、ミキサーC233へ出力される。
図3の比較例に対して、本実施形態に係る放送局1は、MPEG-Hオーディオ信号とMPEG-4オーディオ信号を並行して送出する。受信機2は、まずMPEG-Hオーディオ信号が存在するかどうかを記述子で判断し、音声デコード能力に応じて、MPEG-HまたはMPEG-4の音声を選択する。
これにより、受信機2は、自装置のの能力に応じて、MPEG-HまたはMPEG-4のうち、適切な音声再生を行うことができる。
図4は、本実施形態に係る放送システムSysの別の一例を示す図である。この図において、受信機2は、MPEG-Hに対応していない受信機である。
この図の受信機2は、チューナー211、Demux22a、セレクタ231a、音声デコーダー232a、及び音声デコーダー241を含んで構成される。この図において、図3の受信機2と同じ機能部については同じ符号を付し、その説明を省略する。
Demux22aは、入力されたデータを、映像データ列、音声データ列、文字スーパーデータ列、字幕データ列等に分離する。分離された音声データ列は、セレクタ231aへ出力される。分離された映像データ列は、映像デコーダー241へ出力される。
ここで、Demux22aは、音声データ列について、MPEG-4の各音声12、13、14と、の各音声コンポーネントの音声データ列に分離する。より具体的には、Demux22aは、アセット情報を記述するテーブルにおいて、MPEG-4オーディオ信号A11が存在するかどうかをを記述子で判断する。Demux22aは、MPEG-Hオーディオ信号A11は再生可能ではないと判定する。
Demux22は、オーディオ信号A11のデータから、音声11、音声12、及び音声13を分離する。
なお、このような信号の選択(MPEG-4オーディオ信号の選択、又はMPEG-4オーディオ信号のみのサイマル放送の選択)は、セレクタ231で行われてもよい。
図5は、本実施形態に係る放送システムSysの概略を説明する説明図である。
放送システムSysにおいて、放送局1は、MPEG-Hエンコーダ11、MPEG-4エンコーダ111~113、Mux(マルチプレクサ)12を含んで構成される。なお、放送局1は、その他放送に必要な機能部を有する。この図のMPEG-4エンコーダは、3個の例をしめすが、放送局1は、MPEG-4エンコーダを2個以下備えるものであってもよいし、4個以上備えるものであってもよい。
受信機2は、Demux22、セレクタ231、MPEG-Hオーディオコアデコーダー232-1、MPEG-4デコーダー232-2、MPEG-Hオーディオレンダラー233-1、及び、ミキサー233-2を含んで構成される。この図において、図2の受信機2と同じ機能部については同じ符号を付す。なお、MPEG-Hオーディオコアデコーダー232-1及びMPEG-4デコーダー232-2は、図2の音声デコーダー232に対応する。MPEG-Hオーディオレンダラー233-1及びミキサー233-2は、図2のミキサー233に対応する。
放送局1では、MPEG-Hの音声の音素材として、背景音(22.2ch/11.1ch)、セリフ(日本語)、セリフ(英語)、及び、解説音声(日本語)のデータが、MPEG-Hエンコーダ11へ入力される。また、MPEG-4の音声の音素材として、日本語のセリフを含む7.1chの音声、日本語のセリフを含むステレオの音声、及び英語のセリフを含むステレオのデータが、それぞれ、MPEG-4エンコーダ111、112、113へ入力される。
MPEG-Hエンコーダ11は、入力された音声を符号化することで、MPEG-Hの音声ストリームSt1を出力する。このストリームを、MPEG-H 3Dオーディオストリームともいう。
MPEG-4エンコーダ111、112、及び113は、入力された音声を符号化することで、それぞれ、MPEG-4の音声ストリームSt2、St3及びSt4を出力する。
Mux12には、映像ストリーム、SI(Signaling Information)、MPEG-Hの音声ストリームSt1、MPEG-4の音声ストリームSt2、St3及びSt4が入力される。Mux12は、これらのデータを多重化する。多重化されたデータは、変調され、変調後の信号が放送波として放送される。
受信機2に受信された放送波は復調され、復調後のデータはDemux22に入力される。Demux22は、入力されたデータを、映像ストリーム、SI、MPEG-Hの音声ストリームSt1、MPEG-4の音声ストリームSt2、St3及びSt4に分離する。MPEG-Hの音声ストリームSt1、MPEG-4の音声ストリームSt2、St3及びSt4は、セレクタ231に入力される。SIのMPT(MMT Package Table)からは、MPEG-Hオーディオ信号が存在するかどうかを示す記述子が抽出される。
セレクタ231は、抽出された記述子に基づいて、MPEG-Hオーディオ信号が存在するかどうかを判断する。MPEG-Hオーディオ信号が存在する場合、セレクタ231は、MPEG-Hの音声ストリームSt1を、MPEG-Hオーディオコアデコーダー232-1へ出力する。
セレクタ231は、MPTに基づいて、MPEG-4の音声ストリームSt2、St3又はSt4を、MPEG-4デコーダー232-2へ出力する。
MPEG-Hオーディオコアデコーダー232-1は、MPEG-Hオーディオコアデコーダー232-1を復号化することで、背景音(22.2ch/11.1ch)、セリフ(日本語)、セリフ(英語)、及び、解説音声(日本語)のデータを抽出する。
MPEG-Hオーディオレンダラー233-1は、MPEG-Hオーディオのオーディオレンダラーであり、MPEG-Hオーディオコアデコーダー232-1が抽出したデータの音声をレンダリング処理(ダウンコンバート、或いはアップコンバートを含む)し、ミキサー233へ出力する。
MPEG-4デコーダー232-2は、MPEG-4の音声ストリームSt2、St3又はSt4を復号化することで、日本語のセリフを含む7.1chの音声、日本語のセリフを含むステレオの音声、及び英語のセリフを含むステレオのデータを抽出し、ミキサー233へ出力する。
ミキサー233-2は、入力されたデータの音声を合成し、合成された音声は、各スピーカー又はヘッドホン等から出力される。
[放送波の制御情報について]
本実施形態に係る放送波について、説明する。
放送波において、制御情報は、各放送事業者がその放送信号であるTLVストリームに重畳して送出される。制御情報には、TLV多重化方式に関わるTLV-SI(TLV-Signaling Information)と、メディアトランスポート方式であるMMTに関わるMMT-SI(MMT-Signaling Information)がある。
以下では、(映像又は音声の)「コンポーネント」を「アセット」ともいう。
<MMTを用いるシステムのプロトコルスタックの構造>
MMTを用いるシステムにおいて、制御情報が配置されるプロトコルスタックの構造の例について説明する。
図6は、本実施形態に係るプロトコルスタックの構造の一例を示す図である。
この図に示すように、放送システムに用いるプロトコルスタックは、TMCC(Transmission and Multiplexing Configuration Control)、時刻情報、符号化された映像データ、符号化された音声データ、符号化された字幕データ、MMT-SI、HTML5規格で記述されたアプリケーション(単にアプリともいう)、EPG(電子番組ガイド)、コンテンツダウンロードデータ等を含んで構成される。放送番組の映像信号及び音声信号の符号はMFU(Media Fragment Unit)/MPUである。そして、MFU/MPUは、MMTPペイロードに乗せて放送局1によってMMTPパケット化され、IPパケットで放送局1によって伝送される。データコンテンツの伝送は、データが放送局1によってMMTPパケット化され、IPパケットで放送局1によって伝送される。このように構成されたIPパケットは、放送伝送路を用いて放送される場合、TLVパケットの形式で放送局1によって伝送される。一つのIPパケットあるいは一つのヘッダー圧縮したIPパケットは、一つのTLVパケットで放送局1によって伝送する。
さらに、放送システムに用いるプロトコルスタックでは、MMT-SI、TLV-SIの2種類の制御情報が設けられている。MMT-SIとは、放送番組の構成などを示す制御情報である。MMT-SIでは、MMTの制御メッセージの形式とし、放送局1によってMMTPペイロードに乗せられてMMTPパケット化され、放送局1によってIPパケットで伝送される。TLV-SIとは、IPパケットの多重に関する制御情報であり、選局のための情報やIPアドレスとサービスの対応情報を提供する。
また、TMCCとは、伝送路上の信号の単位(スロット)ごとに変調方式やエラー訂正方式を指定する階層変調方式において、伝送フレームに挿入して伝送するこれらの制御情報である。HEVC(High Efficiency VIDeo Coding)とは、映像信号の符号化の手法である。AAC(Advanced Audio Coding)及びALS(Audio Lossless Coding)とは、音声信号の符号化の手法である。UDP/IP(User Datagram Protocol/Internet Protocol)とは、通信に使われるプロトコルの1つである。TLV(TYPE LENGTH VALUE)とは、データの多重化手法の1つである。
TLVは、データの符号化をデータタイプ(Type)、長さ(Length)、値(Value)の3つで構成される。
<メッセージの種類と識別>
MMT-SIには、メッセージ、テーブル、記述子が含まれている。
メッセージには、Package Access(PA)メッセージ、M2セクションメッセージ、CAメッセージ、M2短セクションメッセージ、データ伝送メッセージ、及び事業者が設定するメッセージが含まれる。
放送で使用するMMT-SIのメッセージは、次の通りである。
「PAメッセージ」は、サービスのエントリーポイントを示すために、PLT およびMPT を伝送する。
「M2セクションメッセージ」は、MPEG-2 Systemsのセクション拡張形式を伝送する。
「CA メッセージ」は、限定受信方式に関する情報を伝送する。
「M2 短セクションメッセージ」は、MPEG-2 Systems のセクション短形式を伝送する。
「データ伝送メッセージ」は、データ伝送に関するテーブルを伝送する。
<テーブルの種類と識別>
放送で使用するTLV-SIのテーブルは、次の通りである。
「TLV-NIT(Network Information Table for TLV)」は、TLV パケットによる伝送において、変調周波数など伝送路の情報と放送番組を関連付ける情報を伝送する。
「AMT(Address Map Table)」は、放送番組番号を識別するサービス識別子とIP パケットとを関連付ける情報を伝送する。
「MPT(MMT Package Table)」は、アセットのリストやその位置などパッケージを構成する情報を与える。
「PLT(Package List Table)」は、放送サービスとして提供されるサービスのMPTを含むPAメッセージを伝送するパケットID の一覧を示す。
「ECM(EntitLement ControL Message)」は、番組情報(番組に関する情報とデスクランブルのための鍵など)及び制御情報(デコーダーのスクランブル機能の強制オン/オフ指令)からなる共通情報を伝送する。
「EMM(EntitLement Management Message)は、加入者毎の契約情報及び共通情報の暗号を解くためのワーク鍵を含む個別情報を伝送する。
「CAT(MH)(ConditionaL Access Table)」は、限定受信放送を構成する関連情報のうち個別情報を伝送するMMTPパケットのパケット識別子を指定する。
「MH-EIT(MH-Event Information Table)」は、番組の名称、放送日時、内容の説明など、番組に関する情報を伝送する。
「MH-AIT(MH-AppLication Information Table)」は、アプリケーションに関する動的制御情報及び実行に必要な付加情報を伝送する。
「MH-BIT(MH-Broadcaster Information Table)」は、ネットワーク上に存在するブロードキャスタの情報を提示するために用いる。
「MH-SDTT(MH-Software DownLoad TriggerTable)」は、ダウンロードのサービスID、スケジュール情報、更新対象の受信機種別などの告知情報を伝送する。
「MH-SDT(MH-Service Description Table)」は、編成チャンネルの名称、放送事業者の名称など、編成チャンネルに関する情報を伝送する。
「MH-TOT(MH-Time Offset Table)」は、現在の日付時刻の指示、及び、実際の時刻と人間系への表示時刻の差分時間を伝送する。
「MH-CDT(MH-Common Data Table)」は、事業者ロゴマークなど、受信機で共通に必要であり、不揮発性メモリに格納する事を前提としたデータを伝送する。
「DDMT(Data Directory Management Table)」は、アプリケーションを構成するファイルのディレクトリ構成を提供する。
「DAMT(Data Asset Management Table)」は、アセット内のMPU の構成とMPU 毎のバージョン情報を提供する。
「DCCT(Data Content Configuration Table)」は、データコンテンツとしてのファイルの構成情報を提供する。
「EMT(Event Message Table)」は、イベントメッセージに関する情報を伝送するために用いる。
<MMTパッケージテーブル>
MPT(MMTパッケージテーブル)は、アセットのリストやアセットのネットワーク上の位置などパッケージを構成する情報を与える。
図7は、本実施形態に係るMPTのデータ構造を示す図である。
「tabLe_ID」(テーブル識別子)は、テーブル識別子は8ビットのフィールドで、各テーブルを識別する。
「version」(バージョン)は、テーブルのバージョン番号を書き込む領域である。
「Length」(テーブル長)は、このフィールドより後に続くデータバイト数を書き込む領域である。
「MMT_package_ID_Length」は、パッケージIDバイトの長さをバイト単位で示す。
「MMT_package_ID_byte」は、パッケージIDを示す。サービスを識別するためのサービス識別と同じ値とする。
「MPT_descriptors_Length」は、MPT記述子領域の長さをバイト単位で示す。
「MPT_descriptors_byte」(MPT記述子領域)は、MPTの記述子を格納する領域である。
なお、番組がマルチビュー番組である場合、MPTの記述子領域には、MH-コンポーネントグループ記述子(MH-Component_Group_Descriptor())が含まれる。これに対して、番組がマルチビュー番組ではない場合、MPTの記述子領域には、MH-コンポーネントグループ記述子が含まれない。
「number_of_assets」(アセット数)は、本テーブルが情報を与えるアセットの数を示す。
「IDentifier_type」(識別子タイプ)は、MMTPパケットフローのID体系を示す。アセットIDを示すID体系であれば特定値(0x00) とする。
MPTは、1又は複数のアセットの各々を記述する領域を有する。この領域には、アセット毎に、次のフィールドが格納される。
「asset_ID_scheme」(アセットID 形式)は、アセットID の形式を示す。「asset_ID」について、受信機2は、component_tag値を受信動作に使う。受信機2は、アセットの識別に、component_tag値を用いる。
「asset_ID_length」(アセットID 長)は、アセットIDバイトの長さをバイト単位で示す。
「asset_ID_byte」(アセットID バイト)は、アセットIDを示す。
「asset_type」(アセットタイプ)は、アセットの種類を示す。
アセットタイプには、例えば、HEVCで符号化された映像データを示すhcv1、MPEG-4オーディオで符号化された音声データを示すmp4a、又は、MPEG-Hオーディオで符号化された音声データを示すmha1、mha2、mhm1、mhm2などが記述される。
「asset_clock_relation_flag」(クロック情報フラグ)は、アセットのクロック情報フィールドの有無を示す。
「location_count」(ロケーション数)は、アセットのロケーション情報の数を示す。
「MMT_general_location_info」(ロケーション情報)は、アセットのロケーション情報を示す。
「asset_descriptors_length」(アセット記述子長)は、後続の記述子の全バイト長を示す。
「asset_descriptors_byte」(アセット記述子領域)は、アセットの記述子を格納する領域とする。
<記述子の種類と識別>
放送で使用するTLV-SIの記述子は、次の通りである。
「サービスリスト記述子(Service List Descriptor)」は、編成チャンネルとその種別の一覧の記述である。
「衛星分配システム記述子(SateLLite DeLivery System Descriptor)」は、衛星伝送路の物理的条件の記述である。
「システム管理記述子(System Management Descriptor)」は、 放送/非放送などの識別である。
「ネットワーク名記述子(Network Name Descriptor)」 は、ネットワーク名の記述である。
放送で使用するMMT-SIの記述子は、次の通りである。
「リモートコントロールキー記述子」は、受信機用リモコン(リモートコントローラー)のワンタッチキーに割り当てるサービスをユニークに提供する。
「アセットグループ記述子」は、アセットのグループ関係とグループ内での優先度を提供する。
「MPUタイムスタンプ記述子」は、MPUの提示時刻を提供する。
「アクセス制御記述子」は、限定受信方式を識別する。
「スクランブル方式記述子」は、スクランブルサブシステムを識別する。
「緊急情報記述子(MH)」は、緊急警報信号としての必要な情報及び機能の記述を提供する。
「MH-イベントグループ記述子」は、複数イベントのグループ化情報を記述する。
「MH-サービスリスト記述子」は、編成チャンネルとその種別の一覧を記述する。
「MH-短形式イベント記述子」は、番組名と番組の簡単な説明を記述する。
「MH-拡張形式イベント記述子」は、番組に関する詳細情報を記述する。
「映像コンポーネント記述子」は、番組要素信号のうち映像信号に関するパラメータ、説明などを記述する。
「MH-ストリーム識別記述子」は、個々の番組要素信号の識別に用いる。
「MH-コンテント記述子」は、番組ジャンルを記述する。
「MH-パレンタルレート記述子」は、 視聴許可年齢制限を記述する。
「MH-音声コンポーネント記述子」は、番組要素のうち音声信号に関するパラメータを記述する。
「MH-対象地域記述子」は、対象とする地域を記述する。
「MH-シリーズ記述子」は、複数イベントにまたがるシリーズ情報を記述する。
「MH-SI伝送パラメータ記述子」は、SI伝送のパラメータ(周期グループや再送周期等)を記述する。
「MH-ブロードキャスタ名記述子」は、ブロードキャスタ名を記述する。
「MH-サービス記述子」は、編成チャンネル名とその事業者名を記述する。
「MH-データ符号化方式記述子」は、データ符号化方式を識別するために使用する。
「UTC-NPT参照記述子」は、NPTとUTCの関係を伝達する。
「イベントメッセージ記述子」は、イベントメッセージ一般に関する情報を伝達する。
「MH-ローカル時間オフセット記述子」は、サマータイム制度実行時の、実際の時刻と人間系への表示時刻との差分時間を記述する。
「MH-ロゴ伝送記述子」は、簡易ロゴ用文字列、CDT 形式のロゴへのポインティングなどを記述する。
「MPU拡張タイムスタンプ記述子」は、 MPU内のアクセスユニットの復号時刻等を提供する。
「MPUダウンロードコンテンツ記述子」は、MPUを用いてダウンロードされるコンテンツの属性情報を記述する。
「MH-アプリケーション記述子」は、アプリケーションの情報を記述する。
「MH-伝送プロトコル記述子」は、伝送プロトコルの指定と伝送プロトコルに依存したアプリケーションのロケーション情報を記述する。
「MH-簡易アプリケーションロケーション記述子」は、アプリケーションの取得先の詳細を記述する。
「MH-アプリケーション境界権限設定記述子」は、アプリケーションバウンダリの設定、領域(URL)毎の放送リソースアクセス権限の設定を記述する。
「リンク先PU記述子」は、リンク先プレゼンテーションユニットの情報を記述する。
「アプリケーションサービス記述子」は、サービスに関連するアプリケーションのエントリー情報等を記述する。
「MPUノード記述子」は、当該MPU がデータディレクトリ管理テーブルにて規定されるディレクトリノードに対応することを示す。
「PU構成記述子」は、プレゼンテーションユニットを構成するMPUのリストを示す。
「MH-階層符号化記述子」は、階層符号化された映像ストリームコンポーネントを識別するための情報を記述する。
「コンテンツコピー制御記述子」は、当該サービス全体に対して、デジタルコピーに関
する制御情報を示す場合か、あるいは最大伝送レートを記述する場合に配置する。
「コンテンツ利用制御記述子」は、当該番組に対して、蓄積や出力に関する制御情報を記述する場合に配置する。また当該番組またはアセットに対して、「個数制限コピー可」を運用するかどうかの指定を行う場合に配置する。
「関連ブロードキャスタ記述子」は、NVRAMへのアクセスに必要なBS/広帯域CS デジタル放送のブロードキャスタおよび地上デジタル放送の系列の識別値を示す。
「マルチメディアサービス情報記述子」は、データコンテンツの有無や字幕の有無などマルチメディアサービスの個々のコンテンツに関する詳細情報を記述する。
「緊急ニュース記述子」は、安心安全に関わる緊急ニュース速報(緊急地震速報、臨時ニュース、速報スーパー)が放送中であることを示す。
「MH-CA契約情報記述子」は、サービス又はイベントが予約可能であることを確認する情報を記述する。
「MH-CA サービス記述子」は、自動表示メッセージを運用する事業体の編成チャンネルを示し、当該メッセージの表示制御情報を記述する。
<MH-音声コンポーネント記述子の配置>
「MH-音声コンポーネント記述子」は、次のテーブルに配置される。
・MPT(アセット記述子領域)
・MH-EIT[p/f actual] (MH-EIT[p/f])
・MH-EIT[schedule actual basic](MH-EIT[schedule basic])
「MPT」は、「PAメッセージ」に格納される。
「MH-EIT[p/f]」は、現在と次のイベントに関する時系列情報であり、前者をpresent、後者をfollowing という。
「MH-EIT[p/f actual]」及び「MH-EIT[schedule actual basic]」は、自TLVストリームで運用しているサービスに含まれるイベントに関して記述したテーブルであり、「M2セクションメッセージ」に格納される。
なお、「MH-AIT」は、アプリケーションのライフサイクル、制約等を指示する制御情報を示すテーブルでもある。「MMT」は、複数の伝送路での一体的な伝送を可能とする多重化方式でもある。「MP4 ACC」は、ISO/IEC 14496-3により規定される音声符号化方式である。「MP4 ALS」(ALS:Audio Lossless Coding)は、ISO/IEC 14496-3により規定される音声ロスレス符号化方式である。「MPT」は、MMTパッケージテーブルの略である。「MPT」は、アセットのリストやその位置等サービス(パッケージ)を構成する情報を与えるテーブルである。特定の情報を示す要素や属性をもつ。「テーブル」は、メッセージに格納され、MMTPパケットにて伝送される。「テーブル」は、テーブルを格納するメッセージはテーブルに応じて決まっている。「パッケージ」とは、MMT規格では、コンテンツの単位のことを表す。「メッセージ」は、テーブルや記述子を格納する。メッセージは、MMTPペイロードに格納され、MMTPパケットを用いて伝送される。
「SI情報」は、多重化された情報の内容、識別情報などを記述した情報でもある。受信機2は、例えば「地上デジタル放送受信機」であり、IF信号の中から受信チャンネルの選局・復調、希望番組を選択・デコードしてベースバンド信号を出力する機能をもつ。ただし、受信機2は、「高度BSデジタル放送受信機」であってもよく、この場合、これらの機能をもつことに加えて、11.7GHz~12.75GHzの周波数帯の高度BSデジタル放送が受信可能な機器である。受信機2は、STB、IRDとの呼称もある。
「アイテム」は、MMT伝送方式に基づくアプリケーションデータ伝送においてMPUを構成する伝送の最小単位である。「アイテム」は、ファイルに相当する。「MPU」は、1つのコンポーネント内に含まれる、アイテムの集合で構成される伝送単位である。「MPU」は、提示単位(PU)或いは更新単位、蓄積制御単位に対応させる運用が想定される。
「コンポーネント」(アセット)は、1つのIPデータフローにおいて同一のパケットIDを持つ単位である。MPTにおいて、アセットとして参照される。「コンポーネント」は、後述するcomponent_tagで識別される。
データイベントにより伝送するアプリケーションセットが切り替わる。「アセット」は、MMT方式により多重化された映像、音声などの伝送単位である。「アセットタイプ」は、各アセットにおいて伝送されている内容を示す種類である。「サイマル音声」は、同一イベント内において、異なる複数の音声モードで同時に伝送することである。「イベント」は、ニュース、ドラマなど、同一サービス(編成チャンネル)内で開始・終了時刻の決まったストリームの集合である。
[受信機2のハードウェア構成]
図8は、本実施形態に係る受信機2のハードウェア構成を示す概略図である。
受信機2は、チューナー211、復調器212、分離器22、セレクタ231、音声デコーダー232、スピーカー234、映像デコーダー241、提示処理器242、ディスプレイ243、入出力装置251、補助記憶装置252、ROM(Read OnLy Memory)253、RAM(Random Access Memory)254、CPU(中央演算処理装置)255、及び、通信チップ256を含んで構成される。
復調器212、分離器22、セレクタ231、音声デコーダー232、スピーカー234を、音声処理部Mとも呼ぶ。なお、データを処理する構成(例えば、分離器22、セレクタ231、音声デコーダー232、映像デコーダー241、提示処理器242)については、ソフトウェア(CPU255による演算処理)で実現されてもよい。
図2、図4、又は図5の受信機2の各構成に対応するハードウェア構成については、図8において、図2、図4、又は図5の構成に付した番号の数字部分と同じ番号を付す。
アンテナで受信されたデジタル放送信号は入力端子経由で受信機2に入力され、チューナー211、復調器212によりTLVストリームに変換され、分離器22によるTLV/MMT分離処理を経て映像、音声、その他のアセット、及びMMTの各種メッセージ・テーブルに分離される。スクランブルされたアセットは、TLV/MMT分離処理で抽出したEMM/ECMをCASモジュール(不図示)で処理し、得られた鍵によってデスクランブラにて復号される。映像アセットは、映像デコーダー241による映像デコード処理が行われ、文字及びグラフィックス画像の提示処理を経て出力される。音声アセットは、音声デコーダー232による音声デコード処理の後、出力される。映像・音声の出力については、受信機本体に映像・音声出力手段(ディスプレイ243・スピーカー234)を備えてもよいし、デコードされた映像音声信号を外部装置に出力するデジタル映像音声出力や、音声のみを外部装置に出力するデジタル音声出力を備えてもよい。さらに高速デジタルインタフェースを備えてもよい。
また、受信機内部に補助記憶装置252(HDD等)等の蓄積手段を備え、放送の蓄積機能を備えてもよい。受信機2は、EPGに代表される受信機アプリやマルチメディアサービスで使用されるRAM254、サービスのロゴデータやEPGデータを保存する補助記憶装置252(不揮発性メモリ:NVRAM等)、フォントなどを保存するROM253(NVRAM で代用も可)のメモリを持つ。
分離器22は、アセット情報を記述するテーブルにおいて、MPEG-Hオーディオ信号が存在するかどうかを記述子で判断する。MPEG-Hオーディオ信号は、MPEG-Hの音声のアセット(「MPEG-H音声アセット」とも称する)を含む。
分離器22は、MPEG-Hオーディオ信号が存在すると判断した場合、受信機2がMPEG-Hの音声デコード能力があるときには、MPEG-Hオーディオ信号のデータからMPEG-H音声アセット、及び、1又は複数のMPEG-4の音声のアセット(MPEG-4アセット)の各々を分離する。分離器22は、MPEG-Hオーディオ信号が存在しないと判断した場合、MPEG-4オーディオ信号のデータから、1又は複数のMPEG-4音声アセットの各々を分離する。
<入力端子・チューナー・復調器>
受信機2には、デジタル放送信号を入力するための端子として、IF入力と光入力の2 種類を有する。ただし、受信機はこのうちIF入力を有し、光入力は有しなくてもよい。
チューナー211は、右旋帯域用IF周波数か左旋帯域用IF周波数、あるいはその両方に対応する。
復調器212は、フロントエンド信号処理を行う。
<分離器・映像デコーダー>
分離器22によるTLV/MMT分離処理は、TLV分離、MMT分離の2つの処理で構成される。放送伝送における受信機2は、最小でも1サービスあたり12本のアセットを同時処理する能力を有する。受信機2は、1サービスあたりのアセット数は最大22とされてもよい。映像アセットは、画面分割符号化が行われてもよい。また、受信機2は、本体に映像復号処理を内蔵せず、高速デジタルインタフェースからストリーム配信する機能等を搭載してもよい。受信機2は、SDR(Standard Dynamic Range)対応ディスプレイへHDR(High Dynamic Range)映像を出力してもよい。映像伝達特性による映像切替受信機2は、映像コンポーネント記述子のvIDeo_transfer_characteristics値を監視し、受信した映像信号の伝達特性を識別する。
<音声デコーダー>
外部擬似サラウンドプロセッサ用ダウンミックス処理及びステレオ音場拡大用ダウンミックス処理をオプションとして追加している受信機2においては、提示処理部242は、ダウンミックス設定状態をディスプレイ243に表示する。これにより、受信者は、設定状態を把握できる。
受信機2は、MPEG-4 AAC(Advanced Audio Coding)音声ストリームのデジタル音声出力を装備する場合は、AAC拡張に準拠し、放送の形式であるLATM/LOAS(Low-overhead MPEG-4 Audio Transport Multiplex/Low Overhead Audio Stream)によって多重化された形式で出力する。受信機2は、MPEG-4 ALS音声ストリームのデジタル音声出力を装備する場合は、ALS拡張に準拠し、放送の形式であるLATM/LOASによって多重化された形式で出力する。
<出力端子>
受信機2が備える出力端子として、デジタル映像音声出力端子、デジタル音声出力端子について以下に記載する。ただし、受信機2は、これらの出力端子の代わりに高速デジタルインタフェースを搭載してもよい。
なお、表示装置を本体に内蔵する受信機2の場合は、デジタル映像音声出力端子の装備をしなくてもよい。受信機2は、STBなど表示装置(ディスプレイ243)を搭載しない受信機2の場合は、デジタル映像音声出力端子として、HDMI(登録商標、以下同じ)端子、MHL/superMHL出力用の端子、又は、無線によるデジタル映像音声出力機能の端子のいずれかを装備する。
受信機はデジタル音声出力端子として、光デジタル音声出力端子あるいは同軸デジタル音声出力端子を備えてもよい。またHDMI端子を搭載し、HDMI1.4で定義されたHDMIオーディオリターンチャンネル(HDMI-ARC)によるデジタル音声出力機能を設けてもよい。
デジタル音声出力端子に MPEG-4 AAC音声ストリームを出力する場合には、AAC拡張に準拠するが、22.2chのマルチチャンネル音声の出力については、TBDとしてもよい。デジタル音声出力端子に MPEG-4 ALS音声ストリームを出力する場合には、ALS拡張に準拠するが、MPEG-4 ALSストリームの出力については、TBDとしてもよい。
NVRAMは、受信機ソフトウェアや全受信機共通データのダウンロード用のメモリ、ロゴデータなどMH-CDT方式で送信されるデータのダウンロード用メモリとして用いられる。NVRAMには、データの種類、全受信機共通データ(ジャンルコード表、番組特性コード表、予約語表)、ロゴデータ、マルチメディアサービス、メール受信等が保存され、例えば、MPEG-Hオーディオのデジタルミキサーが保存される。
[音声アセットの選択と切替処理]
図9は、本実施形態に係る音声モードの一覧の一例を表す図である。
放送においては、音声モードとして図9のモードが運用される。このうち、受信機2単体で復号できる必要があるものはMPEG-4 AAC1ch(高度広帯域CSデジタル放送のみで運用)、AAC2ch、AAC5.1ch(2ch ダウンミックス処理可)の3つである。他のモードの音声アセットは受信機2内部で復号せず外部アンプにストリーム形式で出力し、外部アンプで復号してもよい。一方、AAC1ch、AAC2ch、AAC5.1ch以外の音声モードが主音声として使用されている番組を、外部アンプが接続されていない受信機2で受信する場合を想定し、この3モード以外の音声を放送する場合は、すべての受信機2で復号可能なサイマル音声が異なる音声アセットで同時に放送される。
例えば、音声コーデックが「MPEG-H」の場合には、MPEG-4 AAC1ch、2ch、5.1chのいずれかがサイマル音声の組合せとして、異なる音声アセットで同時に放送される。なお、音声モードには、複数のMPEG-H音声アセットが含まれてもよく、この場合、それぞれ、異なる音声アセットには異なるレベルのMPEG-H音声アセットが含まれてもよい。例えばレベル(Leve3)が高い音声モードが放送される場合、それよりも低い特定のレベル(例えば、Level1、2:チャンネル数が少ないレベル)の音声モードのサイマル音声が、異なる音声アセットで同時に放送されてもよい。
これにより、特定レベル(例えば、レベル3)のMPEG-Hの放送を行うとき、そのレベルより低いレベル(例えば、レベル2)にしか対応していない受信機2でも、その低いレベルの音声アセットを選択することで、MPEG-H音声を再生できる。
外部アンプが接続されていない受信機2は、このような複数の音声アセットの中から出音するアセットを1つ選択し、音声出力(スピーカー234など)に出力する。出力するアセットは、受信者が任意に選択可能とする、もしくは受信機2が対応可能な音声モードのアセットを自動的に選択する。自動選択の場合は、対応可能な音声モードのアセットの中で、コンポーネントタグ値の小さいアセットを優先することを基本とするが、言語や音声種別(解説音声など)の選択状況によって判断を変えてもよい。
受信機2は、MPEG-Hのアセットのコンポーネントタグ値を最小にすることで、MPEG-Hのアセットを自動選択してもよい。逆に、受信機2は、MPEG-4のアセットのコンポーネントタグ値を最小にすることで、MPEG-4のアセットを自動選択してもよい。MPEG-Hのアセットが存在する場合に、MPEG-4のアセットを選択した場合、受信機2は、MPEG-Hのアセットが存在する旨のメッセージを表示してもよい。
<音声処理部Mにおける信号処理の流れ>
図10は、本実施形態に係る受信機内の信号処理の流れの一例を表す概略図である。
この図は、音声処理部Mの一例である。音声処理部Mは、復調部212、TLV/MMT分離部22、音声アセット選択部231、デコーダー部232、ミキサー部2331、ダウンミキサー(DMIX)部2332、スイッチ(SW)部2333、DAC(Digital-Analog Converter)部2334、外部出力I/F(インターフェース)部251を含んで構成される。
図2、図4、又は図5の受信機2の各構成に対応する構成については、図10において、図2、図4、又は図5の構成に付した番号の数字部分と同じ番号を付す。なお、ミキサー部2331、ダウンミキサー部2332、スイッチ部2333、及びDAC部2334は、図2のミキサー233に対応する。
この図は、受信機2内における音声の信号処理の流れを示す。受信機2は、TLV/MMT分離処理部22を経て、複数の音声アセットを取り出す。音声アセット選択部231は、この中から出音する音声アセットを選択し、デコーダー部232で復号し、出音する。ここで、デコーダー部232には、音声アセット選択部231で選択された音声アセットが入力され、その音声モード(音声コーデック)に応じた復号化が行われる。
なお、スイッチ部2333は、複数の音声アセットの中から外部のAVアンプに適応するアセットを選択し、デコーダー部232と外部出力I/F部251に出力する。
デコーダー部232は、入力された音声アセットに応じて、音声アセットを復号化する。復号化されたデータ列がMPEG-Hのデータ列の場合、つまり、音声アセットががMPEG-H音声アセットの場合、デコーダー部232は、そのデータ列を、データ列をミキサー部2331に出力する。復号化されたデータ列が5.1chのPCMデータ列である場合、デコーダー部232は、そのデータ列を、ダウンミキサー部2331へ出力する。復号化されたデータ列が2chのPCMデータ列である場合、デコーダー部232は、そのデータ列を、スイッチ部2333へ出力する。
ミキサー部2331は、入力されたデータ列に対して、MPEG-H音声アセット内の音の素材ごとの音声を合成し、ダウンミックス処理を行う。ダウンミキサー部2331は、入力されたデータ列を、2chのPCMデータに変換するダウンミックス処理を行う。ダウンミックス処理が行われたデータ列は、スイッチ部2333へ出力される。
スイッチ部2333は、音声アセット選択部231からの制御情報に基づく指示に応じて、DAC部2334又は外部出力I/F(インターフェース)部251へ、データ列を出力する。DAC部2334は、入力されたデータ列をアナログ音声信号に変換し、スピーカー234へ出力する。
<音声切替メニュー>
図11は、本実施形態に係る音声切替メニューの一例を示す図である。
音声切替メニューF81は、MPEG-Hに対応している受信機2で表示される音声切替メニューの一例である。音声切替メニューF82は、MPEG-Hに対応していない受信機2aで表示される音声切替メニューの一例である。なお、音声切替メニューF81は、MPEG-Hに対応している受信機2において、MPEG-H音声アセットが存在している場合(MPEG-H音声アセットとMPEG-4音声アセットが存在する)に表示される音声切替メニューの一例でもある。音声切替メニューは、サイマル音声のいずれかの音声種別を選択するためのメニューである。なお、MPEG-H音声アセットを選択した場合、受信機2は、1つのアセットから、言語の異なる音声種別を分離して、音声切替メニューに再度表示するといった方法が考えられる。
音声種別F811は、音声がMPEG-Hの音声を選択するための音声種別である。2つの音声種別F812は、言語が日本語、音声がMPEG-4、5.1ch或いは2chの音声を選択するための音声種別である。音声種別F813は、言語が英語、音声がMPEG-4、5.1ch或いは2chの音声を選択するための音声種別である。
なお、5.1chに対応している受信機2は、2chを選択するための音声種別は、表示してもしなくてもよい。また、音声種別は、MH-音声コンポーネント記述子のtext_char領域に記載の音声表記が用いられる。MPEG-H音声アセットにおいて、言語が複数存在する場合、text_char領域には、複数の音声種別(音声表記)が記載されてもよい。音声がMPEG-Hである場合、メニュー画面では言語を選択させなくてもよい。この場合、例えば、音声種別F811は、音声がMPEG-Hの音声を選択するための音声種別となる。
[MH-音声コンポーネント記述子]
図12は、本実施形態に係るMH-音声コンポーネント記述子の構造の一例を示す概略図である。
MH-音声コンポーネント記述子は、アセットに音声エレメンタリストリームの各パラメータを記述し、エレメンタリストリームを文字形式で表現するためにも使用される。MPEG-4オーディオは、音声構成(例えば、言語、チャンネル数)ごとに音声エレメンタリストリームとして多重化されている。MPEG-Hオーディオは、1つの音声エレメンタリストリームに、様々な音声構成が含まれる。
MH-音声コンポーネント記述子において、各フィールドの意味は、次の通りである。
「descriptor_tag」は、MH-音声コンポーネント記述子であることを示す固定値を記述する。
「descriptor_length」は、MH-音声コンポーネント記述子の記述子長を記述する。
「nga_profile_level」(フィールドF91)は、MPEG-H音声アセットが存在するか否か(MPEG-Hオーディオの有無)を示す。また、MPEG-Hが存在する場合には、そのプロファイル及びレベルを示す。
プロファイルは、目的用途別に定義された機能の集合を表す。プロファイルには、「Basic Profile」と「Low Complexity Profile」(LC)の2種類がある。LCは、標準的なプロファイルである。LCから特定機能を省略したものが「Baseline Profile」である。なお、プロファイルは、3種類以上あってもよい。レベルは、処理能力を表し、処理能力に応じた情報である。レベルは、例えば処理の負荷や使用メモリ量であるが、チャンネル数に対応してもよい。プロファイルとレベルの組によって、例えば、機器の性能やビットストリームをデコードするのに必要な性能が特定されてもよい。
「stream_content」には、MPEG-4 AACの音声ストリームに対しては特定値(0x03)、MPEG-4 ALS の音声ストリームに対しては別の値(0x04)が設定される。なお、MPEG-Hの音声ストリームに対しては、さらに別の値(例えば、0x05)が設定されてもよい。
「component_type」は、音声コンポーネントの種別を規定し、8ビット(b7-b0)を、b7: ダイアログ制御、b6-b5:障がい者用音声、b4-b0:音声モードと定義する。なお、「component_type」は、ビット数を増やされ、値(例えばb8)を追加してもよく、追加された値をMPEG-Hと定義してもよい。
「component_tag」(コンポーネントタグ)は、コンポーネントストリームを識別するためのラベルであり、MH-ストリーム識別記述子内のコンポーネントタグと同一の値である。
「stream_type」は、 LATM/LOASストリーム形式であることを示す固定値を記載する。
「simulcast_group_tag」は、サイマルキャスト(同一内容を異なる符号化方式や音声モードで伝送)を行なっているコンポーネントに対して同じ番号を与える。サイマルキャストを行なっていないコンポーネントに対しては、特定値(0xFF) に設定する。
「main_component_flag」は、その音声コンポーネントが主音声であるとき、特定値とする。
「quality_indicator」は、音質モードを表す。
「sampling_rate」は、サンプリング周波数を示す。
「ISO_639_language_code」は、音声コンポーネントの言語を示す。ES多言語モードのときは、第1音声コンポーネントの言語を示す。言語コードは、アルファベット3文字コードで表す。各文字は8ビットで記述し、その順で24ビットフィールドに挿入される。
「text_char」は、音声種類名を記述する。この記述がデフォルトの文字列である場合はこのフィールドを省略してもよい。
MPEG-H、22.2chサラウンド、又は5.1chサラウンドとサイマルで送出されるステレオ音声や、ALS符号化方式とサイマルで送出されるMPEG-4 AACステレオ音声などを受信機側で区別するために、simulcast_group_tag(サイマルキャストグループ識別)を運用する。サイマルで送出する音声ではsimulcast_group_tag 値を同じ値で送出する。
<送出運用規則・受信処理規準>
図13は、本実施形態に係る送出運用規則の一例を表す概略図である。
図14は、本実施形態に係る受信処理規準の一例を表す概略図である。
図13は、MH-音声コンポーネント記述子の送出運用規則の一例であり、図14は、MH-音声コンポーネント記述子の受信処理規準の一例である。
これらの例では、「nga_profile_level」は、MPEG-Hの有無、プロファイル、及びレベルを識別するためのラベルである。「nga_profile_level」は、4ビットのうち、先頭の1ビットにプロファイル、残りの3ビットにMPEG-Hの有無及びレベルが設定される。プロファイルを表すフィールドは、「nga_profile」であり、bslbf(bit string、left bit first:ビット列、左ビットが先頭)である。「nga_profile」は、値が「1」の場合にプロファイルが「Basic Profile」であることを示し、値が「0」の場合にプロファイルが「Low Complexity Profile」であることを示す。
MPEG-Hの有無及びレベルを表すフィールドは、「nga_level」であり、uimsbf(unsigned integer most significant bit first:符号無し整数、最上位ビットが先頭)である。「nga_level」は、値が「0」の場合、MPEG-Hオーディオ信号が存在しない(MPEG-Hオーディオでない)ことを示し、それ以外の値の場合、MPEG-Hオーディオ信号が存在する(MPEG-Hオーディオである)ことを示す。また、「nga_level」は、値が「1」の場合にレベルが「Level 1」、値が「2」の場合にレベルが「Level 2」、値が「3」の場合にレベルが「Level 3」、値が「4」の場合にレベルが「Level 4」であることを示す。「nga_level」の値が「5」~「7」については未使用であり、将来、これらの値を割り当てることができる。
「stream_content」では、MPEG-4 AACの音声ストリームに対しては0x03、MPEG-4 ALSの音声ストリームに対しては0x04、MPEG-Hの音声ストリームに対しては0x05を設定する。受信機2は、「stream_content」の値がこれらの値以外である場合、記述子を無効とする。
「simulcast_group_tag」については、MPEG-Hオーディオを送出・受信する場合には、MPEG-H音声アセットと1又は複数のMPEG-4音声アセットに、同じ値の「simulcast_group_tag」が設定される。この場合に、この値とは異なる値の「simulcast_group_tag」が、1又は複数のMPEG-4音声アセットに設定される。後者の「simulcast_group_tag」は、MPEG-H音声アセットには設定されない。つまり、後者のサイマル音声は、MPEG-4音声アセットのみであり、MPEG-H音声アセットを含まない。
「ISO_639_language_code2」は、MPEG-H音声アセットの1又は複数の言語名を示してもよい。具体的には、「ISO_639_language_code」に第1言語(例えば、日本語)、「ISO_639_language_code2」に第2言語(例えば、英語)を記述してもよい。また、MPEG-H音声アセットについては、「ISO_639_language_code2」に複数の言語(例えば、日本語と英語)を記述してもよい。
MH-音声コンポーネント記述子の送出運用において、放送局1は、同一イベント内における音声ストリームのパラメータ更新時は、原則としてMPTのMH-音声コンポーネント記述子の内容を変更しMPTのバージョン更新を行うが、例外として、本記述子を更新しない送出運用を行うことがある。この場合、音声ストリームとMH-音声コンポーネント記述子の内容が一時的に不一致となる。例えば、番組本編からCM等に移行する時や流動編成時などが想定される。この場合、放送局1は、MPTのバージョン更新をしないため、受信機側では同じコンポーネントタグ値の音声ストリームを再生し続ける。
このような音声ストリームのパラメータ更新時に本記述子を更新しない運用は、音声符号化方式がAACで、5.1ch以下の音声モード間で音声モードを切り替えるときに限り許容される。
MH-音声コンポーネント記述子の受信処理において、MPTのバージョンが更新し、音声ストリーム数や本記述子の内容が更新された場合は、受信機2は、本記述子の内容に従い、適切に音声再生を行う。受信機2は、MPTのバージョン更新が行われていなければ、原則として、同じコンポーネントタグ値の音声ストリームを再生し続ける。5.1ch以下の音声モード間での切り替えでは、音声ストリームと本記述子の内容が異なる場合がある。その時は、受信機2は、音声ストリームの内容を優先してデコードする。
[音声アセットの選択]
放送では複数の音声モード(MPEG-H、MPEG-4 AAC2ch、AAC5.1ch、AAC7.1ch、AAC22.2ch、ALS2ch、ALS5.1ch)を運用する。モノラル、デュアルモノラルは運用しない。
受信機2は、音声デコード機能として次の機能を有する。
・MPEG-4 AAC2ch 再生
・MPEG-4 AAC5.1chから2chへのダウンミックス再生機能
これらの条件を満たすため、MPEG-H、MPEG-4 AAC7.1ch、又はAAC22.2chの音声モードではAAC2chをサイマル運用とする(AAC5.1chがサイマル運用となる場合も有る)。また、MPEG-Hオーディオモード又はALS音声モードではAAC2ch、又はAAC5.1chをサイマル運用とする。
受信機2は、複数の音声アセット運用時は下記に従い切替・選択できる機能を有する。
受信機2は、受信機2本体における再生の際、受信機2本体で再生できる音声モードを判別して、その内コンポーネントタグ値の小さい順にアセットを優先して切替え再生する。なお、選局時には再生可能な一番小さいコンポーネントタグ値のアセットをデフォルト音声として再生する。
受信機2は、2chまでの再生環境の場合で、MPEG-H又はAAC5.1chに合わせAAC2ch音声がサイマル運用されている場合はAAC2ch音声を優先して再生する。受信機2は、特定のレベルまでの再生環境の場合で、MPEG-Hが運用されている場合は、特定レベル以下のレベルのうち、最大のレベル或いは最小のレベルを優先して再生する。
ただし、MPTのバージョン更新なく音声モードが切り替わった場合は、再生中のアセットをそのまま再生し続ける。
受信機2は、サイマルキャストグループ識別を参照して複数言語運用を判別し、コンポーネントタグ値の小さいアセット(言語)をデフォルト言語として再生する。受信機2は、MPEG-Hについては、予め定められたデフォルト言語で、音声を再生してもよい。受信機2は、言語切り替えを行った場合でも、再選局の場合はデフォルト言語に復帰する。受信機2は、MPEG-Hについては、言語固定モードを設けてもよい。
受信機2では、リモコンの音声ボタン等で、有効な音声アセットの選択がサイクリックに切り換えられる。例えば、受信機2では、MPEG-H音声アセットと1又は複数のMPEG-4音声アセットの選択が、サイクリックに切り換えられる。
受信者がメニュー上で音声を選択するユーザーインタフェースでは、MH-音声コンポーネント記述子の情報に従い、音声情報を表示すること。なお、音声種別の表記文字にはMH-音声コンポーネント記述子内のtext_char領域に記載の音声表記を優先する。ただし、受信機2は、MPEG-Hについては、予め定められた音声表記を優先してもよい。
受信機2は、同一音声アセット内で音声モードが切り替わる場合、及び受信機が自動的に異なるアセットの音声に切り替える場合、受信者に不自然さを感じさせないように切り替える。受信機2の切替動作は、次のような動作である。
(1)約0.5秒前のMPT更新により音声モードやアセットの切替を把握した受信機2は、先行音声の出力をフェード処理後ミュートする。
(2)受信機2は、切替に必要な処理を実行後、ミュートを解除し後続音声の出力を再開する。切替処理にかかる時間は、音声アセットの切替有無や、更新される音声モードの種類によって異なる。一般的には、符号化方式の切替時間が最も長くかかる。切替処理の間は、送出側にて無音区間が設けられる。
(3)受信機2は、MPEG-4音声アセットから、MPEG-H音声アセットに切り替わる場合、MPEG-Hオーディオのデジタルミキサーを表示する。
[音声の切替動作]
図15は、本実施形態に係る切替えの詳細例を表すフローチャートである。
この図は、受信機2の音声の切替動作を表す。次のステップS101~S104、S11、S112、S121の処理、及びステップS122、S123の制御は、受信機2のコンピュータ(CPU255:制御部)が行う。
(ステップS101)受信者がリモコン等で、又は、受信機2が自動で選局を行う。その後、ステップS102の処理が行われる。
(ステップS102)受信機2は、MPTを更新する。その後、ステップS103の処理が行われる。
(ステップS103)受信機2は、デフォルトアセットを確認する。具体的には、デフォルトアセットは、「component_tag」が特定値のアセットである。デフォルトアセットは、アセット種別ごとに予め定められている。アセット種別が「放送伝送音声」の場合、特定値「0x0010」がデフォルトアセットに割り当てられている。この特定値が、変数iの初期値(i=0x0010)に設定される。その後、ステップS104の処理が行われる。
(ステップS104)受信機2は、「component_tag」が放送伝送音声のアセットであるか否かを判定する。アセット種別が「放送伝送音声」のアセットには、「0x0010」~「0x002F」の値が割り当てられている。受信機2は、変数iの値が、「0x002F」以下であるか否かを判定することで、放送伝送音声のアセットであるか否かを判定する。
なお、MPEG-H音声アセットには、「component_tag」において、MPEG-4音声アセットよりも、小さい値が割り当てられている。この場合、先に、MPEG-H音声アセットの再生可能性が判定される。ただし、MPEG-H音声アセットには、「component_tag」において、MPEG-4音声アセットよりも、大きい値が割り当てられてもよい。
放送伝送音声のアセットであると判定された場合(Yes)、ステップS111の処理が行われる。一方、放送伝送音声のアセットでないと判定された場合(No)、ステップS121の処理が行われる。
(ステップS105)受信機2は、自装置が再生可能なストリームであるか否かを判定する。具体的には、受信機2は、「stream_content」、「component_type」、「stream_type」、及び「nga_profile_level」を用いて、自装置が再生可能なストリームであるか否かを判定する。
MPEG-Hオーディオが再生可能であるか否かについては、受信機2は、次の判定を行う。
受信機2は、「nga_profile_level」から、「nga_profile」及び「nga_level」を分離する。受信機2は、「nga_level」が「0」であるかを判定することで、MPEG-Hオーディオ信号が存在しない(MPEG-Hオーディオでない)か否かを判定する。換言すれば、受信機2は、「nga_level」が「0」でないか否かを判定することで、MPEG-Hオーディオ信号が存在する(MPEG-Hオーディオである)か否かを判定する。
受信機2は、「nga_level」が「0」である場合、MPEG-H音声アセットが存在しないMPEG-4オーディオストリームであるので、自装置がこのMPEG-4オーディオストリーム(MPEG-4オーディオ)を再生可能であるか否かを判定する。受信機2は、このMPEG-4オーディオストリームを再生可能ではない場合(No)、ステップS104の処理が行われる。一方、再生可能である場合(Yes)、ステップS112の処理が行われる。
受信機2は、「nga_level」が「0」でない場合(「1」~「4」である場合、「1」以上である場合)、MPEG-H音声アセットが存在するMPEG-Hオーディオストリームであるので、自装置がこのMPEG-Hオーディオストリーム(MPEG-Hオーディオ)を再生可能であるか否かを判定する。受信機2は、このMPEG-Hオーディオストリームを再生可能ではない場合(No)、ステップS104の処理が行われる。
一方、再生できる場合、受信機2は、「nga_level」が示すレベルが、自装置が再生可能なレベルであるか(再生可能なレベル以下であるか)を判定する。受信機2は、再生可能なレベルでない場合(No)、ステップS104の処理が行われる。
再生可能なレベルである場合、受信機2は、「nga_profile」が示すプロファイルが、自装置が再生可能なプロファイルであるかを判定する。再生可能なプロファイルでない場合(No)、ステップS104の処理が行われる。一方、再生可能なプロファイルである場合(Yes)、ステップS112の処理が行われる。
なお、ステップS111の判定の少なくとも1つで再生可能ではないと判定された場合(No)、変数iを1加算し、次の「component_tag」値のアセットに対して、ステップS104の処理が行われる。
(ステップS112)受信機2は、サイマルの有無、及び言語の確認等を行う。具体的には、受信機2は、「simulcast_group_tag」、「ES_multi_lingual_flag」、「main_component_flag」、「ISO_639_language_code」、「ISO_639_language_code2」、及び「text_char」を用いて、この処理が行われる。
受信機2は、MPEG-Hオーディオの言語について、「ISO_639_language_code」又は「ISO_639_language_code2」のいずれか或いは組み合わせをもちいてもよい。
(ステップS113)受信機2は、S112の処理で取得したアセットの情報を、メモリ(RAM254又は補助記憶装置252)において、リストに追加する。これにより、再生可能なストリームがリスト化される。その後、ステップS104の処理が行われる。ここで、受信機2は、変数iを1加算し、次の「component_tag」値のアセットに対して、ステップS104の処理が行われる。
(ステップS121)受信機2は、再生可能なストリームのリスト(S113の処理でリスト化されたリスト)から、ストリームを選択する。選択は、受信機2が自動選択してもよいし、受信者が手動で選択してもよい。その後、ステップS122の処理が行われる。
(ステップS122)受信機2は、選択された言語等の表示を行う。選択は、受信機2に自動選択されてもよいし、受信者に手動で選択されてもよい。その後、ステップS123へ進む。
なお、MPEG-Hオーディオにおいて、1つのアセットに多言語の音声のデータ列が格納される場合がある。この場合、ステップS121でMPEG-Hオーディオストリームが選択された場合、受信機2は、アセットを変更(選択)せずに、言語を選択できる。
(ステップS123)受信機2は、ステップS121及びS122で選択された音声ストリームを再生する。その後、ステップS102の処理が行われることで、受信機2は、このフローチャートの動作を繰り返す。
なお、受信機2は、特に指定しない場合は、最も小さい値のcomponent_tag値のストリームを選択する(例えば、ステップS121の処理)。また、受信機2は、リストから受信者が任意に選択できるようにする(図11参照)。受信機2は、任意に選択した場合は、その値を保持(ストリームを再生)しつづける。ただし、受信機2は、component_tag値(再生しているストリーム)がなくなった場合、または、サイマル有無、言語等の条件が変化した場合には、適切な切り替え処理後、直ちに再生可能な最も小さい値のcomponent_tag値のストリームを選択し再生する。
図16は、本実施形態に係る切替えの別の詳細例を表すフローチャートである。
この図において、図15と同じ処理については、同じ符号を付し、説明を省略する。
(ステップS1111)受信機2は、「nga_level」が「0」であるかを判定することで、MPEG-Hオーディオ信号が存在しないか否かを判定する。受信機2は、「nga_level」が「0」である場合(Yes)、ステップS1114の処理が行われる。一方、nga_level」が「0」でない場合(No)、ステップS1112の処理が行われる。
(ステップS1112)受信機2は、「nga_profile」が示すプロファイルが、自装置が再生(対応)可能なプロファイルであるかを判定する。受信機2は、再生可能なプロファイルでない場合(No)、ステップS104の処理が行われる。一方、再生可能なプロファイルである場合(Yes)、ステップS1113の処理が行われる。
(ステップS1113)受信機2は、「nga_level」が示すレベルが、自装置が再生(対応)可能なレベルであるか(再生可能なレベル以下であるか)を判定する。再生可能なレベルでない場合(No)、ステップS104の処理が行われる。再生可能なレベルである場合(Yes)、ステップS113の処理が行われる。
(ステップS1114)受信機2は、自装置が再生可能なストリームであるか否かを判定する。具体的には、受信機2は、「stream_content」、「component_type」、及び「stream_type」を用いて、自装置が再生可能なストリームであるか否かを判定する。再生可能なストリームでない場合(No)、ステップS104の処理が行われる。再生可能なストリームである場合(Yes)、ステップS112の処理が行われる。
なお、ステップS113の処理において、再生可能なレベルである場合(Yes)、ステップS1114又はS112の処理が行われてもよい。
[ユースケース]
以下、本実施形態における放送(アセット)パターン、受信機、受信機における音声選択について、ユースケースの一例を示す。
放送パターン1(例えば番組A)は、次の音声(アセット)11~14が放送されるパターンである。
放送パターン1:
(1A)音声11:MPEG-H レベル4(22.2ch(9/10/3)、セリフ 日本語/英語、解説音声 日本語)
(1B)音声12:MPEG-4(7.1ch、日本語)
(1C)音声13:MPEG-4(ステレオ 日本語)
(1D)音声14:MPEG-4(ステレオ 英語)
音声11は、MPEG-Hオーディオの音声であり、レベル4、22.2chの音声(BGM)であり、セリフとして日本語と英語、解説音声として日本語の音声がある。音声13は、音声12とサイマルで送出される音声である。
放送パターン2(例えば、番組A以外の番組B)は、次の音声11~14が放送されるパターンである。
放送パターン2:
(2A)音声11:MPEG-H レベル3(11.1ch(4/7/0)、セリフ 日本語/英語、解説音声 日本語)
(2B)音声12:MPEG-4(7.1ch、日本語)
(2C)音声13:MPEG-4(ステレオ 日本語)
(2D)音声14:MPEG-4(ステレオ 英語)
放送パターン1と放送パターン2を比較すると、MPEG-H(音声11)のレベルが「レベル4」と「レベル3」であることと、チャンネル音声の数が「22.2ch」と「11.1ch」であることが異なる。なお、音声13は、音声12とサイマルで送出される音声である。
受信機2には、下記の能力を持つ受信機が存在する。
受信機Aは、MPEG-Hオーディオのレベル4に対応(再生)できる受信機である。
受信機Bは、MPEG-Hオーディオのレベル3に対応(再生)できる受信機である。
受信機Cは、MPEG-Hオーディオに対応していない(再生できない)受信機である。
各受信機A~Cにおける音声選択については、次の通りとなる。
受信機Aは、MPEG-Hのレベル4以下及びMPEG-4に対応できる。よって、受信機Aは、放送パターン1、2の両方で、MPEG-Hの音声11を選択する。
受信機Bは、MPEG-Hのレベル3以下及びMPEG-4に対応できるが、MPEG-Hのレベル4には対応できない。よって、受信機Bは、放送パターン1では、MPEG-4の音声12、13、又は14のいずれかを選択するが、放送パターン2では、MPEG-Hの音声11を選択する。
受信機Cは、放送パターン1、2の両方でMPEG-4の音声12、13、14のいずれかを選択する。
なお、受信機2は、MPEG-Hの音声を選択する(できる)場合でも、ユーザー操作や設定により、MPEG-4の音声を選択してもよい。
より具体的には、次の通りである。
<受信機B:MPEG-H レベル3に対応>
放送パターン1の場合、受信機Bは、MPEG-4の音声12、13、又は14のいずれかを選択できる。ここで、受信機Bは、サイマル音声(音声12と音声13)からの選択が重複しないようにするため、音声12と音声14の組、又は、音声13と音声14の組から、音声を選択する。
放送パターン2の場合、受信機Bは、MPEG-Hの音声11を選択できる。
放送パターン2の場合、受信機Bは、例えば7.1スピーカーを備えているときには、音声11を選択し、選択した音声11のレンダリング処理(ダウンコンバート)により、7.1chの音声を生成する。この場合、受信機Bは、次の音声(B11)~(B13)を再生できる。
(B11)7.1ch セリフ 日本語
(B12)7.1ch セリフ 英語
(B13)7.1ch セリフ 日本語+解説音声 日本語
放送パターン2の場合、受信機Bは、例えばステレオヘッドホンを利用するときには、音声11を選択し、選択した音声11のレンダリング処理(ダウンコンバート)により、ステレオの音声を生成する。この場合、受信機Bは、次の音声(B21)~(B23)を再生できる。
(B21)ステレオ セリフ 日本語
(B22)ステレオ セリフ 英語
(B23)ステレオ セリフ 日本語+解説音声 日本語
<受信機A:MPEG-H レベル4に対応>
受信機Aが、22.2chのスピーカーを備えている場合について説明する。
放送パターン1の場合、受信機Aは、音声11を選択し、選択した音声11のレンダリング処理により、次の音声(A11)~(B13)を再生できる。
(A11)22.2ch セリフ 日本語
(A12)22.2ch セリフ 英語
(A13)22.2ch セリフ 日本語+解説音声 日本語
放送パターン2の場合、受信機Aは、音声11を選択し、選択した音声11のレンダリング処理(アップコンバート)により、次の音声(A21)~(B23)を再生できる。
(A21)22.2ch セリフ 日本語
(A22)22.2ch セリフ 英語
(A23)22.2ch セリフ 日本語+解説音声 日本語
以上のように、本実施形態では、放送システムSysは、MPEG-Hオーディオを音声アセット(コンポーネントの一例)に含む放送を行う。受信機2の分離器22は、放送の放送波から、nga_profile_level(MPEG-Hオーディオが存在するか否かを示す識別情報の一例)を、多重化レイヤーで取得する。CPU255(制御部の一例)は、nga_profile_levelに基づいて、受信機2の能力に応じた音声アセットを選択する。音声デコーダー232は、選択された音声アセットの音声データを復号化する。
これにより、放送システムSysでは、受信機2は、自装置の能力に応じて、適切な音声再生を行うことができる。
また、本実施形態では、nga_profile_levelは、MMT(MPEG Media Transport)の記述子であって、番組要素のうち音声信号に関するパラメータを記述する記述子であるMH-音声コンポーネント記述子に配置される。分離器22は、MH-音声コンポーネント記述子を取得する。CPU255は、MH-音声コンポーネント記述子に配置されたnga_profile_levelに基づいて、受信機2の能力に応じた音声コンポーネントを選択する。
これにより、受信機2は、MH-音声コンポーネント記述子からnga_profile_levelを読み出すことで、自装置の能力に応じて、適切な音声再生を行うことができる。また、受信機2は、音声デコーダー232へ音声データを入力する前(復号化を行う前)に、MPEG-Hオーディオが存在するか否かを判定できる。これにより、MPEG-Hに受信機2は、MPEG-Hオーディオを復号化できない場合や、復号化しなくてもよい場合(受信者がMPEG-4オーディオを選択している場合等)に、MPEG-Hオーディオのデータの復号化を回避できる。
また、本実施形態では、放送は、MPEG-Hオーディオ音声アセットと、MPEG-4オーディオ音声アセットと、を含む。音声デコーダー232は、MPEG-H音声アセットの音声データを復号化するミキサー部2331(第1復号化部の一例)と、MPEG-4音声アセットの音声データを復号化するダウンミキサー部2332(第2復号化部の一例)を備える。分離器22は、MPEG-HオーディオとMPEG-4オーディオを分離する。
CPU255は、MH-音声コンポーネント記述子に配置されたnga_profile_levelに基づいて、MPEG-Hオーディオを再生可能であると判定した場合に、MPEG-HオーディオとMPEG-4オーディオのいずれかの音声アセットを選択する。音声デコーダー232は、選択されたMPEG-Hオーディオ又はMPEG-4オーディオのいずれかの音声アセットの音声データを復号化する。
これにより、受信機2は、MPEG-Hオーディオ又はMPEG-4オーディオを選択でき、受信機2は、自装置の能力に応じて、MPEG-Hオーディオ又はMPEG-4の音声再生を行うことができる。MPEG-Hオーディオを再生可能である受信機2において、受信者は、MPEG-Hオーディオ又はMPEG-4の音声を選択できる。
また、本実施形態では、放送は、MPEG-Hオーディオ音声アセットと、MPEG-4音声アセットと、を含む。音声デコーダー232は、MPEG-4音声アセットの音声データを復号化する。分離器22は、MPEG-HオーディオとMPEG-4オーディオを分離する。CPU255は、MH-音声コンポーネント記述子に配置されたnga_profile_levelに基づいて、MPEG-Hオーディオを再生可能ではないと判定した場合に、MPEG-4音声アセットを選択する。音声デコー232は、選択されたMPEG-4オーディオアセットの音声データを復号化する。
これにより、受信機2は、自装置(外部アンプ、外部スピーカーを含む)がMPEG-Hオーディオに対応していない場合に、MPEG-4オーディオを選択でき、受信機2は、自装置の能力に応じて、MPEG-Hオーディオ又はMPEG-4の音声再生を行うことができる。
また、本実施形態では、音声アセットの各々は、component_tagで識別される。MPEG-4オーディオは、1又は複数の音声アセットから構成される(多重化されて送出される)。分離器22は、component_tagの順序に従って、MPEG-H音声アセットと、MPEG-4音声アセットと、のMH-音声コンポーネント記述子(構成情報の一例)を読み込み、MH-音声コンポーネント記述子からnga_profile_levelを取得する。
これにより、受信機2は、音声アセットごとに、音声アセットの情報とともに、MPEG-Hオーディオであるか否かを判定できる。
また、本実施形態では、MH-音声コンポーネント記述子には、nga_profile_level(nga_levelが0であるか否か)と、nga_level(MPEG-Hオーディオの処理能力を表すレベルの一例)或いはnga_profile(機能の集合を表すプロファイルの一例)と、が配置される。CPU255は、nga_level又はnga_profileに基づいて、受信機2の能力に応じた音声コンポーネントを選択する。
これにより、受信機2は、MPEG-Hオーディオが存在するか否かを判定できるとともに、MPEG-Hオーディオのレベル又はプロファイルを取得できる。受信機2は、レベルやプロファイルと自装置の能力に応じて、適切な音声再生を行うことができる。
[変形例:MPEG-Hの再生可能判定]
受信機2は、MPEG-Hが再生可能であるか否かを、次のように判定してもよい。
<ケース1>
受信機2は、MPEG-Hオーディオであるか否かを、「component_tag」を用いて判定してもよい。この場合、「component_tag」において、MPEG-H音声アセットには特定値が割り当てられる。例えば、0x0010~0x001FにはMPEG-4音声アセットのうち言語が日本語であるものを割り当て、0x0020~0x0025にはMPEG-4音声アセットのうち言語が英語であるものを割り当てる。0x0026~0x002Fに、MPEG-H音声アセットを割り当てる。受信機2は、「component_tag」が0x0026~0x002Fのいずれかである場合、MPEG-H音声アセットであると判定する。「component_tag」が0x0026~0x002Fのいずれでもない場合、受信機2は、MPEG-H音声アセットでないと判定する。この場合、受信機2は、MPEG-Hのプロファイルとレベルも識別可能に「component_tag」を割り当ててもよい。受信機2は、MPEG-Hのプロファイルとレベルを、「nga_profile_level」に割り当ててもよい。
本変形例のケース1では、ステップS104の処理で(ステップS111の処理を行わなくても)、受信機2は、アセットがMPEG-H音声アセットであるか否かを判定できる。また、新たなフィールドを設けなくても、受信機2は、アセットがMPEG-H音声アセットであるか否かを判定できる。
なお、上記実施形態と本変形例1を比較すると、上記実施形態では、「nga_profile_level」に、MPEG-Hオーディオであるか否か、MPEG-Hのプロファイル及びレベルを格納するので、他のフィールド(本変形例では、component_tag)の値の内容、制限(個数やバイト数等)、又はその規則を、既存の運用を保ったまま、運用することが可能である。
<ケース2>
受信機2は、MPEG-Hオーディオであるか否かを、「component_type」を用いて判定してもよい。例えば、「component_type」値に、b8:MPEG-Hと定義する。受信機2は、「component_type」がb8である場合、MPEG-H音声アセットと判定する。「component_type」がb8でない場合、受信機2は、MPEG-H音声アセットでないと判定する。この場合、受信機2は、MPEG-Hのプロファイルとレベルも識別可能に「component_type」を割り当ててもよい。受信機2は、MPEG-Hのプロファイルとレベルを、「nga_profile_level」に割り当ててもよい。
本変形例のケース2では、新たなフィールドを設けなくても、受信機2は、アセットがMPEG-H音声アセットであるか否かを判定できる。
なお、上記実施形態と本変形例2を比較すると、上記実施形態では、「nga_profile_level」に、MPEG-Hオーディオであるか否か、MPEG-Hのプロファイル及びレベルを格納するので、他のフィールド(本変形例では、component_type)の値の内容、制限(個数やバイト数等)、又はその規則を、既存の運用を保ったまま、運用することが可能である。
<ケース3>
受信機2は、MPEG-Hオーディオであるか否かを、「stream_content」を用いて判定してもよい。上述のとおり、「stream_content」値には、MPEG-4 AACの音声ストリームに対しては特定値(0x03)、MPEG-4 ALS の音声ストリームに対しては別の値(0x04)が設定される。さらに、MPEG-Hの音声ストリームに対しては、さらに別の値(例えば、0x05)が設定する。
受信機2は、「stream_content」が0x05である場合、MPEG-H音声アセットと判定する。「stream_content」が0x05でない場合、受信機2は、MPEG-H音声アセットでないと判定する。この場合、受信機2は、MPEG-Hのプロファイルとレベルも識別可能に「stream_content」を割り当ててもよい。受信機2は、MPEG-Hのプロファイルとレベルを、「nga_profile_level」に割り当ててもよい。
本変形例のケース3でも、新たなフィールドを設けなくても、受信機2は、アセットがMPEG-H音声アセットであるか否かを判定できる。
なお、上記実施形態と本変形例3を比較すると、上記実施形態では、「nga_profile_level」に、MPEG-Hオーディオであるか否か、MPEG-Hのプロファイル及びレベルを格納するので、他のフィールド(本変形例では、stream_content)の値の内容、制限(個数やバイト数等)、又はその規則を、既存の運用を保ったまま、運用することが可能である。
同様に、その他、ステップS111、S112で参照されるフィールド、例えば「stream_type」又は「asset_type」に、MPEG-Hオーディオであるか否かを示す情報、又は、プロファイル及びレベルを識別可能な情報を、設定してもよい。
<ケース4>
本変形例では、新たな記述子として、「MH-MPEG-Hオーディオ記述子」を導入する。受信機2は、「MH-MPEG-Hオーディオ記述子」を用いて、MPEG-Hオーディオであるか否かの判定、及びプロファイル及びレベルを識別する。
図17は、本変形例に係るMH-MPEG-Hオーディオ記述子の構造の一例を示す概略図である。なお、「MH-MPEG-Hオーディオ記述子」(MH-MPEG-H Audio Discriptor())は、MMT-SIの記述子の1つであり、「MH-音声コンポーネント記述子」等の上記記述子に加えて、MMT-SIに記述される。
「MH-MPEG-Hオーディオ記述子」において、各フィールドの意味は、次の通りである。
「descriptor_tag」は、MH-MPEG-Hオーディオ記述子であることを示す固定値を記述する。
「descriptor_length」は、MH-MPEG-Hオーディオ記述子の記述子長を記述する。
「nga_type」は、次世代オーディオのタイプを示す。例えば、MPEG-Hオーディオには’1’が設定される。なお、MPEG-Hオーディオ以外の場合(MPEG-4の場合)、’0’が設定されてもよいし、他の次世代オーディオのタイプが設定されてもよい。
「profile_level」は、プロファイルとレベルを示す。「profile_level」では、3ビットのうち、先頭の1ビットがプロファイル、残りの2ビットがレベルを示す。例えば、先頭の1ビットは、値が「1」の場合にプロファイルが「Basic Profile」であることを示し、値が「0」の場合にプロファイルが「Low Complexity Profile」である。残りの2ビットは、値が「00」の場合にレベルが「Level 1」、値が「01」の場合にレベルが「Level 2」、値が「10」の場合にレベルが「Level 3」、値が「11」の場合にレベルが「Level 4」である。
なお、プロファイルとレベルは別のフィールドであってもよい。
「component_tag」は、「MH-音声コンポーネント記述子」内のcomponent_tagと同一の値である。なお、「MH-MPEG-Hオーディオ記述子」の「component_tag」は、MH-ストリーム識別記述子内のcomponent_tagとも、同一の値である。
「preset()」は、プリセットの有無や数を示す。プリセットは、例えば、複数の音の素材ごとに、音声の値(音声を調整する値)が予め設定されたものである。プリセットの値が異なると、音の素材間の音声バランス等が異なる。プリセットには、例えば、音声の再生環境(スピーカーの種類や配置)に応じたプリセット、アクセス性改善のためのプリセット、視聴者の好みに合わせたプリセットが予め設定される。のためのプリセットには、ダイアログの音量だけを大きく(或いは小さく)調整する、音声解説を挿入する、又は、セカンドデバイス(例えば手元のスピーカー)で再生するプリセットがある。
プリセットを選択することにより、受信者は、全ての音の素材に対して細かい設定をしなくても、好みの音声(音のバランス等)を選択して、楽しむことができる。
「interactive()」は、インタラクティブの有無と操作内容を示す。
インタラクティブの有無は、受信者が各音の素材に対して調整できるか否かを示す。操作内容には、各音の素材を調整する操作内容を示す。操作内容には、例えば素材(音声調整対象のオブジェクト)の情報、調整内容(強弱やエフェクト等の種類、ユーザーインタフェースの種類、上限値や下限値等の条件)、調整ツール(ツール名、提供元、ダウンロード先等)等である。受信者は、放送番組に応じて、MPEG-Hの音声を調整することができる。
<送出運用規則・受信処理規準>
図18は、本変形例に係る送出運用規則の一例を表す概略図である。
図19は、本変形例に係る受信処理規準の一例を表す概略図である。
図18は、MH-MPEG-Hオーディオ記述子の送出運用規則の一例であり、図19は、MH-MPEG-Hオーディオ記述子の受信処理規準の一例である。
「descriptor_tag」には、固定値「0x8040」が設定されている。この値は、「MH-音声コンポーネント記述子」内の「descriptor_tag」の固定値「0x8014」よりも大きな値となっている。この場合、受信機2は、「MH-音声コンポーネント記述子」を、「MH-MPEG-Hオーディオ記述子」よりも優先順位が高いものとして取り扱われ、先に読み込む。換言すれば、「MH-MPEG-Hオーディオ記述子」を、「MH-音声コンポーネント記述子」の補助データとする。なお、「descriptor_tag」の値は、「0x8014」よりも小さな値であってもよい。
受信機2は、MPT(図7参照)において、「MH-MPEG-Hオーディオ記述子」がある(descriptor_tag値が「0x8040」の記述子がある)と判定した場合、MPEG-H音声アセットがあると判定する。
この場合、受信機2は、「MH-MPEG-Hオーディオ記述子」に記述された「component_tag」の音声アセットを、MPEG-H音声アセットを識別する。
なお、「MH-MPEG-Hオーディオ記述子」に、MPEG-H音声アセット以外の音声アセットについても記述される場合、受信機2は、「nga_type」値(例えば、値が「0」:MPEG-H)に対応する「component_tag」のアセットを、MPEG-H音声アセットとして識別してもよい。
受信機2は、図15のステップS111の処理において、変数iが、MPEG-H音声アセットとして識別した音声アセットの「component_tag」値と一致する場合に、MPEG-Hオーディオ信号が存在すると判定する。一方、一致しない場合にはMPEG-Hオーディオ信号が存在しないと判定する。
受信機2は、MPEG-Hオーディオ信号が存在すると判定する場合、自装置がこのMPEG-Hオーディオストリームを再生可能であるか否かを判定する。受信機2は、このMPEG-Hオーディオストリームを再生可能ではない場合(No)、ステップS104の処理が行われる。一方、再生できる場合、受信機2は、「profile_level」が示すレベルが、自装置が再生可能なレベルであるかを判定する。受信機2は、再生可能なレベルでない場合(No)、ステップS104の処理が行われる。再生可能なレベルである場合、受信機2は、「profile_level」が示すプロファイルが、自装置が再生可能なプロファイルであるかを判定する。受信機2は、再生可能なプロファイルでない場合(No)、ステップS104の処理が行われる。一方、再生可能なプロファイルである場合(Yes)、ステップS112の処理が行われる。
受信機2は、図15のステップS113の処理において、S112の処理で取得したアセットの情報を、メモリにおいて、リストに追加する。ここで、受信機2は、MPEG-H音声アセットに対しては、「preset()」及び「interactive()」の情報も、リストに記載することで、メモリに格納する。
なお、受信機2は、ステップS122又はS123の処理において、「preset()」の情報に基づいて、自動でプリセットを選択してもよいし、プリセットの内容を表示して受信者にプリセットを選択させてもよい。受信機2は、ステップS122又はS123の処理において、「interactive()」の情報に基づいて、MPEG-Hオーディオのデジタルミキサーを表示してもよい。これらの場合、受信機2は、ステップS123において、選択されてプリセット、又は、デジタルミキサーによる調整結果に基づいて、音声ストリームを再生する。
このように、本変形例では、放送には、MMT(MPEG Media Transport)の記述子であって、番組要素のうち音声信号に関するパラメータを記述する記述子であるMH-音声コンポーネント記述子と、MPEG-Hオーディオに関するパラメータを記述する記述であるMPEG-Hオーディオ記述子が含まれる。nga_typeは、MPEG-Hオーディオ記述子に配置される。分離器22は、MH-音声コンポーネント記述子とMPEG-Hオーディオ記述子を取得する。CPU255は、MPEG-Hオーディオ記述子に配置されたnga_typeに基づいて、受信機2の能力に応じた音声コンポーネントを選択する。
これにより、受信機2は、MPEG-Hオーディオ記述子からnga_typeを読み出すことで、自装置の能力に応じて、適切な音声再生を行うことができる。
また、本変形例では、preset()とinteractive()は、MPEG-Hオーディオ記述子に配置される。分離器22は、MH-音声コンポーネント記述子とMPEG-Hオーディオ記述子を取得する。CPU255は、MPEG-Hオーディオ記述子に配置されたpreset()又はinteractive()に基づいて、音声再生を行う。
これにより、受信機2は、preset()に基づいて、音声再生を行うことができる。受信者は、全ての音の素材に対して細かい設定をしなくても、好みの音声(音のバランス等)を選択して、楽しむことができる。受信機2は、interactive()に基づいて、音声を調整して、音声再生を行うことができる。受信者は、放送番組に応じて、MPEG-Hベースの音声を調整することができる。
なお、上記実施形態(変形例を含む)において、アセットの優先順位は、以下のとおりであってもよい。映像および音声アセットについて、同一のasset_typeのアセットが1つのMPT中に複数定義されている場合、および複数のコンポーネント記述子(MH-音声コンポーネント記述子)がMH-EITに配置されている場合は、受信機2は、そのアセットの優先順位については、component_tag値の小さい順とする。つまり、受信機2は、デフォルトアセットの優先順位がもっとも高く、値が大きくなるに従って優先度は低くなると判定する。この優先度は、例えばEPG上にストリーム一覧を表示する場合や、ストリーム切り替えボタンを押したときの表示順などに利用することができる。ただし、simulcast_group_tag値が同じアセットでサイマル送出されている音声において、2chまでの再生環境の場合で、AAC5.1chに合わせAAC2ch音声がサイマル運用されている場合は、受信機2は、AAC2ch音声を優先して再生する。
図20は、本実施形態(変形例を含む)に係るサイマル音声の運用の一例を示す概略図である。この図は、サイマルで送出する音声でのsimulcast_group_tag値の運用例である。
この図において、音声モードが「MPEG-H」であるアセットは、MPEG-H音声アセットであり、言語が複数の言語(日本語と英語)である。この音声アセットには、component_tag値「0x0026」が割り当てられている。この値は、他の音声アセット(MPEG-4音声アセット:0x0010~0x0013、0x0020~0x0023)よりも、大きい値が割り当てられている。つまり、この図の一例は、MPEG-H音声アセットの優先順位は、MPEG-4音声アセットよりも低く設定されている。
この図には、2つのサイマル音声を運用する場合の一例である。第1サイマル音声は、simulcast_group_tag値が「0x00」のものであり、第2サイマル音声は、simulcast_group_tag値が「0x01」のものである。
第1サイマル音声は、4個のMPEG-4音声アセット(0x0010、0x0011、0x0020、0x0021)と1個のMPEG-H音声アセット(0x0026)から構成されている。つまり、MPEG-4音声アセットとMPEG-H音声アセットが含まれるサイマル音声である。
第2サイマル音声は、4個のMPEG-4音声アセット(0x0012、0x0013、0x0022、0x0023)から構成されている。つまり、MPEG-4音声アセットのみのサイマル音声である。
この図は、音声が、第1サイマル音声と第2サイマル音声から構成されることを示す。
図21は、本実施形態(変形例を含む)に係るサイマル音声の運用の別の一例を示す概略図である。この図は、サイマルで送出する音声でのsimulcast_group_tag値の運用例である。
この図において、音声モードが「MPEG-H」であるアセットは、MPEG-H音声アセットであり、言語が複数の言語(日本語と英語)である。この音声アセットには、component_tag値「0x0010」が割り当てられている。この値は、他の音声アセット(MPEG-4音声アセット:0x0010、0x0012、0x0020、0x0021)よりも、小さい値が割り当てられている。つまり、この図の一例は、MPEG-H音声アセットの優先順位は、MPEG-4音声アセットよりも高く設定されている。
この図のサイマル音声は、simulcast_group_tag値が「0x00」のものであり、4個のMPEG-4音声アセット(0x0010、0x0011、0x0020、0x0021)と1個のMPEG-H音声アセット(0x0026)から構成されている。この図は、1つのサイマル音声で運用する場合の一例である。
なお、図21において、図20のように、複数のサイマル音声が存在してもよい。例えば、図21の音声アセットには、図20の4つのMPEG-4音声アセット(0x0012、0x0013、0x0022、0x0023、simulcast_group_tag値が「0x01」)が追加されてもよい。
また、図20において、図21のように、1つのサイマル音声(MPEG-H音声アセットの優先順位が低い)であってもよく、simulcast_group_tag値が「0x01」の4つの音声アセットが除かれていてもよい。
なお、上記実施形態(変形例を含む)において、「MH-音声コンポーネント記述子」に、preset()又はinteractive()が含まれてもよい。
なお、上記実施形態において、「音声」は「オーディオ」と置き換えてもよい。「アセット」は「コンポーネント」に、「コンポーネント」は「アセット」に置き換えられてもよい。
なお、上述した実施形態における放送局1(放送装置1)、受信機2、放送局サーバ3、事業者サーバ4の一部、例えば、受信機2の分離器(Demux、TLV/MMT分離部)22、22a、セレクタ(音声アセット選択部)231、音声デコーダー(デコーダー部)232、ミキサー部2331、ダウンミキサー部2332、スイッチ部2333、DAC部2334、ミキサー233、映像デコーダー241、提示処理器242、入出力装置251、CPU255、通信チップ256の少なくとも一部をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、放送局1、受信機2、放送局サーバ3、又は事業者サーバ4に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における放送局1、受信機2、放送局サーバ3、及び事業者サーバ4の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。放送局1、受信機2、放送局サーバ3、及び事業者サーバ4の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
放送システム Sys
中継局 Sa
放送局、放送装置 1
MPEG-Hエンコーダ 11
MPEG-4エンコーダ 111、112、113
Mux(マルチプレクサ) 12
受信機 2
放送局サーバ 3
事業者サーバ 4
チューナー 211
復調器 212
分離器(Demux、TLV/MMT分離部) 22、22a
セレクタ(音声アセット選択部) 231
音声デコーダー(デコーダー部) 232
MPEG-Hオーディオコアデコーダー 232-1
MPEG-4デコーダー 232-2
ミキサー部 2331
ダウンミキサー部 2332
MPEG-Hオーディオレンダラー 233-1
ミキサー 233-2
スイッチ部 2333
DAC部 2334
ミキサー 233
スピーカー 234
映像デコーダー 241
提示処理器 242
ディスプレイ 243
入出力装置(外部出力I/F) 251
補助記憶装置 252
ROM 253
RAM 254
CPU 255
通信チップ 256

Claims (10)

  1. MPEG-Hオーディオを音声コンポーネントに含む放送を行う放送システムであって、
    受信機が、
    前記放送の放送波から、MPEG-Hオーディオが存在するか否かを示す識別情報を、多重化レイヤーで取得する分離部と、
    前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択する制御部と、
    選択された音声コンポーネントの音声データを復号化する復号化部と、
    を備える、
    放送システム。
  2. 前記識別情報は、MMT(MPEG Media Transport)の記述子であって、番組要素のうち音声信号に関するパラメータを記述する記述子である音声コンポーネント記述子に配置され、
    前記分離部は、前記音声コンポーネント記述子を取得し、
    前記制御部は、前記音声コンポーネント記述子に配置された前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択する
    請求項1に記載の放送システム。
  3. 前記放送は、MPEG-Hオーディオの音声コンポーネントと、MPEG-4オーディオの音声コンポーネントと、を含み、
    前記復号化部は、MPEG-Hオーディオの音声コンポーネントの音声データを復号化する第1復号化部と、MPEG-4オーディオの音声コンポーネントの音声データを復号化する第2復号化部と、を備え、
    前記分離部は、MPEG-HオーディオとMPEG-4オーディオを分離し、
    前記制御部は、前記音声コンポーネント記述子に配置された前記識別情報に基づいて、MPEG-Hオーディオを再生可能であると判定した場合に、MPEG-HオーディオとMPEG-4オーディオのいずれかの音声コンポーネントを選択し、
    前記復号化部は、選択されたMPEG-Hオーディオ又はMPEG-4オーディオのいずれかの音声コンポーネントの音声データを復号化する
    請求項2に記載の放送システム。
  4. 前記放送は、MPEG-Hオーディオの音声コンポーネントと、MPEG-4オーディオの音声コンポーネントと、を含み、
    前記復号化部は、MPEG-4オーディオの音声コンポーネントの音声データを復号化し、
    前記分離部は、MPEG-HオーディオとMPEG-4オーディオを分離し、
    前記制御部は、前記音声コンポーネント記述子に配置された前記識別情報に基づいて、MPEG-Hオーディオを再生可能ではないと判定した場合に、MPEG-4オーディオの音声コンポーネントを選択し、
    前記復号化部は、選択されたMPEG-4オーディオの音声コンポーネントの音声データを復号化する
    請求項2に記載の放送システム。
  5. 前記音声コンポーネントの各々は、コンポーネント識別子で識別され、
    前記MPEG-4オーディオは、1又は複数の音声コンポーネントから構成され、
    前記分離部は、コンポーネント識別子の順序に従って、MPEG-Hオーディオの音声コンポーネントと、MPEG-4オーディオの音声コンポーネントと、の構成情報を読み込み、前記構成情報から前記識別情報を取得する
    請求項3又は請求項4に記載の放送システム。
  6. 前記音声コンポーネント記述子には、前記識別情報と、MPEG-Hオーディオの処理能力を表すレベル或いは機能の集合を表すプロファイルと、が配置され、
    前記制御部は、前記レベル又は前記プロファイルに基づいて、受信機の能力に応じた音声コンポーネントを選択する
    請求項2に記載の放送システム。
  7. 前記放送には、MMT(MPEG Media Transport)の記述子であって、番組要素のうち音声信号に関するパラメータを記述する記述子である音声コンポーネント記述子と、前記MPEG-Hオーディオに関するパラメータを記述する記述であるMPEG-Hオーディオ記述子が含まれ、
    前記識別情報は、前記MPEG-Hオーディオ記述子に配置され、
    前記分離部は、前記音声コンポーネント記述子と前記MPEG-Hオーディオ記述子を取得し、
    前記制御部は、前記MPEG-Hオーディオ記述子に配置された前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択する
    請求項1に記載の放送システム。
  8. MPEG-Hオーディオを音声コンポーネントに含む放送を受信する受信部と、
    前記放送の放送波から、MPEG-Hオーディオが存在するか否かを示す識別情報を、多重化レイヤーで取得する分離部と、
    前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択する制御部と、
    選択された音声コンポーネントの音声データを復号化する復号化部と、
    を備える、受信機。
  9. 受信機における受信方法であって、
    MPEG-Hオーディオを音声コンポーネントに含む放送を受信し、
    前記放送の放送波から、MPEG-Hオーディオが存在するか否かを示す識別情報を、多重化レイヤーで取得し、
    前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択し、
    選択された音声コンポーネントの音声データを復号化する
    受信方法。
  10. MPEG-Hオーディオを音声コンポーネントに含む放送を受信する受信部と、
    前記放送の放送波から、MPEG-Hオーディオが存在するか否かを示す識別情報を、多重化レイヤーで取得する取得部と、
    を備える受信機のコンピュータに、
    前記識別情報に基づいて、受信機の能力に応じた音声コンポーネントを選択する選択手順を実行させ、
    選択された音声コンポーネントの音声データを復号化させる、
    を実行させるためのプログラム。
JP2022052461A 2022-03-28 2022-03-28 放送システム、受信機、受信方法、及びプログラム Pending JP2023145144A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022052461A JP2023145144A (ja) 2022-03-28 2022-03-28 放送システム、受信機、受信方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022052461A JP2023145144A (ja) 2022-03-28 2022-03-28 放送システム、受信機、受信方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2023145144A true JP2023145144A (ja) 2023-10-11

Family

ID=88253406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022052461A Pending JP2023145144A (ja) 2022-03-28 2022-03-28 放送システム、受信機、受信方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2023145144A (ja)

Similar Documents

Publication Publication Date Title
JP7062115B2 (ja) 受信装置
WO2016031914A1 (ja) 放送信号送信装置、放送信号受信装置、テレビジョン受像機、放送信号伝送システム、制御プログラム、および記録媒体
KR20160106069A (ko) 멀티미디어 데이터 재생 방법 및 장치
JP2023145144A (ja) 放送システム、受信機、受信方法、及びプログラム
JP2024017228A (ja) 放送システム、受信機、受信方法、及びプログラム
JP7001639B2 (ja) システム
KR100277937B1 (ko) 엠피 3 수신 가능한 디지털 티브이 송/수신 시스템
JP5957161B1 (ja) 放送信号送受信システムおよび放送信号送受信方法
JP6175208B1 (ja) 放送信号送受信システム、および放送信号送受信方法
JP5957050B2 (ja) 放送信号受信装置、テレビジョン受像機、制御プログラム、および記録媒体
JP6175207B1 (ja) 放送信号受信装置、放送信号受信方法、テレビジョン受像機、制御プログラム、および記録媒体
JP6140381B1 (ja) 放送信号送受信システム、および放送信号送受信方法
JP6181898B1 (ja) 放送信号送受信システムおよび放送信号送受信方法
JP6181897B1 (ja) 放送信号受信装置、放送信号受信方法、テレビジョン受像機、制御プログラム、および記録媒体
KR101262949B1 (ko) 디지털 방송수신기의 서비스채널 변경 장치 및 방법
KR101358709B1 (ko) 디지털 방송수신기의 서비스채널 변경 장치 및 방법
JP6405493B1 (ja) 一時蓄積の制御方法
JP6412289B1 (ja) 一時蓄積の制御方法
JP6405492B1 (ja) 録画制御方法
JP6374053B2 (ja) 放送信号受信装置、放送信号受信方法、テレビジョン受像機、制御プログラム、および記録媒体
JP6279140B1 (ja) 受信装置
JP5957156B2 (ja) 放送信号送受信システムおよび放送信号送受信方法
JP2023134110A (ja) 放送システム、受信機、受信方法、及びプログラム
KR20070063832A (ko) 음성 다중을 지원하는 방송 시스템 및 방법
JP2024106151A (ja) 受信装置、放送システム、受信方法、および、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240919