JP6729382B2 - 送信装置、送信方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、受信装置および受信方法 Download PDF

Info

Publication number
JP6729382B2
JP6729382B2 JP2016554075A JP2016554075A JP6729382B2 JP 6729382 B2 JP6729382 B2 JP 6729382B2 JP 2016554075 A JP2016554075 A JP 2016554075A JP 2016554075 A JP2016554075 A JP 2016554075A JP 6729382 B2 JP6729382 B2 JP 6729382B2
Authority
JP
Japan
Prior art keywords
data
audio
stream
coded data
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016554075A
Other languages
English (en)
Other versions
JPWO2016060101A1 (ja
Inventor
塚越 郁夫
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016060101A1 publication Critical patent/JPWO2016060101A1/ja
Application granted granted Critical
Publication of JP6729382B2 publication Critical patent/JP6729382B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本技術は、送信装置、送信方法、受信装置および受信方法に関し、特に、複数種類のオーディオデータを送信する送信装置等に関する。
従来、立体(3D)音響技術として、符号化サンプルデータをメタデータに基づいて任意の位置に存在するスピーカにマッピングさせてレンダリングする技術が提案されている(例えば、特許文献1参照)。
特表2014−520491号公報
例えば、5.1チャネル、7.1チャネルなどのチャネルデータと共に、符号化サンプルデータおよびメタデータからなるオブジェクトデータを送信し、受信側において臨場感を高めた音響再生を可能とすることが考えられる。従来、チャネルデータおよびオブジェクトデータを3Dオーディオ(MPEG-H 3D Audio)の符号化方式で符号化して得られた符号化データを含むオーディオストリームを受信側に送信することが提案されている。
3Dオーディオの符号化方式とMPEG4 AAC等の符号化方式との間にストリーム構造的な互換性はない。そのため、従来のオーディオの受信機との互換性をもたせて3Dオーディオをサービスする場合、サイマルキャストをする方法が考えられる。しかし、同じコンテンツを異なる符号化方法で伝送するのは伝送帯域の有効利用にならない。
本技術の目的は、伝送帯域の有効利用を損なうことなく、従来のオーディオの受信機との互換性をもたせて、新規サービスを提供可能とすることにある。
本技術の概念は、
第1の符号化データおよび該第1の符号化データに関連した第2の符号化データを持つ所定数のオーディオストリームを生成するエンコード部と、
上記生成された所定数のオーディオストリームを含む所定フォーマットのコンテナを送信する送信部を備え、
上記エンコード部は、上記第2の符号化データが該第2の符号化データに対応していない受信機では捨てられるように上記所定数のオーディオストリームを生成する
送信装置にある。
本技術において、エンコード部により、第1の符号化データおよびこの第1の符号化データに関連した第2の符号化データを持つ所定数のオーディオストリームが生成される。ここで、第2の符号化データがこの第2の符号化データに対応していない受信機では捨てられるように所定数のオーディオストリームが生成される。
例えば、第1の符号化データの符号化方式と第2の符号化データの符号化方式とは異なる、ようにされてもよい。この場合、例えば、第1の符号化データはチャネル符号化データであり、第2の符号化データはオブジェクト符号化データである、ようにされてもよい。そして、この場合、例えば、第1の符号化データの符号化方式はMPEG4 AACであり、第2の符号化データの符号化方式はMPEG−H 3D Audioである、ようにされてもよい。
送信部により、生成された所定数のオーディオストリームを含む所定フォーマットのコンテナが送信される。例えば、コンテナは、デジタル放送規格で採用されているトランスポートストリーム(MPEG−2 TS)であってもよい。また、例えば、コンテナは、インターネットの配信などで用いられるMP4、あるいはそれ以外のフォーマットのコンテナであってもよい。
このように本技術においては、第1の符号化データおよびこの第1の符号化データに関連した第2の符号化データを持つ所定数のオーディオストリームが送信され、この所定数のオーディオストリームは第2の符号化データがこの第2の符号化データに対応していない受信機では捨てられるように生成される。そのため、伝送帯域の有効利用を損なうことなく、従来のオーディオの受信機との互換性をもたせて、新規サービスを提供することが可能となる。
なお、本技術において、例えば、エンコード部は、第1の符号化データを持つオーディオストリームを生成すると共に、このオーディオストリームのユーザデータ領域に第2の符号化データを埋め込む、ようにされてもよい。この場合、従来のオーディオの受信機では、ユーザデータ領域に埋め込まれた第2の符号化データは読み捨てられる。
この場合、例えば、コンテナのレイヤに、このコンテナに含まれる第1の符号化データを持つオーディオストリームのユーザデータ領域に、この第1の符号化データに関連した第2の符号化データの埋め込みがあることを識別する識別情報を挿入する情報挿入部をさらに備える、ようにされてもよい。これにより、受信側では、オーディオストリームのデコード処理を行う前に、このオーディオストリームのユーザデータ領域に第2の符号化データの埋め込みがあることを容易に把握可能となる。
また、この場合、例えば、第1の符号化データはチャネル符号化データであり、第2の符号化データはオブジェクト符号化データであり、オーディオストリームのユーザデータ領域には、所定数のグループのオブジェクト符号化データが埋め込まれ、コンテナのレイヤに、所定数のグループのオブジェクト符号化データのそれぞれの属性を示す属性情報を挿入する情報挿入部をさらに備える、ようにされてもよい。これにより、受信側では、所定数のグループのオブジェクト符号化データのそれぞれの属性を当該オブジェクト符号化データのデコード前に容易に認識でき、必要なグループのオブジェクト符号化データのみを選択的にデコードして用いることができ、処理負荷を軽減することが可能となる。
また、本技術において、例えば、エンコード部は、第1の符号化データを含む第1のオーディオストリームを生成すると共に、第2の符号化データを含む所定数の第2のオーディオストリームを生成する、ようにされてよい。この場合、従来のオーディオの受信機では、所定数の第2のオーディオストリームはデコード対象から除かれる。あるいは、5.1チャンネルの第1の符号化データをAAC方式で符号化し、その5.1チャンネルのデータから得られる2チャンネルのデータとオブジェクトデータの符号化とを第2の符号化データとしてMPEG−H方式で符号化することも本方式で可能である。この場合、第2の符号化方式に対応しない受信機は、第1の符号化データのみをデコードする。
この場合、例えば、所定数の第2のオーディオストリームには、所定数のグループのオブジェクト符号化データが含まれ、コンテナのレイヤに、所定数のグループのオブジェクト符号化データのそれぞれの属性を示す属性情報を挿入する情報挿入部をさらに備える、ようにされてもよい。これにより、受信側では、所定数のグループのオブジェクト符号化データのそれぞれの属性を当該オブジェクト符号化データのデコード前に容易に認識でき、必要なグループのオブジェクト符号化データのみを選択的にデコードして用いることができ、処理負荷を軽減することが可能となる。
そして、この場合、例えば、情報挿入部は、コンテナのレイヤに、所定数のグループのオブジェクト符号化データ、あるいは所定数のグループのチャンネル符号化データおよびオブジェクト符号化データがそれぞれどの第2のオーディオストリームに含まれるかを示すストリーム対応関係情報をさらに挿入する、ようにされてもよい。例えば、ストリーム対応関係情報は、複数のグループの符号化データのそれぞれを識別するグループ識別子と所定数のオーディオストリームのそれぞれのストリームを識別するストリーム識別子との対応関係を示す情報である、ようにされてもよい。この場合、例えば、情報挿入部は、コンテナのレイヤに、所定数のオーディオストリームのそれぞれのストリーム識別子を示すストリーム識別子情報をさらに挿入する、ようにされてもよい。これにより、受信側では、必要なグループのオブジェクト符号化データ、あるいは所定数のグループのチャンネル符号化データおよびオブジェクト符号化データが含まれる第2のオーディオストリームを容易に認識でき、処理負荷を軽減することが可能となる。
また、本技術の他の概念は、
第1の符号化データおよび該第1の符号化データに関連した第2の符号化データを持つ所定数のオーディオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
上記第2の符号化データが該第2の符号化データに対応していない受信機では捨てられるように上記所定数のオーディオストリームが生成されており、
上記コンテナに含まれる上記所定数のオーディオストリームから上記第1の符号化データおよび上記第2の符号化データを抽出して処理する処理部をさらに備える
受信装置にある。
本技術において、受信部により、第1の符号化データおよびこの第1の符号化データに関連した第2の符号化データを持つ所定数のオーディオストリームを含む所定フォーマットのコンテナが受信される。ここで、所定数のオーディオストリームは、第2の符号化データがこの第2の符号化データに対応していない受信機では捨てられるように生成されている。そして、処理部により、所定数のオーディオストリームから第1の符号化データおよび第2の符号化データが抽出されて処理される。
例えば、第1の符号化データの符号化方式と第2の符号化データの符号化方式とは異なる、ようにされてもよい。また、例えば、第1の符号化データはチャネル符号化データであり、第2の符号化データはオブジェクト符号化データである、ようにされてもよい。
例えば、コンテナには、第1の符号化データを持つと共に、ユーザデータ領域に第2の符号化データが埋め込まれたオーディオストリームが含まれている、ようにされてもよい。また、例えば、コンテナには、第1の符号化データを含む第1のオーディオストリームと第2の符号化データを含む所定数の第2のオーディオストリームが含まれている、ようにされてもよい。
このように本技術においては、所定数のオーディオストリームから第1の符号化データおよび第2の符号化データが抽出されて処理される。そのため、第1の符号化データの他に第2の符号化データを利用した新規サービスによる高品質な音声再生が可能となる。
本技術によれば、伝送帯域の有効利用を損なうことなく、従来のオーディオの受信機との互換性をもたせて、新規サービスを提供できる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
実施の形態としての送受信システムの構成例を示すブロック図である。 送信オーディオストリームの構成(ストリーム構成(1)、ストリーム構成(2))を説明するための図である。 送信オーディオストリームの構成がストリーム構成(1)の場合におけるサービス送信機のストリーム生成部の構成例を示すブロック図である。 3Dオーディオの伝送データを構成するオブジェクト符号化データの構成例を示す図である。 送信オーディオストリームの構成がストリーム構成(1)の場合におけるグループと属性の対応関係などを示す図である。 MPEG4 AACのオーディオフレームの構造を示す図である。 メタデータが挿入されるDSE(data stream element)の構成を示す図である。 「metadata ()」の構成およびその構成主要な情報の内容を示す図である。 MPEG−H 3D Audioのオーディオフレームの構造を示す図である。 オブジェクト符号化データのパケット構成例を示す図である。 アンシラリ・データ・デスクリプタの構造例を示す図である。 「ancillary_data_identifier」の8ビットフィールドにおける現状のビットとデータ種類との対応関係を示す図である。 3Dオーディオ・ストリーム・コンフィグ・デスクリプタの構造例を示す図である。 3Dオーディオ・ストリーム・コンフィグ・デスクリプタの構造例における主要な情報の内容を示している。 「contentKind」に定義されているコンテンツの種類を示す図である。 送信オーディオストリームの構成がストリーム構成(1)の場合におけるトランスポートストリームの構成例を示す図である。 送信オーディオストリームの構成がストリーム構成(2)の場合におけるサービス送信機のストリーム生成部の構成例を示すブロック図である。 3Dオーディオの伝送データを構成するオブジェクト符号化データの構成例(2分割)を示す図である。 送信オーディオストリームの構成がストリーム構成(2)の場合におけるグループと属性の対応関係などを示す図である。 3Dオーディオ・ストリームID・デスクリプタの構造例を示す図である。 送信オーディオストリームの構成がストリーム構成(2)の場合におけるトランスポートストリームの構成例を示す図である。 サービス受信機の構成例を示すブロック図である。 受信オーディオストリームの構成(ストリーム構成(1)、ストリーム構成(2))を説明するための図である。 受信オーディオストリームの構成がスストリーム構成(1)の場合のデコード処理を概略的に示す図である。 受信オーディオストリームの構成がスストリーム構成(2)の場合のデコード処理を概略的に示す図である。 AC3のフレーム(AC3 Synchronization Frame)の構造を示す図である。 AC3のオグジャリデータ(Auxiliary Data)の構成例を示す図である。 AC4のシンプルトランスポート(Simple Transport)のレイヤの構造を示す図である。 TOC(ac4_toc())およびサブストリーム(ac4_substream_data())の概略構成を示す図である。 TOC(ac4_toc())の中に存在する「umd_info()」の構成例を示す図である。 サブストリーム(ac4_substream_data())の中に存在する「umd_payloads_substream())」の構成例を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[送受信システムの構成例]
図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、サービス送信機100とサービス受信機200により構成されている。サービス送信機100は、トランスポートストリームTSを、放送波あるいはネットのパケットに載せて送信する。このトランスポートストリームTSは、ビデオストリームと、所定数、つまり一つまたは複数のオーディオストリームを有している。
この所定数のオーディオストリームには、チャネル符号化データと、所定数のグループのオブジェクト符号化データが含まれている。この所定数のオーディオストリームは、オブジェクト符号化データが、当該オブジェクト符号化データに対応していない受信機では捨てられるように生成される。
第1の方法では、図2(a)のストリーム構成(1)で示すように、MPEG4 AACで符号化されたチャネル符号化データを含むオーディオストリーム(メインストリーム)が生成されると共に、このオーディオストリームのユーザデータ領域にMPEG−H 3D Audioで符号化された所定数のグループのオブジェクト符号化データが埋め込まれる。
第2の方法では、図2(b)のストリーム構成(2)で示すように、MPEG4 AACで符号化されたチャネル符号化データを含むオーディオストリーム(メインストリーム)が生成されると共に、MPEG−H 3D Audioで符号化された所定数のグループのオブジェクト符号化データを含む所定数のオーディオストリーム(サブストリーム1〜N)が生成される。
サービス受信機200は、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSは、上述したように、ビデオストリームの他に、チャネル符号化データおよび所定数のグループのオブジェクト符号化データが含まれた所定数のオーディオストリームを有している。サービス受信機200は、ビデオストリームにデコード処理を行って、ビデオ出力を得る。
また、サービス受信機200は、オブジェクト符号化データに対応している場合には、所定数のオーディストリームからチャネル符号化データおよびオブジェクト符号化データを抽出してデコード処理を行って、ビデオ出力に対応したオーディオ出力を得る。一方、サービス受信機200は、オブジェクト符号化データに対応していない場合には、所定数のオーディストリームからチャネル符号化データのみを抽出してデコード処理を行って、ビデオ出力に対応したオーディオ出力を得る。
[サービス送信機のストリーム生成部]
「ストリーム構成(1)を採る場合」
最初に、オーディオストリームが、図2(a)のストリーム構成(1)を採る場合について説明する。図3は、その場合におけるサービス送信機100が備えるストリーム生成部110Aの構成例を示している。
このストリーム生成部110は、ビデオエンコーダ112と、オーディオチャネルエンコーダ113と、オーディオオブジェクトエンコーダ114と、TSフォーマッタ115を有している。ビデオエンコーダ112は、ビデオデータSVを入力し、このビデオデータSVに対して符号化を施し、ビデオストリームを生成する。
オーディオオブジェクトエンコーダ114は、オーディオデータSAを構成するオブジェクトデータを入力し、このオブジェクトデータに対してMPEG−H 3D Audioの符号化を施してオーディオストリーム(オブジェクト符号化データ)を生成する。オーディオチャネルエンコーダ113は、オーディオデータSAを構成するチャネルデータを入力し、このチャネルデータに対してMPEG4 AACの符号化を施してオーディオストリームを生成すると共に、そのユーザデータ領域にオーディオオブジェクトエンコーダ114で生成されたオーディオストリームを埋め込む。
図4は、オブジェクト符号化データの構成例を示している。この構成例では、2つのオブジェクト符号化データからなっている。2つのオブジェクト符号化データは、イマーシブオーディオオブジェクト(IAO:Immersive audio object)およびスピーチダイアログオブジェクト(SDO:Speech Dialog object)の符号化データである。
イマーシブオーディオオブジェクト符号化データは、イマーシブサウンドのためのオブジェクト符号化データであり、符号化サンプルデータSCE1と、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータEXE_El(Object metadata)1とからなっている。
スピーチダイアログオブジェクト符号化データは、スピーチランゲージのためのオブジェクト符号化データである。この例では、第1、第2の言語のそれぞれに対応したスピーチダイアログオブジェクト符号化データが存在する。第1の言語に対応したスピーチダイアログオブジェクト符号化データは、符号化サンプルデータSCE2と、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータEXE_El(Object metadata)2とからなっている。また、第2の言語に対応したスピーチダイアログオブジェクト符号化データは、符号化サンプルデータSCE3と、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータEXE_El(Object metadata)3とからなっている。
オブジェクト符号化データは、種類別にグループ(Group)という概念で区別される。図示の例では、イマーシブオーディオオブジェクト符号化データはグループ1とされ、第1の言語に係るスピーチダイアログオブジェクト符号化データはグループ2とされ、第2の言語に係るスピーチダイアログオブジェクト符号化データはグループ3とされている。
また、受信側においてグループ間で選択できるものはスイッチグループ(SW Group)に登録されて符号化される。また、グループを束ねてプリセットグループ(preset Group)とされ、ユースケースに応じた再生が可能とされる。図示の例では、グループ1およびグループ2が束ねられてプリセットグループ1とされ、グループ1およびグループ3が束ねられてプリセットグループ2とされている。
図5は、グループと属性の対応関係などを示している。ここで、グループID(group ID)は、グループを識別するための識別子である。アトリビュート(attribute)は、各グループの符号化データの属性を示している。スイッチグループID(switch Group ID)は、スイッチンググループを識別するための識別子である。リセットグループID(preset Group ID)は、プリセットグループを識別するための識別子である。ストリームID(sub Stream ID)は、ストリームを識別するための識別子である。カインド(Kind)は、各グループのコンテンツの種類を示している。
図示の対応関係は、グループ1に属する符号化データは、イマーシブサウンドのためのオブジェクト符号化データ(イマーシブオーディオオブジェクト符号化データ)であって、スイッチグループを構成しており、チャネル符号化データを含むオーディオストリームのユーザデータ領域に埋め込まれていること、を示している。
また、図示の対応関係は、グループ2に属する符号化データは、第1の言語のスピーチランゲージのためのオブジェクト符号化データ(スピーチダイアログオブジェクト符号化データ)であって、スイッチグループ1を構成しており、チャネル符号化データを含むオーディオストリームのユーザデータ領域に埋め込まれていること、を示している。また、図示の対応関係は、グループ3に属する符号化データは、第2の言語のスピーチランゲージのためのオブジェクト符号化データ(スピーチダイアログオブジェクト符号化データ)であって、スイッチグループ1を構成しており、チャネル符号化データを含むオーディオストリームのユーザデータ領域に埋め込まれていること、を示している。
また、図示の対応関係は、プリセットグループ1は、グループ1およびグループ2を含む、ことが示されている。さらに、図示の対応関係は、プリセットグループ2は、グループ1およびグループ3を含む、ことが示されている。
図6は、MPEG4 AACのオーディオフレームの構造を示している。このオーディオフレームは、複数のエレメントからなっている。各エレメント(element)の先頭には、「id_syn_ele」の3ビットの識別子(ID)が存在し、エレメント内容が識別可能とされている。
このオーディオフレームには、SCE(Single Channel Element)、CPE(Channel Pair Element)、LFE(Low Frequency Element)、DSE(Data Stream Element)、PCE(Program Config Element)、FIL(Fill Element)などのエレメントが含まれる。SCE、CPE、LFEのエレメントは、チャネル符号化データを構成する符号化サンプルデータを含むエレメントである。例えば、5.1チャネルのチャネル符号化データの場合には、一個のSCE、2個のCPE、一個のLFEが存在する。
PCEのエレメントは、チャネルエレメント数やダウンミックス(down_mix)係数を含むエレメントである。FILのエレメントは、エクステンション(extension)情報の定義に用いられるエレメントである。DSEのエレメントは、ユーザデータを置くことできるエレメントであり、このエレメントの「id_syn_ele」が“0x4”である。このDSEのエレメントに、オブジェクト符号化データが埋め込まれる。
図7は、DSE(Data Stream Element())の構成(Syntax)を示している。「element_instance_tag」の4ビットフィールドは、DSEの中のデータ種別を示すが、DSEを統一したユーザデータとして利用する場合は、この値を“0”としてもよい。「data_byte_align_flag」は、“1”とされ、DSEの全体がバイトアラインされるようにする。「count」、あるいは、その追加バイト数を意味する「esc_count」は、ユーザデータのサイズによって適宜、値が決められる。「count」および「esc_count」により最大で510バイトまでカウント可能となっている。つまり、1つのDSEエレメントに配置できるデータは510バイトまでとなる。「data_stream_byte」のフィールドに、「metadata ()」が挿入される。
図8(a)は「metadata ()」の構成(Syntax)を示し、図8(b)はその構成における主要な情報の内容(semantics)を示している。「metadata_type」の8ビットフィールドは、メタデータの種類を示す。例えば、“0x10”は、MPEG−H方式(MPEG-H 3D Audio)のオブジェクト符号データであることを示す。
「count」の8ビットフィールドは、メタデータの時系列的な昇順のカウント数を示す。上述したように1つのDSEエレメントに配置できるデータは510バイトまでであるが、オブジェクト符号化データのサイズが510バイトより大きくなることも考えられる。その場合には、複数のDSEエレメントが使用され、「count」で示されるカウント数はその複数のDSEエレメントの連結関係を示すものとなる。「data_byte」の領域に、オブジェクト符号化データが配置される。
図9は、MPEG−H 3D Audioのオーディオフレームの構造を示している。このオーディオフレームは、複数のMPEGオーディオストリームパケット(mpeg Audio Stream Packet)からなっている。各MPEGオーディオストリームパケットは、ヘッダ(Header)とペイロード(Payload)により構成されている。
ヘッダは、パケットタイプ(Packet Type)、パケットラベル(Packet Label)、パケットレングス(Packet Length)などの情報を持つ。ペイロードには、ヘッダのパケットタイプで定義された情報が配置される。このペイロード情報には、同期スタートコードに相当する“SYNC”と、実際のデータである“Frame”と、この“Frame”の構成を示す“Config”が存在する。
この実施の形態において、“Frame”には、3Dオーディオの伝送データを構成するオブジェクト符号化データが含まれる。3Dオーディオの伝送データを構成するチャネル符号化データに関しては、上述したようにMPEG4 AACのオーディオフレームに含まれる。オブジェクト符号化データは、SCE(Single Channel Element)の符号化サンプルデータと、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータにより構成される(図4参照)。このメタデータは、エクステンションエレメント(Ext_element)として含まれる。
図10(a)は、オブジェクト符号化データのパケット構成例を示している。この例では、1つのグループのオブジェクト符号化データが含まれている。“Config”に含まれる「#obj=1」の情報で、1つのグループのオブジェクト符号化データを持つ“Frame”の存在が示されている。
“Config”に含まれる「AudioSceneInfo()」内に登録された”GroupID[0]=1”の情報で、グループ1の符号化データを持つ“Frame”が配置されていることが示されている。なお、パケットラベル(PL)の値は、“Config”とそれに対応した各“Frame”とで同じ値とされる。ここで、グループ1の符号化データを持つ“Frame”は、エクステンションエレメント(Ext_element)としてのメタデータを含む“Frame”と、SCE(Single Channel Element)の符号化サンプルデータを含む“Frame”とからなっている。
図10(b)は、オブジェクト符号化データの他のパケット構成例を示している。この例では、2つのグループのオブジェクト符号化データが含まれている。“Config”に含まれる「#obj=2」の情報で、2つのグループのオブジェクト符号化データを持つ“Frame”の存在が示されている。
“Config”に含まれる「AudioSceneInfo()」内に順に登録された”GroupID[1]=2, GroupID[2]=3, SW_GRPID[0]=1 ”の情報で、グループ2の符号化データを持つ“Frame”と、グループ3の符号化データを持つ“Frame”とが、この順に配置されており、これらのグループはスイッチグループ1を構成していることが示されている。なお、パケットラベル(PL)の値は、“Config”とそれに対応した各“Frame”とで同じ値とされる。
ここで、グループ2の符号化データを持つ“Frame”は、エクステンションエレメント(Ext_element)としてのメタデータを含む“Frame”と、SCE(Single Channel Element)の符号化サンプルデータを含む“Frame”とからなっている。同様に、グループ3の符号化データを持つ“Frame”は、エクステンションエレメント(Ext_element)としてのメタデータを含む“Frame”と、SCE(Single Channel Element)の符号化サンプルデータを含む“Frame”とからなっている。
図3に戻って、TSフォーマッタ115は、ビデオエンコーダ112から出力されるビデオストリームおよびオーディオチャネルエンコーダ113から出力されるオーディオストリームを、PESパケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
また、TSフォーマッタ115は、コンテナのレイヤ、この実施の形態ではプログラムマップテーブル(PMT)の配下に、オーディオストリームのユーザデータ領域に、このオーディオストリームに含まれるチャネル符号化データに関連したオブジェクト符号化データの埋め込みがあることを識別する識別情報を挿入する。TSフォーマッタ115は、この識別情報を、オーディオストリームに対応したオーディオ・エレメンタリストリームループ内に、既存のアンシラリ・データ・デスクリプタ(Ancillary_data_descriptor)を用いて挿入する。
図11は、アンシラリ・データ・デスクリプタの構造例(Syntax)を示している。「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、アンシラリ・データ・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。
「ancillary_data_identifier」の8ビットフィールドは、オーディオストリームのユーザデータ領域にいかなる種類のデータが埋め込まれているかを示す。この場合、各ビットに“1”がセットされることで、そのビットに対応した種類のデータが埋め込まれていることが示される。図12は、現状におけるビットとデータ種類との対応関係を示している。この実施の形態においては、ビット7にデータ種類としてオブジェクト符号化データ(Object data)を新規定義し、このビット7に“1”をセットすることで、オーディオストリームのユーザデータ領域にオブジェクト符号化データの埋め込みがあることを識別させる。
また、TSフォーマッタ115は、コンテナのレイヤ、この実施の形態ではプログラムマップテーブル(PMT)の配下に、所定数のグループのオブジェクト符号化データのそれぞれの属性を示す属性情報などを挿入する。TSフォーマッタ115は、この属性情報などを、オーディオストリームに対応したオーディオ・エレメンタリストリームループ内に、3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)を用いて挿入する。
図13は、3Dオーディオ・ストリーム・コンフィグ・デスクリプタの構造例(Syntax)を示している。また、図14は、その構造例における主要な情報の内容(Semantics)を示している。「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、3Dオーディオ・ストリーム・コンフィグ・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。
「NumOfGroups, N」の8ビットフィールドは、グループの数を示す。「NumOfPresetGroups, P」の8ビットフィールドは、プリセットグループの数を示す。グループの数だけ、「groupID」の8ビットフィールド、「attribute_of_groupID」の8ビットフィールド、「SwitchGroupID」の8ビットフィールドおよび「audio_streamID」の8ビットフィールドが、繰り返えされる。
「groupID」のフィールドは、グループの識別子を示す。「attribute_of_groupID」のフィールドは、該当グループのオブジェクト符号化データの属性を示す。「SwitchGroupID」のフィールドは、該当グループがどのスイッチグループに属すかを示す識別子である。“0”は、いずれのスイッチグループにも属さないことを示す。“0”以外は、配属するスイッチグループを示す。「contentKind」の8ビットフィールドは、グループのコンテンツの種類を示す。「audio_streamID」は、該当グループが含まれるオーディオストリームを示す識別子である。図15は、「contentKind」に定義されているコンテンツの種類を示している。
また、プリセットグループの数だけ、「presetGroupID」の8ビットフィールドおよび「NumOfGroups_in_preset, R」の8ビットフィールドが、繰り返される。「presetGroupID」のフィールドは、グループをプリセットした束を示す識別子である。「NumOfGroups_in_preset, R」のフィールドは、プリセットグループに属するグループの数を示す。そして、プリセットグループ毎に、それに属するグループの数だけ、「groupID」の8ビットフィールドが繰り返され、プリセットグループに属するグループが示される。
図16は、トランスポートストリームTSの構成例を示している。この構成例では、PID1で識別されるビデオストリームのPESパケット「video PES」が存在する。また、この構成例では、PID2で識別されるオーディオストリームのPESパケット「audio PES」が存在する。PESパケットは、PESヘッダ(PES_header)とPESペイロード(PES_payload)からなっている。
ここで、オーディオストリームのPESパケット「audio PES」には、MPEG4 AACのチャネル符号化データが含まれていると共に、そのユーザデータ領域にMPEG−H 3D Audioのオブジェクト符号化データが埋め込まれている。
また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。PSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。
また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリストリームループが存在する。この構成例では、ビデオストリームに対応したビデオエレメンタリストリームループ(video ES loop)が存在すると共に、オーディオストリームに対応したオーディオエレメンタリストリームループ(audio ES loop)が存在する。
ビデオエレメンタリストリームループ(video ES loop)には、ビデオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このビデオストリームの「Stream_type」の値は「0x24」に設定され、PID情報は、上述したようにビデオストリームのPESパケット「video PES」に付与されるPID1を示すものとされる。デスクリプタの一つして、HEVC デスクリプタが配置される。
オーディオエレメンタリストリームループ(audio ES loop)には、オーディオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのオーディオストリームに関連する情報を記述するデスクリプタも配置される。このオーディオストリームの「Stream_type」の値は「0x11」に設定され、PID情報は、上述したようにオーディオストリームのPESパケット「audio PES」に付与されるPID2を示すものとされる。このオーディオエレメンタリストリームループには、上述したアンシラリ・データ・デスクリプタおよび3Dオーディオ・ストリーム・コンフィグ・デスクリプタの双方が配置される。
図3に示すストリーム生成部110Aの動作を簡単に説明する。ビデオデータSVは、ビデオエンコーダ112に供給される。このビデオエンコーダ112では、ビデオデータSVに対して符号化が施され、符号化ビデオデータを含むビデオストリームが生成される。このビデオストリームは、TSフォーマッタ115に供給される。
オーディオデータSAを構成するオブジェクトデータは、オーディオオブジェクトエンコーダ114に供給される。このオーディオオブジェクトエンコーダ114では、このオブジェクトデータに対してMPEG−H 3D Audioの符号化が施されてオーディオストリーム(オブジェクト符号化データ)が生成される。このオーディオストリームは、オーディオチャネルエンコーダ113に供給される。
オーディオデータSAを構成するチャネルデータは、オーディオチャネルエンコーダ113に供給される。このオーディオチャネルエンコーダ113では、このチャネルデータに対してMPEG4 AACの符号化が施されてオーディオストリーム(チャネル符号化データ)が生成される。この際、オーディオチャネルエンコーダ113では、そのユーザデータ領域にオーディオオブジェクトエンコーダ114で生成されたオーディオストリーム(オブジェクト符号化データ)が埋め込まれる。
ビデオエンコーダ112で生成されたビデオストリームは、TSフォーマッタ115に供給される。また、オーディオチャネルエンコーダ113で生成されたオーディオストリームは、TSフォーマッタ115に供給される。TSフォーマッタ115では、各エンコーダから供給されるストリームがPESパケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。
また、TSフォーマッタ115では、オーディオ・エレメンタリストリームループ内に、アンシラリ・データ・デスクリプタが挿入される。このデスクリプタには、オーディオストリームのユーザデータ領域にオブジェクト符号化データの埋め込みがあることを識別する識別情報が含まれている。
また、TSフォーマッタ115では、オーディオ・エレメンタリストリームループ内に、3Dオーディオ・ストリーム・コンフィグ・デスクリプタが挿入される。このデスクリプタには、所定数のグループのオブジェクト符号化データのそれぞれの属性を示す属性情報などが含まれている。
「ストリーム構成(2)を採る場合」
次に、オーディオストリームが、図2(b)のストリーム構成(2)を採る場合について説明する。図17は、その場合におけるサービス送信機100が備えるストリーム生成部110Bの構成例を示している。
このストリーム生成部110Bは、ビデオエンコーダ122と、オーディオチャネルエンコーダ123と、オーディオオブジェクトエンコーダ124-1〜124-Nと、TSフォーマッタ125を有している。ビデオエンコーダ122は、ビデオデータSVを入力し、このビデオデータSVに対して符号化を施し、ビデオストリームを生成する。
オーディオチャネルエンコーダ123は、オーディオデータSAを構成するチャネルデータを入力し、このチャネルデータに対してMPEG4 AACの符号化を施して、メインストリームとしてのオーディオストリーム(チャネル符号化データ)を生成する。オーディオオブジェクトエンコーダ124-1〜124-Nは、それぞれオーディオデータSAを構成するオブジェクトデータを入力し、このオブジェクトデータに対してMPEG−H 3D Audioの符号化を施して、サブストリームとしてのオーディオストリーム(オブジェクト符号化データ)を生成する。
例えば、N=2である場合、オーディオオブジェクトエンコーダ124-1はサブストリーム1を生成し、オーディオオブジェクトエンコーダ124-2はサブストリーム2を生成する。例えば、図18に示すように、2つのオブジェクト符号化データからなるオブジェクト符号化データの構成例では、サブストリーム1にはイマーシブオーディオオブジェクト(IAO:Immersive audio object)が含まれ、サブストリーム2にはスピーチダイアログオブジェクト(SDO:Speech Dialog object)の符号化データが含まれる。
図19は、グループと属性の対応関係などを示している。ここで、グループID(group ID)は、グループを識別するための識別子である。アトリビュート(attribute)は、各グループの符号化データの属性を示している。スイッチグループID(switch Group ID)は、相互に切り替え可能なグループを識別するための識別子である。プリセットグループID(preset Group ID)は、プリセットグループを識別するための識別子である。ストリームID(Stream ID)は、ストリームを識別するための識別子である。カインド(Kind)は、各グループのコンテンツの種類を示している。
図示の対応関係は、グループ1に属する符号化データは、イマーシブサウンドのためのオブジェクト符号化データ(イマーシブオーディオオブジェクト符号化データ)であって、スイッチグループを構成しておらず、サブストリーム1に含まれている、ことを示している。
また、図示の対応関係は、グループ2に属する符号化データは、第1の言語のスピーチランゲージのためのオブジェクト符号化データ(スピーチダイアログオブジェクト符号化データ)であって、スイッチグループ1を構成しており、サブストリーム2に含まれている、ことを示している。また、図示の対応関係は、グループ3に属する符号化データは、第2の言語のスピーチランゲージのためのオブジェクト符号化データ(スピーチダイアログオブジェクト符号化データ)であって、スイッチグループ1を構成しており、サブストリーム2に含まれている、ことを示している。
また、図示の対応関係は、プリセットグループ1は、グループ1およびグループ2を含む、ことが示されている。さらに、図示の対応関係は、プリセットグループ2は、グループ1およびグループ3を含む、ことが示されている。
図17に戻って、TSフォーマッタ125は、ビデオエンコーダ112から出力されるビデオストリーム、オーディオチャネルエンコーダ123から出力されるオーディオストリーム、さらにはオーディオオブジェクトエンコーダ124-1〜124-Nから出力されるオーディオストリームを、PESパケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
また、TSフォーマッタ125は、コンテナのレイヤ、この実施の形態ではプログラムマップテーブル(PMT)の配下に、所定数のグループのオブジェクト符号化データのそれぞれの属性を示す属性情報と、所定数のグループのオブジェクト符号化データがそれぞれどのサブストリームに含まれるかを示すストリーム対応関係情報などを挿入する。TSフォーマッタ125は、これらの情報を、所定数のサブストリームのうち少なくとも1つ以上のサブストリームに対応したオーディオ・エレメンタリストリームループ内に、3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)(図13参照)を用いて挿入する。
また、TSフォーマッタ125は、コンテナのレイヤ、この実施の形態ではプログラムマップテーブル(PMT)の配下に、所定数のサブストリームのそれぞれのストリーム識別子を示すストリーム識別子情報を挿入する。TSフォーマッタ125は、この情報を、所定数のサブストリームのそれぞれに対応したオーディオ・エレメンタリストリームループ内に、3Dオーディオ・ストリームID・デスクリプタ(3Daudio_substreamID_descriptor)を用いて挿入する。
図20(a)は、3Dオーディオ・ストリームID・デスクリプタの構造例(Syntax)を示している。また、図20(b)は、その構造例における主要な情報の内容(Semantics)を示している。
「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、3Dオーディオ・ストリームID・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。「audio_streamID」の8ビットフィールドは、サブストリームの識別子を示す。
図21は、トランスポートストリームTSの構成例を示している。この構成例では、PID1で識別されるビデオストリームのPESパケット「video PES」が存在する。また、この構成例では、PID2,PID3でそれぞれ識別される2つのオーディオストリームのPESパケット「audio PES」が存在する。PESパケットは、PESヘッダ(PES_header)とPESペイロード(PES_payload)からなっている。PESヘッダには、DTS,PTSのタイムスタンプが挿入されている。多重化の際にPID2とPID3のタイムスタンプを合致させるなど、的確に付すことで両者の間の同期をシステム全体で確保することが可能である。
PID2で識別されるオーディオストリーム(メインストリーム)のPESパケット「audio PES」には、MPEG4 AACのチャネル符号化データが含まれている。一方、PID3で識別されるオーディオストリーム(サブストリーム)のPESパケット「audio PES」には、MPEG−H 3D Audioのオブジェクト符号化データが含まれている。
また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。PSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。
また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリストリームループが存在する。この構成例では、ビデオストリームに対応したビデオエレメンタリストリームループ(video ES loop)が存在すると共に、2つのオーディオストリームに対応したオーディオエレメンタリストリームループ(audio ES loop)が存在する。
ビデオエレメンタリストリームループ(video ES loop)には、ビデオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このビデオストリームの「Stream_type」の値は「0x24」に設定され、PID情報は、上述したようにビデオストリームのPESパケット「video PES」に付与されるPID1を示すものとされる。デスクリプタとして、HEVC デスクリプタも配置される。
オーディオストリーム(メインストリーム)に対応したオーディオエレメンタリストリームループ(audio ES loop)には、オーディオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのオーディオストリームに関連する情報を記述するデスクリプタも配置される。このオーディオストリームの「Stream_type」の値は「0x11」に設定され、PID情報は、上述したようにオーディオストリーム(メインストリーム)のPESパケット「audio PES」に付与されるPID2を示すものとされる。
また、オーディオストリーム(サブストリーム)に対応したオーディオエレメンタリストリームループ(audio ES loop)には、オーディオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのオーディオストリームに関連する情報を記述するデスクリプタも配置される。このオーディオストリームの「Stream_type」の値は「0x2D」に設定され、PID情報は、上述したようにオーディオストリーム(メインストリーム)のPESパケット「audio PES」に付与されるPID3を示すものとされる。デスクリプタとして、上述した3Dオーディオ・ストリーム・コンフィグ・デスクリプタおよび3Dオーディオ・ストリームID・デスクリプタも配置される。
図17に示すストリーム生成部110Bの動作を簡単に説明する。ビデオデータSVは、ビデオエンコーダ122に供給される。このビデオエンコーダ122では、ビデオデータSVに対して符号化が施され、符号化ビデオデータを含むビデオストリームが生成される。
オーディオデータSAを構成するチャネルデータは、オーディオチャネルエンコーダ123に供給される。このオーディオチャネルエンコーダ123では、このチャネルデータに対してMPEG4 AACの符号化が施されてメインストリームとしてのオーディオストリーム(チャネル符号化データ)が生成される。
また、オーディオデータSAを構成するオブジェクトデータは、オーディオオブジェクトエンコーダ124-1〜124-Nに供給される。このオーディオオブジェクトエンコーダ124-1〜124-Nでは、それぞれ、このオブジェクトデータに対してMPEG−H 3D Audioの符号化が施されてサブストリームとしてのオーディオストリーム(オブジェクト符号化データ)が生成される。
ビデオエンコーダ122で生成されたビデオストリームは、TSフォーマッタ125に供給される。また、オーディオチャネルエンコーダ113で生成されたオーディオストリーム(メインストリーム)は、TSフォーマッタ125に供給される。さらに、オーディオオブジェクトエンコーダ124-1〜124-Nで生成されたオーディオストリーム(サブストリーム)は、TSフォーマッタ125に供給される。TSフォーマッタ125では、各エンコーダから供給されるストリームがPESパケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。
また、TSフォーマッタ115では、所定数のサブストリームのうち少なくとも1つ以上のサブストリームに対応したオーディオ・エレメンタリストリームループ内に、3Dオーディオ・ストリーム・コンフィグ・デスクリプタが挿入される。3Dオーディオ・ストリーム・コンフィグ・デスクリプタには、所定数のグループのオブジェクト符号化データのそれぞれの属性を示す属性情報と、所定数のグループのオブジェクト符号化データがそれぞれどのサブストリームに含まれるかを示すストリーム対応関係情報などが含まれている。
また、TSフォーマッタ115では、サブストリームに対応したオーディオ・エレメンタリストリームループ内に、所定数のサブストリームのそれぞれに対応したオーディオエレメンタリストリームループ内に、3Dオーディオ・ストリームID・デスクリプタが挿入される。このデスクリプタには、所定数のオーディオストリームのそれぞれのストリーム識別子を示すストリーム識別子情報が含まれている。
[サービス受信機の構成例]
図22は、サービス受信機200の構成例を示している。このサービス受信機200は、受信部201と、TS解析部202と、ビデオデコーダ203と、映像処理回路204と、パネル駆動回路205と、表示パネル206を有している。また、このサービス受信機200は、多重化バッファ211-1〜211-Mと、コンバイナ212と、3Dオーディオデコーダ213と、音声出力処理回路214と、スピーカシステム215を有している。また、このサービス受信機200は、CPU221と、フラッシュROM222と、DRAM223と、内部バス224と、リモコン受信部225と、リモコン送信機226を有している。
CPU221は、サービス受信機200の各部の動作を制御する。フラッシュROM222は、制御ソフトウェアの格納およびデータの保管を行う。DRAM223は、CPU221のワークエリアを構成する。CPU221は、フラッシュROM222から読み出したソフトウェアやデータをDRAM223上に展開してソフトウェアを起動させ、サービス受信機200の各部を制御する。
リモコン受信部225は、リモコン送信機226から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU221に供給する。CPU221は、このリモコンコードに基づいて、サービス受信機200の各部を制御する。CPU221、フラッシュROM222およびDRAM223は、内部バス224に接続されている。
受信部201は、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSは、ビデオストリームの他に、所定数のオーディオストリームを有している。
図23は、受信されるオーディオストリームの一例を示している。図23(a)は、ストリーム構成(1)の場合の例を示している。この場合、MPEG4 AACで符号化されたチャネル符号化データを含むと共に、そのユーザデータ領域にMPEG−H 3D Audioで符号化された所定数のグループのオブジェクト符号化データが埋め込まれているメインストリームのみが存在する。メインストリームはPID2で識別される。
図23(b)は、ストリーム構成(2)の場合の例を示している。この場合、MPEG4 AACで符号化されたチャネル符号化データを含むメインストリームが存在すると共に、MPEG−H 3D Audioで符号化された所定数のグループのオブジェクト符号化データを含む所定数のサブストリーム、ここでは1つのサブストリームが存在する。メインストリームはPID2で識別され、サブストリームはPID3で識別される。なお、ストリーム構成は、メインをPID3に、サブをPID2にすることも可能なことは当然である。
TS解析部202は、トランスポートストリームTSからビデオストリームのパケットを抽出し、ビデオデコーダ203に送る。ビデオデコーダ203は、TS解析部202で抽出されたビデオのパケットからビデオストリームを再構成し、復号化処理を行って非圧縮の画像データを得る。
映像処理回路204は、ビデオデコーダ203で得られたビデオデータに対してスケーリング処理、画質調整処理などを行って、表示用のビデオデータを得る。パネル駆動回路205は、映像処理回路204で得られる表示用の画像データに基づいて、表示パネル206を駆動する。表示パネル206は、例えば、LCD(Liquid Crystal Display)、有機ELディスプレイ(organic electroluminescence display)などで構成されている。
また、TS解析部202は、トランスポートストリームTSからデスクリプタ情報などの各種情報を抽出し、CPU221に送る。ストリーム構成(1)の場合、各種情報には、アンシラリ・データ・デスクリプタ(Ancillary_data_descriptor)および3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)の情報も含まれる(図16参照)。CPU221は、これらのデスクリプタ情報から、チャネル符号化データを含むメインストリームのユーザデータ領域にオブジェクト符号化データが埋め込まれていることを認識でき、また、各グループのオブジェクト符号化データの属性などを認識する。
また、ストリーム構成(2)の場合、各種情報には、3Dオーディオ・ストリーム・コンフィグ・デスクリプタ(3Daudio_stream_config_descriptor)および3Dオーディオ・ストリームID・デスクリプタ(3Daudio_substreamID_descriptor)の情報も含まれる(図21参照)。CPU221は、これらのデスクリプタ情報から、各グループのオブジェクト符号化データの属性や、各グループのオブジェクト符号化データがどのサブストリームに含まれているか等を認識する。
また、TS解析部202は、CPU221の制御のもと、トランスポートストリームTSが有する所定数のオーディオストリームをPIDフィルタで選択的に取り出す。すなわち、ストリーム構成(1)の場合は、メインストリームを取り出す。一方、ストリーム構成(2)の場合は、メインストリームを取り出すと共に、所定数のサブストリームを取り出す。
多重化バッファ211-1〜211-Mは、それぞれ、TS解析部202で取り出されるオーディオストリーム(メインストリームのみ、あるいはメインストリームおよびサブストリーム)を取り込む。ここで、多重化バッファ211-1〜211-Mの個数Mとしては必要十分な個数とされるが、実際の動作では、TS解析部202で取り出されるオーディオストリームの数だけ用いられることになる。
コンバイナ212は、多重化バッファ211-1〜211-MのうちTS解析部202で取り出される各オーディオストリームがそれぞれ取り込まれた多重化バッファから、オーディオフレーム毎に、オーディオストリームを読み出し、3Dオーディオデコーダ213に送る。
3Dオーディオデコーダ213は、CPU221の制御のもと、チャネル符号化データおよびオブジェクト符号化データを取り出して、デコード処理を施し、スピーカシステム215の各スピーカを駆動するためのオーディオデータを得る。この場合、ストリーム構成(1)の場合は、メインストリームからチャネル符号化データを取り出すと共に、そのユーザデータ領域からオブジェクト符号化データを取り出す。一方、ストリーム構成(2)の場合は、メインストリームからチャネル符号化データを取り出すと共に、サブストリームからオブジェクト符号化データを取り出す。
3Dオーディオデコーダ213は、チャネル符号化データをデコードするときは、スピーカシステム215のスピーカ構成へのダウンミックスやアップミックスの処理を必要に応じて行って、各スピーカを駆動するためのオーディオデータを得る。また、3Dオーディオデコーダ213は、オブジェクト符号化データをデコードするときは、オブジェクト情報(メタデータ)に基づきスピーカレンダリング(各スピーカへのミキシング割合)を計算し、その計算結果に応じて、オブジェクトのオーディオデータを、各スピーカを駆動するためのオーディオデータにミキシングする。
音声出力処理回路214は、3Dオーディオデコーダ213で得られた各スピーカを駆動するためのオーディオデータに対して、D/A変換や増幅等の必要な処理を行って、スピーカシステム215に供給する。スピーカシステム215は、複数チャネル、例えば2チャネル、5.1チャネル、7.1チャネル、22.2チャネルなどの複数のスピーカを備える。
図22に示すサービス受信機200の動作を簡単に説明する。受信部201では、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSが受信される。このトランスポートストリームTSは、ビデオストリームの他に、所定数のオーディオストリームを有している。
例えば、ストリーム構成(1)の場合、オーディオストリームとして、MPEG4 AACで符号化されたチャネル符号化データを含むと共に、そのユーザデータ領域にMPEG−H 3D Audioで符号化された所定数のグループのオブジェクト符号化データが埋め込まれているメインストリームのみが存在する。
また、例えば、ストリーム構成(2)の場合、オーディオストリームとして、MPEG4 AACで符号化されたチャネル符号化データを含むメインストリームが存在すると共に、MPEG−H 3D Audioで符号化された所定数のグループのオブジェクト符号化データを含む所定数のサブストリームが存在する。
TS解析部202では、トランスポートストリームTSからビデオストリームのパケットが抽出され、ビデオデコーダ203に供給される。ビデオデコーダ203では、TS解析部202で抽出されたビデオのパケットからビデオストリームが再構成され、デコード処理が行われて、非圧縮のビデオデータが得られる。このビデオデータは、映像処理回路204に供給される。
映像処理回路204では、ビデオデコーダ203で得られたビデオデータに対してスケーリング処理、画質調整処理などが行われて、表示用のビデオデータが得られる。この表示用のビデオデータはパネル駆動回路205に供給される。パネル駆動回路205では、表示用のビデオデータに基づいて、表示パネル206を駆動することが行われる。これにより、表示パネル206には、表示用のビデオデータに対応した画像が表示される。
また、TS解析部202では、トランスポートストリームTSからデスクリプタ情報などの各種情報が抽出され、CPU221に送られる。ストリーム構成(1)の場合、各種情報には、アンシラリ・データ・デスクリプタおよび3Dオーディオ・ストリーム・コンフィグ・デスクリプタの情報も含まれる(図16参照)。CPU221では、これらのデスクリプタ情報から、チャネル符号化データを含むメインストリームのユーザデータ領域にオブジェクト符号化データが埋め込まれていることが認識され、また、各グループのオブジェクト符号化データの属性などが認識される。
また、ストリーム構成(2)の場合、各種情報には、3Dオーディオ・ストリーム・コンフィグ・デスクリプタおよび3Dオーディオ・ストリームID・デスクリプタの情報も含まれる(図21参照)。CPU221は、これらのデスクリプタ情報から、各グループのオブジェクト符号化データの属性や、各グループのオブジェクト符号化データがどのサブストリームに含まれているか等が認識される。
TS解析部202では、CPU221の制御のもと、トランスポートストリームTSが有する所定数のオーディオストリームがPIDフィルタで選択的に取り出される。すなわち、ストリーム構成(1)の場合は、メインストリームが取り出される。一方、ストリーム構成(2)の場合は、メインストリームが取り出されると共に、所定数のサブストリームが取り出される。
多重化バッファ211-1〜211-Mでは、それぞれ、TS解析部202で取り出されるオーディオストリーム(メインストリームのみ、あるいはメインストリームおよびサブストリーム)が取り込まれる。コンバイナ212では、オーディオストリームが取り込まれた各多重化バッファから、オーディオフレーム毎に、オーディオストリームが読み出され、3Dオーディオデコーダ213に供給される。
3Dオーディオデコーダ213では、CPU221の制御のもと、チャネル符号化データおよびオブジェクト符号化データが取り出されて、デコード処理が施され、スピーカシステム215の各スピーカを駆動するためのオーディオデータが得られる。この場合、ストリーム構成(1)の場合は、メインストリームからチャネル符号化データが取り出されると共に、そのユーザデータ領域からオブジェクト符号化データが取り出される。一方、ストリーム構成(2)の場合は、メインストリームからチャネル符号化データが取り出されると共に、サブストリームからオブジェクト符号化データが取り出される。
ここで、チャネル符号化データがデコードされるときは、スピーカシステム215のスピーカ構成へのダウンミックスやアップミックスの処理が必要に応じて行われて、各スピーカを駆動するためのオーディオデータが得られる。また、オブジェクト符号化データがデコードされるときは、オブジェクト情報(メタデータ)に基づきスピーカレンダリング(各スピーカへのミキシング割合)が計算され、その計算結果に応じて、オブジェクトのオーディオデータが各スピーカを駆動するためのオーディオデータにミキシングされる。
3Dオーディオデコーダ213で得られた各スピーカを駆動するためのオーディオデータは、音声出力処理回路214に供給される。この音声出力処理回路214では、各スピーカを駆動するためのオーディオデータに対して、D/A変換や増幅等の必要な処理が行われる。そして、処理後のオーディオデータはスピーカシステム215に供給される。これにより、スピーカシステム215からは表示パネル206の表示画像に対応した音響出力が得られる。
図24は、ストリーム構成(1)の場合のオーディオデコード処理を概略的に示している。多重化ストリームであるトランスポートストリームTSがTS解析部202に入力される。TS解析部202では、システムレイヤの解析が行われ、デスクリプタ情報(アンシラリ・データ・デスクリプタおよび3Dオーディオ・ストリーム・コンフィグ・デスクリプタの情報)がCPU221に供給される。
CPU221では、このデスクリプタ情報に基づいて、チャネル符号化データを含むメインストリームのユーザデータ領域にオブジェクト符号化データが埋め込まれていることが認識され、また、各グループのオブジェクト符号化データの属性などが認識される。TS解析部202では、CPU221の制御のもと、メインストリームのパケットがPIDフィルタで選択的に取り出され、多重化バッファ211(211-1〜211-M)に取り込まれる。
3Dオーディオデコーダ213のオーディオチャネルデコーダでは、多重化バッファ211に取り込まれたメインストリームに対する処理が行われる。すなわち、オーディオチャネルデコーダでは、メインストリームからオブジェクト符号化データが配置されたDSEが取り出され、CPU221に送られる。なお、従来の受信機のオーディオチャネルデコーダでは、このDSEは読み捨てられるので、互換性が確保される。
また、オーディオチャネルデコーダでは、メインストリームからチャネル符号化データが取り出されてデコード処理が施され、各スピーカを駆動するためのオーディオデータが得られる。この際、オーディオチャネルデコーダとCPU221との間でチャネル数の情報の送受が行われ、スピーカシステム215のスピーカ構成へのダウンミックスやアップミックスの処理が必要に応じて行われる。
CPU221では、DSEの解析が行われ、その中に配置されているオブジェクト符号化データが3Dオーディオデコーダ213のオーディオオブジェクトデコーダに送られる。オーディオオブジェクトデコーダでは、オブジェクト符号化データがデコードされ、オブジェクトのメタデータおよびオーディオデータが得られる。
オーディオチャネルエンコーダで得られた各スピーカを駆動するためのオーディオデータはミキシング/レンダリング部に供給される。また、オーディオオブジェクトデコーダで得られたオブジェクトのメタデータおよびオーディオデータもミキシング/レンダリング部に供給される。
ミキシング/レンダリング部では、オブジェクトのメタデータに基づき、オブジェクトのオーディオデータのスピーカ出力ターゲットに対する音声空間へのマッピングを計算し、その計算結果をチャンネルデータに加算合成することで、デコード出力とされる。
図25は、ストリーム構成(2)の場合のオーディオデコード処理を概略的に示している。多重化ストリームであるトランスポートストリームTSがTS解析部202に入力される。TS解析部202では、システムレイヤの解析が行われ、デスクリプタ情報(3Dオーディオ・ストリーム・コンフィグ・デスクリプタおよび3Dオーディオ・ストリームID・デスクリプタの情報)がCPU221に供給される。
CPU221では、このデスクリプタ情報に基づいて、これらのデスクリプタ情報から、各グループのオブジェクト符号化データの属性や、各グループのオブジェクト符号化データがどのサブストリームに含まれているか等が認識される。TS解析部202では、CPU221の制御のもと、メインストリームおよび所定数のサブストリームのパケットがPIDフィルタで選択的に取り出され、多重化バッファ211(211-1〜211-M)に取り込まれる。なお、従来の受信機では、サブストリームのパケットはPIDフィルタで取り出されず、メインストリームのみが取り出されるので、互換性が確保される。
3Dオーディオデコーダ213のオーディオチャネルデコーダでは、多重化バッファ211に取り込まれたメインストリームからチャネル符号化データが取り出されてデコード処理が施され、各スピーカを駆動するためのオーディオデータが得られる。この際、オーディオチャネルデコーダとCPU221との間でチャネル数の情報の送受が行われ、スピーカシステム215のスピーカ構成へのダウンミックスやアップミックスの処理が必要に応じて行われる。
また、3Dオーディオデコーダ213のオーディオオブジェクトデコーダでは、多重化バッファ211に取り込まれた所定数のサブストリームから、ユーザの選択などに基づいて必要とされる所定数のグループのオブジェクト符号化データが取り出されてデコード処理が施され、オブジェクトのメタデータおよびオーディオデータが得られる。
オーディオチャネルエンコーダで得られた各スピーカを駆動するためのオーディオデータはミキシング/レンダリング部に供給される。また、オーディオオブジェクトデコーダで得られたオブジェクトのメタデータおよびオーディオデータもミキシング/レンダリング部に供給される。
ミキシング/レンダリング部では、オブジェクトのメタデータに基づき、オブジェクトのオーディオデータのスピーカ出力ターゲットに対する音声空間へのマッピングを計算し、その計算結果をチャンネルデータに加算合成することで、デコード出力とされる。
上述したように、図1に示す送受信システム10において、サービス送信機100は3Dオーディオの伝送データを構成するチャネル符号化データおよびオブジェクト符号化データを持つ所定数のオーディオストリームを送信し、この所定数のオーディオストリームはオブジェクト符号化データがこのオブジェクト符号化データに対応していない受信機では捨てられるように生成されている。そのため、伝送帯域の有効利用を損なうことなく、従来のオーディオの受信機との互換性をもたせて、3Dオーディオの新規サービスを提供することが可能となる。
<2.変形例>
なお、上述実施の形態において、チャネル符号化データの符号化方式がMPEG4 AACである例を示したが、その他の符号化方式、例えばAC3,AC4なども同様に考えられる。図26は、AC3のフレーム(AC3 Synchronization Frame)の構造を示している。「Audblock 5」の“mantissa data”と、「AUX」と、「CRC」との合計サイズが全体の3/8を超えないように、チャネルデータがエンコードされる。AC3の場合、「AUX」のエリアにメタデータMDが挿入される。図27は、AC3のオグジャリデータ(Auxiliary Data)の構成(syntax)を示している。
「auxdatae」が“1”のとき、「aux data」がイネーブルされ、「auxdatal」の14ビット(ビット単位)で示されるサイズのデータが、「auxbits」の中に定義される。その際の「auxbits」のサイズは「nauxbits」に記載される。ストリーム構成(1)の場合、この「auxbits」のフィールドに、上述の図8(a)に示す「metadata ()」が挿入され、その「data_byte」のフィールドに、オブジェクト符号化データが配置される。
図28(a)は、AC4のシンプルトランスポート(Simple Transport)のレイヤの構造を示している。このAC4は、AC3の次世代のオーディオ符号化フォーマットの一つとされている。シンクワード(syncWord)のフィールドと、フレームレングス(frame Length)のフィールドと、符号化データのフィールドとしての「RawAc4Frame」のフィールドと、CRCフィールドが存在する。「RawAc4Frame」のフィールドには、図28(b)に示すように、先頭にTOC(Table Of Content)のフィールドが存在し、その後の所定数のサブストリーム(Substream)のフィールドが存在する。
図29(b)に示すように、サブストリーム(ac4_substream_data())の中には、メタデータ領域(metadata)が存在し、その中に「umd_payloads_substream()」のフィールドが設けられる。ストリーム構成(1)の場合、この「umd_payloads_substream()」のフィールドに、オブジェクト符号化データが配置される。
なお、図29(a)に示すように、TOC(ac4_toc())の中には「ac4_presentation_info()」のフィールドが存在し、さらにその中に「umd_info()」のフィールドが存在し、その中に上述の「umd_payloads_substream())」のフィールドにメタデータの挿入があることが示される。
図30は、「umd_info()」の構成(syntax)を示している。「umd_version」のフィールドは、umdシンタクスのバージョン番号を示す。「K_id」は、‘0x6’として任意の情報をコンテナすることを示す。バージョン番号と「k_id」の値の組み合わせで「umd_payloads_substream()」のペイロードにメタデータの挿入があることを示すものとして定義される。
図31は、「umd_payloads_substream()」の構成(syntax)を示している。「umd_payload_id」の5ビットフィールドは、「object_data_byte」がコンテナされることを示すID値とし、“0”以外の値とされる。「umd_payload_size」の16ビットフィールドは、そのフィールド以後のバイト数を示す。「userdata_synccode」の8ビットフィールドは、メタデータのスタートコードであり、メタデータの内容を示す。例えば、“0x10”は、MPEG−H方式(MPEG-H 3D Audio)のオブジェクト符号データであることを示す。「object_data_byte」の領域に、オブジェクト符号化データが配置される。
また、上述実施の形態においては、チャネル符号化データの符号化方式がMPEG4 AACであり、オブジェクト符号化データの符号化方式がMPEG−H 3D Audioであり、チャネル符号化データとオブジェクト符号化データの符号化方式が異なる例を示した。しかし、これら2つの符号化データの符号化方式が同じである場合も考えられる。例えば、チャネル符号化データの符号化方式がAC4とされ、オブジェクト符号化データの符号化方式もAC4とされる場合などである。
また、上述実施の形態においては、第1の符号化データがチャネル符号化データであり、この第1の符号化データに関連した第2の符号化データがオブジェクト符号化データである例を示した。しかし、第1の符号化データと第2の符号化データの組み合わせは、これに限定されるものではない。本技術は、種々のスケーラブル拡張、例えば、チャンネル数拡張、サンプリングレート拡張を行う場合にも同様に適用できる。
「チャネル数拡張の例」
第1の符号化データとして従来の5.1チャンネルの符号化データを送信し、第2の符号化データとして追加チャンネル分の符号化データを送信する。従来のデコーダは5.1チャネルのエレメントのみデコードし、追加チャンネル対応のデコーダはすべてをデコードする。
「サンプリングレート拡張」
第1の符号化データとして従来のオーディオサンプリングレートによるオーディオサンプルデータの符号化データを送信し、第2の符号化データとしてより高サンプリングレートのオーディオサンプルデータの符号化データを送信する。従来のデコーダは従来のサンプリングレートデータのみデコードし、高サンプリングレート対応のデコーダはすべてをデコードする。
また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG−2 TS)である例を示した。しかし、本技術は、MP4やそれ以外のフォーマットのコンテナで配信されるシステムにも同様に適用できる。例えば、MPEG−DASHベースのストリーム配信システム、あるいは、MMT(MPEG Media Transport)構造伝送ストリームを扱う送受信システムなどである。
また、上述実施の形態においては、第1の符号化データがチャネル符号化データであり、第2の符号化データがオブジェクト符号化データである例を示した。しかし、第2の符号化データが、他のチャネル符号化データ、あるいは、オブジェクト符号化データおよびチャネル符号化データである場合も考えられる。
なお、本技術は、以下のような構成もとることができる。
(1)第1の符号化データおよび該第1の符号化データに関連した第2の符号化データを持つ所定数のオーディオストリームを生成するエンコード部と、
上記生成された所定数のオーディオストリームを含む所定フォーマットのコンテナを送信する送信部を備え、
上記エンコード部は、上記第2の符号化データが該第2の符号化データに対応していない受信機では捨てられるように上記所定数のオーディオストリームを生成する
送信装置。
(2)上記第1の符号化データの符号化方式と上記第2の符号化データの符号化方式とは異なる
前記(1)に記載の送信装置。
(3)上記第1の符号化データはチャネル符号化データであり、上記第2の符号化データはオブジェクト符号化データである
前記(2)に記載の送信装置。
(4)上記第1の符号化データの符号化方式はMPEG4 AACであり、上記第2の符号化データの符号化方式はMPEG−H 3D Audioである
前記(3)に記載の送信装置。
(5)上記エンコード部は、
上記第1の符号化データを持つオーディオストリームを生成すると共に、該オーディオストリームのユーザデータ領域に上記第2の符号化データを埋め込む
前記(1)から(4)のいずれかに記載の送信装置。
(6)上記コンテナのレイヤに、該コンテナに含まれる上記第1の符号化データを持つオーディオストリームのユーザデータ領域に、該第1の符号化データに関連した第2の符号化データの埋め込みがあることを識別する識別情報を挿入する情報挿入部をさらに備える
前記(5)に記載の送信装置。
(7)上記第1の符号化データはチャネル符号化データであり、上記第2の符号化データはオブジェクト符号化データであり、
上記オーディオストリームのユーザデータ領域には、所定数のグループのオブジェクト符号化データが埋め込まれ、
上記コンテナのレイヤに、上記所定数のグループのオブジェクト符号化データのそれぞれの属性を示す属性情報を挿入する情報挿入部をさらに備える
前記(5)または(6)に記載の送信装置。
(8)上記エンコード部は、
上記第1の符号化データを含む第1のオーディオストリームを生成すると共に、上記第2の符号化データを含む所定数の第2のオーディオストリームを生成する
前記(1)から(4)のいずれかに記載の送信装置。
(9)上記所定数の第2のオーディオストリームには、所定数のグループのオブジェクト符号化データが含まれ、
上記コンテナのレイヤに、上記所定数のグループのオブジェクト符号化データのそれぞれの属性を示す属性情報を挿入する情報挿入部をさらに備える
前記(8)に記載の送信装置。
(10)上記情報挿入部は、
上記コンテナのレイヤに、上記所定数のグループのオブジェクト符号化データがそれぞれどの上記第2のオーディオストリームに含まれるかを示すストリーム対応関係情報をさらに挿入する
前記(9)に記載の送信装置。
(11)上記ストリーム対応関係情報は、
上記所定数のグループのオブジェクト符号化データのそれぞれを識別するグループ識別子と上記所定数の第2のオーディオストリームのそれぞれを識別するストリーム識別子との対応関係を示す情報である
前記(10)に記載の送信装置。
(12)上記情報挿入部は、
上記コンテナのレイヤに、上記所定数の第2のオーディオストリームのそれぞれのストリーム識別子を示すストリーム識別子情報をさらに挿入する
前記(11)に記載の送信装置。
(13)第1の符号化データおよび該第1の符号化データに関連した第2の符号化データを持つ所定数のオーディオストリームを生成するエンコードステップと、
送信部により、上記生成された所定数のオーディオストリームを含む所定フォーマットのコンテナを送信する送信ステップを有し、
上記エンコードステップでは、上記第2の符号化データが該第2の符号化データに対応していない受信機では捨てられるように上記所定数のオーディオストリームを生成する
送信方法。
(14)第1の符号化データおよび該第1の符号化データに関連した第2の符号化データを持つ所定数のオーディオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
上記第2の符号化データが該第2の符号化データに対応していない受信機では捨てられるように上記所定数のオーディオストリームが生成されており、
上記コンテナに含まれる上記所定数のオーディオストリームから上記第1の符号化データおよび上記第2の符号化データを抽出して処理する処理部をさらに備える
受信装置。
(15)上記第1の符号化データの符号化方式と上記第2の符号化データの符号化方式とは異なる
前記(14)に記載の受信装置。
(16)上記第1の符号化データはチャネル符号化データであり、上記第2の符号化データはオブジェクト符号化データである
前記(14)または(15)に記載の受信装置。
(17)上記コンテナには、上記第1の符号化データを持つと共に、ユーザデータ領域に上記第2の符号化データが埋め込まれたオーディオストリームが含まれている
前記(14)から(16)のいずれかに記載の受信装置。
(18)上記コンテナには、上記第1の符号化データを含む第1のオーディオストリームと上記第2の符号化データを含む所定数の第2のオーディオストリームが含まれている
前記(14)から(16)のいずれかに記載の受信装置。
(19)受信部により、第1の符号化データおよび該第1の符号化データに関連した第2の符号化データを持つ所定数のオーディオストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
上記第2の符号化データが該第2の符号化データに対応していない受信機では捨てられるように上記所定数のオーディオストリームが生成されており、
上記コンテナに含まれる上記所定数のオーディオストリームから上記第1の符号化データおよび上記第2の符号化データを抽出して処理する処理ステップを有する
受信方法。
本技術の主な特徴は、チャネル符号化データを含むと共にそのユーザデータ領域にオブジェクト符号化データが埋め込まれているオーディオストリームを送信するか、あるいはチャネル符号化データを含むオーディオストリームと共にオブジェクト符号化データを含むオーディオストリームを送信することで、伝送帯域の有効利用を損なうことなく、従来のオーディオの受信機との互換性をもたせて、3Dオーディオの新規サービスを提供可能としたことである(図2参照)。
10・・・送受信システム
100・・・サービス送信機
110A,110B・・・ストリーム生成部
112,122・・・ビデオエンコーダ
113,123・・・オーディオチャネルエンコーダ
114,124-1〜124-N・・・オーディオオブジェクトエンコーダ
115,125・・・TSフォーマッタ
114・・・マルチプレクサ
200・・・サービス受信機
201・・・受信部
202・・・TS解析部
203・・・ビデオデコーダ
204・・・映像処理回路
205・・・パネル駆動回路
206・・・表示パネル
211-1〜211-M・・・多重化バッファ
212・・・コンバイナ
213・・・3Dオーディオデコーダ
214・・・音声出力処理回路
215・・・スピーカシステム
221・・・CPU
222・・・フラッシュROM
223・・・DRAM
224・・・内部バス
225・・・リモコン受信部
226・・・リモコン送信機

Claims (7)

  1. チャネル符号化データおよび該チャネル符号化データに関連したオブジェクト符号化データを持つオーディオストリームを生成するエンコード部と、
    上記生成されたオーディオストリームを含む所定フォーマットのコンテナを送信する送信部を備え、
    上記エンコード部は、上記チャネル符号化データおよび上記オブジェクト符号化データを持つオーディオストリームを、上記チャネル符号化データを持つオーディオストリームを生成すると共に、該オーディオストリームのフレーム毎に存在するユーザデータ領域に、埋め込みデータの種類を示す情報および該埋め込みデータの時系列的な昇順のカウント情報を伴って、上記オブジェクト符号化データを埋め込むことで生成する
    送信装置。
  2. 上記チャネル符号化データの符号化方式はMPEG4 AACであり、上記オブジェクト符号化データの符号化方式はMPEG−H 3D Audioである
    請求項に記載の送信装置。
  3. 上記コンテナのレイヤに、上記オーディオストリームのユーザデータ領域に、上記オブジェクト符号化データの埋め込みがあることを識別する識別情報を挿入する情報挿入部をさらに備える
    請求項に記載の送信装置。
  4. 記オーディオストリームのユーザデータ領域には、所定数のグループの上記オブジェクト符号化データが埋め込まれ、
    上記コンテナのレイヤに、上記所定数のグループのオブジェクト符号化データのそれぞれの属性を示す属性情報を挿入する情報挿入部をさらに備える
    請求項に記載の送信装置。
  5. チャネル符号化データおよび該チャネル符号化データに関連したオブジェクト符号化データを持つオーディオストリームを生成するエンコードステップと、
    送信部により、上記生成されたオーディオストリームを含む所定フォーマットのコンテナを送信する送信ステップを有し、
    上記エンコードステップでは、上記チャネル符号化データを持つオーディオストリームを生成し、該オーディオストリームのフレーム毎に存在するユーザデータ領域に、埋め込みデータの種類を示す情報および該埋め込みデータの時系列的な昇順のカウント情報を伴って、上記オブジェクト符号化データを埋め込む
    送信方法。
  6. チャネル符号化データおよび該チャネル符号化データに関連したオブジェクト符号化データを持つオーディオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
    上記チャネル符号化データおよび上記オブジェクト符号化データを持つオーディオストリームは、上記チャネル符号化データを持つオーディオストリームを生成すると共に、該オーディオストリームのフレーム毎に存在するユーザデータ領域に、埋め込みデータの種類を示す情報および該埋め込みデータの時系列的な昇順のカウント情報を伴って、上記オブジェクト符号化データを埋め込むことで生成されており、
    上記コンテナに含まれるオーディオストリームから上記チャネル符号化データおよび上記オブジェクト符号化データを抽出して処理する処理部をさらに備える
    受信装置。
  7. 受信部により、チャネル符号化データおよび該チャネル符号化データに関連したオブジェクト符号化データを持つオーディオストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
    上記チャネル符号化データおよび上記オブジェクト符号化データを持つオーディオストリームは、上記チャネル符号化データを持つオーディオストリームを生成すると共に、該オーディオストリームのフレーム毎に存在するユーザデータ領域に、埋め込みデータの種類を示す情報および該埋め込みデータの時系列的な昇順のカウント情報を伴って、上記オブジェクト符号化データを埋め込むことで生成されており、
    上記コンテナに含まれるオーディオストリームから上記チャネル符号化データおよび上記オブジェクト符号化データを抽出して処理する処理ステップをさらに有する
    受信方法。
JP2016554075A 2014-10-16 2015-10-13 送信装置、送信方法、受信装置および受信方法 Active JP6729382B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014212116 2014-10-16
JP2014212116 2014-10-16
PCT/JP2015/078875 WO2016060101A1 (ja) 2014-10-16 2015-10-13 送信装置、送信方法、受信装置および受信方法

Publications (2)

Publication Number Publication Date
JPWO2016060101A1 JPWO2016060101A1 (ja) 2017-07-27
JP6729382B2 true JP6729382B2 (ja) 2020-07-22

Family

ID=55746647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016554075A Active JP6729382B2 (ja) 2014-10-16 2015-10-13 送信装置、送信方法、受信装置および受信方法

Country Status (9)

Country Link
US (1) US10142757B2 (ja)
EP (1) EP3208801A4 (ja)
JP (1) JP6729382B2 (ja)
KR (1) KR20170070004A (ja)
CN (1) CN106796797B (ja)
CA (1) CA2963771A1 (ja)
MX (1) MX368685B (ja)
RU (1) RU2700405C2 (ja)
WO (1) WO2016060101A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113921019A (zh) * 2014-09-30 2022-01-11 索尼公司 发送装置、发送方法、接收装置和接收方法
US10475463B2 (en) * 2015-02-10 2019-11-12 Sony Corporation Transmission device, transmission method, reception device, and reception method for audio streams
US10341036B2 (en) * 2015-02-10 2019-07-02 Lg Electronics Inc. Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method
US10447430B2 (en) 2016-08-01 2019-10-15 Sony Interactive Entertainment LLC Forward error correction for streaming data
JP2019533404A (ja) * 2016-09-23 2019-11-14 ガウディオ・ラボ・インコーポレイテッド バイノーラルオーディオ信号処理方法及び装置
RU2020111480A (ru) 2017-10-05 2021-09-20 Сони Корпорейшн Устройство и способ кодирования, устройство и способ декодирования и программа
US10727965B2 (en) * 2017-11-21 2020-07-28 Western Digital Technologies, Inc. System and method for time stamp synchronization
US10719100B2 (en) 2017-11-21 2020-07-21 Western Digital Technologies, Inc. System and method for time stamp synchronization
CN115691518A (zh) 2018-02-22 2023-02-03 杜比国际公司 用于处理嵌入在mpeg-h 3d音频流中的辅媒体流的方法及设备
WO2019197404A1 (en) 2018-04-11 2019-10-17 Dolby International Ab Methods, apparatus and systems for 6dof audio rendering and data representations and bitstream structures for 6dof audio rendering
CN108986829B (zh) * 2018-09-04 2020-12-15 北京猿力未来科技有限公司 数据发送方法、装置、设备及存储介质
JP7314398B2 (ja) * 2019-08-15 2023-07-25 ドルビー・インターナショナル・アーベー 変更オーディオビットストリームの生成及び処理のための方法及び装置
GB202002900D0 (en) * 2020-02-28 2020-04-15 Nokia Technologies Oy Audio repersentation and associated rendering

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4286410B2 (ja) * 1999-11-18 2009-07-01 パナソニック株式会社 記録再生装置
JP2006139827A (ja) * 2004-11-10 2006-06-01 Victor Co Of Japan Ltd 3次元音場情報記録装置及びプログラム
CN102099854B (zh) 2008-07-15 2012-11-28 Lg电子株式会社 处理音频信号的方法和装置
EP2146342A1 (en) 2008-07-15 2010-01-20 LG Electronics Inc. A method and an apparatus for processing an audio signal
EP2154911A1 (en) * 2008-08-13 2010-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An apparatus for determining a spatial output multi-channel audio signal
JP5652642B2 (ja) * 2010-08-02 2015-01-14 ソニー株式会社 データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法
JP5771002B2 (ja) * 2010-12-22 2015-08-26 株式会社東芝 音声認識装置、音声認識方法および音声認識装置を搭載したテレビ受像機
AU2012279349B2 (en) 2011-07-01 2016-02-18 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering
KR102172279B1 (ko) * 2011-11-14 2020-10-30 한국전자통신연구원 스케일러블 다채널 오디오 신호를 지원하는 부호화 장치 및 복호화 장치, 상기 장치가 수행하는 방법
US9473870B2 (en) * 2012-07-16 2016-10-18 Qualcomm Incorporated Loudspeaker position compensation with 3D-audio hierarchical coding
ES2640815T3 (es) * 2013-05-24 2017-11-06 Dolby International Ab Codificación eficiente de escenas de audio que comprenden objetos de audio
US9756448B2 (en) * 2014-04-01 2017-09-05 Dolby International Ab Efficient coding of audio scenes comprising audio objects

Also Published As

Publication number Publication date
US20170289720A1 (en) 2017-10-05
JPWO2016060101A1 (ja) 2017-07-27
MX2017004602A (es) 2017-07-10
EP3208801A1 (en) 2017-08-23
RU2700405C2 (ru) 2019-09-16
EP3208801A4 (en) 2018-03-28
MX368685B (es) 2019-10-11
CN106796797A (zh) 2017-05-31
CA2963771A1 (en) 2016-04-21
KR20170070004A (ko) 2017-06-21
RU2017111691A (ru) 2018-10-08
US10142757B2 (en) 2018-11-27
RU2017111691A3 (ja) 2019-04-18
WO2016060101A1 (ja) 2016-04-21
CN106796797B (zh) 2021-04-16

Similar Documents

Publication Publication Date Title
JP6729382B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP7207447B2 (ja) 受信装置、受信方法、送信装置および送信方法
JP6908168B2 (ja) 受信装置、受信方法、送信装置および送信方法
JP7310849B2 (ja) 受信装置および受信方法
JP7218772B2 (ja) 受信装置および受信方法
JP6841230B2 (ja) 送信装置、送信方法、受信装置および受信方法
US12008999B2 (en) Transmission device, transmission method, reception device, and reception method
KR20100060449A (ko) 수신 시스템 및 오디오 데이터 처리 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6729382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151