JP6699564B2 - 送信装置、送信方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、受信装置および受信方法 Download PDF

Info

Publication number
JP6699564B2
JP6699564B2 JP2016574724A JP2016574724A JP6699564B2 JP 6699564 B2 JP6699564 B2 JP 6699564B2 JP 2016574724 A JP2016574724 A JP 2016574724A JP 2016574724 A JP2016574724 A JP 2016574724A JP 6699564 B2 JP6699564 B2 JP 6699564B2
Authority
JP
Japan
Prior art keywords
packet
audio
stream
data
payload
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016574724A
Other languages
English (en)
Other versions
JPWO2016129412A1 (ja
Inventor
塚越 郁夫
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016129412A1 publication Critical patent/JPWO2016129412A1/ja
Application granted granted Critical
Publication of JP6699564B2 publication Critical patent/JP6699564B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing

Description

本技術は、送信装置、送信方法、受信装置および受信方法に関し、特に、オーディオストリームを取り扱う送信装置等に関する。
従来、立体(3D)音響技術として、符号化サンプルデータをメタデータに基づいて任意の位置に存在するスピーカにマッピングさせてレンダリングする技術が提案されている(例えば、特許文献1参照)。
特表2014−520491号公報
例えば、5.1チャネル、7.1チャネルなどのチャネルデータと共に、符号化サンプルデータおよびメタデータからなるオブジェクトデータを送信し、受信側において臨場感を高めた音響再生を可能とすることが考えられる。従来、チャネルデータおよびオブジェクトデータを3Dオーディオ(MPEG-H 3D Audio)の符号化方式で符号化して得られた符号化データを含むオーディオストリームを受信側に送信することが提案されている。
このオーディオストリームを構成するオーディオフレームは、符号化データをペイロード情報として持つ“Frame”のパケット(第1のパケット)と、この“Frame”のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ“Config”のパケット(第2のパケット)を含む構成とされている。
従来、“Frame”のパケットに、対応する“Config”のパケットとの関連づけ情報が挿入されていない。そのため、オーディオフレームに含める複数の“Frame”のパケットの順番には、デコード処理を適切に行うために、ペイロードが持つ符号化データの種類に応じた制約がある。従って、例えば、受信側で複数のオーディオストリームを統合して1つのオーディオストリームに統合する際、この制約を守る必要があり、処理負荷は大きくなる。
本技術の目的は、受信側で複数のオーディオストリームを統合する際の処理負荷の軽減を図ることにある。
本技術の概念は、
所定数のオーディオストリームを生成するエンコード部と、
上記所定数のオーディオストリームを含む所定フォーマットのコンテナを送信する送信部を備え、
上記オーディオストリームは、符号化データをペイロード情報として持つ第1のパケットと、該第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
関連する上記第1のパケットおよび上記第2のパケットのペイロードには共通のインデックス情報が挿入される
送信装置にある。
本技術において、エンコード部により、所定数のオーディオストリームが生成される。オーディオストリームは、符号化データをペイロード情報として持つ第1のパケットと、この第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなっている。例えば、第1のパケットがペイロード情報として持つ符号化データは、チャネル符号化データまたはオフジェクト符号化データである、ようにされてもよい。関連する第1のパケットおよび第2のパケットのペイロードには共通のインデックス情報が挿入される。
送信部により、この所定数のオーディオストリームを含む所定フォーマットのコンテナが送信される。例えば、コンテナは、デジタル放送規格で採用されているトランスポートストリーム(MPEG−2 TS)であってもよい。また、例えば、コンテナは、インターネットの配信などで用いられるMP4、あるいはそれ以外のフォーマットのコンテナであってもよい。
このように本技術においては、関連する第1のパケットおよび第2のパケットのペイロードには共通のインデックス情報が挿入されるものである。そのため、オーディオフレームに含める複数の第1のパケットの順番が、ペイロードが持つ符号化データの種類に応じた順番の規定によって制限されなくなる。従って、例えば、受信側で複数のオーディオストリームを統合して1つのオーディオストリームを生成する際、順番の規定を守る必要がなく、処理負荷の軽減を図ることが可能となる。
また、本技術の他の概念は、
所定数のオーディオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
上記オーディオストリームは、符号化データをペイロード情報として持つ第1のパケットと、該第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
関連する上記第1のパケットおよび上記第2のパケットのペイロードには共通のインデックス情報が挿入されており、
上記所定数のオーディオストリームから一部または全部の上記第1のパケットおよび上記第2のパケットを取り出し、上記第1のパケットおよび上記第2のパケットのペイロード部に挿入されている上記インデックス情報を利用して1つのオーディオストリームに統合するストリーム統合部と、
上記1つのオーディオストリームを処理する処理部をさらに備える
受信装置にある。
本技術において、受信部により、所定数のオーディオストリームを含む所定フォーマットのコンテナが受信される。オーディオストリームは、符号化データをペイロード情報として持つ第1のパケットと、この第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなっている。そして、関連する第1のパケットおよび第2のパケットのペイロードには共通のインデックス情報が挿入されている。
ストリーム統合部により、所定数のオーディオストリームから一部または全部の第1のパケットおよび第2のパケットが取り出され、第1のパケットおよび第2のパケットのペイロード部に挿入されているインデックス情報が利用されて1つのオーディオストリームに統合される。この場合、関連する第1のパケットおよび第2のパケットのペイロードには共通のインデックス情報の挿入があることから、オーディオフレームに含める複数の第1のパケットの順番が、ペイロードが持つ符号化データの種類に応じた順番の規定に制限されず、各オーディオストリームの構成を分解することなく統合される。
処理部により、1つのオーディオストリームが処理される。例えば、処理部は、1つのオーディオストリームに対してデコード処理を施す、ようにされてもよい。また、処理部は、1つのオーディオストリームを外部機器に送信する、ようにされてもよい。
このように本技術においては、所定数のオーディオストリームから取り出された一部または全部の第1のパケットおよび第2のパケットが、第1のパケットおよび第2のパケットのペイロード部に挿入されているインデックス情報が利用されて1つのオーディオストリームに統合される。そのため、各オーディオストリームの構成を分解することなく統合でき、処理負荷の軽減を図ることが可能となる。
本技術によれば、受信側で複数のオーディオストリームを統合する際の処理負荷の軽減を図ることができる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
実施の形態としての送受信システムの構成例を示すブロック図である。 3Dオーディオの伝送データにおけるオーディオフレーム(1024サンプル)の構造を示す図である。 従来および実施の形態におけるオーディオストリームの構成例を説明するための図である。 “Config”および“Frame”の構成例を概略的に示す図である。 3Dオーディオの伝送データの構成例を示す図である。 3ストリームで送信する場合におけるオーディオフレームの構成例を概略的に示す図である。 サービス送信機が備えるストリーム生成部の構成例を示すブロック図である。 各オーディオストリームを構成するオーディオフレームを説明するための図である。 サービス受信機の構成例を示すブロック図である。 エレメント毎に“Frame”と“Config”がインデックス情報で紐づけされていない場合の統合処理の一例を説明するための図である。 エレメント毎に“Frame”と“Config”がインデックス情報で紐づけされている場合の統合処理の一例を説明するための図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[送受信システムの構成例]
図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、サービス送信機100とサービス受信機200により構成されている。サービス送信機100は、トランスポートストリームTSを、放送波あるいはネットのパケットに載せて送信する。このトランスポートストリームTSは、ビデオストリームの他に、所定数、つまり1つまたは複数のオーディオストリームを有している。
ここで、オーディオストリームは、符号化データをペイロード情報として持つ第1のパケット(“Frame”のパケット)と、この第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケット(“Config”のパケット)を含むオーディオフレームからなり、関連する第1のパケットおよび第2のパケットのペイロードには共通のインデックス情報が挿入されている。
図2は、この実施の形態で取り扱う3Dオーディオの伝送データにおけるオーディオフレーム(1024サンプル)の構造例を示している。このオーディオフレームは、複数のMPEGオーディオストリームパケット(mpeg Audio Stream Packet)からなっている。各MPEGオーディオストリームパケットは、ヘッダ(Header)とペイロード(Payload)により構成されている。
ヘッダは、パケットタイプ(Packet Type)、パケットラベル(Packet Label)、パケットレングス(Packet Length)などの情報を持つ。ペイロードには、ヘッダのパケットタイプで定義されたペイロード情報が配置される。このペイロード情報には、同期スタートコードに相当する“SYNC”と、3Dオーディオの伝送データの実際のデータである“Frame”と、この“Frame”の構成を示す“Config”が存在する。
“Frame”には、3Dオーディオの伝送データを構成するチャネル符号化データとオブジェクト符号化データが含まれる。なお、チャネル符号化データのみが含まれる場合、あるいはオブジェクト符号化データのみが含まれる場合もある。
ここで、チャネル符号化データは、SCE(Single Channel Element)、CPE(Channel Pair Element)、LFE(Low Frequency Element)などの符号化サンプルデータで構成される。また、オブジェクト符号化データは、SCE(Single Channel Element)の符号化サンプルデータと、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータにより構成される。このメタデータは、エクステンションエレメント(Ext_element)として含まれる。
この実施の形態において、“Frame”のそれぞれに、関連する“Config”を識別するための識別情報が挿入される。すなわち、関連する“Frame”と“Config”には、共通のインデックス情報が挿入される。
図3(a)は、従来のオーディオストリームの構成例を示している。“Config”として、SCEの“Frame”のエレメントに対応する構成情報“SCE_config”が存在する。また、“Config”として、CPEの“Frame”に対応する構成情報“CPE_config”が存在する。さらに、“Config”として、EXEの“Frame”に対応する構成情報“EXE_config”が存在する。
この場合、各エレメントに対応した“Config”と、各エレメントの“Frame”を関連づける情報が、当該“Config”や“Frame”には挿入されていない。そのため、デコード処理が適切に行われるようにするために、エレメントの順番が、SCE→CPE→EXEのように規定される。つまり、図3(a´)に示すようなCPE→SCE→EXEのような順番とすることはできない。
図3(b)は、この実施の形態におけるオーディオストリームの構成例を示している。“Config”として、SCEの“Frame”のエレメントに対応する構成情報“SCE_config”が存在し、この構成情報“SCE_config”には、エレメントインデックスとして“Id0”が付加される。
また、“Config”として、CPEの“Frame”に対応する構成情報“CPE_config”が存在し、この構成情報“CPE_config”には、エレメントインデックスとして“Id1”が付加される。また、“Config”として、EXEの“Frame”に対応する構成情報“EXE_config”が存在し、この構成情報“EXE_config”には、エレメントインデックスとして“Id2”が付加される。
また、各“Frame”には、関連する“Config”と共通のエレメントインデックスが付加される。すなわち、SCEの“Frame”には、エレメントインデックスとして“Id0”が付加される。また、CPEの“Frame”には、エレメントインデックスとして“Id1”が付加される。また、また、EXEの“Frame”には、エレメントインデックスとして“Id2”が付加される。
この場合、エレメント毎に“Config”と“Frame”がインデックス情報で紐づけされるので、エレメントの順番が、順番の規定によって制限されることがなくなる。したがって、SCE→CPE→EXEのような順番とするだけでなく、図3(b´)に示すようなCPE→SCE→EXEのような順番とすることも可能となる。
図4(a)は、“Config”の構成例を概略的に示している。“mpeg3daConfig()”が最上位の概念で、その下にデコードするための“mpeg3daDecoderConfig()”がある。さらに、その下に、“Frame”に格納される各エレメントに対応した“Config()”が存在し、それぞれにエレメントインデックス(Element_index)が挿入される。
例えば、“mpegh3daSingleChannelElementConfig()”はSCEのエレメントに対応し、“mpegh3daChannelPairElementConfig()”はCPEのエレメントに対応し、“mpegh3daLfeElementConfig()”はLFEのエレメントに対応し、“mpegh3daExtElementConfig()”はEXEのエレメントに対応している。
図4(b)は、“Frame”の構成例を概略的に示している。“mpeg3daFrame()”が最上位の概念で、その下に、各エレメントの実体である“Element()”が存在し、それぞれにエレメントインデックス(Element_index)が挿入される。例えば、“mpegh3daSingleChannelElement()”はSCEのエレメントであり、“mpegh3daChannlePairElement()”はCPEのエレメントであり、“mpegh3daLfeElement()”はLFEのエレメントであり、“mpegh3daExtElement()”はEXEのエレメントである。
図5は、3Dオーディオの伝送データの構成例を示している。この例では、チャネル符号化データのみからなる第1のデータと、オブジェクト符号化データのみからなる第2のデータと、チャネル符号化データおよびオフジェクト符号化データからなる第3のデータとからなっている。
第1のデータのチャネル符号化データは、5.1チャネルのチャネル符号化データであり、SCE1,CPE1,CPE2,LFE1の各符号化サンプルデータからなっている。
第2のデータのオブジェクト符号化データは、イマーシブオーディオオブジェクト(Immersive audio object)の符号化データである。このイマーシブオーディオオブジェクト符号化データは、イマーシブサウンドのためのオブジェクト符号化データであり、符号化サンプルデータSCE2と、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータEXElとからなっている。
第3のデータに含まれるチャネル符号化データは、2チャネル(ステレオ)のチャネル符号化データであり、CPE3の符号化サンプルデータからなっている。また、この第3のデータに含まれるオブジェクト符号化データは、スピーチランゲージオブジェクト符号化データであり、符号化サンプルデータSCE3と、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータEXE2とからなっている。
符号化データは、種類別にグループ(Group)という概念で区別される。図示の例では、5.1チャネルの符号化チャネルデータはグループ1とされ、イマーシブオーディオオブジェクト符号化データはグループ2とされ、2チャネル(ステレオ)のチャネル符号化データはグループ3とされ、スピーチランゲージオブジェクト符号化データはグループ4とされている。
また、受信側においてグループ間で選択できるものはスイッチグループ(SW Group)に登録されて符号化される。また、グループを束ねてプリセットグループ(preset Group)とされ、ユースケースに応じた再生が可能とされる。図示の例では、グループ1、グループ2およびグループ3が束ねられてプリセットグループ1とされ、グループ1、グループ2およびグループ4が束ねられてプリセットグループ2とされている。
図1に戻って、サービス送信機100は、上述したように複数のグループの符号化データを含む3Dオーディオの伝送データを、1ストリーム、あるいは複数ストリーム(Multiple stream)で送信する。この実施の形態では、3ストリームで送信する。
図6は、図5の3Dオーディオの伝送データの構成例において、3ストリームで送信する場合におけるオーディオフレームの構成例を概略的に示している。この場合、PID1で識別される第1のストリームに、“SYNC”および“Config”と共に、チャネル符号化データのみからなる第1のデータが含まれる。
また、PID2で識別される第2のストリームに、“SYNC”および“Config”と共に、オブジェクト符号化データのみからなる第2のデータが含まれる。また、PID3で識別される第3のストリームに、“SYNC”および“Config”と共に、チャネル符号化データおよびオフジェクと符号化データからなる第3のデータが含まれる。
図1に戻って、サービス受信機200は、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSは、ビデオストリームの他に、所定数、この実施の形態では、3つのオーディオストリームを有している。
上述したように、オーディオストリームは、符号化データをペイロード情報として持つ第1のパケット(“Frame”のパケット)と、この第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケット(“Config”のパケット)を含むオーディオフレームからなり、関連する第1のパケットおよび第2のパケットのペイロードには共通のインデックス情報が挿入されている。
サービス受信機200は、3つのオーディオストリームから一部または全部の第1のパケットおよび第2のパケットを取り出し、第1のパケットおよび第2のパケットのペイロード部に挿入されているインデックス情報を利用して1つのオーディオストリームに統合する。そして、サービス受信機200は、この1つのオーディオストリームを処理する。例えば、この1つのオーディオストリームに対してデコード処理を施し、3Dオーディオのオーディオ出力を得る。また、例えば、この1つのオーディオストリームを外部機器に送信する。
[サービス送信機のストリーム生成部]
図7は、サービス送信機100が備えるストリーム生成部110の構成例を示している。このストリーム生成部110は、ビデオエンコーダ112と、3Dオーディオエンコーダ113と、マルチプレクサ114を有している。
ビデオエンコーダ112は、ビデオデータSVを入力し、このビデオデータSVに対して符号化を施し、ビデオストリーム(ビデオエレメンタリストリーム)を生成する。3Dオーディオエンコーダ113は、オーディオデータSAとして、必要とするチャネルデータおよびオブジェクトデータを入力する。
3Dオーディオエンコーダ113は、オーディオデータSAに対して符号化を施し、3Dオーディオの伝送データを得る。この3Dオーディオの伝送データには、図5に示すように、チャネル符号化データのみからなる第1のデータ(グループ1のデータ)と、オブジェクト符号化データのみからなる第2のデータ(グループ2のデータ)と、チャネル符号化データおよびオフジェクと符号化データからなる第3のデータ(グループ3,4のデータ)が含まれる。
そして、3Dオーディオエンコーダ113は、第1のデータを含む第1のオーディオストリーム(Stream 1)と、第2のデータを含む第2のオーディオストリーム(Stream 2)と、第3のデータを含む第3のオーディオストリーム(Stream 3)を生成する(図6参照)。
図8(a)は、第1のオーディオストリーム(Stream 1)を構成するオーディオフレーム(Audio Frame)の構成を示している。SCE1,CPE1,CPE2,LFE1の“Frame”と、各“Frame”に対応した“Config”が存在する。SCE1の“Frame”と、それに対応した“Config”には、共通のエレメントインデックスとして“Id0”が挿入される。CPE1の“Frame”と、それに対応した“Config”には、共通のエレメントインデックスとして“Id1”が挿入付加される。
また、CPE2の“Frame”と、それに対応した“Config”には、共通のエレメントインデックスとして“Id2”が挿入される。また、LFE1の“Frame”と、それに対応した“Config”には、共通のエレメントインデックスとして“Id3”が挿入される。なお、“Config”および“Frame”のパケットラベル(PL)の値は、この第1のオーディオストリーム(Stream 1)では全て“PL1”とされる。
図8(b)は、第2のオーディオストリーム(Stream 2)を構成するオーディオフレーム(Audio Frame)の構成を示している。SCE2,EXE1の“Frame”と、それらの“Frame”に対応した“Config”が存在する。これらの“Frame”、“Config”には、共通のエレメントインデックスとして“Id4”が挿入される。なお、“Config”および“Frame”のパケットラベル(PL)の値は、この第2のオーディオストリーム(Stream 2)では全て“PL2”とされる。
図8(c)は、第3のオーディオストリーム(Stream 3)を構成するオーディオフレーム(Audio Frame)の構成を示している。CPE3,SCE3,EXE2の“Frame”と、CPE3の“Frame”に対応した“Config”と、SCE3,EXE2の“Frame”に対応した“Config”が存在する。CPE3の“Frame”と、それに対応した“Config”には、共通のエレメントインデックスとして“Id5”が挿入される。
また、SCE3,EXE2“Frame”と、それらの“Frame”に対応した“Config”には、共通のエレメントインデックスとして“Id6”が挿入される。なお、“Config”および“Frame”のパケットラベル(PL)の値は、この第3のオーディオストリーム(Stream 3)では全て“PL3”とされる。
図7に戻って、マルチプレクサ114は、ビデオエンコーダ112から出力されるビデオストリームおよびオーディオエンコーダ113から出力される3つのオーディオストリームを、それぞれ、PESパケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
図7に示すストリーム生成部110の動作を簡単に説明する。ビデオデータは、ビデオエンコーダ112に供給される。このビデオエンコーダ112では、ビデオデータSVに対して符号化が施され、符号化ビデオデータを含むビデオストリームが生成される。
オーディオデータSAは、3Dオーディオエンコーダ113に供給される。このオーディオデータSAには、チャネルデータと、オブジェクトデータが含まれる。3Dオーディオエンコーダ113では、オーディオデータSAに対して符号化が施され、3Dオーディオの伝送データが得られる。
この3Dオーディオの伝送データには、チャネル符号化データのみからなる第1のデータ(グループ1のデータ)と、オブジェクト符号化データのみからなる第2のデータ(グループ2のデータ)と、チャネル符号化データおよびオフジェクと符号化データからなる第3のデータ(グループ3,4のデータ)が含まれる(図5参照)。
そして、この3Dオーディオエンコーダ113では、3つのオーディオストリームが生成される(図6、図8参照)。この場合、各オーディオストリームにおいて、同一のエレメントに係る“Frame”と“Config”に共通のインデックス情報が挿入される。これにより、エレメント毎に“Frame”と“Config”がインデックス情報で紐づけされる。
ビデオエンコーダ112で生成されたビデオストリームは、マルチプレクサ114に供給される。また、オーディオエンコーダ113で生成された3つのオーディオストリームは、マルチプレクサ114に供給される。マルチプレクサ114では、各エンコーダから供給されるストリームがPESパケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。
[サービス受信機の構成例]
図9は、サービス受信機200の構成例を示している。このサービス受信機200は、CPU221と、フラッシュROM222と、DRAM223と、内部バス224と、リモコン受信部225と、リモコン送信機226を有している。
また、このサービス受信機200は、受信部201と、デマルチプレクサ202と、ビデオデコーダ203と、映像処理回路204と、パネル駆動回路205と、表示パネル206を有している。また、このサービス受信機200は、多重化バッファ211-1〜211-Nと、コンバイナ212と、3Dオーディオデコーダ213と、音声出力処理回路214と、スピーカシステム215と、配信インタフェース232を有している。
CPU221は、サービス受信機200の各部の動作を制御する。フラッシュROM222は、制御ソフトウェアの格納およびデータの保管を行う。DRAM223は、CPU221のワークエリアを構成する。CPU221は、フラッシュROM222から読み出したソフトウェアやデータをDRAM223上に展開してソフトウェアを起動させ、サービス受信機200の各部を制御する。
リモコン受信部225は、リモコン送信機226から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU221に供給する。CPU221は、このリモコンコードに基づいて、サービス受信機200の各部を制御する。CPU221、フラッシュROM222およびDRAM223は、内部バス224に接続されている。
受信部201は、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSは、ビデオストリームの他に、3Dオーディオの伝送データを構成する3つのオーディオストリームを有している(図6、図8参照)。
デマルチプレクサ202は、トランスポートストリームTSからビデオストリームのパケットを抽出し、ビデオデコーダ203に送る。ビデオデコーダ203は、デマルチプレクサ202で抽出されたビデオのパケットからビデオストリームを再構成し、デコード処理を行って非圧縮のビデオデータを得る。
映像処理回路204は、ビデオデコーダ203で得られたビデオデータに対してスケーリング処理、画質調整処理などを行って、表示用のビデオデータを得る。パネル駆動回路205は、映像処理回路204で得られる表示用の画像データに基づいて、表示パネル206を駆動する。表示パネル206は、例えば、LCD(Liquid Crystal Display)、有機ELディスプレイ(organic electroluminescence display)などで構成されている。
また、デマルチプレクサ202は、CPU221の制御のもと、トランスポートストリームTSが有する所定数のオーディオストリームのうち、スピーカ構成および視聴者(ユーザ)選択情報に適合するグループの符号化データを含む一つまたは複数のオーディオストリームのパケットをPIDフィルタで選択的に取り出す。
多重化バッファ211-1〜211-Nは、それぞれ、デマルチプレクサ202で取り出される各オーディオストリームを取り込む。ここで、多重化バッファ211-1〜211-Nの個数Nとしては必要十分な個数とされるが、実際の動作では、デマルチプレクサ202で取り出されるオーディオストリームの数だけ用いられることになる。
コンバイナ212は、多重化バッファ211-1〜211-Nのうちデマルチプレクサ202で取り出される各オーディオストリームがそれぞれ取り込まれた多重化バッファから、オーディオフレーム毎に、一部または全部の“Config”、“Frame”のパケットを取り出し、1つのオーディオストリームに統合する。
この場合、各オーディオストリームにおいて、同一のエレメントに係る“Frame”と“Config”に共通のインデックス情報が挿入されている、つまりエレメント毎に“Frame”と“Config”がインデックス情報で紐づけされている。そのため、エレメントの順番が規定によって制限されることがなくなることから、コンバイナ212は、エレメントの順番が規定通りとするためにオーディオストリームの構成を分解するということが必要なく、簡便なストリーム合成が可能となる。
図10は、エレメント毎に“Frame”と“Config”がインデックス情報で紐づけされていない場合の統合処理の一例を示している。この例は、第1のオーディオストリーム(Stream 1)に含まれるグループ1のデータと、第2のオーディオストリーム(Stream 2)に含まれるグループ2のデータと、第3のオーディオストリーム(Stream 3)に含まれるグループ3のデータを統合する例である。
この場合、エレメント毎に“Frame”と“Config”が紐づけされていないので、エレメントの順番が、順番の規定に制限される。図10(a1)の合成ストリームは、各オーディオストリームの構成を分解することなく統合した例である。この場合、矢印で示したLFE1とCPE3の箇所で、エレメントの順番の規定に違反したものとなる。この場合には、各エレメントを解析し、図10(a2)の合成ストリームに示すように、第1のオーディオストリームの構成を分解し、第3のオーディオストリームのエレメントを割り込ませて、CPE3→LFE1の順番とされる必要がある。
図11は、エレメント毎に“Frame”と“Config”がインデックス情報で紐づけされている場合の統合処理の一例を示している。この例も、第1のオーディオストリーム(Stream 1)に含まれるグループ1のデータと、第2のオーディオストリーム(Stream 2)に含まれるグループ2のデータと、第3のオーディオストリーム(Stream 3)に含まれるグループ3のデータを統合する例である。
この場合、エレメント毎に“Frame”と“Config”がインデックス情報で紐づけされているので、エレメントの順番が、順番の規定に制限されない。図11(a1)の合成ストリームは、各オーディオストリームの構成を分解することなく統合した一例である。図11(a1)の合成ストリームは、各オーディオストリームの構成を分解することなく統合した他の一例である。
図9に戻って、3Dオーディオデコーダ213は、コンバイナ212で統合して得られた1つのオーディオストリームにデコード処理を施し、各スピーカを駆動するためのオーディオデータを得る。音声出力処理回路214は、各スピーカを駆動するためのオーディオデータに対して、D/A変換や増幅等の必要な処理を行って、スピーカシステム215に供給する。スピーカシステム215は、複数チャネル、例えば2チャネル、5.1チャネル、7.1チャネル、22.2チャネルなどの複数のスピーカを備える。
配信インタフェース232は、コンバイナ212で統合して得られた1つのオーディオストリームを、例えば、構内ネットワーク接続されたデバイス300に配信(送信)する。この構内ネットワーク接続は、イーサネット接続、“WiFi”あるいは“Bluetooth”などのワイヤレス接続を含む。なお、「WiFi」、「Bluetooth」は、登録商標である。
また、デバイス300は、サラウンドスピーカ、セカンドディスプレイ、ネットワーク端末に付属のオーディオ出力装置を含む。このデバイス300は、3Dオーディオデコーダ213と同様のデコード処理を行って、所定数のスピーカを駆動するためのオーディオデータを得る。
図9に示すサービス受信機200の動作を簡単に説明する。受信部201では、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSが受信される。このトランスポートストリームTSには、ビデオストリームの他に、3Dオーディオの伝送データを構成する3つのオーディオストリームが含まれている(図6、図8参照)。このトランスポートストリームTSは、デマルチプレクサ202に供給される。
デマルチプレクサ202では、トランスポートストリームTSからビデオストリームのパケットが抽出され、ビデオデコーダ203に供給される。ビデオデコーダ203では、デマルチプレクサ202で抽出されたビデオのパケットからビデオストリームが再構成され、デコード処理が行われて、非圧縮のビデオデータが得られる。このビデオデータは、映像処理回路204に供給される。
映像処理回路204では、ビデオデコーダ203で得られたビデオデータに対してスケーリング処理、画質調整処理などが行われて、表示用のビデオデータが得られる。この表示用のビデオデータはパネル駆動回路205に供給される。パネル駆動回路205では、表示用のビデオデータに基づいて、表示パネル206を駆動することが行われる。これにより、表示パネル206には、表示用のビデオデータに対応した画像が表示される。
また、デマルチプレクサ202では、CPU221の制御のもと、トランスポートストリームTSが有する所定数のオーディオストリームのうち、スピーカ構成および視聴者選択情報に適合するグループの符号化データを含む1つまたは複数のオーディオストリームのパケットがPIDフィルタで選択的に取り出される。
デマルチプレクサ202で取り出されたオーディオストリームは、多重化バッファ211-1〜211-Nのうち対応する多重化バッファに取り込まれる。コンバイナ212では、多重化バッファ211-1〜211-Nのうちデマルチプレクサ202で取り出される各オーディオストリームがそれぞれ取り込まれた多重化バッファから、オーディオフレーム毎に、一部または全部の“Config”、“Frame”のパケットが取り出されて、1つのオーディオストリームに統合される。
この場合、各オーディオストリームにおいて、エレメント毎に“Frame”と“Config”がインデックス情報で紐づけされているので、エレメントの順番が規定によって制限されない。そのため、コンバイナ212では、エレメントの順番を規定通りとするためにオーディオストリームの構成を分解するということが必要なく、簡便なストリーム合成が行われる(図11(b1),(b2)参照)。
コンバイナ212で統合して得られた1つのオーディオストリームは、3Dオーディオデコーダ213に供給される。3Dオーディオデコーダ213では、このオーディオストリームにデコード処理が施されて、スピーカシステム215を構成する各スピーカを駆動するためのオーディオデータが得られる。
このオーディオデータは、音声出力処理回路214に供給される。この音声出力処理回路214では、各スピーカを駆動するためのオーディオデータに対して、D/A変換や増幅等の必要な処理が行われる。そして、処理後のオーディオデータはスピーカシステム215に供給される。これにより、スピーカシステム215からは表示パネル206の表示画像に対応した音響出力が得られる。
また、コンバイナ212で統合して得られたオーディオストリームは配信インタフェース232に供給される。配信インタフェース232では、このオーディオストリームが、構内ネットワーク接続されたデバイス300に配信(送信)される。デバイス300では、オーディオストリームに対してデコード処理が施され、所定数のスピーカを駆動するためのオーディオデータが得られる。
上述したように、図1に示す送受信システム10において、サービス送信機100は、3Dオーディオエンコードでオーディオストリームを生成するに当たって、同一のエレメントに係る“Frame”と“Config”に共通のインデックス情報を挿入するものである。そのため、受信側で複数のオーディオストリームを統合して1つのオーディオストリームにする際、順番の規定を守る必要がなく、処理負荷の軽減を図ることが可能となる。
<2.変形例>
なお、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG−2 TS)である例を示した。しかし、本技術は、MP4やそれ以外のフォーマットのコンテナで配信されるシステムにも同様に適用できる。例えば、MPEG−DASHベースのストリーム配信システム、あるいは、MMT(MPEG Media Transport)構造伝送ストリームを扱う送受信システムなどである。
なお、本技術は、以下のような構成もとることができる。
(1)所定数のオーディオストリームを生成するエンコード部と、
上記所定数のオーディオストリームを含む所定フォーマットのコンテナを送信する送信部を備え、
上記オーディオストリームは、符号化データをペイロード情報として持つ第1のパケットと、該第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
関連する上記第1のパケットおよび上記第2のパケットのペイロードには共通のインデックス情報が挿入される
送信装置にある。
(2)上記第1のパケットがペイロード情報として持つ符号化データは、チャネル符号化データまたはオブジェクト符号化データである
前記(1)に記載の送信装置。
(3)所定数のオーディオストリームを生成するエンコードステップと、
送信部により、上記所定数のオーディオストリームを含む所定フォーマットのコンテナを送信する送信ステップを有し、
上記オーディオストリームは、符号化データをペイロード情報として持つ第1のパケットと、該第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
関連する上記第1のパケットおよび上記第2のパケットのペイロードには共通のインデックス情報が挿入される
送信方法。
(4)所定数のオーディオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
上記オーディオストリームは、符号化データをペイロード情報として持つ第1のパケットと、該第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
関連する上記第1のパケットおよび上記第2のパケットのペイロードには共通のインデックス情報が挿入されており、
上記所定数のオーディオストリームから一部または全部の上記第1のパケットおよび上記第2のパケットを取り出し、上記第1のパケットおよび上記第2のパケットのペイロード部に挿入されている上記インデックス情報を利用して1つのオーディオストリームに統合するストリーム統合部と、
上記1つのオーディオストリームを処理する処理部をさらに備える
受信装置。
(5)上記処理部は、上記1つのオーディオストリームに対してデコード処理を施す
前記(4)に記載の受信装置。
(6)上記処理部は、上記1つのオーディオストリームを外部機器に送信する
前記(4)または(5)に記載の受信装置。
(7)受信部により、所定数のオーディオストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
上記オーディオストリームは、符号化データをペイロード情報として持つ第1のパケットと、該第1のパケットのペイロード情報の構成を示す構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
関連する上記第1のパケットおよび上記第2のパケットのペイロードには共通のインデックス情報が挿入されており、
上記所定数のオーディオストリームから一部または全部の上記第1のパケットおよび上記第2のパケットを取り出し、上記第1のパケットおよび上記第2のパケットのペイロード部に挿入されている上記インデックス情報を利用して1つのオーディオストリームに統合するストリーム統合ステップと、
上記1つのオーディオストリームを処理する処理ステップをさらに有する
受信方法。
本技術の主な特徴は、3Dオーディオエンコードでオーディオストリームを生成するに当たって、同一のエレメントに係る“Frame”と“Config”に共通のインデックス情報を挿入することで、受信側のストリーム統合処理の処理負荷を軽減可能としたことである(図3、図8参照)。
10・・・送受信システム
100・・・サービス送信機
110・・・ストリーム生成部
112・・・ビデオエンコーダ
113・・・3Dオーディオエンコーダ
114・・・マルチプレクサ
200・・・サービス受信機
201・・・受信部
202・・・デマルチプレクサ
203・・・ビデオデコーダ
204・・・映像処理回路
205・・・パネル駆動回路
206・・・表示パネル
211-1〜211-N・・・多重化バッファ
212・・・コンバイナ
213・・・3Dオーディオデコーダ
214・・・音声出力処理回路
215・・・スピーカシステム
221・・・CPU
222・・・フラッシュROM
223・・・DRAM
224・・・内部バス
225・・・リモコン受信部
226・・・リモコン送信機
232・・・配信インタフェース
300・・・デバイス

Claims (7)

  1. 所定数のオーディオストリームを生成するエンコード部と、
    上記所定数のオーディオストリームを含む所定フォーマットのコンテナを送信する送信部を備え、
    上記オーディオストリームは、符号化データを構成するエレメントをペイロード情報として持つ1つ以上の第1のパケットと、上記1つ以上の第1のパケットが持つ各エレメントに対応する構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
    1つ以上の第1のパケットおよび上記第2のパケットのペイロードには上記各エレメントと上記各エレメントに対応する構成情報を紐づけるための共通のインデックス情報が挿入される
    送信装置。
  2. 上記第1のパケットがペイロード情報として持つ符号化データは、チャネル符号化データまたはオブジェクト符号化データである
    請求項1に記載の送信装置。
  3. 所定数のオーディオストリームを生成するエンコードステップと、
    送信部により、上記所定数のオーディオストリームを含む所定フォーマットのコンテナを送信する送信ステップを有し、
    上記オーディオストリームは、符号化データを構成するエレメントをペイロード情報として持つ1つ以上の第1のパケットと、上記1つ以上の第1のパケットが持つ各エレメントに対応する構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
    1つ以上の第1のパケットおよび上記第2のパケットのペイロードには上記各エレメントと上記各エレメントに対応する構成情報を紐づけるための共通のインデックス情報が挿入される
    送信方法。
  4. 所定数のオーディオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
    上記オーディオストリームは、符号化データを構成するエレメントをペイロード情報として持つ1つ以上の第1のパケットと、上記1つ以上の第1のパケットが持つ各エレメントに対応する構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
    1つ以上の第1のパケットおよび上記第2のパケットのペイロードには上記各エレメントと上記各エレメントに対応する構成情報を紐づけるための共通のインデックス情報が挿入されており、
    上記所定数のオーディオストリームから一部または全部の上記第1のパケットおよび上記第2のパケットを取り出し、上記第1のパケットおよび上記第2のパケットのペイロード部に挿入されている上記インデックス情報を利用して1つのオーディオストリームに統合するストリーム統合部と、
    上記1つのオーディオストリームを処理する処理部をさらに備える
    受信装置。
  5. 上記処理部は、上記1つのオーディオストリームに対してデコード処理を施す
    請求項4に記載の受信装置。
  6. 上記処理部は、上記1つのオーディオストリームを外部機器に送信する
    請求項4に記載の受信装置。
  7. 受信部により、所定数のオーディオストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
    上記オーディオストリームは、符号化データを構成するエレメントをペイロード情報として持つ1つ以上の第1のパケットと、上記1つ以上の第1のパケットが持つ各エレメントに対応する構成情報をペイロード情報として持つ第2のパケットを含むオーディオフレームからなり、
    1つ以上の第1のパケットおよび上記第2のパケットのペイロードには上記各エレメントと上記各エレメントに対応する構成情報を紐づけるための共通のインデックス情報が挿入されており、
    上記所定数のオーディオストリームから一部または全部の上記第1のパケットおよび上記第2のパケットを取り出し、上記第1のパケットおよび上記第2のパケットのペイロード部に挿入されている上記インデックス情報を利用して1つのオーディオストリームに統合するストリーム統合ステップと、
    上記1つのオーディオストリームを処理する処理ステップをさらに有する
    受信方法。
JP2016574724A 2015-02-10 2016-01-29 送信装置、送信方法、受信装置および受信方法 Active JP6699564B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015024240 2015-02-10
JP2015024240 2015-02-10
PCT/JP2016/052610 WO2016129412A1 (ja) 2015-02-10 2016-01-29 送信装置、送信方法、受信装置および受信方法

Publications (2)

Publication Number Publication Date
JPWO2016129412A1 JPWO2016129412A1 (ja) 2017-11-24
JP6699564B2 true JP6699564B2 (ja) 2020-05-27

Family

ID=56614657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016574724A Active JP6699564B2 (ja) 2015-02-10 2016-01-29 送信装置、送信方法、受信装置および受信方法

Country Status (5)

Country Link
US (1) US10475463B2 (ja)
EP (1) EP3258467B1 (ja)
JP (1) JP6699564B2 (ja)
CN (1) CN107210041B (ja)
WO (1) WO2016129412A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109168032B (zh) * 2018-11-12 2021-08-27 广州酷狗计算机科技有限公司 视频数据的处理方法、终端、服务器及存储介质
CN113724717B (zh) * 2020-05-21 2023-07-14 成都鼎桥通信技术有限公司 车载音频处理系统、方法、车机控制器和车辆

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0901283A4 (en) 1996-05-17 1999-06-30 Matsushita Electric Ind Co Ltd MULTIPLEXING DATA METHOD, MULTIPLEXED DATA REPRODUCING METHOD AND DEVICE, AND RECORDING MEDIUM CONTAINING MULTIPLEXED DATA ACCORDING TO SAID METHOD
US6385704B1 (en) * 1997-11-14 2002-05-07 Cirrus Logic, Inc. Accessing shared memory using token bit held by default by a single processor
JP2001292432A (ja) 2000-04-05 2001-10-19 Mitsubishi Electric Corp 限定受信制御方式
JP3859168B2 (ja) * 2003-01-20 2006-12-20 パイオニア株式会社 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、記録又は再生制御用のコンピュータプログラム、並びに制御信号を含むデータ構造
EP1713276B1 (en) * 2004-02-06 2012-10-24 Sony Corporation Information processing device, information processing method, program, and data structure
CN101479787B (zh) * 2006-09-29 2012-12-26 Lg电子株式会社 用于编码和解码基于对象的音频信号的方法和装置
JP2009177706A (ja) 2008-01-28 2009-08-06 Funai Electric Co Ltd 放送受信装置
JP5258967B2 (ja) * 2008-07-15 2013-08-07 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP5652642B2 (ja) 2010-08-02 2015-01-14 ソニー株式会社 データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法
JP5805796B2 (ja) * 2011-03-18 2015-11-10 フラウンホーファーゲゼルシャフトツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. 柔軟なコンフィギュレーション機能性を有するオーディオエンコーダおよびデコーダ
AR086774A1 (es) 2011-07-01 2014-01-22 Dolby Lab Licensing Corp Sistema y herramientas para autoria y representacion mejorada de audio tridimensional
EP2896221B1 (en) * 2012-09-12 2016-11-02 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for providing enhanced guided downmix capabilities for 3d audio
EP2757558A1 (en) * 2013-01-18 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Time domain level adjustment for audio signal decoding or encoding
WO2014187990A1 (en) * 2013-05-24 2014-11-27 Dolby International Ab Efficient coding of audio scenes comprising audio objects
ES2956362T3 (es) * 2014-05-28 2023-12-20 Fraunhofer Ges Forschung Procesador de datos y transporte de datos de control del usuario a decodificadores de audio y renderizadores
EP3196876B1 (en) * 2014-09-04 2020-11-18 Sony Corporation Transmitting device, transmitting method, receiving device and receiving method
PL3509064T3 (pl) * 2014-09-12 2022-11-14 Sony Group Corporation Urządzenie odbiorcze strumieni audio i sposób
US10856042B2 (en) * 2014-09-30 2020-12-01 Sony Corporation Transmission apparatus, transmission method, reception apparatus and reception method for transmitting a plurality of types of audio data items
RU2700405C2 (ru) * 2014-10-16 2019-09-16 Сони Корпорейшн Устройство передачи данных, способ передачи данных, приёмное устройство и способ приёма

Also Published As

Publication number Publication date
CN107210041A (zh) 2017-09-26
US20180005640A1 (en) 2018-01-04
EP3258467A1 (en) 2017-12-20
US10475463B2 (en) 2019-11-12
CN107210041B (zh) 2020-11-17
JPWO2016129412A1 (ja) 2017-11-24
EP3258467A4 (en) 2018-07-04
EP3258467B1 (en) 2019-09-18
WO2016129412A1 (ja) 2016-08-18

Similar Documents

Publication Publication Date Title
JP6908168B2 (ja) 受信装置、受信方法、送信装置および送信方法
US20240089534A1 (en) Transmission apparatus, transmission method, reception apparatus and reception method for transmitting a plurality of types of audio data items
JP6717329B2 (ja) 受信装置および受信方法
JP2021107943A (ja) 受信装置および受信方法
JP6699564B2 (ja) 送信装置、送信方法、受信装置および受信方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200413

R151 Written notification of patent or utility model registration

Ref document number: 6699564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151