JP6538128B2 - オーディオ・オブジェクトを含むオーディオ・シーンの効率的な符号化 - Google Patents
オーディオ・オブジェクトを含むオーディオ・シーンの効率的な符号化 Download PDFInfo
- Publication number
- JP6538128B2 JP6538128B2 JP2017152964A JP2017152964A JP6538128B2 JP 6538128 B2 JP6538128 B2 JP 6538128B2 JP 2017152964 A JP2017152964 A JP 2017152964A JP 2017152964 A JP2017152964 A JP 2017152964A JP 6538128 B2 JP6538128 B2 JP 6538128B2
- Authority
- JP
- Japan
- Prior art keywords
- audio objects
- metadata
- audio
- rendering
- downmix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 claims description 230
- 230000007704 transition Effects 0.000 claims description 216
- 238000000034 method Methods 0.000 claims description 162
- 238000004590 computer program Methods 0.000 claims description 19
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 description 62
- 230000005236 sound signal Effects 0.000 description 60
- 238000012952 Resampling Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 12
- 230000000977 initiatory effect Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 239000000203 mixture Substances 0.000 description 8
- 230000003068 static effect Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 229940050561 matrix product Drugs 0.000 description 4
- 230000008929 regeneration Effects 0.000 description 4
- 238000011069 regeneration method Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/03—Application of parametric coding in stereophonic audio systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/07—Synergistic effects of band splitting and sub-band processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本願は2013年5月24日に出願された米国仮特許出願第61/827,246号、2013年10月21日に出願された米国仮特許出願第61/827,246号、2014年4月1日に出願された米国仮特許出願第61/973,623号の出願日の利益を主張するものであり、そのそれぞれはここにその全体において参照によって組み込まれる。
本開示は概括的にはオーディオ・オブジェクトを含むオーディオ・シーンの符号化に関する。詳細には、オーディオ・オブジェクトのエンコードおよびデコードのためのエンコーダ、デコーダおよび関連する方法に関する。
第一の側面によれば、オーディオ・オブジェクトをエンコードするためのエンコード方法、エンコーダおよびコンピュータ・プログラム・プロダクトが提供される。
N>1であるとして、N個のオーディオ・オブジェクトを受領する段階と;
M≦Nであるとして、いかなるラウドスピーカー配位とも独立な基準に従って前記N個のオーディオ・オブジェクトの組み合わせを形成することによって、M個のダウンミックス信号を計算する段階と;
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含むサイド情報を計算する段階と;
前記M個のダウンミックス信号および前記サイド情報を、デコーダに伝送するためのデータ・ストリームに含める段階とを含む、方法が提供される。
前記第一の複数のオーディオ・オブジェクトおよびそれらの関連付けられた空間位置を受領する段階と;
前記第一の複数のオーディオ・オブジェクトを、前記第一の複数のオーディオ・オブジェクトの空間的近接性に基づいて少なくとも一つのクラスターと関連付ける段階と;
前記少なくとも一つのクラスターのそれぞれを、そのクラスターに関連付けられたオーディオ・オブジェクトの組み合わせであるオーディオ・オブジェクトによって表わすことによって、前記第二の複数のオーディオ・オブジェクトを生成する段階と;
前記第二の複数のオーディオ・オブジェクトについての空間位置を含むメタデータを計算する段階であって、前記第二の複数のオーディオ・オブジェクトの各オーディオ・オブジェクトの空間位置が、対応するクラスターに関連付けられたオーディオ・オブジェクトの空間位置に基づいて計算される、段階と;
前記第二の複数のオーディオ・オブジェクトについてのメタデータを前記データ・ストリーム中に含める段階とを含む。
少なくとも一つのオーディオ・チャネルを受領する段階と;
前記少なくとも一つのオーディオ・チャネルのそれぞれを、そのオーディオ・チャネルのラウドスピーカー位置に対応する静的な空間位置をもつオーディオ・オブジェクトに変換する段階と;
変換された少なくとも一つのオーディオ・チャネルを前記第一の複数のオーディオ・オブジェクトに含める段階とを含んでいてもよい。
N>1であるとして、N個のオーディオ・オブジェクトを受領するよう構成された受領コンポーネントと;
M≦Nであるとして、いかなるラウドスピーカー配位とも独立な基準に従って前記N個のオーディオ・オブジェクトの組み合わせを形成することによって、M個のダウンミックス信号を計算するよう構成されたダウンミックス・コンポーネントと;
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含むサイド情報を計算するよう構成された解析コンポーネントと;
前記M個のダウンミックス信号および前記サイド情報を、デコーダに伝送するためのデータ・ストリームに含めるよう構成された多重化コンポーネントとを有する、エンコーダが提供される。
第二の側面によれば、マルチチャネル・オーディオ・コンテンツをデコードするためのデコード方法、デコーダおよびコンピュータ・プログラム・プロダクトが提供される。
M≦Nであるとして、いかなるラウドスピーカー配位とも独立な基準に従って計算されたN個のオーディオ・オブジェクトの組み合わせであるM個のダウンミックス信号と、前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含むサイド情報とを含むデータ・ストリームを受領する段階と;
前記M個のダウンミックス信号および前記サイド情報から、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトを再構成する段階とを含む、方法が提供される。
前記デコーダがオーディオ・オブジェクト再構成をサポートするよう構成されている場合には、前記M個のダウンミックス信号および前記サイド情報から、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトを再構成する前記段階を実行し、
前記デコーダがオーディオ・オブジェクト再構成をサポートするよう構成されていない場合には、前記M個のダウンミックス信号についての前記メタデータを、前記M個のダウンミックス信号を再生システムの出力チャネルにレンダリングするために使うことを含む。
前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトについての前記メタデータを、前記N個のオーディオ・オブジェクトに基づいて形成された再構成された一組のオーディオ・オブジェクトを、再生システムの出力チャネルにレンダリングするために使うことを含む。
M≦Nであるとして、いかなるラウドスピーカー配位とも独立な基準に従って計算されたN個のオーディオ・オブジェクトの組み合わせであるM個のダウンミックス信号と、前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含むサイド情報とを含むデータ・ストリームを受領するよう構成された受領コンポーネントと;
前記M個のダウンミックス信号および前記サイド情報から、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトを再構成するよう構成された再構成コンポーネントとを有する、デコーダが提供される。
第三の側面によれば、オーディオ・オブジェクトをエンコードするためのエンコード方法、エンコーダおよびコンピュータ・プログラム・プロダクトが提供される。
N>1であるとして、N個のオーディオ・オブジェクトを受領する段階と;
M≦Nであるとして、前記N個のオーディオ・オブジェクトの組み合わせを形成することによって、M個のダウンミックス信号を計算する段階と;
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変のサイド情報を計算する段階と;
前記M個のダウンミックス信号および前記サイド情報を、デコーダに伝送するためのデータ・ストリームに含める段階とを含む、方法が提供される。
前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンスと;
各サイド情報インスタンスについての、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含めることを含む。
前記第二の複数のオーディオ・オブジェクトについての空間位置を含む時間可変なクラスター・メタデータを計算する段階と;
前記デコーダに伝送するために、前記データ・ストリーム中に:
第二の組のオーディオ・オブジェクトをレンダリングするためのそれぞれの所望されるレンダリング設定を指定する複数のクラスター・メタデータ・インスタンスと;
各クラスター・メタデータ・インスタンスについての、現在のレンダリング設定から、そのクラスター・メタデータ・インスタンスによって指定される所望されるレンダリング設定への遷移を開始する時点およびそのクラスター・メタデータ・インスタンスによって指定される前記所望されるレンダリング設定への前記遷移を完了する時点を、組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含める段階とを含む。
前記第一の複数のオーディオ・オブジェクトおよびそれらの関連付けられた空間位置を受領する段階と;
前記第一の複数のオーディオ・オブジェクトを、前記第一の複数のオーディオ・オブジェクトの空間的近接性に基づいて少なくとも一つのクラスターと関連付ける段階と;
前記少なくとも一つのクラスターのそれぞれを、そのクラスターに関連付けられたオーディオ・オブジェクトの組み合わせであるオーディオ・オブジェクトによって表わすことによって、前記第二の複数のオーディオ・オブジェクトを生成する段階と;
前記第二の複数のオーディオ・オブジェクトの各オーディオ・オブジェクトの空間位置を、それぞれのクラスターに関連付けられた、すなわちそのオーディオ・オブジェクトが代表するクラスターに関連付けられた諸オーディオ・オブジェクトの空間位置に基づいて計算する段階とを含む。
各ダウンミックス信号を、前記ダウンミックス信号をレンダリングするための時間可変な空間位置に関連付ける段階と;
前記ダウンミックス信号の前記空間位置を含むダウンミックス・メタデータを前記データ・ストリームにさらに含める段階とを含み、
当該方法はさらに、前記データ・ストリームに:
前記ダウンミックス信号をレンダリングするためのそれぞれの所望されるダウンミックス・レンダリング設定を指定する複数のダウンミックス・メタデータ・インスタンスと;
各ダウンミックス・メタデータ・インスタンスについての、現在のダウンミックス・レンダリング設定から、そのダウンミックス・メタデータ・インスタンスによって指定される所望されるダウンミックス・レンダリング設定への遷移を開始する時点および前記ダウンミックス・メタデータ・インスタンスによって指定される所望されるダウンミックス・レンダリング設定への遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含めることを含む。
M≦Nであるとして、前記N個のオーディオ・オブジェクトの組み合わせを形成することによって、M個のダウンミックス信号を計算するよう構成されているダウンミックス・コンポーネントと;
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変のサイド情報を計算するよう構成されている解析コンポーネントと;
前記M個のダウンミックス信号および前記サイド情報を、デコーダに伝送するためのデータ・ストリームに含めるよう構成された多重化コンポーネントとを有しており、
前記多重化コンポーネントは、前記デコーダへの伝送のために、前記データ・ストリーム中に:
前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンスと;
各サイド情報インスタンスについての、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含めるよう構成される。
N>1およびM≦Nであるとして、N個のオーディオ・オブジェクトの組み合わせであるM個のダウンミックス信号と、前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変なサイド情報とを含むデータ・ストリームを受領する段階と;
前記M個のダウンミックス信号および前記サイド情報に基づいて、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトを再構成する段階とを含み、
前記データ・ストリームは、複数のサイド情報インスタンスを含み、前記データ・ストリームはさらに、各サイド情報インスタンスについて、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含み、
前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトを再構成する段階は:
現在の再構成設定に従って再構成を実行し;
あるサイド情報インスタンスについての遷移データによって定義される時点において、前記現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始し;
そのサイド情報インスタンスについての前記遷移データによって定義される時点において前記遷移を完了することを含む。
前記N個のオーディオ・オブジェクトに基づいて形成された再構成された一組のオーディオ・オブジェクトを、あらかじめ定義されたチャネル配位の出力チャネルにレンダリングするために前記クラスター・メタデータを使うことを含んでいてもよく、該レンダリングは:
現在のレンダリング設定に従ってレンダリングを実行し;
あるクラスター・メタデータ・インスタンスについての遷移データによって定義される時点において、前記現在のレンダリング設定から、そのクラスター・メタデータ・インスタンスによって指定される所望されるレンダリング設定への遷移を開始し;
そのクラスター・メタデータ・インスタンスについての前記遷移データによって定義される時点において前記所望されるレンダリング設定への前記遷移を完了することを含む。
前記再構成の少なくとも一部および前記レンダリングの少なくとも一部を、それぞれ現在の再構成設定および現在のレンダリング設定に関連する再構成行列およびレンダリング行列の行列積として形成される第一の行列に対応する組み合わされた動作として実行し;
あるサイド情報インスタンスおよびあるクラスター・メタデータ・インスタンスについての遷移データによって定義される時点において、前記現在の再構成およびレンダリング設定から、それぞれそのサイド情報インスタンスおよびそのクラスター・メタデータ・インスタンスによって指定される所望される再構成設定およびレンダリング設定への組み合わされた遷移を開始し;
そのサイド情報インスタンスおよびそのクラスター・メタデータ・インスタンスについての前記遷移データによって定義される時点において前記組み合わされた遷移を完了することを含み、前記組み合わされた遷移は、前記第一の行列の行列要素と、それぞれ前記所望される再構成設定および前記所望されるレンダリング設定に関連する再構成行列およびレンダリング行列の行列積として形成される第二の行列の行列要素との間を補間することを含む。
デコーダがオーディオ・オブジェクト再構成をサポートするよう動作可能である(または構成されている)場合、再構成する段階を、前記M個のダウンミックス信号および前記サイド情報、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトに基づいて実行し;
デコーダがオーディオ・オブジェクト再構成をサポートするよう動作可能でない(または構成されていない)場合、前記ダウンミックス・メタデータおよび前記M個のダウンミックス信号を前記M個のダウンミックス信号のレンダリングのために出力することを含んでいてもよい。
N>1およびM≦Nであるとして、N個のオーディオ・オブジェクトの組み合わせであるM個のダウンミックス信号と、前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変なサイド情報とを含むデータ・ストリームを受領するよう構成されている受領コンポーネントと;
前記M個のダウンミックス信号および前記サイド情報に基づいて、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトを再構成するよう構成されている再構成コンポーネントとを有し、
前記データ・ストリームは、関連する複数のサイド情報インスタンスを含み、前記データ・ストリームはさらに、各サイド情報インスタンスについて、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含む。
現在の再構成設定に従って再構成を実行し;
あるサイド情報インスタンスについての遷移データによって定義される時点において、前記現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始し;
そのサイド情報インスタンスについての前記遷移データによって定義される時点において前記遷移を完了することによって行なうよう構成されている。
データ・ストリームを受領する段階と;
前記データ・ストリームから、M≧1として、M個のオーディオ信号と、前記M個のオーディオ信号からの、一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む、関連する時間可変なサイド情報とを抽出する段階であって、抽出されたサイド情報は:
前記オーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンス;および
各サイド情報インスタンスについて、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含む、段階と;
一つまたは複数の追加的なサイド情報インスタンスであって、該一つまたは複数の追加的なサイド情報インスタンスの直前または直後のサイド情報インスタンスと実質的に同じ再構成設定を指定する追加的なサイド情報インスタンスを生成する段階と;
前記M個のオーディオ信号および前記サイド情報をデータ・ストリームに含める段階とを含む。
前記M個のオーディオ信号を処理して、前記M個のダウンミックス信号が符号化されているフレーム・レートを前記第一のフレーム・レートとは異なる第二のフレーム・レートに変える段階と;
少なくとも、前記一つまたは複数の追加的なサイド情報インスタンスを生成することによって、前記第二のフレーム・レートに一致するおよび/または前記第二のフレーム・レートと互換になるよう、前記サイド情報を再サンプリングする段階とを含んでいてもよい。
データ・ストリームを受領し、前記データ・ストリームから、M≧1として、M個のオーディオ信号と、前記M個のオーディオ信号からの、一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む、関連する時間可変なサイド情報とを抽出するよう構成された受領コンポーネントを有しており、抽出されたサイド情報は:
前記オーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンス;および
各サイド情報インスタンスについて、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含む。
一つまたは複数の追加的なサイド情報インスタンスであって、該一つまたは複数の追加的なサイド情報インスタンスの直前または直後のサイド情報インスタンスと実質的に同じ再構成設定を指定する追加的なサイド情報インスタンスを生成するよう構成されている再サンプリング・コンポーネントと;
前記M個のオーディオ信号および前記サイド情報をデータ・ストリームに含めるよう構成されている多重化コンポーネントとを有する。
所望される再構成設定への遷移を開始する時点を示すタイムスタンプと、所望される再構成設定への遷移を完了する時点を示すタイムスタンプ;
所望される再構成設定への遷移を開始する時点を示すタイムスタンプと、所望される再構成設定への遷移を開始する時点から所望される再構成設定に達するための継続時間を示す補間継続時間パラメータ;または
所望される再構成設定への遷移を完了する時点を示すタイムスタンプと、所望される再構成設定への遷移を開始する時点から所望される再構成設定に達するための継続時間を示す補間継続時間パラメータであってもよい。
所望されるレンダリング設定への遷移を開始する時点を示すタイムスタンプと、所望されるレンダリング設定への遷移を完了する時点を示すタイムスタンプ;
所望されるレンダリング設定への遷移を開始する時点を示すタイムスタンプと、所望されるレンダリング設定への遷移を開始する時点から所望されるレンダリング設定に達するための継続時間を示す補間継続時間パラメータ;または
所望されるレンダリング設定への遷移を完了する時点を示すタイムスタンプと、所望されるレンダリング設定への遷移を開始する時点から所望されるレンダリング設定に達するための継続時間を示す補間継続時間パラメータであってもよい。
所望されるダウンミックス・レンダリング設定への遷移を開始する時点を示すタイムスタンプと、所望されるダウンミックス・レンダリング設定への遷移を完了する時点を示すタイムスタンプ;
所望されるダウンミックス・レンダリング設定への遷移を開始する時点を示すタイムスタンプと、所望されるダウンミックス・レンダリング設定への遷移を開始する時点から所望されるダウンミックス・レンダリング設定に達するための継続時間を示す補間継続時間パラメータ;または
所望されるダウンミックス・レンダリング設定への遷移を完了する時点を示すタイムスタンプと、所望されるダウンミックス・レンダリング設定への遷移を開始する時点から所望されるダウンミックス・レンダリング設定に達するための継続時間を示す補間継続時間パラメータであってもよい。
図1は、ある例示的実施形態に基づく、オーディオ・オブジェクト120をデータ・ストリーム140にエンコードするエンコーダ100を示している。エンコーダ100は、受領コンポーネント(図示せず)、ダウンミックス・コンポーネント102、エンコーダ・コンポーネント104、解析コンポーネント106および多重化コンポーネント108を有する。オーディオ・データの一つの時間フレームをエンコードするためのエンコーダ100の動作を下記で述べるが、下記の方法は時間フレーム・ベースで繰り返されることは理解される。同じことは図2〜図5の説明にも当てはまる。
a)M個のダウンミックス信号126(および任意的にL個の補助信号129)
b)M個のダウンミックス信号に関連付けられたメタデータ125
c)M個のダウンミックス信号からN個のオーディオ・オブジェクトを再構成するためのサイド情報128
d)N個のオーディオ・オブジェクトに関連付けられたメタデータ122。
レンダリング行列630は一般に、異なる時点における利得値を表わす係数を含む。メタデータ・インスタンスは、所定の離散的な時点において定義され、メタデータ時点の中間のオーディオ・サンプルについては、レンダリング行列630をつなぐ破線640によって示されるように、レンダリング行列は補間される。そのような補間は線形に実行することができるが、他の補間方法(帯域制限された補間、正弦/余弦補間など)が使われることもできる。メタデータ・インスタンス(および対応するレンダリング行列)の間の時間間隔は、「補間継続時間」と称される。そのような期間は一様であってもよく、あるいは時刻t2とt3の間の補間継続時間に比べて時刻t3とt4の間の補間継続時間がより長いなど、異なっていてもよい。
上記の記述を吟味すれば、当業者には本開示のさらなる実施形態が明白になるであろう。本稿および図面は実施形態および例を開示しているが、本開示はこれらの個別的な例に制約されるものではない。付属の請求項によって定義される本開示の範囲から外れることなく数多くの修正および変形をなすことができる。請求項に現われる参照符号があったとしても、その範囲を限定するものと理解されるものではない。
〔態様1〕
オーディオ・オブジェクトをデータ・ストリームとしてエンコードする方法であって:
N>1であるとして、N個のオーディオ・オブジェクトを受領する段階と;
M≦Nであるとして、前記N個のオーディオ・オブジェクトの組み合わせを形成することによって、M個のダウンミックス信号を計算する段階と;
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変のサイド情報を計算する段階と;
前記M個のダウンミックス信号および前記サイド情報を、デコーダに伝送するためのデータ・ストリームに含める段階とを含み、
本方法はさらに、前記データ・ストリーム中に:
前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンスと;
各サイド情報インスタンスについての、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含めることを含む、
方法。
〔態様2〕
第一の複数のオーディオ・オブジェクトを第二の複数のオーディオ・オブジェクトに減らすためのクラスタリング手順をさらに含み、前記N個のオーディオ・オブジェクトは、前記第一の複数のオーディオ・オブジェクトまたは前記第二の複数のオーディオ・オブジェクトをなし、前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトは前記第二の複数のオーディオ・オブジェクトに一致し、前記クラスタリング手順は:
前記第二の複数のオーディオ・オブジェクトについての空間位置を含む時間可変なクラスター・メタデータを計算する段階と;
前記データ・ストリーム中に:
第二の組のオーディオ・オブジェクトをレンダリングするためのそれぞれの所望されるレンダリング設定を指定する複数のクラスター・メタデータ・インスタンスと;
各クラスター・メタデータ・インスタンスについての、現在のレンダリング設定から、そのクラスター・メタデータ・インスタンスによって指定される所望されるレンダリング設定への遷移を開始する時点およびそのクラスター・メタデータ・インスタンスによって指定される前記所望されるレンダリング設定への前記遷移を完了する時点を、組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含める段階とを含む、
態様1記載の方法。
〔態様3〕
前記クラスタリング手順はさらに:
前記第一の複数のオーディオ・オブジェクトおよびそれらの関連付けられた空間位置を受領する段階と;
前記第一の複数のオーディオ・オブジェクトを、前記第一の複数のオーディオ・オブジェクトの空間的近接性に基づいて少なくとも一つのクラスターと関連付ける段階と;
前記少なくとも一つのクラスターのそれぞれを、そのクラスターに関連付けられたオーディオ・オブジェクトの組み合わせであるオーディオ・オブジェクトによって表わすことによって、前記第二の複数のオーディオ・オブジェクトを生成する段階と;
前記第二の複数のオーディオ・オブジェクトの各オーディオ・オブジェクトの空間位置を、そのオーディオ・オブジェクトが代表するクラスターに関連付けられた諸オーディオ・オブジェクトの空間位置に基づいて計算する段階とを含む、
態様2記載の方法。
〔態様4〕
それぞれのクラスター・メタデータ・インスタンスについて前記遷移データによって定義されるそれぞれの時点は、対応するサイド情報インスタンスについて前記遷移データによって定義されるそれぞれの時点と一致する、態様2または3記載の方法。
〔態様5〕
前記N個のオーディオ・オブジェクトが前記第二の複数のオーディオ・オブジェクトをなす、態様2ないし4のうちいずれか一項記載の方法。
〔態様6〕
前記N個のオーディオ・オブジェクトが前記第一の複数のオーディオ・オブジェクトをなす、態様2ないし4のうちいずれか一項記載の方法。
〔態様7〕
当該方法が、
各ダウンミックス信号を、前記ダウンミックス信号をレンダリングするための時間可変な空間位置に関連付ける段階と;
前記ダウンミックス信号の前記空間位置を含むダウンミックス・メタデータを前記データ・ストリームにさらに含める段階とをさらに含み、
当該方法がさらに、前記データ・ストリームに:
前記ダウンミックス信号をレンダリングするためのそれぞれの所望されるダウンミックス・レンダリング設定を指定する複数のダウンミックス・メタデータ・インスタンスと;
各ダウンミックス・メタデータ・インスタンスについての、現在のダウンミックス・レンダリング設定から、そのダウンミックス・メタデータ・インスタンスによって指定される所望されるダウンミックス・レンダリング設定への遷移を開始する時点および前記ダウンミックス・メタデータ・インスタンスによって指定される所望されるダウンミックス・レンダリング設定への遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含めることを含む、
態様1ないし6のうちいずれか一項記載の方法。
〔態様8〕
それぞれのダウンミックス・メタデータ・インスタンスについての前記遷移データによって定義されるそれぞれの時点は、対応するサイド情報インスタンスについての前記遷移データによって定義されるそれぞれの時点と一致する、態様7記載の方法。
〔態様9〕
N>1として、N個のオーディオ・オブジェクトをデータ・ストリームとしてエンコードするエンコーダであって:
M≦Nであるとして、前記N個のオーディオ・オブジェクトの組み合わせを形成することによって、M個のダウンミックス信号を計算するよう構成されているダウンミックス・コンポーネントと;
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変のサイド情報を計算するよう構成されている解析コンポーネントと;
前記M個のダウンミックス信号および前記サイド情報を、デコーダに伝送するためのデータ・ストリームに含めるよう構成された多重化コンポーネントとを有しており、
前記多重化コンポーネントは、前記データ・ストリーム中に:
前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンスと;
各サイド情報インスタンスについての、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含めるよう構成される、
エンコーダ。
〔態様10〕
データ・ストリームに基づいてオーディオ・オブジェクトを再構成する方法であって:
N>1およびM≦Nであるとして、N個のオーディオ・オブジェクトの組み合わせであるM個のダウンミックス信号と、前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変なサイド情報とを含むデータ・ストリームを受領する段階と;
前記M個のダウンミックス信号および前記サイド情報に基づいて、前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトを再構成する段階とを含み、
前記データ・ストリームは、複数のサイド情報インスタンスを含み、前記データ・ストリームはさらに、各サイド情報インスタンスについて、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含み、
前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトを再構成する段階は:
現在の再構成設定に従って再構成を実行し;
あるサイド情報インスタンスについての前記遷移データによって定義される時点において、前記現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始し;
そのサイド情報インスタンスについての前記遷移データによって定義される時点において前記遷移を完了することを含む、
方法。
〔態様11〕
前記データ・ストリームはさらに、前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトについての時間可変なクラスター・メタデータを含み、前記クラスター・メタデータは、前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトについての空間位置を含み、前記データ・ストリームは、複数のクラスター・メタデータ・インスタンスを含み、前記データ・ストリームはさらに、各クラスター・メタデータ・インスタンスについて、現在のレンダリング設定から、そのクラスター・メタデータ・インスタンスによって指定される所望されるレンダリング設定への遷移を開始する時点およびそのクラスター・メタデータ・インスタンスによって指定される前記所望されるレンダリング設定への前記遷移を完了する時点を、組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含み、
当該方法はさらに:
前記N個のオーディオ・オブジェクトに基づいて形成された再構成された一組のオーディオ・オブジェクトを、あらかじめ定義されたチャネル配位の出力チャネルにレンダリングするために前記クラスター・メタデータを使うことを含み、該レンダリングは:
現在のレンダリング設定に従ってレンダリングを実行し;
あるクラスター・メタデータ・インスタンスについての前記遷移データによって定義される時点において、前記現在のレンダリング設定から、そのクラスター・メタデータ・インスタンスによって指定される所望されるレンダリング設定への遷移を開始し;
そのクラスター・メタデータ・インスタンスについての前記遷移データによって定義される時点において前記所望されるレンダリング設定への前記遷移を完了することを含む、
態様10記載の方法。
〔態様12〕
それぞれのクラスター・メタデータ・インスタンスについての遷移データによって定義されるそれぞれの時点は、対応するサイド情報インスタンスについて前記遷移データによって定義されるそれぞれの時点と一致する、態様11記載の方法。
〔態様13〕
当該方法はさらに:
前記再構成および前記レンダリングの少なくとも一部を、それぞれ現在の再構成設定および現在のレンダリング設定に関連する再構成行列およびレンダリング行列の行列積として形成される第一の行列に対応する組み合わされた動作として実行し;
あるサイド情報インスタンスおよびあるクラスター・メタデータ・インスタンスについての前記遷移データによって定義される時点において、前記現在の再構成およびレンダリング設定から、それぞれそのサイド情報インスタンスおよびそのクラスター・メタデータ・インスタンスによって指定される所望される再構成およびレンダリング設定への組み合わされた遷移を開始し;
そのサイド情報インスタンスおよびそのクラスター・メタデータ・インスタンスについての前記遷移データによって定義される時点において前記組み合わされた遷移を完了することを含み、前記組み合わされた遷移は、前記第一の行列の行列要素と、それぞれ前記所望される再構成設定および前記所望されるレンダリング設定に関連する再構成行列およびレンダリング行列の行列積として形成される第二の行列の行列要素との間を補間することを含む、
態様12記載の方法。
〔態様14〕
前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトは、前記N個のオーディオ・オブジェクトと一致する、態様10ないし13のうちいずれか一項記載の方法。
〔態様15〕
前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトは、前記N個のオーディオ・オブジェクトの組み合わせである、N個より少ない複数のオーディオ・オブジェクトを含む、態様10ないし13のうちいずれか一項記載の方法。
〔態様16〕
デコーダにおいて実行される態様10ないし15のうちいずれか一項記載の方法であって、前記データ・ストリームはさらに、前記M個のダウンミックス信号に関連付けられた時間可変な空間位置を含む前記M個のダウンミックス信号についてのダウンミックス・メタデータを含み、前記データ・ストリームはさらに、複数のダウンミックス・メタデータ・インスタンスを含み、前記データ・ストリームはさらに、各ダウンミックス・メタデータ・インスタンスについて、現在のダウンミックス・レンダリング設定から、そのダウンミックス・メタデータ・インスタンスによって指定される所望されるダウンミックス・レンダリング設定への遷移を開始する時点およびそのダウンミックス・メタデータ・インスタンスによって指定される前記所望されるダウンミックス・レンダリング設定への前記遷移を完了する時点を、組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含み、
当該方法はさらに:
前記デコーダがオーディオ・オブジェクト再構成をサポートするよう動作可能である場合、再構成する段階を、前記M個のダウンミックス信号および前記サイド情報、前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトに基づいて実行し;
前記デコーダがオーディオ・オブジェクト再構成をサポートするよう動作可能でない場合、前記ダウンミックス・メタデータおよび前記M個のダウンミックス信号を前記M個のダウンミックス信号のレンダリングのために出力することを含む、
方法。
〔態様17〕
データ・ストリームに基づいてオーディオ・オブジェクトを再構成するデコーダであって:
N>1およびM≦Nであるとして、N個のオーディオ・オブジェクトの組み合わせであるM個のダウンミックス信号と、前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトに基づいて形成された一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変なサイド情報とを含むデータ・ストリームを受領するよう構成されている受領コンポーネントと;
前記M個のダウンミックス信号および前記サイド情報に基づいて、前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトを再構成するよう構成されている再構成コンポーネントとを有し、
前記データ・ストリームは、複数のサイド情報インスタンスを含み、前記データ・ストリームはさらに、各サイド情報インスタンスについて、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含み、
前記再構成コンポーネントは、前記N個のオーディオ・オブジェクトに基づいて形成された前記一組のオーディオ・オブジェクトを再構成することを、少なくとも:
現在の再構成設定に従って再構成を実行し;
あるサイド情報インスタンスについての前記遷移データによって定義される時点において、前記現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始し;
そのサイド情報インスタンスについての前記遷移データによって定義される時点において前記遷移を完了することによって行なうよう構成されている、
デコーダ。
〔態様18〕
態様1ないし8および10ないし16のうちいずれか一項記載の方法であって、さらに:
一つまたは複数の追加的なサイド情報インスタンスであって、該一つまたは複数の追加的なサイド情報インスタンスの直前または直後のサイド情報インスタンスと実質的に同じ再構成設定を指定するものを生成する段階を含む、
方法。
〔態様19〕
データ・ストリーム中でM個のオーディオ信号と一緒にエンコードされたサイド情報をトランスコードする方法であって:
データ・ストリームを受領する段階と;
前記データ・ストリームから、M≧1として、M個のオーディオ信号と、前記M個のオーディオ信号からの、一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む、関連する時間可変なサイド情報とを抽出する段階であって、抽出されたサイド情報は:
前記オーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンス;および
各サイド情報インスタンスについて、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含む、段階と;
一つまたは複数の追加的なサイド情報インスタンスであって、該一つまたは複数の追加的なサイド情報インスタンスの直前または直後のサイド情報インスタンスと実質的に同じ再構成設定を指定する追加的なサイド情報インスタンスを生成する段階と;
前記M個のオーディオ信号および前記サイド情報をデータ・ストリームに含める段階とを含む、
方法。
〔態様20〕
前記M個のオーディオ信号は、第一のフレーム・レートに従って、受領されたデータ・ストリーム中で符号化されており、当該方法はさらに:
前記M個のオーディオ信号を処理して、前記M個のダウンミックス信号が符号化されているフレーム・レートを前記第一のフレーム・レートとは異なる第二のフレーム・レートに変える段階と;
少なくとも、前記一つまたは複数の追加的なサイド情報インスタンスを生成することによって、前記第二のフレーム・レートに一致するよう、前記サイド情報を再サンプリングする段階とを含む、
態様19記載の方法。
〔態様21〕
データ・ストリームにおいてM個のオーディオ信号と一緒にエンコードされたサイド情報をトランスコードする装置であって:
データ・ストリームを受領し、前記データ・ストリームから、M≧1として、M個のオーディオ信号と、前記M個のオーディオ信号からの、一組のオーディオ・オブジェクトの再構成を許容するパラメータを含む、関連する時間可変なサイド情報とを抽出するよう構成された受領コンポーネントを有しており、抽出されるサイド情報は:
前記オーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンス;および
各サイド情報インスタンスについて、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への遷移を開始する時点および該遷移を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データを含み、
当該装置はさらに:
一つまたは複数の追加的なサイド情報インスタンスであって、該一つまたは複数の追加的なサイド情報インスタンスの直前または直後のサイド情報インスタンスと実質的に同じ再構成設定を指定する追加的なサイド情報インスタンスを生成するよう構成されている再サンプリング・コンポーネントと;
前記M個のオーディオ信号および前記サイド情報をデータ・ストリームに含めるよう構成されている多重化コンポーネントとを有する、
装置。
〔態様22〕
態様1ないし8、10ないし16および18ないし20のうちいずれか一項記載の方法であって、さらに:
第一のサイド情報インスタンスによって指定される第一の所望される再構成設定と、前記第一のサイド情報インスタンスの直後の一つまたは複数のサイド情報インスタンスによって指定される一つまたは複数の所望される再構成設定との間の差を計算し;
計算された差があらかじめ定義された閾値より低いことに応答して前記一つまたは複数のサイド情報インスタンスを除去することを含む、
方法。
〔態様23〕
態様1ないし8、10ないし16、18ないし20および22のうちいずれか一項記載の方法、態様9記載のエンコーダ、態様17記載のデコーダまたは態様21記載の装置であって:
各サイド情報インスタンスについての前記遷移データの前記二つの独立に割り当て可能な部分は:
前記所望される再構成設定への遷移を開始する時点を示すタイムスタンプと、前記所望される再構成設定への遷移を完了する時点を示すタイムスタンプ;
前記所望される再構成設定への遷移を開始する時点を示すタイムスタンプと、前記所望される再構成設定への遷移を開始する時点から前記所望される再構成設定に達するための継続時間を示す補間継続時間パラメータ;または
前記所望される再構成設定への遷移を完了する時点を示すタイムスタンプと、前記所望される再構成設定への遷移を開始する時点から前記所望される再構成設定に達するための継続時間を示す補間継続時間パラメータである、
方法、エンコーダ、デコーダまたは装置。
〔態様24〕
態様2ないし8、11ないし16、18および22ないし23のうちいずれか一項記載の方法であって:
各クラスター・メタデータ・インスタンスについての前記遷移データの前記二つの独立に割り当て可能な部分は:
前記所望されるレンダリング設定への遷移を開始する時点を示すタイムスタンプと、前記所望されるレンダリング設定への遷移を完了する時点を示すタイムスタンプ;
前記所望されるレンダリング設定への遷移を開始する時点を示すタイムスタンプと、前記所望されるレンダリング設定への遷移を開始する時点から前記所望されるレンダリング設定に達するための継続時間を示す補間継続時間パラメータ;または
前記所望されるレンダリング設定への遷移を完了する時点を示すタイムスタンプと、前記所望されるレンダリング設定への遷移を開始する時点から前記所望されるレンダリング設定に達するための継続時間を示す補間継続時間パラメータである、
方法。
〔態様25〕
態様7ないし8、16、18および22ないし24のうちいずれか一項記載の方法であって、各ダウンミックス・メタデータ・インスタンスについての前記遷移データの前記二つの独立に割り当て可能な部分は:
前記所望されるダウンミックス・レンダリング設定への遷移を開始する時点を示すタイムスタンプと、前記所望されるダウンミックス・レンダリング設定への遷移を完了する時点を示すタイムスタンプ;
前記所望されるダウンミックス・レンダリング設定への遷移を開始する時点を示すタイムスタンプと、前記所望されるダウンミックス・レンダリング設定への遷移を開始する時点から前記所望されるダウンミックス・レンダリング設定に達するための継続時間を示す補間継続時間パラメータ;または
前記所望されるダウンミックス・レンダリング設定への遷移を完了する時点を示すタイムスタンプと、前記所望されるダウンミックス・レンダリング設定への遷移を開始する時点から前記所望されるダウンミックス・レンダリング設定に達するための継続時間を示す補間継続時間パラメータである、
方法。
〔態様26〕
態様1ないし8、10ないし16、18ないし20および22ないし25のうちいずれか一項記載の方法を実行するための命令をもつコンピュータ可読媒体を含むコンピュータ・プログラム・プロダクト。
Claims (15)
- データ・ストリームに基づいてオーディオ・オブジェクトを再構成およびレンダリングする方法であって:
データ・ストリームを受領する段階であって、前記データ・ストリームは:
N>1およびM≦Nであるとして、N個のオーディオ・オブジェクトの組み合わせであるM個のダウンミックス信号を含む後方互換なダウンミックスと、
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変なサイド情報と、
前記N個のオーディオ・オブジェクトに関連付けられた複数のメタデータ・インスタンスであって、前記複数のメタデータ・インスタンスは前記N個のオーディオ・オブジェクトをレンダリングするためのそれぞれの所望されるレンダリング設定を指定する、メタデータ・インスタンス、および、各メタデータ・インスタンスについての、現在のレンダリング設定からそのメタデータ・インスタンスによって指定される所望されるレンダリング設定への補間の開始時刻および継続時間を含む遷移データとを含む、段階と;
前記後方互換なダウンミックスおよび前記サイド情報に基づいて、前記N個のオーディオ・オブジェクトを再構成する段階と;
前記N個のオーディオ・オブジェクトをあらかじめ定義されたチャネル配位の出力チャネルにレンダリングする段階とを含み、該レンダリングは:
現在のレンダリング設定に従ってレンダリングを実行し、
あるメタデータ・インスタンスについての前記遷移データによって定義される開始時刻において、前記現在のレンダリング設定から、そのメタデータ・インスタンスによって指定される所望されるレンダリング設定への補間を開始し、
そのメタデータ・インスタンスについての前記遷移データによって定義される継続時間後に前記所望されるレンダリング設定への前記補間を完了することによる、
方法。 - 前記N個のオーディオ・オブジェクトに関連付けられた前記メタデータ・インスタンスは、前記オーディオ・オブジェクトの空間位置についての情報を含む、請求項1記載の方法。
- 前記N個のオーディオ・オブジェクトに関連付けられた前記メタデータ・インスタンスはさらに、オブジェクト・サイズ、オブジェクト・ラウドネス、オブジェクト重要性、オブジェクト・コンテンツ型およびゾーン・マスクのうちの一つまたは複数を含む、請求項2記載の方法。
- 前記複数のメタデータ・インスタンスに関連付けられた開始時刻は、フレーム境界のようなオーディオ・コンテンツに関係した時間イベントに対応する、請求項1ないし3のうちいずれか一項記載の方法。
- 前記現在のレンダリング設定から前記所望されるレンダリング設定への補間が線形補間である、請求項1ないし4のうちいずれか一項記載の方法。
- 前記データ・ストリームは、前記N個のオーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンスと、各サイド情報インスタンスについての、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への補間を開始する時点および該補間を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含み、前記N個のオーディオ・オブジェクトの再構成は:
現在の再構成設定に従って再構成を実行し、
あるサイド情報インスタンスについての前記遷移データによって定義される時点において、前記現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への補間を開始し、
そのサイド情報インスタンスについての前記遷移データによって定義される時点において前記補間を完了することを含む、
請求項1ないし5のうちいずれか一項記載の方法。 - データ・ストリームに基づいてオーディオ・オブジェクトを再構成およびレンダリングするシステムであって:
データ・ストリームを受領するよう構成された受領コンポーネントであって、前記データ・ストリームは:
N>1およびM≦Nであるとして、N個のオーディオ・オブジェクトの組み合わせであるM個のダウンミックス信号を含む後方互換なダウンミックスと、
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変なサイド情報と、
前記N個のオーディオ・オブジェクトに関連付けられた複数のメタデータ・インスタンスであって、前記複数のメタデータ・インスタンスは前記N個のオーディオ・オブジェクトをレンダリングするためのそれぞれの所望されるレンダリング設定を指定する、メタデータ・インスタンス、および、各メタデータ・インスタンスについての、現在のレンダリング設定からそのメタデータ・インスタンスによって指定される所望されるレンダリング設定への補間の開始時刻および継続時間を含む遷移データとを含む、受領コンポーネントと;
前記後方互換なダウンミックスおよび前記サイド情報に基づいて、前記N個のオーディオ・オブジェクトを再構成するよう構成された再構成コンポーネントと;
前記N個のオーディオ・オブジェクトをあらかじめ定義されたチャネル配位の出力チャネルにレンダリングするよう構成されたレンダラーとを有しており、該レンダリングは:
現在のレンダリング設定に従ってレンダリングを実行し、
あるメタデータ・インスタンスについての前記遷移データによって定義される開始時刻において、前記現在のレンダリング設定から、そのメタデータ・インスタンスによって指定される所望されるレンダリング設定への補間を開始し、
そのメタデータ・インスタンスについての前記遷移データによって定義される継続時間後に前記所望されるレンダリング設定への前記補間を完了することによる、
システム。 - 請求項1ないし6のうちいずれか一項記載の方法をコンピュータに実行させるためのコンピュータ・プログラム。
- オーディオ・オブジェクトをデータ・ストリームとしてエンコードする方法であって:
N>1であるとして、N個のオーディオ・オブジェクトおよび前記N個のオーディオ・オブジェクトがデコーダ側での再生のためにどのようにレンダリングされるべきかを記述する前記N個のオーディオ・オブジェクトに関連付けられた時間可変のメタデータを受領する段階と;
M≦Nであるとして、前記N個のオーディオ・オブジェクトの組み合わせを形成することによって、M個のダウンミックス信号を含む後方互換なダウンミックスを計算する段階と;
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変のサイド情報を計算する段階と;
前記後方互換なダウンミックスおよび前記サイド情報を、デコーダに伝送するためのデータ・ストリームに含める段階と;
前記データ・ストリーム中にさらに:
前記N個のオーディオ・オブジェクトをレンダリングするためのそれぞれの所望されるレンダリング設定を指定する複数のメタデータ・インスタンスと、
各メタデータ・インスタンスについて、現在のレンダリング設定からそのメタデータ・インスタンスによって指定される所望されるレンダリング設定への補間の開始時刻および継続時間を含む遷移データとを含める段階とを含む、
方法。 - 前記N個のオーディオ・オブジェクトに関連付けられた前記メタデータは、前記オーディオ・オブジェクトの空間位置についての情報を含む、請求項9記載の方法。
- 前記N個のオーディオ・オブジェクトに関連付けられた前記メタデータはさらに、オブジェクト・サイズ、オブジェクト・ラウドネス、オブジェクト重要性、オブジェクト・コンテンツ型およびゾーン・マスクのうちの一つまたは複数を含む、請求項10記載の方法。
- 前記現在のレンダリング設定から前記所望されるレンダリング設定への補間が線形補間である、請求項9ないし11のうちいずれか一項記載の方法。
- 前記データ・ストリーム中にさらに:
前記N個のオーディオ・オブジェクトを再構成するためのそれぞれの所望される再構成設定を指定する複数のサイド情報インスタンスと、
各サイド情報インスタンスについての、現在の再構成設定から、そのサイド情報インスタンスによって指定される所望される再構成設定への補間を開始する時点および該補間を完了する時点を組み合わさって定義する、二つの独立に割り当て可能な部分を含む遷移データとを含める段階を含む、
請求項9ないし12のうちいずれか一項記載の方法。 - オーディオ・オブジェクトをデータ・ストリームとしてエンコードするエンコーダであって:
N>1であるとして、N個のオーディオ・オブジェクトおよび前記N個のオーディオ・オブジェクトがデコーダ側での再生のためにどのようにレンダリングされるべきかを記述する前記N個のオーディオ・オブジェクトに関連付けられた時間可変のメタデータを受領するよう構成された受領器と;
M≦Nであるとして、前記N個のオーディオ・オブジェクトの組み合わせを形成することによって、M個のダウンミックス信号を含む後方互換なダウンミックスを計算するよう構成されたダウンミックス・コンポーネントと;
前記M個のダウンミックス信号からの、前記N個のオーディオ・オブジェクトの再構成を許容するパラメータを含む時間可変のサイド情報を計算するよう構成された解析コンポーネントと;
前記後方互換なダウンミックスおよび前記サイド情報を、デコーダに伝送するためのデータ・ストリームに含めるよう構成された多重化コンポーネントとを有しており、
前記多重化コンポーネントは、前記データ・ストリーム中にさらに:
前記N個のオーディオ・オブジェクトをレンダリングするためのそれぞれの所望されるレンダリング設定を指定する複数のメタデータ・インスタンスと、
各メタデータ・インスタンスについて、現在のレンダリング設定からそのメタデータ・インスタンスによって指定される所望されるレンダリング設定への補間の開始時刻および継続時間を含む遷移データとを含めるよう構成されている、
エンコーダ。 - 請求項9ないし13のうちいずれか一項記載の方法をコンピュータに実行させるためのコンピュータ・プログラム。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361827246P | 2013-05-24 | 2013-05-24 | |
US61/827,246 | 2013-05-24 | ||
US201361893770P | 2013-10-21 | 2013-10-21 | |
US61/893,770 | 2013-10-21 | ||
US201461973625P | 2014-04-01 | 2014-04-01 | |
US61/973,625 | 2014-04-01 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016513406A Division JP6192813B2 (ja) | 2013-05-24 | 2014-05-23 | オーディオ・オブジェクトを含むオーディオ・シーンの効率的な符号化 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017199034A JP2017199034A (ja) | 2017-11-02 |
JP6538128B2 true JP6538128B2 (ja) | 2019-07-03 |
Family
ID=50819736
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016513406A Active JP6192813B2 (ja) | 2013-05-24 | 2014-05-23 | オーディオ・オブジェクトを含むオーディオ・シーンの効率的な符号化 |
JP2017152964A Active JP6538128B2 (ja) | 2013-05-24 | 2017-08-08 | オーディオ・オブジェクトを含むオーディオ・シーンの効率的な符号化 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016513406A Active JP6192813B2 (ja) | 2013-05-24 | 2014-05-23 | オーディオ・オブジェクトを含むオーディオ・シーンの効率的な符号化 |
Country Status (10)
Country | Link |
---|---|
US (3) | US9852735B2 (ja) |
EP (3) | EP3005353B1 (ja) |
JP (2) | JP6192813B2 (ja) |
KR (2) | KR101751228B1 (ja) |
CN (4) | CN110085240B (ja) |
BR (1) | BR112015029113B1 (ja) |
ES (1) | ES2643789T3 (ja) |
HK (2) | HK1214027A1 (ja) |
RU (2) | RU2634422C2 (ja) |
WO (1) | WO2014187991A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101751228B1 (ko) * | 2013-05-24 | 2017-06-27 | 돌비 인터네셔널 에이비 | 오디오 오브젝트들을 포함한 오디오 장면들의 효율적 코딩 |
WO2015006112A1 (en) * | 2013-07-08 | 2015-01-15 | Dolby Laboratories Licensing Corporation | Processing of time-varying metadata for lossless resampling |
EP2879131A1 (en) | 2013-11-27 | 2015-06-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Decoder, encoder and method for informed loudness estimation in object-based audio coding systems |
CN112954580B (zh) * | 2014-12-11 | 2022-06-28 | 杜比实验室特许公司 | 元数据保留的音频对象聚类 |
TWI607655B (zh) * | 2015-06-19 | 2017-12-01 | Sony Corp | Coding apparatus and method, decoding apparatus and method, and program |
JP6355207B2 (ja) * | 2015-07-22 | 2018-07-11 | 日本電信電話株式会社 | 伝送システム、符号化装置、復号装置、それらの方法及びプログラム |
US10278000B2 (en) | 2015-12-14 | 2019-04-30 | Dolby Laboratories Licensing Corporation | Audio object clustering with single channel quality preservation |
JP7023848B2 (ja) | 2016-01-29 | 2022-02-22 | ドルビー ラボラトリーズ ライセンシング コーポレイション | バイノーラル・ダイアログ向上 |
CN106411795B (zh) * | 2016-10-31 | 2019-07-16 | 哈尔滨工业大学 | 一种非重构框架下的信号估计方法 |
WO2018162472A1 (en) | 2017-03-06 | 2018-09-13 | Dolby International Ab | Integrated reconstruction and rendering of audio signals |
CN113242508B (zh) * | 2017-03-06 | 2022-12-06 | 杜比国际公司 | 基于音频数据流渲染音频输出的方法、解码器系统和介质 |
GB2567172A (en) | 2017-10-04 | 2019-04-10 | Nokia Technologies Oy | Grouping and transport of audio objects |
WO2019069710A1 (ja) * | 2017-10-05 | 2019-04-11 | ソニー株式会社 | 符号化装置および方法、復号装置および方法、並びにプログラム |
GB2578715A (en) * | 2018-07-20 | 2020-05-27 | Nokia Technologies Oy | Controlling audio focus for spatial audio processing |
BR112021009306A2 (pt) * | 2018-11-20 | 2021-08-10 | Sony Group Corporation | dispositivo e método de processamento de informações, e, programa. |
CN114072874A (zh) * | 2019-07-08 | 2022-02-18 | 沃伊斯亚吉公司 | 用于编解码音频流中的元数据和用于对音频流编解码的有效比特率分配的方法和系统 |
WO2021053266A2 (en) * | 2019-09-17 | 2021-03-25 | Nokia Technologies Oy | Spatial audio parameter encoding and associated decoding |
GB2590650A (en) * | 2019-12-23 | 2021-07-07 | Nokia Technologies Oy | The merging of spatial audio parameters |
EP4243015A4 (en) | 2021-01-27 | 2024-04-17 | Samsung Electronics Co., Ltd. | AUDIO PROCESSING APPARATUS AND METHOD |
KR20230001135A (ko) * | 2021-06-28 | 2023-01-04 | 네이버 주식회사 | 사용자 맞춤형 현장감 실현을 위한 오디오 콘텐츠를 처리하는 컴퓨터 시스템 및 그의 방법 |
Family Cites Families (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4610087B2 (ja) * | 1999-04-07 | 2011-01-12 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | 損失のない符号化・復号へのマトリックス改良 |
US6351733B1 (en) * | 2000-03-02 | 2002-02-26 | Hearing Enhancement Company, Llc | Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process |
US7567675B2 (en) | 2002-06-21 | 2009-07-28 | Audyssey Laboratories, Inc. | System and method for automatic multiple listener room acoustic correction with low filter orders |
DE10344638A1 (de) * | 2003-08-04 | 2005-03-10 | Fraunhofer Ges Forschung | Vorrichtung und Verfahren zum Erzeugen, Speichern oder Bearbeiten einer Audiodarstellung einer Audioszene |
FR2862799B1 (fr) * | 2003-11-26 | 2006-02-24 | Inst Nat Rech Inf Automat | Dispositif et methode perfectionnes de spatialisation du son |
US7394903B2 (en) | 2004-01-20 | 2008-07-01 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal |
CN101552007B (zh) * | 2004-03-01 | 2013-06-05 | 杜比实验室特许公司 | 用于对编码音频信道和空间参数进行解码的方法和设备 |
CN1938760B (zh) * | 2004-04-05 | 2012-05-23 | 皇家飞利浦电子股份有限公司 | 多通道编码器 |
GB2415639B (en) | 2004-06-29 | 2008-09-17 | Sony Comp Entertainment Europe | Control of data processing |
SE0402651D0 (sv) * | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Advanced methods for interpolation and parameter signalling |
ATE521143T1 (de) * | 2005-02-23 | 2011-09-15 | Ericsson Telefon Ab L M | Adaptive bitzuweisung für die mehrkanal- audiokodierung |
BRPI0608945C8 (pt) | 2005-03-30 | 2020-12-22 | Coding Tech Ab | codificador de áudio de multi-canal, decodificador de áudio de multi-canal, método de codificar n sinais de áudio em m sinais de áudio e dados paramétricos associados, método de decodificar k sinais de áudio e dados paramétricos associados, método de transmitir e receber um sinal de áudio de multi-canal codificado, mídia de armazenamento legível por computador, e, sistema de transmissão |
CN101253550B (zh) * | 2005-05-26 | 2013-03-27 | Lg电子株式会社 | 将音频信号编解码的方法 |
US20080262853A1 (en) * | 2005-10-20 | 2008-10-23 | Lg Electronics, Inc. | Method for Encoding and Decoding Multi-Channel Audio Signal and Apparatus Thereof |
CN101292284B (zh) * | 2005-10-20 | 2012-10-10 | Lg电子株式会社 | 编码解码多声道音频信号的方法及其装置 |
CN101484936B (zh) * | 2006-03-29 | 2012-02-15 | 皇家飞利浦电子股份有限公司 | 音频解码 |
US7965848B2 (en) * | 2006-03-29 | 2011-06-21 | Dolby International Ab | Reduced number of channels decoding |
US8379868B2 (en) | 2006-05-17 | 2013-02-19 | Creative Technology Ltd | Spatial audio coding based on universal spatial cues |
MY151722A (en) * | 2006-07-07 | 2014-06-30 | Fraunhofer Ges Forschung | Concept for combining multiple parametrically coded audio sources |
DE602007012730D1 (de) * | 2006-09-18 | 2011-04-07 | Koninkl Philips Electronics Nv | Kodierung und dekodierung von audio-objekten |
RU2407072C1 (ru) | 2006-09-29 | 2010-12-20 | ЭлДжи ЭЛЕКТРОНИКС ИНК. | Способы и устройства кодирования и декодирования объектно-ориентированных аудиосигналов |
KR101065704B1 (ko) * | 2006-09-29 | 2011-09-19 | 엘지전자 주식회사 | 오브젝트 기반 오디오 신호를 인코딩 및 디코딩하는 방법 및 장치 |
ATE476834T1 (de) | 2006-10-13 | 2010-08-15 | Galaxy Studios Nv | Verfahren und codierer zum kombinieren von digitalen datensätzen, decodierungsverfahren und decodierer für solche kombinierte digitale datensätze und aufzeichnungsträger zum speichern eines solchen kombinierten digitalen datensatzes |
EP2082397B1 (en) * | 2006-10-16 | 2011-12-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for multi -channel parameter transformation |
JP5270557B2 (ja) * | 2006-10-16 | 2013-08-21 | ドルビー・インターナショナル・アクチボラゲット | 多チャネルダウンミックスされたオブジェクト符号化における強化された符号化及びパラメータ表現 |
KR101102401B1 (ko) | 2006-11-24 | 2012-01-05 | 엘지전자 주식회사 | 오브젝트 기반 오디오 신호의 부호화 및 복호화 방법과 그 장치 |
US8290167B2 (en) | 2007-03-21 | 2012-10-16 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method and apparatus for conversion between multi-channel audio formats |
EP2137725B1 (en) * | 2007-04-26 | 2014-01-08 | Dolby International AB | Apparatus and method for synthesizing an output signal |
CN101821799B (zh) * | 2007-10-17 | 2012-11-07 | 弗劳恩霍夫应用研究促进协会 | 使用上混合的音频编码 |
ES2391801T3 (es) | 2008-01-01 | 2012-11-30 | Lg Electronics Inc. | Procedimiento y aparato para procesar una señal de audio |
KR101461685B1 (ko) * | 2008-03-31 | 2014-11-19 | 한국전자통신연구원 | 다객체 오디오 신호의 부가정보 비트스트림 생성 방법 및 장치 |
US8060042B2 (en) * | 2008-05-23 | 2011-11-15 | Lg Electronics Inc. | Method and an apparatus for processing an audio signal |
US8315396B2 (en) * | 2008-07-17 | 2012-11-20 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for generating audio output signals using object based metadata |
JP5243527B2 (ja) | 2008-07-29 | 2013-07-24 | パナソニック株式会社 | 音響符号化装置、音響復号化装置、音響符号化復号化装置および会議システム |
EP2175670A1 (en) * | 2008-10-07 | 2010-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Binaural rendering of a multi-channel audio signal |
WO2010041877A2 (en) * | 2008-10-08 | 2010-04-15 | Lg Electronics Inc. | A method and an apparatus for processing a signal |
MX2011011399A (es) * | 2008-10-17 | 2012-06-27 | Univ Friedrich Alexander Er | Aparato para suministrar uno o más parámetros ajustados para un suministro de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendete, decodificador de señal de audio, transcodificador de señal de audio, codificador de señal de audio, flujo de bits de audio, método y programa de computación que utiliza información paramétrica relacionada con el objeto. |
EP2214161A1 (en) * | 2009-01-28 | 2010-08-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and computer program for upmixing a downmix audio signal |
JP5163545B2 (ja) * | 2009-03-05 | 2013-03-13 | 富士通株式会社 | オーディオ復号装置及びオーディオ復号方法 |
US20100324915A1 (en) * | 2009-06-23 | 2010-12-23 | Electronic And Telecommunications Research Institute | Encoding and decoding apparatuses for high quality multi-channel audio codec |
KR101283783B1 (ko) * | 2009-06-23 | 2013-07-08 | 한국전자통신연구원 | 고품질 다채널 오디오 부호화 및 복호화 장치 |
MY154078A (en) * | 2009-06-24 | 2015-04-30 | Fraunhofer Ges Forschung | Audio signal decoder, method for decoding an audio signal and computer program using cascaded audio object processing stages |
JP5793675B2 (ja) | 2009-07-31 | 2015-10-14 | パナソニックIpマネジメント株式会社 | 符号化装置および復号装置 |
EP2465259A4 (en) | 2009-08-14 | 2015-10-28 | Dts Llc | OBJECT-ORIENTED AUDIOSTREAMING SYSTEM |
CA2775828C (en) * | 2009-09-29 | 2016-03-29 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio signal decoder, audio signal encoder, method for providing an upmix signal representation, method for providing a downmix signal representation, computer program and bitstream using a common inter-object-correlation parameter value |
US9432790B2 (en) | 2009-10-05 | 2016-08-30 | Microsoft Technology Licensing, Llc | Real-time sound propagation for dynamic sources |
JP5771618B2 (ja) * | 2009-10-19 | 2015-09-02 | ドルビー・インターナショナル・アーベー | 音声オブジェクトの区分を示すメタデータ時間標識情報 |
ES2529219T3 (es) | 2009-10-20 | 2015-02-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato para proporcionar una representación de señal de mezcla ascendente sobre la base de la representación de una señal de mezcla descendente, aparato para proporcionar un flujo de bits que representa una señal de audio de canales múltiples, métodos, programa de computación y un flujo de bits que utiliza una señalización de control de distorsión |
ES2569779T3 (es) | 2009-11-20 | 2016-05-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato para proporcionar una representación de señal de mezcla ascendente con base en la representación de señal de mezcla descendente, aparato para proporcionar un flujo de bits que representa una señal de audio multicanal, métodos, programas informáticos y flujo de bits que representan una señal de audio multicanal usando un parámetro de combinación lineal |
TWI444989B (zh) * | 2010-01-22 | 2014-07-11 | Dolby Lab Licensing Corp | 針對改良多通道上混使用多通道解相關之技術 |
ES2810824T3 (es) | 2010-04-09 | 2021-03-09 | Dolby Int Ab | Sistema decodificador, método de decodificación y programa informático respectivo |
GB2485979A (en) | 2010-11-26 | 2012-06-06 | Univ Surrey | Spatial audio coding |
JP2012151663A (ja) | 2011-01-19 | 2012-08-09 | Toshiba Corp | 立体音響生成装置及び立体音響生成方法 |
US9165558B2 (en) * | 2011-03-09 | 2015-10-20 | Dts Llc | System for dynamically creating and rendering audio objects |
EP2829083B1 (en) | 2012-03-23 | 2016-08-10 | Dolby Laboratories Licensing Corporation | System and method of speaker cluster design and rendering |
US9516446B2 (en) * | 2012-07-20 | 2016-12-06 | Qualcomm Incorporated | Scalable downmix design for object-based surround codec with cluster analysis by synthesis |
US9761229B2 (en) * | 2012-07-20 | 2017-09-12 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for audio object clustering |
CN104520924B (zh) | 2012-08-07 | 2017-06-23 | 杜比实验室特许公司 | 指示游戏音频内容的基于对象的音频的编码和呈现 |
EP2717262A1 (en) * | 2012-10-05 | 2014-04-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Encoder, decoder and methods for signal-dependent zoom-transform in spatial audio object coding |
US9805725B2 (en) | 2012-12-21 | 2017-10-31 | Dolby Laboratories Licensing Corporation | Object clustering for rendering object-based audio content based on perceptual criteria |
BR122021009025B1 (pt) | 2013-04-05 | 2022-08-30 | Dolby International Ab | Método de decodificação para decodificar dois sinais de áudio e decodificador para decodificar dois sinais de áudio |
KR101751228B1 (ko) * | 2013-05-24 | 2017-06-27 | 돌비 인터네셔널 에이비 | 오디오 오브젝트들을 포함한 오디오 장면들의 효율적 코딩 |
CN105229731B (zh) | 2013-05-24 | 2017-03-15 | 杜比国际公司 | 根据下混的音频场景的重构 |
JP6105159B2 (ja) | 2013-05-24 | 2017-03-29 | ドルビー・インターナショナル・アーベー | オーディオ・エンコーダおよびデコーダ |
RU2608847C1 (ru) | 2013-05-24 | 2017-01-25 | Долби Интернешнл Аб | Кодирование звуковых сцен |
-
2014
- 2014-05-23 KR KR1020157033368A patent/KR101751228B1/ko active IP Right Grant
- 2014-05-23 US US14/893,512 patent/US9852735B2/en active Active
- 2014-05-23 ES ES14726358.6T patent/ES2643789T3/es active Active
- 2014-05-23 CN CN201910056238.9A patent/CN110085240B/zh active Active
- 2014-05-23 EP EP14726358.6A patent/EP3005353B1/en active Active
- 2014-05-23 BR BR112015029113-9A patent/BR112015029113B1/pt active IP Right Grant
- 2014-05-23 CN CN201910055563.3A patent/CN109712630B/zh active Active
- 2014-05-23 EP EP17186277.4A patent/EP3312835B1/en active Active
- 2014-05-23 CN CN201480029569.9A patent/CN105229733B/zh active Active
- 2014-05-23 WO PCT/EP2014/060734 patent/WO2014187991A1/en active Application Filing
- 2014-05-23 EP EP20170055.6A patent/EP3712889A1/en active Pending
- 2014-05-23 CN CN201910017541.8A patent/CN109410964B/zh active Active
- 2014-05-23 RU RU2015150078A patent/RU2634422C2/ru active
- 2014-05-23 JP JP2016513406A patent/JP6192813B2/ja active Active
- 2014-05-23 RU RU2017134913A patent/RU2745832C2/ru active
- 2014-05-23 KR KR1020177016964A patent/KR102033304B1/ko active IP Right Grant
-
2016
- 2016-02-18 HK HK16101751.9A patent/HK1214027A1/zh unknown
-
2017
- 2017-08-08 JP JP2017152964A patent/JP6538128B2/ja active Active
- 2017-11-22 US US15/821,000 patent/US11270709B2/en active Active
-
2018
- 2018-05-09 HK HK18105983.8A patent/HK1246959A1/zh unknown
-
2022
- 2022-03-07 US US17/687,956 patent/US11705139B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6538128B2 (ja) | オーディオ・オブジェクトを含むオーディオ・シーンの効率的な符号化 | |
JP6190947B2 (ja) | オーディオ・オブジェクトを含むオーディオ・シーンの効率的な符号化 | |
EP3127109B1 (en) | Efficient coding of audio scenes comprising audio objects | |
JP7413418B2 (ja) | 信号をインタリーブするためのオーディオ復号器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6538128 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |