JP6149152B2 - 条件付きレンダリング・メタデータをもつオブジェクト・ベース・オーディオを生成し、レンダリングする方法およびシステム - Google Patents
条件付きレンダリング・メタデータをもつオブジェクト・ベース・オーディオを生成し、レンダリングする方法およびシステム Download PDFInfo
- Publication number
- JP6149152B2 JP6149152B2 JP2016506612A JP2016506612A JP6149152B2 JP 6149152 B2 JP6149152 B2 JP 6149152B2 JP 2016506612 A JP2016506612 A JP 2016506612A JP 2016506612 A JP2016506612 A JP 2016506612A JP 6149152 B2 JP6149152 B2 JP 6149152B2
- Authority
- JP
- Japan
- Prior art keywords
- channel
- audio
- speaker
- rendering
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 title claims description 411
- 238000000034 method Methods 0.000 title claims description 82
- 238000012545 processing Methods 0.000 claims description 99
- 230000004044 response Effects 0.000 claims description 38
- 238000002156 mixing Methods 0.000 claims description 23
- 239000000203 mixture Substances 0.000 description 123
- 238000010586 diagram Methods 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000002452 interceptive effect Effects 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000007935 neutral effect Effects 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 101150042618 comm2 gene Proteins 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/03—Application of parametric coding in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Stereophonic System (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
本願は2013年4月3日に出願された米国仮特許出願第61/807,922号の出願日の利益および2013年6月7日に出願された米国仮特許出願第61/832,397号の出願日の利益を主張する。
本発明はオーディオ信号処理に、より詳細には(少なくとも一つのスピーカー・チャネルおよび少なくとも一つのオーディオ・オブジェクト・チャネルを示す)オーディオ・コンテンツおよび該オーディオ・コンテンツの、再生スピーカー構成に依存した条件付きのレンダリングをサポートするメタデータを含むオーディオ・データ・ビットストリームのエンコード、デコードおよび対話的レンダリングに関する。本発明のいくつかの実施形態は、ドルビー・デジタル(AC-3)、ドルビー・デジタル・プラス(Enhanced AC-3[向上AC-3]またはE-AC-3)またはドルビーEとして知られるフォーマットの一つでオーディオ・データを生成、デコードおよび/またはレンダリングする。
いくつかの実施形態では、条件付きレンダリング・メタデータは、再生スピーカー・アレイ構成に基づくダウンミックス制約条件である少なくとも一つのレンダリング制約条件を示すオブジェクト関係メタデータであり、この条件は対応する各オブジェクト・チャネルに当てはまる(すなわち、各オブジェクト・チャネルが条件付きレンダリング・メタデータに対応する)。そのようなダウンミックス制約条件の例は、再生スピーカー・アレイ構成が特定の型であるときの、対応するオブジェクト・チャネルのダウンミックスの禁止である。再生システム(その再生スピーカー・アレイがこの特定の型であることを知っている)は、オブジェクト・チャネルの、プログラムのスピーカー・チャネルへのいかなるダウンミックスの実装も防止することにより、そのようなダウンミックス制約条件を示す条件付きレンダリング・メタデータに応答して動作する。(このクラスの実施形態にの方法によって)生成される条件付きレンダリング・メタデータによって示されるダウンミックス制約条件のもう一つの例は、再生スピーカー・アレイ構成が特定の型であるときに、対応するオブジェクト・チャネルを含む少なくとも一つの許されるダウンミックス(またはダウンミックスの型)の指示である。条件付きレンダリング・メタデータによって示されるダウンミックス制約条件の他の例は、再生スピーカー構成に基づく(対応するオブジェクト・チャネルの、一つまたは複数のスピーカー・チャネルへのダウンミックス中の)オーディオ・オブジェクトの配置、レベル、サイズおよび他の属性である。
少なくとも一つのオブジェクト・チャネルに対応する条件付きレンダリング・メタデータを生成する段階であって、前記条件付きレンダリング・メタデータは、前記少なくとも一つのオブジェクト・チャネルに当てはまる、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング制約条件(たとえばダウンミックス制約条件)を示す、段階と;
前記少なくとも一つのオブジェクト・チャネルを(任意的には少なくとも一つのスピーカー・チャネルも)含むオーディオ・チャネルの集合を決定する段階と;
前記オブジェクト・ベース・オーディオ・プログラムがオーディオ・チャネルの前記集合および前記条件付きレンダリング・メタデータを示すよう、かつオーディオ・チャネルの前記集合の少なくとも一つのオーディオ・チャネルのコンテンツが、前記条件付きレンダリング・メタデータの少なくとも一部に応答して再生システムによって前記少なくとも一つのレンダリング制約条件に従う仕方でレンダリング可能であるよう、前記オブジェクト・ベース・オーディオ・プログラムを生成する段階とを含む、
方法である。
第一の型(たとえば、プログラムの少なくとも一部の条件付きレンダリング・メタデータによって示される)の当該プログラムの各オブジェクト・チャネルは、再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含む場合には、プログラムのコンテンツの、任意のユーザー選択される(またはデフォルトの)混合によって指定されるスピーカー・チャネルがあればそれにダウンミックスされるべきであり、
前記第一の型の当該プログラムの各オブジェクト・チャネルは、再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含まない場合には、再生システムによって無視されるべきであり(すなわち、いかなるダウンミックスにも含められるべきではない)、
第二の型(たとえば、プログラムの少なくとも一部の条件付きレンダリング・メタデータによって示される)の当該プログラムの各オブジェクト・チャネルは、再生スピーカー・アレイの構成に関わりなく、プログラムのチャネルのコンテンツの、任意のユーザー選択される(またはデフォルトの)混合によって指定される任意のスピーカー・チャネルにダウンミックスされるべきである。
(a)前記オブジェクト・ベース・オーディオ・プログラムをオーディオ処理ユニットに提供する段階と;
(b)前記オーディオ処理ユニットにおいて、前記条件付きレンダリング・メタデータおよびオーディオ・チャネルの前記集合をパースして、オーディオ・チャネルの前記集合の少なくとも一つのオーディオ・チャネルのコンテンツを、前記条件付きレンダリング・メタデータの少なくとも一部に応答して、前記少なくとも一つのレンダリング制約条件に従う仕方でレンダリングする段階とを含む、
方法である。
存在(すなわち、各オブジェクト・チャネルについて、そのオブジェクト・チャネルが対応する構成をもつ再生スピーカー・アレイによるレンダリングのためのダウンミックス中に存在するべきかどうかについての指示);
音場内での位置(すなわち、対応する構成をもつ再生スピーカー・アレイによるレンダリングのためのダウンミックス中に含められるべき各オブジェクト・チャネルについて、当該ダウンミックスによって決定されるスピーカー・フィードが利用可能なスピーカーを駆動するときに、そこから対応する音が発していると知覚されるべき見かけの空間位置の指示);
利得(すなわち、対応する構成をもつ再生スピーカー・アレイによるレンダリングのためのダウンミックス中に含められるべき各オブジェクト・チャネルについて、ダウンミックスを生成するときに対応するオーディオ・サンプルに適用されるべき利得の指示);
効果(すなわち、対応する構成をもつ再生スピーカー・アレイによるレンダリングのためのダウンミックス中に含められるべき各オブジェクト・チャネルについて、ダウンミックスを生成するときに対応するオーディオ・サンプルに適用されるべき特殊効果処理(もしあれば)の各型の指示。そのような処理の例は、発散処理および残響適用を含むがそれに限定されない)。
請求項を含む本開示を通じて、信号またはデータ「に対して」動作を実行する(たとえば信号またはデータをフィルタリングする、スケーリングする、変換するまたは利得を適用する)という表現は、信号またはデータに対して直接的に、または信号またはデータの処理されたバージョンに対して(たとえば、予備的なフィルタリングまたは前処理を該動作の実行に先立って受けている前記信号のバージョンに対して)該動作を実行することを表わすために広義で使用される。
図5は、システムであって、システムの要素の一つまたは複数が本発明の実施形態に基づいて構成されうる、オーディオ処理チェーン(オーディオ・データ処理システム)の例のブロック図である。本システムは、図のように一緒に結合された以下の要素を含む:捕捉ユニット1、プロダクション・ユニット3(これはエンコード・サブシステムを含む)、送達サブシステム5、デコーダ7、オブジェクト処理サブシステム9、コントローラ10およびレンダリング・サブシステム11。図示したシステムに対する諸変形においては、要素の一つまたは複数が省略されたり、あるいは追加的なオーディオ・データ処理ユニットが含められたりする。典型的には、要素7、9、10および11は再生システム(たとえばエンドユーザーの家庭シアター・システム)であるまたは再生システムに含まれる。
プログラムのスピーカー・チャネルのベッドを(典型的にはプログラムの代替スピーカー・チャネルも)示すオーディオ・サンプルのストリーム;および
プログラムのオブジェクト・チャネル(たとえば、ユーザー選択可能なオーディオ・オブジェクト・チャネル)を示すオーディオ・サンプルのストリームおよびオブジェクト関係メタデータ(条件付きレンダリング・メタデータを含む)の対応するストリーム。
第一の型(たとえば、プログラムの少なくとも一部の条件付きレンダリング・メタデータによって示される)の当該プログラムの各オブジェクト・チャネルは、再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含む場合には、プログラムのコンテンツの、任意のユーザー選択される(またはデフォルトの)混合によって指定される任意のスピーカー・チャネルにダウンミックスされるべきであり、
前記第一の型の当該プログラムの各オブジェクト・チャネルは、再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含まない場合には、再生システムによって無視されるべきであり(すなわち、いかなるダウンミックスにも含められるべきではない)、
第二の型(たとえば、プログラムの少なくとも一部の条件付きレンダリング・メタデータによって示される)の当該プログラムの各オブジェクト・チャネルは、再生スピーカー・アレイの構成に関わりなく、プログラムのチャネルのコンテンツの、任意のユーザー選択される(またはデフォルトの)混合によって指定される任意のスピーカー・チャネルにダウンミックスされるべきである。
少なくとも一つのオブジェクト・チャネルに対応する条件付きレンダリング・メタデータを(たとえば図5のユニット3において)生成する段階であって、前記条件付きレンダリング・メタデータは、前記少なくとも一つのオブジェクト・チャネルに当てはまる、再生スピーカー・アレイ構成(たとえば、再生スピーカー・アレイ13の構成)に基づく少なくとも一つのレンダリング制約条件(たとえば少なくとも一つのダウンミックス制約条件)を示す、段階と;
前記少なくとも一つのオブジェクト・チャネルを(任意的には少なくとも一つのスピーカー・チャネルも)含むオーディオ・チャネルの集合を(たとえば図5のユニット3において)決定する段階と;
前記オブジェクト・ベース・オーディオ・プログラムがオーディオ・チャネルの前記集合および前記条件付きレンダリング・メタデータを示すよう、かつオーディオ・チャネルの前記集合の少なくとも一つのオーディオ・チャネルのコンテンツが、前記条件付きレンダリング・メタデータの少なくとも一部に応答して再生システムによって前記少なくとも一つのレンダリング制約条件に従う仕方でレンダリング可能であるよう、前記オブジェクト・ベース・オーディオ・プログラムを(図5のユニット3において)生成する段階とを含む、
方法である。
(a)前記オブジェクト・ベース・オーディオ・プログラムをオーディオ処理ユニット(たとえば、図5の再生サブシステムを実装するオーディオ処理ユニットであって、デコーダ7、オブジェクト処理サブシステム9、コントローラ10およびレンダリング・サブシステム11を有するものまたは図6の再生システムを実装するオーディオ処理ユニット)に提供する段階と;
(b)前記オーディオ処理ユニットにおいて(たとえば、図5のデコーダ7または図6のデコーダ20において)、前記条件付きレンダリング・メタデータおよびオーディオ・チャネルの前記集合をパースして、オーディオ・チャネルの前記集合の少なくとも一つのオーディオ・チャネルのコンテンツを、前記条件付きレンダリング・メタデータの少なくとも一部に応答して、前記少なくとも一つのレンダリング制約条件に従う仕方で(たとえば、図5のサブシステム9および11または図6のサブシステム24において)レンダリングする段階とを含む、
方法である。
存在(すなわち、各オブジェクト・チャネルについて、そのオブジェクト・チャネルが対応する構成をもつ再生スピーカー・アレイによるレンダリングのためのダウンミックス中に存在するべきかどうかについての指示);
音場内での位置(すなわち、対応する構成をもつ再生スピーカー・アレイによるレンダリングのためのダウンミックス中に含められるべき各オブジェクト・チャネルについて、当該ダウンミックスによって決定されるスピーカー・フィードが利用可能なスピーカーを駆動するときに、そこから対応する音が発していると知覚されるべき見かけの空間位置の指示);
利得(すなわち、対応する構成をもつ再生スピーカー・アレイによるレンダリングのためのダウンミックス中に含められるべき各オブジェクト・チャネルについて、ダウンミックスを生成するときに対応するオーディオ・サンプルに適用されるべき利得の指示);
効果(すなわち、対応する構成をもつ再生スピーカー・アレイによるレンダリングのためのダウンミックス中に含められるべき各オブジェクト・チャネルについて、ダウンミックスを生成するときに対応するオーディオ・サンプルに適用されるべき特殊効果処理(もしあれば)の各型の指示。そのような処理の例は、発散処理および残響適用を含むがそれに限定されない)。
オブジェクト・ベース・オーディオ・プログラムをデコードする(プログラムの条件付きレンダリング・メタデータをパースすることによることを含む)および/またはオブジェクト・ベース・オーディオ・プログラムのコンテンツをレンダリングする(条件付きレンダリング・メタデータをパースして、該条件付きレンダリング・メタデータに従ってプログラム・コンテンツのダウンミックスを実行することによることを含む)、ための方法およびシステム(たとえばデコーダおよび再生システム)。
高レベル構造。これは、補助データ(またはaddbsi)フィールドがメタデータを含むかどうかを示すフラグ(ここで、このコンテキストにおける「メタデータ」はオブジェクト・チャネル、オブジェクト関係メタデータおよびビットストリームによって担持されるが、記載される型のいかなるコンテナも欠く通常のE-AC-3またはAC-3ビットストリームには通常担持されない他の任意のオーディオ・コンテンツまたはメタデータを表わす)と、どの型(単数または複数)のメタデータが存在しているかを示す少なくとも一つのID値と、典型的にはまた(メタデータが存在する場合)(たとえば各型の)何ビットのメタデータが存在するかを示す値とを含む。このコンテキストにおいて、メタデータの一つのそのような「型」の例は、オブジェクト・チャネル・データおよび関連付けられたオブジェクト関係メタデータ(すなわち、(やはりプログラムによって示されるスピーカー・チャネルのベッドに関係する)一つまたは複数のオブジェクト・チャネルの各オブジェクト・チャネルのオーディオ・サンプルと、各オブジェクト・チャネルに関連付けられたメタデータとの組)である。
一つのコア要素について各ペイロードを含む低レベル構造。これは、少なくとも一つのそのようなペイロードがコア要素によって存在していると同定される場合である。そのようなペイロードの例は、やはりプログラムによって示されるスピーカー・チャネルのベッドに関係する)一つまたは複数のオブジェクト・チャネルの各オブジェクト・チャネルのオーディオ・サンプルと、各オブジェクト・チャネルに関連付けられたメタデータとの組である。そのようなペイロードのもう一つの例は、時にLPSMペイロードと称される、ラウドネス処理状態メタデータ(LPSM: loudness processing state metadata)を含むペイロードである。
いくつかの実施形態では、本発明は、少なくとも一つのあらかじめ決定された規則がオブジェクト・ベース・オーディオ・プログラムのどのオブジェクト・チャネル(単数または複数)が(たとえばスピーカー・チャネルのベッドと一緒に)レンダリングされるかを決定する、規則ベースのオブジェクト・チャネル選択を実装する。ユーザーは、オブジェクト・チャネル選択のための少なくとも一つの規則を(たとえば再生システム・コントローラのユーザー・インターフェースによって呈示される利用可能な規則のメニューから選択することによって)指定してもよく、再生システム(たとえば図6のシステムのオブジェクト処理サブシステム22)は、そのような各規則を適用して、レンダリングされるべきオブジェクト・ベース・オーディオ・プログラムのどのオブジェクト・チャネルが(たとえば図6のシステムのサブシステム24またはサブシステム24および35によって)レンダリングされるべき混合中に含められるべきかを決定するよう構成されていてもよい。再生システムは、プログラムのどのオブジェクト・チャネルが(たとえば再生スピーカー・アレイの構成が与えられたときの)所定の規則(単数または複数)を満たすかをプログラム中のオブジェクト関係メタデータ(たとえば条件付きレンダリング・メタデータ)から決定してもよい。
いくつかの態様を記載しておく。
〔態様1〕
オブジェクト・ベース・オーディオ・プログラムを生成する方法であって:
少なくとも一つのオブジェクト・チャネルに対応する条件付きレンダリング・メタデータを生成する段階であって、前記条件付きレンダリング・メタデータは、前記少なくとも一つのオブジェクト・チャネルに当てはまる、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング制約条件を示す、段階と;
前記少なくとも一つのオブジェクト・チャネルを含むオーディオ・チャネルの集合を決定する段階と;
前記オブジェクト・ベース・オーディオ・プログラムがオーディオ・チャネルの前記集合および前記条件付きレンダリング・メタデータを示すよう、かつ前記プログラムの少なくとも一つのオーディオ・チャネルのコンテンツが、前記条件付きレンダリング・メタデータの少なくとも一部に応答して再生システムによって前記少なくとも一つのレンダリング制約条件に従う仕方でレンダリング可能であるよう、前記オブジェクト・ベース・オーディオ・プログラムを生成する段階とを含む、
方法。
〔態様2〕
前記条件付きレンダリング・メタデータは、前記プログラムのオーディオ・チャネルをレンダリングするための、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング規則をも示す、態様1記載の方法。
〔態様3〕
オーディオ・チャネルの前記集合は少なくとも一つのスピーカー・チャネルを含み、オーディオ・チャネルの前記集合の少なくとも一つのスピーカー・チャネルのオーディオ・コンテンツは観客イベントにおいて捕捉された音を示し、オーディオ・チャネルの前記集合の少なくとも一つのオブジェクト・チャネルによって示されるオーディオ・コンテンツは前記観客イベントについてのコメンタリーを示す、態様1または2記載の方法。
〔態様4〕
前記オブジェクト・ベース・オーディオ・プログラムは、フレームを含むエンコードされたビットストリームであり、前記エンコードされたビットストリームはAC-3ビットストリームまたはE-AC-3ビットストリームであり、前記エンコードされたビットストリームの各フレームは、前記少なくとも一つのオブジェクト・チャネルの一部のコンテンツおよび前記条件付きレンダリング・メタデータの一部を含むコンテナである少なくとも一つのデータ構造を示し、少なくとも一つの前記コンテナは、前記各フレームの補助データ・フィールドまたはaddbsiフィールドに含まれる、態様1ないし3のうちいずれか一項記載の方法。
〔態様5〕
前記オブジェクト・ベース・オーディオ・プログラムは、バーストおよびバーストの対の間の保護帯のシーケンスを含むドルビーEビットストリームである、態様1ないし3のうちいずれか一項記載の方法。
〔態様6〕
オブジェクト・ベース・オーディオ・プログラムが前記プログラムの前記オーディオ・コンテンツおよび前記メタデータを示す、エンコードされていない表現であり、前記エンコードされていない表現は、ビットストリームであるまたはメモリに非一時的な仕方で記憶されたデータの少なくとも一つのファイルである、態様1ないし3のうちいずれか一項記載の方法。
〔態様7〕
オブジェクト・ベース・オーディオ・プログラムによって決定されるオーディオ・コンテンツをレンダリングする方法であって、前記プログラムは、少なくとも一つのオブジェクト・チャネルに対応する条件付きレンダリング・メタデータと、前記少なくとも一つのオブジェクト・チャネルを含むオーディオ・チャネルの集合とを示し、前記条件付きレンダリング・メタデータは、前記少なくとも一つのオブジェクト・チャネルに当てはまる、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング制約条件を示し、当該方法は:
(a)前記オブジェクト・ベース・オーディオ・プログラムをオーディオ処理ユニットに提供する段階と;
(b)前記オーディオ処理ユニットにおいて、前記条件付きレンダリング・メタデータおよびオーディオ・チャネルの前記集合をパースして、オーディオ・チャネルの前記集合の少なくとも一つのオーディオ・チャネルのコンテンツを、前記条件付きレンダリング・メタデータの少なくとも一部に応答して、前記少なくとも一つのレンダリング制約条件に従う仕方でレンダリングする段階とを含む、
方法。
〔態様8〕
オーディオ・チャネルの前記集合は、少なくとも一つのスピーカー・チャネルを含み、段階(b)は、オーディオ・チャネルの前記集合の少なくとも一つのオブジェクト・チャネルを選択し、それにより選択されたオブジェクト・チャネルの部分集合を決定し、前記選択されたオブジェクト・チャネルの部分集合の各オブジェクト・チャネルを前記集合の少なくとも一つのスピーカー・チャネルと混合して、前記集合の前記選択されたオブジェクト・チャネルの部分集合および前記少なくとも一つのスピーカー・チャネルのコンテンツのダウンミックスをレンダリングする段階を含む、態様7記載の方法。
〔態様9〕
段階(b)は:
前記条件付きレンダリング・メタデータの少なくとも一部に応答して、かつ前記オーディオ処理ユニットの特定の再生スピーカー・アレイ構成に基づいて、選択のために利用可能なレンダリング・オプションのメニューを提供する段階と;
前記メニューによって示されるレンダリング・オプションの一つを選択することによって、オーディオ・チャネルの前記集合の前記少なくとも一つのオブジェクト・チャネルを選択して、それにより前記選択されたオブジェクト・チャネルの部分集合を決定する段階とを含む、
態様8記載の方法。
〔態様10〕
前記ダウンミックスはN個のダウンミックスされたスピーカー・チャネルの集合からなり、Nは正の整数であり、段階(b)は、再生スピーカー・アレイのN個のスピーカーに、ダウンミックスされたスピーカー・チャネルから生成されるスピーカー・フィードでそれらのスピーカーを駆動することによって音を発させる段階を含む、態様8記載の方法。
〔態様11〕
前記メニューは、コントローラのユーザー・インターフェースによって呈示され、前記コントローラは、前記コントローラはセットトップデバイスに結合されており、前記セットトップデバイスは、前記オブジェクト・ベース・オーディオ・プログラムを受領するよう結合され、段階(b)を実行するよう構成されている、態様7ないし10のうちいずれか一項記載の方法。
〔態様12〕
前記条件付きレンダリング・メタデータは、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング規則をも示し、段階(b)において実行されるレンダリングは該レンダリング規則に従う、態様7ないし11のうちいずれか一項記載の方法。
〔態様13〕
オブジェクト・ベース・オーディオ・プログラムによって決定されるオーディオ・コンテンツをレンダリングするシステムであって、前記プログラムは、少なくとも一つのオブジェクト・チャネルに対応する条件付きレンダリング・メタデータを示し、前記プログラムは、前記少なくとも一つのオブジェクト・チャネルを含むオーディオ・チャネルの集合をも示し、前記条件付きレンダリング・メタデータは、前記少なくとも一つのオブジェクト・チャネルに当てはまる、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング制約条件を示し、当該システムは:
前記オブジェクト・ベース・オーディオ・プログラムを受領するよう結合されており、前記条件付きレンダリング・メタデータおよびオーディオ・チャネルの前記集合をパースして、オーディオ・チャネルの前記集合の選択された部分集合を決定するよう構成されている第一のサブシステムと;
前記第一のサブシステムに結合され、オーディオ・チャネルの前記集合の前記選択された部分集合によって示されるコンテンツを、前記条件付きレンダリング・メタデータの少なくとも一部に応答して、前記少なくとも一つのレンダリング制約条件に従う仕方でレンダリングするよう構成されている、レンダリング・サブシステムとを有する、
システム。
〔態様14〕
オーディオ・チャネルの前記集合は、少なくとも一つのスピーカー・チャネルを含み、当該システムは、前記第一のサブシステムに結合されたコントローラをさらに含み、前記コントローラは、前記条件付きレンダリング・メタデータの少なくとも一部に応答して、かつシステムの特定の再生スピーカー・アレイ構成に基づいて、選択のために利用可能なレンダリング・オプションのメニューを提供するよう構成されており、
前記コントローラは、前記メニューによって示されるレンダリング・オプションの一つのユーザー選択に応答して、オーディオ・チャネルの前記集合の前記選択された部分集合を決定するよう構成されており、
前記レンダリング・サブシステムは、オーディオ・チャネルの前記集合の前記選択された部分集合の各オブジェクト・チャネルを、オーディオ・チャネルの前記集合の前記選択された部分集合の少なくとも一つのスピーカー・チャネルと混合して、前記コンテンツをレンダリングするよう構成されている、
態様13記載のシステム。
〔態様15〕
前記第一のサブシステムは、オーディオ・チャネルの前記集合の少なくとも一つのオブジェクト・チャネルを選択し、それにより選択されたオブジェクト・チャネルの部分集合を決定するよう構成されており、前記レンダリング・サブシステムは、前記選択されたオブジェクト・チャネルの部分集合の各オブジェクト・チャネルを前記集合の少なくとも一つのスピーカー・チャネルと混合して、前記集合の前記選択されたオブジェクト・チャネルの部分集合および前記少なくとも一つのスピーカー・チャネルのコンテンツのダウンミックスを生成するよう構成されている、態様13または14記載のシステム。
〔態様16〕
前記ダウンミックスはN個のダウンミックスされたスピーカー・チャネルの集合からなり、Nは正の整数であり、前記レンダリング・サブシステムは、再生スピーカー・アレイのN個のスピーカーを駆動して前記スピーカーに前記ダウンミックスのコンテンツを示す音を発させるために、ダウンミックスされたスピーカー・チャネルからスピーカー・フィードを生成するよう構成されている、態様15記載のシステム。
〔態様17〕
前記条件付きレンダリング・メタデータは、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング規則をも示し、前記レンダリング・サブシステムは該レンダリング規則に従う仕方で前記コンテンツをレンダリングするよう構成されている、態様13ないし16のうちいずれか一項記載のシステム。
〔態様18〕
バッファ・メモリおよび前記バッファ・メモリに結合された少なくとも一つのオーディオ処理サブシステムを含むオーディオ処理ユニットであって、
前記バッファ・メモリはオブジェクト・ベース・オーディオ・プログラムの少なくとも一つのセグメントを記憶し、前記プログラムは、少なくとも一つのオブジェクト・チャネルに対応する条件付きレンダリング・メタデータを示し、前記プログラムは、前記少なくとも一つのオブジェクト・チャネルを含むオーディオ・チャネルの集合をも示し、前記条件付きレンダリング・メタデータは、前記少なくとも一つのオブジェクト・チャネルに当てはまる、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング制約条件を示し、
各前記セグメントは、オーディオ・チャネルの前記集合のオーディオ・コンテンツおよび前記条件付きレンダリング・メタデータの少なくとも一部を示す、
オーディオ処理ユニット。
〔態様19〕
前記オブジェクト・ベース・オーディオ・プログラムがフレームを含むエンコードされたビットストリームであり、前記各セグメントは該フレームの一つである、態様18記載のオーディオ処理ユニット。
〔態様20〕
前記エンコードされたビットストリームはAC-3ビットストリームまたはE-AC-3ビットストリームであり、前記フレームのそれぞれは、前記少なくとも一つのオブジェクト・チャネルの一部のコンテンツおよび前記条件付きレンダリング・メタデータの一部を含むコンテナである少なくとも一つのデータ構造を示し、少なくとも一つの前記コンテナは、前記フレームの各フレームの補助データ・フィールドまたはaddbsiフィールドに含まれる、態様18または19記載のオーディオ処理ユニット。
〔態様21〕
前記オブジェクト・ベース・オーディオ・プログラムは、バーストおよびバーストの対の間の保護帯のシーケンスを含むドルビーEビットストリームである、態様18または19記載のオーディオ処理ユニット。
〔態様22〕
オブジェクト・ベース・オーディオ・プログラムが前記プログラムの前記オーディオ・コンテンツおよび前記メタデータを示す、エンコードされていない表現であり、前記エンコードされていない表現は、ビットストリームであるまたはメモリに非一時的な仕方で記憶されたデータの少なくとも一つのファイルである、態様18または19記載のオーディオ処理ユニット。
〔態様23〕
前記バッファ・メモリが前記セグメントを非一時的な仕方で記憶する、態様18ないし22のうちいずれか一項記載のオーディオ処理ユニット。
〔態様24〕
前記オーディオ処理サブシステムがエンコーダである、態様18ないし23のうちいずれか一項記載のオーディオ処理ユニット。
〔態様25〕
前記オーディオ処理サブシステムが、前記条件付きレンダリング・メタデータおよびオーディオ・チャネルの前記集合をパースするよう構成されている、態様18ないし24のうちいずれか一項記載のオーディオ処理ユニット。
〔態様26〕
前記オーディオ処理サブシステムが、前記条件付きレンダリング・メタデータの少なくとも一部に応答して、オーディオ・チャネルの前記集合の選択された部分集合によって示されるオーディオ・コンテンツの、前記少なくとも一つのレンダリング制約条件に従うダウンミックスをレンダリングするよう構成されている、態様18ないし25のうちいずれか一項記載のオーディオ処理ユニット。
Claims (14)
- オブジェクト・ベース・オーディオ・プログラムを生成するシステムによって実行される方法であって:
少なくとも一つのオブジェクト・チャネルに対応する条件付きレンダリング・メタデータを生成する段階であって、前記条件付きレンダリング・メタデータは、前記少なくとも一つのオブジェクト・チャネルに当てはまる、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング制約条件を示し、前記条件付きレンダリング・メタデータは、前記プログラムのオーディオ・チャネルをレンダリングするための、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング規則をも示し、前記少なくとも一つのレンダリング規則は、少なくとも下記、すなわち:
第一の型の各オブジェクト・チャネルは、前記再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含む場合には、前記プログラムのコンテンツの任意のユーザー選択されるまたはデフォルトの混合によって指定されるスピーカー・チャネルがあればそれにダウンミックスされるべきであり、
前記第一の型の各オブジェクト・チャネルは、前記再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含まない場合には、スピーカー・チャネルへのいかなるダウンミックスにも含められるべきではないということを含む、
段階と;
前記少なくとも一つのオブジェクト・チャネルを含むオーディオ・チャネルの集合を決定する段階と;
前記オブジェクト・ベース・オーディオ・プログラムがオーディオ・チャネルの前記集合および前記条件付きレンダリング・メタデータを示すよう、かつ前記プログラムの少なくとも一つのオーディオ・チャネルのコンテンツが、前記条件付きレンダリング・メタデータの少なくとも一部に応答して再生システムによって前記少なくとも一つのレンダリング制約条件および前記少なくとも一つのレンダリング規則に従う仕方でレンダリング可能であるよう、前記オブジェクト・ベース・オーディオ・プログラムを生成する段階とを含む、
方法。 - オーディオ・チャネルの前記集合は少なくとも一つのスピーカー・チャネルを含み、オーディオ・チャネルの前記集合の少なくとも一つのスピーカー・チャネルのオーディオ・コンテンツは観客イベントにおいて捕捉された音を示し、オーディオ・チャネルの前記集合の少なくとも一つのオブジェクト・チャネルによって示されるオーディオ・コンテンツは前記観客イベントについてのコメンタリーを示す、請求項1記載の方法。
- 前記オブジェクト・ベース・オーディオ・プログラムは、フレームを含むエンコードされたビットストリームであり、前記エンコードされたビットストリームはAC-3ビットストリームまたはE-AC-3ビットストリームであり、前記エンコードされたビットストリームの各フレームは、前記少なくとも一つのオブジェクト・チャネルの一部のコンテンツおよび前記条件付きレンダリング・メタデータの一部を含むコンテナである少なくとも一つのデータ構造を示し、少なくとも一つの前記コンテナは、前記各フレームの補助データ・フィールドまたはaddbsiフィールドに含まれる、請求項1または2記載の方法。
- 前記オブジェクト・ベース・オーディオ・プログラムは、バーストおよびバーストの対の間の保護帯のシーケンスを含むドルビーEビットストリームである、請求項1または2記載の方法。
- オブジェクト・ベース・オーディオ・プログラムが前記プログラムの前記オーディオ・コンテンツおよび前記メタデータを示す、エンコードされていない表現であり、前記エンコードされていない表現は、ビットストリームであるまたはメモリに非一時的な仕方で記憶されたデータの少なくとも一つのファイルである、請求項1または2記載の方法。
- オブジェクト・ベース・オーディオ・プログラムによって決定されるオーディオ・コンテンツをレンダリングするシステムによって実行される方法であって、前記プログラムは、少なくとも一つのオブジェクト・チャネルに対応する条件付きレンダリング・メタデータと、前記少なくとも一つのオブジェクト・チャネルを含むオーディオ・チャネルの集合とを示し、前記条件付きレンダリング・メタデータは、前記少なくとも一つのオブジェクト・チャネルに当てはまる、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング制約条件を示し、前記条件付きレンダリング・メタデータは、前記プログラムのオーディオ・チャネルをレンダリングするための、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング規則をも示し、当該方法は:
(a)前記オブジェクト・ベース・オーディオ・プログラムをオーディオ処理ユニットに提供する段階と;
(b)前記オーディオ処理ユニットにおいて、前記条件付きレンダリング・メタデータおよびオーディオ・チャネルの前記集合をパースして、オーディオ・チャネルの前記集合の少なくとも一つのオーディオ・チャネルのコンテンツを、前記条件付きレンダリング・メタデータの少なくとも一部に応答して、前記少なくとも一つのレンダリング制約条件および前記少なくとも一つのレンダリング規則に従う仕方でレンダリングする段階とを含み、
前記少なくとも一つのレンダリング規則は、少なくとも下記、すなわち:
第一の型の各オブジェクト・チャネルは、前記再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含む場合には、前記プログラムのコンテンツの任意のユーザー選択されるまたはデフォルトの混合によって指定されるスピーカー・チャネルがあればそれにダウンミックスされるべきであり、
前記第一の型の各オブジェクト・チャネルは、前記再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含まない場合には、スピーカー・チャネルへのいかなるダウンミックスにも含められるべきではないということを含む、
方法。 - オーディオ・チャネルの前記集合は、少なくとも一つのスピーカー・チャネルを含み、段階(b)は、オーディオ・チャネルの前記集合の少なくとも一つのオブジェクト・チャネルを選択し、それにより選択されたオブジェクト・チャネルの部分集合を決定し、前記選択されたオブジェクト・チャネルの部分集合の各オブジェクト・チャネルを前記集合の少なくとも一つのスピーカー・チャネルと混合して、前記集合の前記選択されたオブジェクト・チャネルの部分集合および前記少なくとも一つのスピーカー・チャネルのコンテンツのダウンミックスをレンダリングする段階を含む、請求項6記載の方法。
- 段階(b)は:
前記条件付きレンダリング・メタデータの少なくとも一部に応答して、かつ前記オーディオ処理ユニットの特定の再生スピーカー・アレイ構成に基づいて、選択のために利用可能なレンダリング・オプションのメニューを提供する段階と;
前記メニューによって示されるレンダリング・オプションの一つを選択することによって、オーディオ・チャネルの前記集合の前記少なくとも一つのオブジェクト・チャネルを選択して、それにより前記選択されたオブジェクト・チャネルの部分集合を決定する段階とを含む、
請求項7記載の方法。 - 前記ダウンミックスはN個のダウンミックスされたスピーカー・チャネルの集合からなり、Nは正の整数であり、段階(b)は、再生スピーカー・アレイのN個のスピーカーに、ダウンミックスされたスピーカー・チャネルから生成されるスピーカー・フィードでそれらのスピーカーを駆動することによって音を発させる段階を含む、請求項7記載の方法。
- 前記メニューは、コントローラのユーザー・インターフェースによって呈示され、前記コントローラは、前記コントローラはセットトップデバイスに結合されており、前記セットトップデバイスは、前記オブジェクト・ベース・オーディオ・プログラムを受領するよう結合され、段階(b)を実行するよう構成されている、請求項8記載の方法。
- オブジェクト・ベース・オーディオ・プログラムによって決定されるオーディオ・コンテンツをレンダリングするシステムであって、前記プログラムは、少なくとも一つのオブジェクト・チャネルに対応する条件付きレンダリング・メタデータを示し、前記プログラムは、前記少なくとも一つのオブジェクト・チャネルを含むオーディオ・チャネルの集合をも示し、前記条件付きレンダリング・メタデータは、前記少なくとも一つのオブジェクト・チャネルに当てはまる、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング制約条件を示し、前記条件付きレンダリング・メタデータは、前記プログラムのオーディオ・チャネルをレンダリングするための、再生スピーカー・アレイ構成に基づく少なくとも一つのレンダリング規則をも示し、当該システムは:
前記オブジェクト・ベース・オーディオ・プログラムを受領するよう結合されており、前記条件付きレンダリング・メタデータおよびオーディオ・チャネルの前記集合をパースして、オーディオ・チャネルの前記集合の選択された部分集合を決定するよう構成されている第一のサブシステムと;
前記第一のサブシステムに結合され、オーディオ・チャネルの前記集合の前記選択された部分集合によって示されるコンテンツを、前記条件付きレンダリング・メタデータの少なくとも一部に応答して、前記少なくとも一つのレンダリング制約条件および前記少なくとも一つのレンダリング規則に従う仕方でレンダリングするよう構成されている、レンダリング・サブシステムとを有し、
前記少なくとも一つのレンダリング規則は、少なくとも下記、すなわち:
第一の型の各オブジェクト・チャネルは、前記再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含む場合には、前記プログラムのコンテンツの任意のユーザー選択されるまたはデフォルトの混合によって指定されるスピーカー・チャネルがあればそれにダウンミックスされるべきであり、
前記第一の型の各オブジェクト・チャネルは、前記再生スピーカー・アレイが少なくとも一つの床上方スピーカーを含まない場合には、スピーカー・チャネルへのいかなるダウンミックスにも含められるべきではないということを含む、
システム。 - オーディオ・チャネルの前記集合は、少なくとも一つのスピーカー・チャネルを含み、当該システムは、前記第一のサブシステムに結合されたコントローラをさらに含み、前記コントローラは、前記条件付きレンダリング・メタデータの少なくとも一部に応答して、かつシステムの特定の再生スピーカー・アレイ構成に基づいて、選択のために利用可能なレンダリング・オプションのメニューを提供するよう構成されており、
前記コントローラは、前記メニューによって示されるレンダリング・オプションの一つのユーザー選択に応答して、オーディオ・チャネルの前記集合の前記選択された部分集合を決定するよう構成されており、
前記レンダリング・サブシステムは、オーディオ・チャネルの前記集合の前記選択された部分集合の各オブジェクト・チャネルを、オーディオ・チャネルの前記集合の前記選択された部分集合の少なくとも一つのスピーカー・チャネルと混合して、前記コンテンツをレンダリングするよう構成されている、
請求項11記載のシステム。 - 前記第一のサブシステムは、オーディオ・チャネルの前記集合の少なくとも一つのオブジェクト・チャネルを選択し、それにより選択されたオブジェクト・チャネルの部分集合を決定するよう構成されており、前記レンダリング・サブシステムは、前記選択されたオブジェクト・チャネルの部分集合の各オブジェクト・チャネルを前記集合の少なくとも一つのスピーカー・チャネルと混合して、前記集合の前記選択されたオブジェクト・チャネルの部分集合および前記少なくとも一つのスピーカー・チャネルのコンテンツのダウンミックスを生成するよう構成されている、請求項11または12記載のシステム。
- 前記ダウンミックスはN個のダウンミックスされたスピーカー・チャネルの集合からなり、Nは正の整数であり、前記レンダリング・サブシステムは、再生スピーカー・アレイのN個のスピーカーを駆動して前記スピーカーに前記ダウンミックスのコンテンツを示す音を発させるために、ダウンミックスされたスピーカー・チャネルからスピーカー・フィードを生成するよう構成されている、請求項13記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361807922P | 2013-04-03 | 2013-04-03 | |
US61/807,922 | 2013-04-03 | ||
US201361832397P | 2013-06-07 | 2013-06-07 | |
US61/832,397 | 2013-06-07 | ||
PCT/US2014/032808 WO2014165665A1 (en) | 2013-04-03 | 2014-04-03 | Methods and systems for generating and rendering object based audio with conditional rendering metadata |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016521380A JP2016521380A (ja) | 2016-07-21 |
JP6149152B2 true JP6149152B2 (ja) | 2017-06-14 |
Family
ID=50483612
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016506323A Active JP6212624B2 (ja) | 2013-04-03 | 2014-03-19 | オブジェクト・ベース・オーディオの対話的にレンダリングのための方法およびシステム |
JP2016506612A Active JP6149152B2 (ja) | 2013-04-03 | 2014-04-03 | 条件付きレンダリング・メタデータをもつオブジェクト・ベース・オーディオを生成し、レンダリングする方法およびシステム |
JP2016506613A Active JP6212625B2 (ja) | 2013-04-03 | 2014-04-03 | オブジェクト・ベース・オーディオを生成し、対話的にレンダリングする方法およびシステム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016506323A Active JP6212624B2 (ja) | 2013-04-03 | 2014-03-19 | オブジェクト・ベース・オーディオの対話的にレンダリングのための方法およびシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016506613A Active JP6212625B2 (ja) | 2013-04-03 | 2014-04-03 | オブジェクト・ベース・オーディオを生成し、対話的にレンダリングする方法およびシステム |
Country Status (8)
Country | Link |
---|---|
US (17) | US9997164B2 (ja) |
EP (5) | EP2982140B1 (ja) |
JP (3) | JP6212624B2 (ja) |
KR (1) | KR101800604B1 (ja) |
CN (14) | CN118102205A (ja) |
HK (2) | HK1249655A1 (ja) |
TW (1) | TWI530941B (ja) |
WO (3) | WO2014165326A1 (ja) |
Families Citing this family (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI530941B (zh) | 2013-04-03 | 2016-04-21 | 杜比實驗室特許公司 | 用於基於物件音頻之互動成像的方法與系統 |
US9838823B2 (en) | 2013-04-27 | 2017-12-05 | Intellectual Discovery Co., Ltd. | Audio signal processing method |
KR101805630B1 (ko) * | 2013-09-27 | 2017-12-07 | 삼성전자주식회사 | 멀티 디코딩 처리 방법 및 이를 수행하기 위한 멀티 디코더 |
US9654076B2 (en) * | 2014-03-25 | 2017-05-16 | Apple Inc. | Metadata for ducking control |
CN106797525B (zh) * | 2014-08-13 | 2019-05-28 | 三星电子株式会社 | 用于生成和回放音频信号的方法和设备 |
RU2701126C2 (ru) * | 2014-09-12 | 2019-09-24 | Сони Корпорейшн | Устройство передачи, способ передачи, устройство приема и способ приема |
US10856042B2 (en) * | 2014-09-30 | 2020-12-01 | Sony Corporation | Transmission apparatus, transmission method, reception apparatus and reception method for transmitting a plurality of types of audio data items |
CN110364190B (zh) * | 2014-10-03 | 2021-03-12 | 杜比国际公司 | 个性化音频的智能访问 |
US10140996B2 (en) | 2014-10-10 | 2018-11-27 | Qualcomm Incorporated | Signaling layers for scalable coding of higher order ambisonic audio data |
US9560467B2 (en) * | 2014-11-11 | 2017-01-31 | Google Inc. | 3D immersive spatial audio systems and methods |
TWI758146B (zh) | 2015-03-13 | 2022-03-11 | 瑞典商杜比國際公司 | 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流 |
TWI732403B (zh) * | 2015-03-13 | 2021-07-01 | 瑞典商杜比國際公司 | 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流 |
WO2016164760A1 (en) | 2015-04-10 | 2016-10-13 | Dolby Laboratories Licensing Corporation | Action sound capture using subsurface microphones |
WO2016172111A1 (en) * | 2015-04-20 | 2016-10-27 | Dolby Laboratories Licensing Corporation | Processing audio data to compensate for partial hearing loss or an adverse hearing environment |
WO2016171002A1 (ja) | 2015-04-24 | 2016-10-27 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
CN106303897A (zh) * | 2015-06-01 | 2017-01-04 | 杜比实验室特许公司 | 处理基于对象的音频信号 |
PL3311379T3 (pl) | 2015-06-17 | 2023-03-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kontrola głośności dla interaktywności użytkownika w systemach kodowania audio |
TWI607655B (zh) * | 2015-06-19 | 2017-12-01 | Sony Corp | Coding apparatus and method, decoding apparatus and method, and program |
GB2543275A (en) * | 2015-10-12 | 2017-04-19 | Nokia Technologies Oy | Distributed audio capture and mixing |
GB2543276A (en) * | 2015-10-12 | 2017-04-19 | Nokia Technologies Oy | Distributed audio capture and mixing |
US20170098452A1 (en) * | 2015-10-02 | 2017-04-06 | Dts, Inc. | Method and system for audio processing of dialog, music, effect and height objects |
US9877137B2 (en) | 2015-10-06 | 2018-01-23 | Disney Enterprises, Inc. | Systems and methods for playing a venue-specific object-based audio |
WO2017075539A1 (en) * | 2015-10-28 | 2017-05-04 | Voke Inc. | Apparatus and method for distributing multimedia events from a client |
EP3174317A1 (en) * | 2015-11-27 | 2017-05-31 | Nokia Technologies Oy | Intelligent audio rendering |
EP3174316B1 (en) | 2015-11-27 | 2020-02-26 | Nokia Technologies Oy | Intelligent audio rendering |
US10027994B2 (en) * | 2016-03-23 | 2018-07-17 | Dts, Inc. | Interactive audio metadata handling |
US11528554B2 (en) | 2016-03-24 | 2022-12-13 | Dolby Laboratories Licensing Corporation | Near-field rendering of immersive audio content in portable computers and devices |
US10325610B2 (en) * | 2016-03-30 | 2019-06-18 | Microsoft Technology Licensing, Llc | Adaptive audio rendering |
KR102421292B1 (ko) * | 2016-04-21 | 2022-07-18 | 한국전자통신연구원 | 오디오 객체 신호 재생 시스템 및 그 방법 |
US10015612B2 (en) * | 2016-05-25 | 2018-07-03 | Dolby Laboratories Licensing Corporation | Measurement, verification and correction of time alignment of multiple audio channels and associated metadata |
GB2550877A (en) * | 2016-05-26 | 2017-12-06 | Univ Surrey | Object-based audio rendering |
US10271157B2 (en) * | 2016-05-31 | 2019-04-23 | Gaudio Lab, Inc. | Method and apparatus for processing audio signal |
US10863297B2 (en) | 2016-06-01 | 2020-12-08 | Dolby International Ab | Method converting multichannel audio content into object-based audio content and a method for processing audio content having a spatial position |
JP6701573B2 (ja) * | 2016-08-03 | 2020-05-27 | 株式会社リコー | 音声処理装置、音声映像出力装置、及び遠隔会議システム |
US10187740B2 (en) * | 2016-09-23 | 2019-01-22 | Apple Inc. | Producing headphone driver signals in a digital audio signal processing binaural rendering environment |
JP2019533404A (ja) * | 2016-09-23 | 2019-11-14 | ガウディオ・ラボ・インコーポレイテッド | バイノーラルオーディオ信号処理方法及び装置 |
US10419866B2 (en) * | 2016-10-07 | 2019-09-17 | Microsoft Technology Licensing, Llc | Shared three-dimensional audio bed |
EP3533242B1 (en) * | 2016-10-28 | 2021-01-20 | Panasonic Intellectual Property Corporation of America | Binaural rendering apparatus and method for playing back of multiple audio sources |
US11595774B2 (en) | 2017-05-12 | 2023-02-28 | Microsoft Technology Licensing, Llc | Spatializing audio data based on analysis of incoming audio data |
GB2563606A (en) * | 2017-06-20 | 2018-12-26 | Nokia Technologies Oy | Spatial audio processing |
GB2563635A (en) * | 2017-06-21 | 2018-12-26 | Nokia Technologies Oy | Recording and rendering audio signals |
CN109429077B (zh) * | 2017-08-24 | 2021-10-15 | 北京搜狗科技发展有限公司 | 视频处理方法和装置、用于视频处理的装置 |
EP3483884A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Signal filtering |
EP3483886A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Selecting pitch lag |
EP3483880A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Temporal noise shaping |
WO2019091573A1 (en) | 2017-11-10 | 2019-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters |
EP3483882A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Controlling bandwidth in encoders and/or decoders |
EP3483879A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Analysis/synthesis windowing function for modulated lapped transformation |
EP3483878A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio decoder supporting a set of different loss concealment tools |
EP3483883A1 (en) * | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio coding and decoding with selective postfiltering |
WO2019091576A1 (en) | 2017-11-10 | 2019-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits |
US11190335B2 (en) * | 2018-01-23 | 2021-11-30 | Intel Corporation | Method and apparatus for performing non-unique data pattern detection and alignment in a receiver implemented on a field programmable gate array |
US11395083B2 (en) * | 2018-02-01 | 2022-07-19 | Qualcomm Incorporated | Scalable unified audio renderer |
US20190246149A1 (en) * | 2018-02-08 | 2019-08-08 | Pccw Vuclip (Singapore) Pte. Ltd. | Protected multimedia content transport and playback system |
WO2019168780A1 (en) * | 2018-02-27 | 2019-09-06 | Thin Film Electronics Asa | System and method for providing augmented reality experience to objects using wireless tags |
WO2019187437A1 (ja) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
GB2575510A (en) * | 2018-07-13 | 2020-01-15 | Nokia Technologies Oy | Spatial augmentation |
EP3617871A1 (en) | 2018-08-28 | 2020-03-04 | Koninklijke Philips N.V. | Audio apparatus and method of audio processing |
WO2020089302A1 (en) | 2018-11-02 | 2020-05-07 | Dolby International Ab | An audio encoder and an audio decoder |
US20210006976A1 (en) * | 2019-07-03 | 2021-01-07 | Qualcomm Incorporated | Privacy restrictions for audio rendering |
US11430451B2 (en) * | 2019-09-26 | 2022-08-30 | Apple Inc. | Layered coding of audio with discrete objects |
EP4062649A2 (en) | 2019-11-20 | 2022-09-28 | Dolby International AB | Methods and devices for personalizing audio content |
WO2021098957A1 (en) * | 2019-11-20 | 2021-05-27 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio object renderer, methods for determining loudspeaker gains and computer program using panned object loudspeaker gains and spread object loudspeaker gains |
CN111340923A (zh) * | 2020-02-23 | 2020-06-26 | 广东明星创意动画有限公司 | 一种快速arnold分层渲染设置方法 |
US11315581B1 (en) * | 2020-08-17 | 2022-04-26 | Amazon Technologies, Inc. | Encoding audio metadata in an audio frame |
US11521623B2 (en) | 2021-01-11 | 2022-12-06 | Bank Of America Corporation | System and method for single-speaker identification in a multi-speaker environment on a low-frequency audio recording |
CN112860958B (zh) * | 2021-01-15 | 2024-01-26 | 北京百家科技集团有限公司 | 一种信息显示方法及装置 |
CN113990355A (zh) * | 2021-09-18 | 2022-01-28 | 赛因芯微(北京)电子科技有限公司 | 音频节目元数据和产生方法、电子设备及存储介质 |
CN113963724A (zh) * | 2021-09-18 | 2022-01-21 | 赛因芯微(北京)电子科技有限公司 | 音频内容元数据和产生方法、电子设备及存储介质 |
WO2023076039A1 (en) | 2021-10-25 | 2023-05-04 | Dolby Laboratories Licensing Corporation | Generating channel and object-based audio from channel-based audio |
GB2617442A (en) * | 2022-03-03 | 2023-10-11 | Apple Inc | Audio scene description and control |
CN116830193A (zh) * | 2023-04-11 | 2023-09-29 | 北京小米移动软件有限公司 | 音频码流信号处理方法、装置、电子设备和存储介质 |
Family Cites Families (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5583962A (en) | 1991-01-08 | 1996-12-10 | Dolby Laboratories Licensing Corporation | Encoder/decoder for multidimensional sound fields |
US5632005A (en) | 1991-01-08 | 1997-05-20 | Ray Milton Dolby | Encoder/decoder for multidimensional sound fields |
WO1993003549A1 (en) * | 1991-07-31 | 1993-02-18 | Euphonix, Inc. | Automated audio mixer |
US5727119A (en) | 1995-03-27 | 1998-03-10 | Dolby Laboratories Licensing Corporation | Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase |
US6154549A (en) | 1996-06-18 | 2000-11-28 | Extreme Audio Reality, Inc. | Method and apparatus for providing sound in a spatial environment |
US7210160B2 (en) * | 1999-05-28 | 2007-04-24 | Immersion Entertainment, L.L.C. | Audio/video programming and charging system and method |
US6931370B1 (en) | 1999-11-02 | 2005-08-16 | Digital Theater Systems, Inc. | System and method for providing interactive audio in a multi-channel audio environment |
AUPQ570700A0 (en) | 2000-02-17 | 2000-03-09 | Lake Technology Limited | Virtual audio environment |
US6351733B1 (en) * | 2000-03-02 | 2002-02-26 | Hearing Enhancement Company, Llc | Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process |
US9008812B2 (en) * | 2008-06-19 | 2015-04-14 | Sirius Xm Radio Inc. | Method and apparatus for using selected content tracks from two or more program channels to automatically generate a blended mix channel for playback to a user upon selection of a corresponding preset button on a user interface |
US6553077B2 (en) | 2001-07-31 | 2003-04-22 | Xm Satellite Radio, Inc. | Method and apparatus for customized selection of audio channels |
JP2004072345A (ja) * | 2002-08-05 | 2004-03-04 | Pioneer Electronic Corp | 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、コンピュータプログラム、並びにデータ構造 |
EP1427252A1 (en) * | 2002-12-02 | 2004-06-09 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for processing audio signals from a bitstream |
US7558393B2 (en) * | 2003-03-18 | 2009-07-07 | Miller Iii Robert E | System and method for compatible 2D/3D (full sphere with height) surround sound reproduction |
US7757173B2 (en) * | 2003-07-18 | 2010-07-13 | Apple Inc. | Voice menu system |
US20050265172A1 (en) * | 2004-05-26 | 2005-12-01 | Star Sessions, Llc | Multi-channel audio/video system and authoring standard |
US20060159291A1 (en) * | 2005-01-14 | 2006-07-20 | Fliegler Richard H | Portable multi-functional audio sound system and method therefor |
EP1851656A4 (en) * | 2005-02-22 | 2009-09-23 | Verax Technologies Inc | SYSTEM AND METHOD FOR FORMATTING MULTIMODE CONTENT OF SOUNDS AND METADATA |
DE102005008343A1 (de) * | 2005-02-23 | 2006-09-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Liefern von Daten in einem Multi-Renderer-System |
EP1897012B1 (en) | 2005-06-24 | 2019-07-17 | Dolby Laboratories Licensing Corporation | Immersive audio communication |
US20080152165A1 (en) * | 2005-07-01 | 2008-06-26 | Luca Zacchi | Ad-hoc proximity multi-speaker entertainment |
KR100802179B1 (ko) | 2005-12-08 | 2008-02-12 | 한국전자통신연구원 | 프리셋 오디오 장면을 이용한 객체기반 3차원 오디오서비스 시스템 및 그 방법 |
US8705747B2 (en) | 2005-12-08 | 2014-04-22 | Electronics And Telecommunications Research Institute | Object-based 3-dimensional audio service system using preset audio scenes |
BRPI0706285A2 (pt) | 2006-01-05 | 2011-03-22 | Ericsson Telefon Ab L M | métodos para decodificar um fluxo de bits de áudio envolvente de multicanal paramétrico e para transmitir dados digitais representando som a uma unidade móvel, decodificador envolvente paramétrico para decodificar um fluxo de bits de áudio envolvente de multicanal paramétrico, e, terminal móvel |
EP1853092B1 (en) * | 2006-05-04 | 2011-10-05 | LG Electronics, Inc. | Enhancing stereo audio with remix capability |
US9088855B2 (en) | 2006-05-17 | 2015-07-21 | Creative Technology Ltd | Vector-space methods for primary-ambient decomposition of stereo audio signals |
US7876903B2 (en) | 2006-07-07 | 2011-01-25 | Harris Corporation | Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system |
WO2008006108A2 (en) * | 2006-07-07 | 2008-01-10 | Srs Labs, Inc. | Systems and methods for multi-dialog surround audio |
JP2008072206A (ja) * | 2006-09-12 | 2008-03-27 | Onkyo Corp | マルチチャンネル音声増幅装置 |
RU2551797C2 (ru) * | 2006-09-29 | 2015-05-27 | ЭлДжи ЭЛЕКТРОНИКС ИНК. | Способы и устройства кодирования и декодирования объектно-ориентированных аудиосигналов |
CN101479786B (zh) * | 2006-09-29 | 2012-10-17 | Lg电子株式会社 | 用于编码和解码基于对象的音频信号的方法和装置 |
JP5325108B2 (ja) * | 2006-10-13 | 2013-10-23 | ギャラクシー ステューディオス エヌヴェー | デジタルデータ集合を結合するための方法及び符号器、結合デジタルデータ集合の復号方法及び復号器、並びに結合デジタルデータ集合を記憶するための記録媒体 |
WO2008046530A2 (en) * | 2006-10-16 | 2008-04-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for multi -channel parameter transformation |
US8571875B2 (en) | 2006-10-18 | 2013-10-29 | Samsung Electronics Co., Ltd. | Method, medium, and apparatus encoding and/or decoding multichannel audio signals |
KR100913092B1 (ko) * | 2006-12-01 | 2009-08-21 | 엘지전자 주식회사 | 믹스신호의 인터페이스 표시 방법 및 장치 |
JP5941610B2 (ja) | 2006-12-27 | 2016-06-29 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | トランスコーディング装置 |
AU2008215231B2 (en) * | 2007-02-14 | 2010-02-18 | Lg Electronics Inc. | Methods and apparatuses for encoding and decoding object-based audio signals |
CN101542595B (zh) * | 2007-02-14 | 2016-04-13 | Lg电子株式会社 | 用于编码和解码基于对象的音频信号的方法和装置 |
EP3712888B1 (en) * | 2007-03-30 | 2024-05-08 | Electronics and Telecommunications Research Institute | Apparatus and method for coding and decoding multi object audio signal with multi channel |
WO2009084919A1 (en) * | 2008-01-01 | 2009-07-09 | Lg Electronics Inc. | A method and an apparatus for processing an audio signal |
WO2009084916A1 (en) * | 2008-01-01 | 2009-07-09 | Lg Electronics Inc. | A method and an apparatus for processing an audio signal |
EP2083584B1 (en) * | 2008-01-23 | 2010-09-15 | LG Electronics Inc. | A method and an apparatus for processing an audio signal |
US20110002469A1 (en) * | 2008-03-03 | 2011-01-06 | Nokia Corporation | Apparatus for Capturing and Rendering a Plurality of Audio Channels |
US20090237564A1 (en) | 2008-03-18 | 2009-09-24 | Invism, Inc. | Interactive immersive virtual reality and simulation |
JP5249408B2 (ja) * | 2008-04-16 | 2013-07-31 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号の処理方法及び装置 |
KR101062351B1 (ko) | 2008-04-16 | 2011-09-05 | 엘지전자 주식회사 | 오디오 신호 처리 방법 및 이의 장치 |
KR101596504B1 (ko) * | 2008-04-23 | 2016-02-23 | 한국전자통신연구원 | 객체기반 오디오 컨텐츠의 생성/재생 방법 및 객체기반 오디오 서비스를 위한 파일 포맷 구조를 가진 데이터를 기록한 컴퓨터 판독 가능 기록 매체 |
US20100064053A1 (en) | 2008-09-09 | 2010-03-11 | Apple Inc. | Radio with personal dj |
JP5258967B2 (ja) * | 2008-07-15 | 2013-08-07 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号の処理方法及び装置 |
KR20110052562A (ko) * | 2008-07-15 | 2011-05-18 | 엘지전자 주식회사 | 오디오 신호의 처리 방법 및 이의 장치 |
US8315396B2 (en) * | 2008-07-17 | 2012-11-20 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for generating audio output signals using object based metadata |
PL2154677T3 (pl) * | 2008-08-13 | 2013-12-31 | Fraunhofer Ges Forschung | Urządzenie do wyznaczania konwertowanego przestrzennego sygnału audio |
TWI496479B (zh) * | 2008-09-03 | 2015-08-11 | Dolby Lab Licensing Corp | 增進多聲道之再生 |
WO2010041877A2 (en) * | 2008-10-08 | 2010-04-15 | Lg Electronics Inc. | A method and an apparatus for processing a signal |
US8351612B2 (en) * | 2008-12-02 | 2013-01-08 | Electronics And Telecommunications Research Institute | Apparatus for generating and playing object based audio contents |
EP2205007B1 (en) | 2008-12-30 | 2019-01-09 | Dolby International AB | Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction |
US8620008B2 (en) | 2009-01-20 | 2013-12-31 | Lg Electronics Inc. | Method and an apparatus for processing an audio signal |
US8577065B2 (en) | 2009-06-12 | 2013-11-05 | Conexant Systems, Inc. | Systems and methods for creating immersion surround sound and virtual speakers effects |
US20100324915A1 (en) | 2009-06-23 | 2010-12-23 | Electronic And Telecommunications Research Institute | Encoding and decoding apparatuses for high quality multi-channel audio codec |
KR101805212B1 (ko) | 2009-08-14 | 2017-12-05 | 디티에스 엘엘씨 | 객체-지향 오디오 스트리밍 시스템 |
US9185445B2 (en) | 2009-09-24 | 2015-11-10 | At&T Intellectual Property I, L.P. | Transmitting a prioritized audio stream along with multimedia content |
US20110069934A1 (en) * | 2009-09-24 | 2011-03-24 | Electronics And Telecommunications Research Institute | Apparatus and method for providing object based audio file, and apparatus and method for playing back object based audio file |
JP5771618B2 (ja) * | 2009-10-19 | 2015-09-02 | ドルビー・インターナショナル・アーベー | 音声オブジェクトの区分を示すメタデータ時間標識情報 |
TWI443646B (zh) * | 2010-02-18 | 2014-07-01 | Dolby Lab Licensing Corp | 音訊解碼器及使用有效降混之解碼方法 |
CN113490132B (zh) | 2010-03-23 | 2023-04-11 | 杜比实验室特许公司 | 音频再现方法和声音再现系统 |
US8908874B2 (en) | 2010-09-08 | 2014-12-09 | Dts, Inc. | Spatial audio encoding and reproduction |
TWI687918B (zh) | 2010-12-03 | 2020-03-11 | 美商杜比實驗室特許公司 | 音頻解碼裝置、音頻解碼方法及音頻編碼方法 |
US9165558B2 (en) * | 2011-03-09 | 2015-10-20 | Dts Llc | System for dynamically creating and rendering audio objects |
TWI573131B (zh) | 2011-03-16 | 2017-03-01 | Dts股份有限公司 | 用以編碼或解碼音訊聲軌之方法、音訊編碼處理器及音訊解碼處理器 |
US9754595B2 (en) | 2011-06-09 | 2017-09-05 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding 3-dimensional audio signal |
CA3151342A1 (en) | 2011-07-01 | 2013-01-10 | Dolby Laboratories Licensing Corporation | System and tools for enhanced 3d audio authoring and rendering |
TWI651005B (zh) * | 2011-07-01 | 2019-02-11 | 杜比實驗室特許公司 | 用於適應性音頻信號的產生、譯碼與呈現之系統與方法 |
US9119011B2 (en) * | 2011-07-01 | 2015-08-25 | Dolby Laboratories Licensing Corporation | Upmixing object based audio |
WO2013073810A1 (ko) | 2011-11-14 | 2013-05-23 | 한국전자통신연구원 | 스케일러블 다채널 오디오 신호를 지원하는 부호화 장치 및 복호화 장치, 상기 장치가 수행하는 방법 |
WO2013181272A2 (en) | 2012-05-31 | 2013-12-05 | Dts Llc | Object-based audio system using vector base amplitude panning |
US8903526B2 (en) * | 2012-06-06 | 2014-12-02 | Sonos, Inc. | Device playback failure recovery and redistribution |
EP2862370B1 (en) | 2012-06-19 | 2017-08-30 | Dolby Laboratories Licensing Corporation | Rendering and playback of spatial audio using channel-based audio systems |
EP2690621A1 (en) | 2012-07-26 | 2014-01-29 | Thomson Licensing | Method and Apparatus for downmixing MPEG SAOC-like encoded audio signals at receiver side in a manner different from the manner of downmixing at encoder side |
CN104604257B (zh) | 2012-08-31 | 2016-05-25 | 杜比实验室特许公司 | 用于在各种收听环境中渲染并且回放基于对象的音频的系统 |
US9319019B2 (en) * | 2013-02-11 | 2016-04-19 | Symphonic Audio Technologies Corp. | Method for augmenting a listening experience |
TWI530941B (zh) | 2013-04-03 | 2016-04-21 | 杜比實驗室特許公司 | 用於基於物件音頻之互動成像的方法與系統 |
US9564136B2 (en) * | 2014-03-06 | 2017-02-07 | Dts, Inc. | Post-encoding bitrate reduction of multiple object audio |
-
2014
- 2014-02-19 TW TW103105464A patent/TWI530941B/zh active
- 2014-03-19 CN CN202410211307.XA patent/CN118102205A/zh active Pending
- 2014-03-19 CN CN202111461521.3A patent/CN114157978B/zh active Active
- 2014-03-19 CN CN202410211305.0A patent/CN117880735A/zh active Pending
- 2014-03-19 CN CN202111463619.2A patent/CN114157979B/zh active Active
- 2014-03-19 CN CN202111119257.5A patent/CN113766413B/zh active Active
- 2014-03-19 JP JP2016506323A patent/JP6212624B2/ja active Active
- 2014-03-19 CN CN201810081152.7A patent/CN108134978B/zh active Active
- 2014-03-19 US US14/781,882 patent/US9997164B2/en active Active
- 2014-03-19 CN CN201480019107.9A patent/CN105103570B/zh active Active
- 2014-03-19 EP EP14717385.0A patent/EP2982140B1/en active Active
- 2014-03-19 WO PCT/US2014/031246 patent/WO2014165326A1/en active Application Filing
- 2014-03-19 KR KR1020157027301A patent/KR101800604B1/ko active IP Right Grant
- 2014-03-19 CN CN202111125861.9A patent/CN113766414B/zh active Active
- 2014-04-03 JP JP2016506612A patent/JP6149152B2/ja active Active
- 2014-04-03 CN CN202210302375.8A patent/CN114613374A/zh active Pending
- 2014-04-03 EP EP21174025.3A patent/EP3930351A1/en active Pending
- 2014-04-03 CN CN201710942931.7A patent/CN107731239B/zh active Active
- 2014-04-03 CN CN201480020223.2A patent/CN105103571B/zh active Active
- 2014-04-03 EP EP14723616.0A patent/EP2982142B1/en active Active
- 2014-04-03 US US14/781,544 patent/US9881622B2/en active Active
- 2014-04-03 WO PCT/US2014/032808 patent/WO2014165665A1/en active Application Filing
- 2014-04-03 WO PCT/US2014/032813 patent/WO2014165668A1/en active Application Filing
- 2014-04-03 EP EP14720878.9A patent/EP2982141B1/en active Active
- 2014-04-03 EP EP18160235.0A patent/EP3413592B1/en active Active
- 2014-04-03 CN CN202210302370.5A patent/CN114708873A/zh active Pending
- 2014-04-03 CN CN202210300855.0A patent/CN114613373A/zh active Pending
- 2014-04-03 JP JP2016506613A patent/JP6212625B2/ja active Active
- 2014-04-03 CN CN201480019912.1A patent/CN105075295B/zh active Active
- 2014-04-03 US US14/781,562 patent/US9805727B2/en active Active
-
2017
- 2017-10-24 US US15/792,000 patent/US10276172B2/en active Active
-
2018
- 2018-01-29 US US15/882,589 patent/US10388291B2/en active Active
- 2018-05-24 US US15/989,073 patent/US10515644B2/en active Active
- 2018-07-13 HK HK18109085.7A patent/HK1249655A1/zh unknown
- 2018-10-12 HK HK18113091.1A patent/HK1253941A1/zh unknown
-
2019
- 2019-04-22 US US16/391,038 patent/US10553225B2/en active Active
- 2019-07-15 US US16/512,061 patent/US10748547B2/en active Active
- 2019-12-17 US US16/718,053 patent/US11081118B2/en active Active
- 2019-12-18 US US16/719,648 patent/US10832690B2/en active Active
-
2020
- 2020-08-18 US US16/996,367 patent/US11568881B2/en active Active
- 2020-11-05 US US17/090,309 patent/US11270713B2/en active Active
-
2021
- 2021-08-02 US US17/392,146 patent/US11727945B2/en active Active
-
2022
- 2022-02-24 US US17/679,693 patent/US11769514B2/en active Active
-
2023
- 2023-01-25 US US18/159,595 patent/US11948586B2/en active Active
- 2023-07-03 US US18/346,464 patent/US20230419973A1/en active Pending
- 2023-09-19 US US18/470,165 patent/US20240079015A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11948586B2 (en) | Methods and systems for generating and rendering object based audio with conditional rendering metadata |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6149152 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |