JP6710675B2 - オーディオ処理システムおよび方法 - Google Patents
オーディオ処理システムおよび方法 Download PDFInfo
- Publication number
- JP6710675B2 JP6710675B2 JP2017505086A JP2017505086A JP6710675B2 JP 6710675 B2 JP6710675 B2 JP 6710675B2 JP 2017505086 A JP2017505086 A JP 2017505086A JP 2017505086 A JP2017505086 A JP 2017505086A JP 6710675 B2 JP6710675 B2 JP 6710675B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- channel
- metadata
- renderer
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 162
- 238000000034 method Methods 0.000 title claims description 137
- 108091006146 Channels Proteins 0.000 claims description 189
- 230000003044 adaptive effect Effects 0.000 claims description 56
- 238000009877 rendering Methods 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 44
- 230000008859 change Effects 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 4
- 239000000523 sample Substances 0.000 description 46
- 230000006870 function Effects 0.000 description 17
- 230000011664 signaling Effects 0.000 description 11
- 239000000872 buffer Substances 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 238000007726 management method Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000009432 framing Methods 0.000 description 5
- 238000012913 prioritisation Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000000737 periodic effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 238000011143 downstream manufacturing Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011010 flushing procedure Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/018—Audio watermarking, i.e. embedding inaudible data in the audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S5/00—Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
Description
本願は2014年7月31日に出願された米国仮特許出願第62/031,723号の優先権を主張するものである。同出願の内容はここに参照によってその全体において組み込まれる。
一つまたは複数の実装は概括的にはオーディオ信号処理に、より詳細には、適応オーディオ処理システムにおいて使うためのチャネル・ベースとオブジェクト・ベースのオーディオの間でなめらかに切り換えるための方法および関連するオブジェクト・オーディオ・レンダラー・インターフェースに関する。
本明細書において言及される各刊行物、特許および/または特許出願はここに参照によって、個々の各刊行物および/または特許出願が具体的かつ個別的に参照によって組み込まれることが示されている場合と同じ程度にその全体において組み込まれる。
ある実施形態では、相互接続システムは、「空間的オーディオ・システム」「ハイブリッド・オーディオ・システム」または「適応オーディオ・システム」と称されうる音フォーマットおよび処理システムとともに機能するよう構成されているオーディオ・システムの一部として実装される。そのようなシステムは、向上した聴衆没入感、より大きな芸術的制御ならびにシステム柔軟性およびスケーラビリティーを許容するためのオーディオ・フォーマットおよびレンダリング技術に基づく。全体的な適応オーディオ・システムは一般に、通常のチャネル・ベースのオーディオ要素およびオーディオ・オブジェクト符号化要素の両方を含む一つまたは複数のビットストリーム(オブジェクト・ベース・オーディオ)を生成するよう構成されたオーディオ・エンコード、配送およびデコード・システムを含む。そのような組み合わされたアプローチは、別個に実施されるチャネル・ベースまたはオブジェクト・ベースのアプローチのいずれと比べても、より大きな符号化効率およびレンダリング柔軟性を提供する。
ある実施形態では、適応オーディオ・システムは、もとの空間的オーディオ・フォーマットからメタデータを生成するコンポーネントを含む。記載されるシステムの方法およびコンポーネントは、通常のチャネル・ベースのオーディオ要素およびオーディオ・オブジェクト符号化要素の両方を含む一つまたは複数のビットストリームを処理するよう構成されたオーディオ・レンダリング・システムを有する。空間的オーディオ・プロセッサからの空間的オーディオ・コンテンツはオーディオ・オブジェクト、チャネルおよび位置メタデータを含む。メタデータは、エンジニアの混合入力に応答してオーディオ・ワークステーションにおいて生成され、空間的パラメータ(たとえば位置、速度、強度、音色など)を制御し、展示中に聴取環境におけるどのドライバ(単数または複数)またはスピーカー(単数または複数)がそれぞれの音を再生するかを指定するレンダリング・キューを提供する。メタデータは、オーディオ・プロセッサによるパッケージングおよび転送のために、前記ワークステーションにおいてそれぞれのオーディオ・データに関連付けられる。
図3に示されるように、オブジェクト・ベースのオーディオは、オブジェクト・ベースのオーディオのレンダリングのためのオブジェクト・オーディオ・レンダラー(OAR)を含むまたはそのまわりにラップするオブジェクト・オーディオ・レンダラー・インターフェース306を通じて処理される。ある実施形態では、OARI 306はオーディオ・データをデコーダ302から受領し、適切なインライン・メタデータによってオブジェクト・ベースのオーディオとして信号伝達されたオーディオ・データを処理する。OARIは一般に、ある種のAVR製品および再生コンポーネント、たとえば適応オーディオ対応スピーカーおよびサウンドバーのためのメタデータ更新をフィルタリングするはたらきをする。OARIは、メタデータの、はいってくるバッファリングされたサンプルとの適正な整列;プロセッサ・ニーズを満たすようさまざまな複雑さにプロセッサを適合させること;ブロック境界に整列しないメタデータ更新の知的なフィルタリング;およびサウンドバーまたは他の特化したスピーカー製品のようなアプリケーションのためのメタデータ更新のフィルタリングといった技法を実装する。
オーディオ・オブジェクト・レンダラー・インターフェースは、オーディオ・データおよび発展メタデータの、オブジェクト・オーディオ・レンダラーへの接続を受け持つ。これを達成するために、オブジェクト・オーディオ・レンダラー・インターフェース(OARI)はオーディオ・サンプルおよび付随するメタデータをオブジェクト・オーディオ・レンダラー(OAR)に、扱いやすいデータ部分またはフレームにおいて提供する。図7および図8は、OARIにはいってくるオーディオにおいてメタデータ更新がどのように格納されるかを示しており、OARのためのオーディオ・サンプルおよび付随するメタデータは図11、図12および図13に示される。
Timestamp〔タイムスタンプ〕
oa_sample_offset〔OAサンプル・オフセット〕
block_offset_factor〔ブロック・オフセット因子〕
oa_sample_offsetビット・フィールドは、oa_sample_offset_type〔OAサンプル・オフセット型〕、oa_sample_offset_code〔OAサンプル・オフセット・コード〕およびoa_sample_offset〔OAサンプル・オフセット〕フィールドの組み合わせによって与えられる。これらのビット・フィールドの値は、次の表2に列挙されるようにオーディオ・サンプリング周波数に依存するスケール因子によってスケーリングされる必要がある。
/* Nはオブジェクト・オーディオ・メタデータ・ペイロードにおけるメタデータ・ブロックの数を表わし、[1,8]の範囲内になければならない。 */
for (i=0; i<N; i++) {
metadata_update_buffer[i].offset=sample_offset+(timestamp*fs_scale_factor)+
(oa_sample_offset*fs_scale_factor)+(32*block_offset_factor[i]*fs_scale_factor);
}
。
いくつかの態様を記載しておく。
〔態様1〕
適応オーディオ・コンテンツを処理する方法であって:
複数のオーディオ・セグメントを含む適応オーディオ・ビットストリームの各オーディオ・セグメントについてチャネル・ベースのオーディオおよびオブジェクト・ベースのオーディオのうちの一方としてオーディオ型を判別する段階と;
対応するオーディオ・セグメントのオーディオ型を示すメタデータ定義をもって前記各オーディオ・セグメントにタグ付けする段階と;
チャネル・ベースのオーディオとしてタグ付けされたオーディオ・セグメントをチャネル・オーディオ・レンダラー・コンポーネントにおいて処理する段階と;
オブジェクト・ベースのオーディオとしてタグ付けされたオーディオ・セグメントを前記チャネル・オーディオ・レンダラー・コンポーネントとは異なるオブジェクト・オーディオ・レンダラー・コンポーネントにおいて処理する段階とを含む、
方法。
〔態様2〕
前記メタデータ定義を、各オーディオ・セグメントに関連付けられたメタデータ・ペイロードの一部としてエンコードされたオーディオ型メタデータ要素としてエンコードすることをさらに含む、態様1記載の方法。
〔態様3〕
前記メタデータ定義は、デコーダ・コンポーネントによって設定され、前記チャネル・オーディオ・レンダラー・コンポーネントおよびオブジェクト・オーディオ・レンダラー・コンポーネントに伝送される二値のフラグ値を含む、態様1または2記載の方法。
〔態様4〕
二値のフラグ値は、前記チャネル・オーディオ・レンダラー・コンポーネントおよびオブジェクト・オーディオ・レンダラー・コンポーネントによって、受領された各オーディオ・セグメントについてデコードされ、該オーディオ・セグメント内のオーディオ・データは、デコードされた二値のフラグ値に基づいて、前記チャネル・オーディオ・レンダラー・コンポーネントおよびオブジェクト・オーディオ・レンダラー・コンポーネントの一方によってレンダリングされる、態様3記載の方法。
〔態様5〕
前記チャネル・ベースのオーディオは、レガシーのサラウンドサウンドのオーディオを含み、前記チャネル・オーディオ・レンダラー・コンポーネントはアップミキサーを含み、前記オブジェクト・オーディオ・レンダラー・コンポーネントはオブジェクト・オーディオ・レンダラー・インターフェースを有する、態様1ないし4のうちいずれか一項記載の方法。
〔態様6〕
任意の二つの相続くオーディオ・セグメントの間の伝送および処理レイテンシーについて、初期化フェーズの間に既知のレイテンシー差について事前補償することによって調整することを含む、態様1ないし5のうちいずれか一項記載の方法。
〔態様7〕
適応オーディオをレンダリングする方法であって:
オーディオ・ビットストリームにおいてエンコードされたチャネル・ベースのオーディオおよびオブジェクト・ベースのオーディオのセグメントを含む入力オーディオをデコーダにおいて受領する段階と;
該デコーダにおいてチャネル・ベースのオーディオとオブジェクト・ベースのオーディオのセグメントとの間の型の変化を検出する段階と;
型の変化の検出に際してオーディオ・セグメントの各型についてメタデータ定義を生成し;
該メタデータ定義を適切なオーディオ・セグメントと関連付ける段階と;
各オーディオ・セグメントを、関連付けられたメタデータ定義に依存して、適切なポストデコーダ処理コンポーネントにおいて処理する段階とを含む、
方法。
〔態様8〕
前記チャネル・ベースのオーディオは、適応オーディオ・レンダリング・システムのアップミキサーを通じてレンダリングされるべきレガシーのサラウンドサウンド・オーディオを含み、さらに、前記オブジェクト・ベースのオーディオは前記適応オーディオ・レンダリング・システムのオブジェクト・オーディオ・レンダラー・インターフェースを通じてレンダリングされる、態様7記載の方法。
〔態様9〕
任意の二つの相続くオーディオ・セグメントの間の伝送および処理レイテンシーについて、初期化フェーズの間に既知のレイテンシー差について事前補償することによって調整することを含む、態様7または8記載の方法。
〔態様10〕
前記メタデータ定義は、前記デコーダによって、前記オーディオ・ビットストリームに関連付けられたメタデータ・ペイロードの一部としてエンコードされるオーディオ型フラグを含む、態様7ないし9のうちいずれか一項記載の方法。
〔態様11〕
前記フラグの第一の状態は関連付けられたオーディオ・セグメントがチャネル・ベースのオーディオであることを示し、前記フラグの第二の状態は関連付けられたオーディオ・セグメントがオブジェクト・ベースのオーディオであることを示す、態様10記載の方法。
〔態様12〕
適応オーディオをレンダリングするシステムであって:
オーディオ・コンテンツおよび関連するメタデータを有するビットストリームにおいて入力オーディオを受領するデコーダであって、前記オーディオ・コンテンツは、任意の一つの時点においては、チャネル・ベースのオーディオまたはオブジェクト・ベースの型のオーディオのうちの一方を有するオーディオ型をもつ、デコーダと;
前記チャネル・ベースのオーディオを処理するための前記デコーダに結合されたアップミキサーと;
オブジェクト・オーディオ・レンダラーを通じて前記オブジェクト・ベースのオーディオをレンダリングするための、前記アップミキサーと並列に前記デコーダに結合されたオブジェクト・オーディオ・レンダラー・インターフェースと;
チャネル・ベースのオーディオを第一のメタデータ定義でタグ付けし、オブジェクト・ベースのオーディオを第二のメタデータ定義でタグ付けするよう構成された、前記デコーダ内のメタデータ要素生成器とを有する、
システム。
〔態様13〕
前記アップミキサーはタグ付けされたチャネル・ベースのオーディオおよびタグ付けされたオブジェクト・ベースのオーディオの両方を前記デコーダから受領し、前記チャネル・ベースのオーディオのみを処理する、態様12記載のシステム。
〔態様14〕
前記オブジェクト・オーディオ・レンダラー・インターフェースはタグ付けされたチャネル・ベースのオーディオおよびタグ付けされたオブジェクト・ベースのオーディオの両方を前記デコーダから受領し、前記オブジェクト・ベースのオーディオのみを処理する、態様12または13記載のシステム。
〔態様15〕
前記メタデータ要素生成器は、前記デコーダから前記アップミキサーおよび前記オブジェクト・オーディオ・レンダラー・インターフェースに伝送されるオーディオ・セグメントの型を示す二値フラグを設定し、前記二値フラグは、前記デコーダによって、前記ビットストリームに関連付けられたメタデータ・ペイロードの一部としてエンコードされる、態様12ないし14のうちいずれか一項記載のシステム。
〔態様16〕
前記チャネル・ベースのオーディオはサラウンドサウンド・オーディオ・ベッドを含み、前記オーディオ・オブジェクトはオブジェクト・オーディオ・メタデータ(OAMD)フォーマットに整合するオブジェクトを含む、態様12ないし15のうちいずれか一項記載のシステム。
〔態様17〕
任意の二つの相続くオーディオ・セグメントの間の伝送および処理レイテンシーについて、初期化フェーズの間に既知のレイテンシー差について事前補償して、前記相続くオーディオ・セグメントについて前記アップミキサーおよびオブジェクト・オーディオ・レンダラー・インターフェースを通る異なる信号経路の時間整列された出力を提供することによって、調整するよう構成されたレイテンシー・マネージャをさらに有する、態様12ないし16のうちいずれか一項記載のシステム。
〔態様18〕
オブジェクト・ベースのオーディオを処理する方法であって:
オーディオ・サンプルのブロックおよび一つまたは複数の関連するオブジェクト・オーディオ・メタデータ・ペイロードを、オブジェクト・オーディオ・レンダラー・インターフェース(OARI)において受領し;
各オブジェクト・オーディオ・メタデータ・ペイロードからの一つまたは複数のオーディオ・ブロック更新をシリアル化解除し;
前記オーディオ・サンプルおよび前記オーディオ・ブロック更新をそれぞれのオーディオ・サンプルおよびオーディオ・ブロック更新メモリ・キャッシュに記憶し;
前記オーディオ・サンプルの処理ブロック・サイズを、処理ブロック境界に対するオーディオ・ブロック更新のタイミングおよび整列ならびに最大/最小処理ブロック・サイズ・パラメータを含む一つまたは複数の他のパラメータに基づいて動的に選択することを含む、
方法。
〔態様19〕
前記オブジェクト・ベースのオーディオを、前記動的な選択段階によって決定されたサイズの処理ブロックで、前記OARIから前記OARに伝送することをさらに含む、態様18記載の方法。
〔態様20〕
各メタデータ要素はメタデータ・フレームにおいて渡され、サンプル・オフセットが、オーディオ・ブロック中のどのサンプルにおいて当該フレームが適用されるかを示す、態様18または19記載の方法。
〔態様21〕
オブジェクト優先順位付け、幅除去、無効化されたオブジェクトの扱い、過度に頻繁な更新のフィルタリング、所望される範囲への空間位置クリッピングおよび更新データの所望されるフォーマットへの変換を含む一つまたは複数のプロセスを通じて前記メタデータ要素を含む前記メタデータを準備することをさらに含む、態様18ないし20のうちいずれか一項記載の方法。
〔態様22〕
前記OARは限られた数の処理ブロック・サイズをサポートする、態様19記載の方法。
〔態様23〕
前記処理ブロック・サイズが、長さ32,64,128,256,480,512,1024,1536および2048サンプルからなる群から選択される、態様22記載の方法。
〔態様24〕
処理ブロック・サイズの選択は、前記オーディオ・ブロック更新が、処理ブロック・サイズ選択パラメータによって許容される限り当該処理ブロックの最初のサンプルの近くに位置されるようになされる、態様19記載の方法。
〔態様25〕
前記処理ブロック・サイズは、オーディオ・ブロック更新位置、OAR処理ブロック・サイズおよびOARI最大および最小ブロック・サイズ・パラメータ値によって制約されて可能な限り大きいように選択される、態様24記載の方法。
〔態様26〕
前記メタデータ・フレームがオーディオ・サンプルのブロックにおいて一つまたは複数のオブジェクトのレンダリングに関する属性を定義するメタデータを含み、それらの属性は、ダイアログ、音楽、効果、効果音、背景音および周囲音定義を含むコンテンツ型属性;3D位置、オブジェクト・サイズおよびオブジェクト速度を含む空間的属性;およびスピーカー位置にスナップ、チャネル重み、利得、傾斜およびベース管理情報を含むスピーカー・レンダリング属性からなる群から選択される、態様18ないし25のうちいずれか一項記載の方法。
〔態様27〕
オーディオ・オブジェクトを処理する方法であって:
オーディオ・サンプルのブロックおよび該オーディオ・サンプルがオブジェクト・オーディオ・レンダラー(OAR)においてどのようにレンダリングされるかを定義する関連するメタデータを、オブジェクト・オーディオ・レンダラー・インターフェース(OARI)において受領する段階であって、前記メタデータは、前記オーディオ・オブジェクトの異なるレンダリング属性を定義するよう時間とともに更新される、段階と;
前記オーディオ・サンプルおよびメタデータ更新を、前記OARによって処理されるよう、諸処理ブロックの配置においてバッファリングする段階と;
処理ブロック・サイズを、ブロック境界に対するメタデータ更新のタイミングおよび整列ならびに最大/最小処理ブロック・サイズ・パラメータを含む一つまたは複数の他のパラメータに基づいて動的に選択する段階と;
前記オブジェクト・ベースのオーディオを、前記動的な選択の段階によって決定されたサイズのブロックで、前記OARIから前記OARに伝送する段階とを含む、
方法。
〔態様28〕
各ブロックについての前記オーディオ・データおよびブロック更新をそれぞれのオーディオ・キャッシュおよび更新メモリ・キャッシュに記憶することを含み、前記ブロック更新は、オブジェクト・オーディオ・メタデータ・ペイロードに格納されるメタデータ要素においてエンコードされる、態様27記載の方法。
〔態様29〕
各メタデータ要素はメタデータ・フレームにおいて渡され、サンプル・オフセットが、処理ブロック中のどのサンプルにおいて当該フレームが適用されるかを示す、態様28記載の方法。
〔態様30〕
ブロック・サイズの選択は、前記ブロック更新が、ブロック・サイズ選択パラメータによって許容される限り当該ブロックの最初のサンプルの近くに位置されるようになされる、態様27ないし29のうちいずれか一項記載の方法。
〔態様31〕
前記ブロック・サイズは、ブロック更新位置、OARブロック・サイズおよびOARI最大および最小ブロック・サイズ・パラメータ値によって制約されて可能な限り大きいように選択される、態様30記載の方法。
〔態様32〕
オブジェクト優先順位付け、幅除去、無効化されたオブジェクトの扱い、過度に頻繁な更新のフィルタリング、所望される範囲への空間位置クリッピングおよび更新データの所望されるフォーマットへの変換を含む一つまたは複数のプロセスを通じて前記メタデータ要素を含む前記メタデータを準備することを含む、態様27ないし31のうちいずれか一項記載の方法。
〔態様33〕
適応オーディオ・データを処理する方法であって:
処理されるべきオーディオがチャネル・ベースのオーディオかオブジェクト・ベースのオーディオかを、定義されたメタデータ定義を通じて判定し;
チャネル・ベースであれば前記オーディオをチャネル・ベース・オーディオ・レンダラー(CAR)を通じて処理し;
オブジェクト・ベースであれば前記オーディオをオブジェクト・ベース・オーディオ・レンダラー(OAR)を通じて処理することを含み、
前記OARは、前記オーディオの処理ブロック・サイズを、メタデータ更新のタイミングおよび整列ならびに最大および最小ブロック・サイズを含む一つまたは複数の他のパラメータに基づいて動的に調整するOARインターフェース(OARI)を利用する、
方法。
〔態様34〕
チャネル・ベースまたはオブジェクト・ベースのオーディオ・レンダリングの間で切り換える方法であって:
メタデータ要素を、関連付けられたオーディオ・ブロックについて、チャネル・ベースのオーディオ・コンテンツを示す第一の状態またはオブジェクト・ベースのオーディオ・コンテンツを示す第二の状態をもつようエンコードし;
前記メタデータ要素を複数のオーディオ・ブロックを含むオーディオ・ビットストリームの一部としてデコーダに伝送し;
各オーディオ・ブロックについて前記メタデータ要素を前記デコーダにおいてデコードして、前記メタデータ要素が前記第一の状態であればチャネル・ベースのオーディオ・コンテンツをチャネル・オーディオ・レンダラー(CAR)に、前記メタデータ要素が前記第二の状態であればオブジェクト・ベースのオーディオ・コンテンツをオブジェクト・オーディオ・レンダラー(OAR)にルーティングすることを含む、
方法。
〔態様35〕
前記メタデータ要素は、前記デコーダに伝送されるパルス符号変調された(PCM)オーディオ・ビットストリームを用いて帯域内で伝送されるメタデータ・フラグを有する、態様34記載の方法。
〔態様36〕
前記CARは、アップミキサーまたはチャネル・ベースのオーディオの入力チャネルを出力スピーカーにマッピングする素通しノードの一方を含む、態様34または35記載の方法。
〔態様37〕
前記OARは、前記オーディオの処理ブロック・サイズを、メタデータ更新のタイミングおよび整列ならびに最大および最小ブロック・サイズを含む一つまたは複数の他のパラメータに基づいて動的に調整するOARインターフェース(OARI)を利用するレンダラーを含む、態様34ないし36のうちいずれか一項記載の方法。
Claims (18)
- 適応オーディオ・コンテンツを処理する方法であって:
複数のオーディオ・セグメントを含む適応オーディオ・ビットストリームの各オーディオ・セグメントについてチャネル・ベースのオーディオおよびオブジェクト・ベースのオーディオのうちの一方としてオーディオ型を判別する段階と;
対応するオーディオ・セグメントのオーディオ型を示すメタデータ定義をもって前記各オーディオ・セグメントにタグ付けする段階と;
チャネル・ベースのオーディオとしてタグ付けされたオーディオ・セグメントをチャネル・オーディオ・レンダラー・コンポーネントにおいて処理する段階と;
オブジェクト・ベースのオーディオとしてタグ付けされたオーディオ・セグメントを前記チャネル・オーディオ・レンダラー・コンポーネントとは異なるオブジェクト・オーディオ・レンダラー・コンポーネントにおいて処理する段階とを含み、
前記チャネル・オーディオ・レンダラー・コンポーネントおよび前記オブジェクト・オーディオ・レンダラー・コンポーネントは0でない異なるレイテンシーをもち、それらのレンダラー・コンポーネントの両方は、それらの最初の初期化に際して、サンプル単位でのそれぞれのレイテンシーについて問い合わせされ、
前記チャネル・オーディオ・レンダラー・コンポーネントおよび前記オブジェクト・オーディオ・レンダラー・コンポーネントの前記サンプル単位でのそれぞれのレイテンシーは、オブジェクト・ベースのオーディオ・セグメントおよびチャネル・ベースのオーディオ・セグメントの処理の間で切り換えるときにレイテンシーを管理するために使用されるためのものである、
方法。 - 前記メタデータ定義を、各オーディオ・セグメントに関連付けられたメタデータ・ペイロードの一部としてエンコードされたオーディオ型メタデータ要素としてエンコードすることをさらに含む、請求項1記載の方法。
- 前記メタデータ定義は、デコーダ・コンポーネントによって設定され、前記チャネル・オーディオ・レンダラー・コンポーネントおよびオブジェクト・オーディオ・レンダラー・コンポーネントに伝送される二値のフラグ値を含む、請求項1または2記載の方法。
- 前記二値のフラグ値は、前記チャネル・オーディオ・レンダラー・コンポーネントおよびオブジェクト・オーディオ・レンダラー・コンポーネントによって、受領された各オーディオ・セグメントについてデコードされ、該オーディオ・セグメント内のオーディオ・データは、デコードされた二値のフラグ値に基づいて、前記チャネル・オーディオ・レンダラー・コンポーネントおよびオブジェクト・オーディオ・レンダラー・コンポーネントの一方によってレンダリングされる、請求項3記載の方法。
- 前記チャネル・ベースのオーディオは、サラウンドサウンドのオーディオを含み、前記チャネル・オーディオ・レンダラー・コンポーネントはアップミキサーを含み、前記オブジェクト・オーディオ・レンダラー・コンポーネントはオブジェクト・オーディオ・レンダラー・インターフェースを有する、請求項1ないし4のうちいずれか一項記載の方法。
- 適応オーディオをレンダリングする方法であって:
オーディオ・ビットストリームにおいてエンコードされたチャネル・ベースのオーディオおよびオブジェクト・ベースのオーディオのセグメントを含む入力オーディオをデコーダにおいて受領する段階と;
該デコーダにおいてチャネル・ベースのオーディオとオブジェクト・ベースのオーディオのセグメントとの間の型の変化を検出する段階と;
型の変化の検出に際してオーディオ・セグメントの各型についてメタデータ定義を生成し;
該メタデータ定義を適切なオーディオ・セグメントと関連付ける段階と;
各オーディオ・セグメントを、関連付けられたメタデータ定義に依存して、適切なポストデコーダ処理コンポーネントにおいて処理する段階とを含み、
各ポストデコーダ処理コンポーネントはそれぞれの他のポストデコーダ処理コンポーネントのレイテンシーとは異なる0でないレイテンシーをもち、それらのポストデコーダ処理コンポーネントは、それらの最初の初期化に際して、サンプル単位でのそれぞれのレイテンシーについて問い合わせされ、
前記ポストデコーダ処理コンポーネントの前記サンプル単位でのそれぞれのレイテンシーは、オブジェクト・ベースのオーディオ・セグメントおよびチャネル・ベースのオーディオ・セグメントの処理の間で切り換えるときにレイテンシーを管理するために使用されるためのものである、
方法。 - 前記チャネル・ベースのオーディオは、適応オーディオ・レンダリング・システムのアップミキサーを通じてレンダリングされるべきレガシーのサラウンドサウンド・オーディオを含み、さらに、前記オブジェクト・ベースのオーディオは前記適応オーディオ・レンダリング・システムのオブジェクト・オーディオ・レンダラー・インターフェースを通じてレンダリングされる、請求項6記載の方法。
- 前記メタデータ定義は、前記デコーダによって、前記オーディオ・ビットストリームに関連付けられたメタデータ・ペイロードの一部としてエンコードされるオーディオ型フラグを含む、請求項6または7記載の方法。
- 前記フラグの第一の状態は関連付けられたオーディオ・セグメントがチャネル・ベースのオーディオであることを示し、前記フラグの第二の状態は関連付けられたオーディオ・セグメントがオブジェクト・ベースのオーディオであることを示す、請求項8記載の方法。
- 適応オーディオをレンダリングするシステムであって:
オーディオ・コンテンツおよび関連するメタデータを有するビットストリームにおいて入力オーディオを受領するデコーダであって、前記オーディオ・コンテンツは、任意の一つの時点においては、チャネル・ベースのオーディオまたはオブジェクト・ベースの型のオーディオのうちの一方を有するオーディオ型をもつ、デコーダと;
前記チャネル・ベースのオーディオを処理するための前記デコーダに結合されたアップミキサーと;
オブジェクト・オーディオ・レンダラーを通じて前記オブジェクト・ベースのオーディオをレンダリングするための、前記アップミキサーと並列に前記デコーダに結合されたオブジェクト・オーディオ・レンダラー・インターフェースと;
チャネル・ベースのオーディオを第一のメタデータ定義でタグ付けし、オブジェクト・ベースのオーディオを第二のメタデータ定義でタグ付けするよう構成された、前記デコーダ内のメタデータ要素生成器と;
任意の二つの相続くオーディオ・セグメントの間の伝送および処理レイテンシーについて、初期化フェーズの間に既知のレイテンシー差について事前補償して、前記相続くオーディオ・セグメントについて前記アップミキサーおよびオブジェクト・オーディオ・レンダラー・インターフェースを通る異なる信号経路の時間整列された出力を提供することによって、調整するよう構成されたレイテンシー・マネージャとを有し、
前記アップミキサーおよび前記オブジェクト・オーディオ・レンダラーの両者は0でない異なるレイテンシーをもち、前記アップミキサーおよび前記オブジェクト・オーディオ・レンダラーはそれらの最初の初期化に際して、サンプル単位でのそれらのレイテンシーについて問い合わせされる、システム。 - 前記アップミキサーはタグ付けされたチャネル・ベースのオーディオおよびタグ付けされたオブジェクト・ベースのオーディオの両方を前記デコーダから受領し、前記チャネル・ベースのオーディオのみを処理する、請求項10記載のシステム。
- 前記オブジェクト・オーディオ・レンダラー・インターフェースはタグ付けされたチャネル・ベースのオーディオおよびタグ付けされたオブジェクト・ベースのオーディオの両方を前記デコーダから受領し、前記オブジェクト・ベースのオーディオのみを処理する、請求項10または11記載のシステム。
- 前記メタデータ要素生成器は、前記デコーダから前記アップミキサーおよび前記オブジェクト・オーディオ・レンダラー・インターフェースに伝送されるオーディオ・セグメントの型を示す二値フラグを設定し、前記二値フラグは、前記デコーダによって、前記ビットストリームに関連付けられたメタデータ・ペイロードの一部としてエンコードされる、請求項10ないし12のうちいずれか一項記載のシステム。
- 前記チャネル・ベースのオーディオはサラウンドサウンド・オーディオ・ベッドを含み、前記オブジェクト・ベースのオーディオはオブジェクト・オーディオ・メタデータ(OAMD)フォーマットに整合するオブジェクトを含む、請求項10ないし13のうちいずれか一項記載のシステム。
- チャネル・ベースまたはオブジェクト・ベースのオーディオ・レンダリングの間で切り換える方法であって:
メタデータ要素を、関連付けられたオーディオ・ブロックについて、チャネル・ベースのオーディオ・コンテンツを示す第一の状態またはオブジェクト・ベースのオーディオ・コンテンツを示す第二の状態をもつようエンコードし;
前記メタデータ要素を複数のオーディオ・ブロックを含むオーディオ・ビットストリームの一部としてデコーダに伝送し;
各オーディオ・ブロックについて前記メタデータ要素を前記デコーダにおいてデコードして、前記メタデータ要素が前記第一の状態であればチャネル・ベースのオーディオ・コンテンツをチャネル・オーディオ・レンダラー(CAR)に、前記メタデータ要素が前記第二の状態であればオブジェクト・ベースのオーディオ・コンテンツをオブジェクト・オーディオ・レンダラー(OAR)にルーティングすることを含み、
前記チャネル・オーディオ・レンダラーおよび前記オブジェクト・オーディオ・レンダラーの両者は0でない異なるレイテンシーをもち、前記チャネル・オーディオ・レンダラーおよび前記オブジェクト・オーディオ・レンダラーは、それらの最初の初期化に際して、サンプル単位でのそれぞれのレイテンシーについて問い合わせされ、
前記チャネル・オーディオ・レンダラー・コンポーネントおよび前記オブジェクト・オーディオ・レンダラー・コンポーネントの前記サンプル単位でのそれぞれのレイテンシーは、オブジェクト・ベースのオーディオ・セグメントおよびチャネル・ベースのオーディオ・セグメントの処理の間で切り換えるときにレイテンシーを管理するために使用されるためのものである、
方法。 - 前記メタデータ要素は、前記デコーダに伝送されるパルス符号変調された(PCM)オーディオ・ビットストリームを用いて帯域内で伝送されるメタデータ・フラグを有する、請求項15記載の方法。
- 前記CARは、アップミキサーまたはチャネル・ベースのオーディオの入力チャネルを出力スピーカーにマッピングする素通しノードの一方を含む、請求項15または16記載の方法。
- 前記OARは、前記オーディオの処理ブロック・サイズを、メタデータ更新のタイミングおよび整列ならびに最大および最小ブロック・サイズを含む一つまたは複数の他のパラメータに基づいて動的に調整するOARインターフェース(OARI)を利用するレンダラーを含む、請求項15ないし17のうちいずれか一項記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462031723P | 2014-07-31 | 2014-07-31 | |
US62/031,723 | 2014-07-31 | ||
PCT/US2015/042190 WO2016018787A1 (en) | 2014-07-31 | 2015-07-27 | Audio processing systems and methods |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017526264A JP2017526264A (ja) | 2017-09-07 |
JP2017526264A5 JP2017526264A5 (ja) | 2018-08-30 |
JP6710675B2 true JP6710675B2 (ja) | 2020-06-17 |
Family
ID=53784010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017505086A Active JP6710675B2 (ja) | 2014-07-31 | 2015-07-27 | オーディオ処理システムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9875751B2 (ja) |
EP (1) | EP3175446B1 (ja) |
JP (1) | JP6710675B2 (ja) |
CN (1) | CN106688251B (ja) |
WO (1) | WO2016018787A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160315722A1 (en) * | 2015-04-22 | 2016-10-27 | Apple Inc. | Audio stem delivery and control |
JPWO2016194563A1 (ja) * | 2015-06-02 | 2018-03-22 | ソニー株式会社 | 送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置 |
CA2956136C (en) * | 2015-06-17 | 2022-04-05 | Sony Corporation | Transmitting device, transmitting method, receiving device, and receiving method |
US10325610B2 (en) | 2016-03-30 | 2019-06-18 | Microsoft Technology Licensing, Llc | Adaptive audio rendering |
US10863297B2 (en) | 2016-06-01 | 2020-12-08 | Dolby International Ab | Method converting multichannel audio content into object-based audio content and a method for processing audio content having a spatial position |
EP3337066B1 (en) * | 2016-12-14 | 2020-09-23 | Nokia Technologies Oy | Distributed audio mixing |
CN110447243B (zh) | 2017-03-06 | 2021-06-01 | 杜比国际公司 | 基于音频数据流渲染音频输出的方法、解码器系统和介质 |
US11303689B2 (en) | 2017-06-06 | 2022-04-12 | Nokia Technologies Oy | Method and apparatus for updating streamed content |
GB2563635A (en) | 2017-06-21 | 2018-12-26 | Nokia Technologies Oy | Recording and rendering audio signals |
KR102483470B1 (ko) * | 2018-02-13 | 2023-01-02 | 한국전자통신연구원 | 다중 렌더링 방식을 이용하는 입체 음향 생성 장치 및 입체 음향 생성 방법, 그리고 입체 음향 재생 장치 및 입체 음향 재생 방법 |
CN108854062B (zh) * | 2018-06-24 | 2019-08-09 | 广州银汉科技有限公司 | 一种移动游戏的语音聊天模块 |
WO2020072364A1 (en) * | 2018-10-01 | 2020-04-09 | Dolby Laboratories Licensing Corporation | Creative intent scalability via physiological monitoring |
WO2020123424A1 (en) * | 2018-12-13 | 2020-06-18 | Dolby Laboratories Licensing Corporation | Dual-ended media intelligence |
US11544032B2 (en) * | 2019-01-24 | 2023-01-03 | Dolby Laboratories Licensing Corporation | Audio connection and transmission device |
US11432097B2 (en) * | 2019-07-03 | 2022-08-30 | Qualcomm Incorporated | User interface for controlling audio rendering for extended reality experiences |
CN112399189B (zh) * | 2019-08-19 | 2022-05-17 | 腾讯科技(深圳)有限公司 | 延时输出控制方法、装置、系统、设备及介质 |
JP7174755B2 (ja) | 2019-11-26 | 2022-11-17 | グーグル エルエルシー | 要求時におけるオーディオレコーディングへの補足オーディオコンテンツの動的挿入 |
WO2021113350A1 (en) * | 2019-12-02 | 2021-06-10 | Dolby Laboratories Licensing Corporation | Systems, methods and apparatus for conversion from channel-based audio to object-based audio |
KR20210068953A (ko) | 2019-12-02 | 2021-06-10 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US20230199418A1 (en) * | 2021-03-08 | 2023-06-22 | Sejongpia Inc. | Sound tracing method and device to improve sound propagation performance |
WO2023006582A1 (en) * | 2021-07-29 | 2023-02-02 | Dolby International Ab | Methods and apparatus for processing object-based audio and channel-based audio |
CN113905322A (zh) * | 2021-09-01 | 2022-01-07 | 赛因芯微(北京)电子科技有限公司 | 基于双耳音频通道元数据和生成方法、设备及存储介质 |
CN113938811A (zh) * | 2021-09-01 | 2022-01-14 | 赛因芯微(北京)电子科技有限公司 | 基于音床音频通道元数据和生成方法、设备及存储介质 |
CN113963725A (zh) * | 2021-09-18 | 2022-01-21 | 赛因芯微(北京)电子科技有限公司 | 音频对象元数据和产生方法、电子设备及存储介质 |
CN114363790A (zh) * | 2021-11-26 | 2022-04-15 | 赛因芯微(北京)电子科技有限公司 | 串行音频块格式元数据生成方法、装置、设备及介质 |
FR3131058A1 (fr) * | 2021-12-21 | 2023-06-23 | Sagemcom Broadband Sas | Boitier décodeur pour la restitution d’une piste audio additionnelle. |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5949410A (en) | 1996-10-18 | 1999-09-07 | Samsung Electronics Company, Ltd. | Apparatus and method for synchronizing audio and video frames in an MPEG presentation system |
JP3159098B2 (ja) | 1997-01-13 | 2001-04-23 | 日本電気株式会社 | 画像と音声の同期再生装置 |
US7319703B2 (en) | 2001-09-04 | 2008-01-15 | Nokia Corporation | Method and apparatus for reducing synchronization delay in packet-based voice terminals by resynchronizing during talk spurts |
EP1892711B1 (en) | 2002-03-05 | 2009-12-02 | D&M Holdings, Inc. | Audio reproducing apparatus |
JP2004004274A (ja) * | 2002-05-31 | 2004-01-08 | Matsushita Electric Ind Co Ltd | 音声信号処理切換装置 |
EP1427252A1 (en) * | 2002-12-02 | 2004-06-09 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for processing audio signals from a bitstream |
US7167108B2 (en) | 2002-12-04 | 2007-01-23 | Koninklijke Philips Electronics N.V. | Method and apparatus for selecting particular decoder based on bitstream format detection |
AU2005241905A1 (en) | 2004-04-21 | 2005-11-17 | Dolby Laboratories Licensing Corporation | Audio bitstream format in which the bitstream syntax is described by an ordered transversal of a tree hierarchy data structure |
US20070199043A1 (en) | 2006-02-06 | 2007-08-23 | Morris Richard M | Multi-channel high-bandwidth media network |
US7965771B2 (en) | 2006-02-27 | 2011-06-21 | Cisco Technology, Inc. | Method and apparatus for immediate display of multicast IPTV over a bandwidth constrained network |
US8190441B2 (en) | 2006-09-11 | 2012-05-29 | Apple Inc. | Playback of compressed media files without quantization gaps |
US8254248B2 (en) | 2007-03-20 | 2012-08-28 | Broadcom Corporation | Method and system for implementing redundancy for streaming data in audio video bridging networks |
EP2048890A1 (en) | 2007-10-11 | 2009-04-15 | Thomson Licensing | System and method for an early start of audio-video rendering |
US20090100493A1 (en) | 2007-10-16 | 2009-04-16 | At&T Knowledge Ventures, Lp. | System and Method for Display Format Detection at Set Top Box Device |
US8170226B2 (en) | 2008-06-20 | 2012-05-01 | Microsoft Corporation | Acoustic echo cancellation and adaptive filters |
CN102099854B (zh) * | 2008-07-15 | 2012-11-28 | Lg电子株式会社 | 处理音频信号的方法和装置 |
EP2146522A1 (en) * | 2008-07-17 | 2010-01-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for generating audio output signals using object based metadata |
JP2010098460A (ja) | 2008-10-15 | 2010-04-30 | Yamaha Corp | オーディオ信号処理装置 |
GB0820920D0 (en) | 2008-11-14 | 2008-12-24 | Wolfson Microelectronics Plc | Codec apparatus |
WO2010076770A2 (en) | 2008-12-31 | 2010-07-08 | France Telecom | Communication system incorporating collaborative information exchange and method of operation thereof |
FR2942096B1 (fr) | 2009-02-11 | 2016-09-02 | Arkamys | Procede pour positionner un objet sonore dans un environnement sonore 3d, support audio mettant en oeuvre le procede, et plate-forme de test associe |
US20100223552A1 (en) | 2009-03-02 | 2010-09-02 | Metcalf Randall B | Playback Device For Generating Sound Events |
WO2011095913A1 (en) | 2010-02-02 | 2011-08-11 | Koninklijke Philips Electronics N.V. | Spatial sound reproduction |
FR2959037A1 (fr) | 2010-04-14 | 2011-10-21 | Orange Vallee | Procede de creation d'une sequence media par groupes coherents de fichiers medias |
US20120089390A1 (en) | 2010-08-27 | 2012-04-12 | Smule, Inc. | Pitch corrected vocal capture for telephony targets |
EP2689575A4 (en) | 2011-03-25 | 2014-09-10 | Ericsson Telefon Ab L M | HYBRID MULTIMEDIA RECEIVER, INTERGARY SERVER AND METHODS, CORRESPONDING COMPUTER PROGRAMS AND COMPUTER PROGRAM PRODUCTS |
EP3893521B1 (en) * | 2011-07-01 | 2024-06-19 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
CN103621101B (zh) | 2011-07-01 | 2016-11-16 | 杜比实验室特许公司 | 用于自适应音频系统的同步化和切换方法及系统 |
CN103891303B (zh) | 2011-08-16 | 2018-03-09 | 黛斯悌尼软件产品有限公司 | 基于脚本的视频呈现 |
EP2812785B1 (en) | 2012-02-07 | 2020-11-25 | Nokia Technologies Oy | Visual spatial audio |
US20130238992A1 (en) | 2012-03-08 | 2013-09-12 | Motorola Mobility, Inc. | Method and Device for Content Control Based on Data Link Context |
CN104488026A (zh) | 2012-07-12 | 2015-04-01 | 杜比实验室特许公司 | 使用饱和参数调制将数据嵌入立体声音频中 |
EP2875511B1 (en) | 2012-07-19 | 2018-02-21 | Dolby International AB | Audio coding for improving the rendering of multi-channel audio signals |
EP2891335B1 (en) * | 2012-08-31 | 2019-11-27 | Dolby Laboratories Licensing Corporation | Reflected and direct rendering of upmixed content to individually addressable drivers |
US9460729B2 (en) | 2012-09-21 | 2016-10-04 | Dolby Laboratories Licensing Corporation | Layered approach to spatial audio coding |
EP2733964A1 (en) * | 2012-11-15 | 2014-05-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Segment-wise adjustment of spatial audio signal to different playback loudspeaker setup |
EP2936485B1 (en) * | 2012-12-21 | 2017-01-04 | Dolby Laboratories Licensing Corporation | Object clustering for rendering object-based audio content based on perceptual criteria |
GB2501150B (en) | 2013-01-14 | 2014-07-23 | Oxalis Group Ltd | An audio amplifier |
US8751832B2 (en) | 2013-09-27 | 2014-06-10 | James A Cashin | Secure system and method for audio processing |
CN105981411B (zh) * | 2013-11-27 | 2018-11-30 | Dts(英属维尔京群岛)有限公司 | 用于高声道计数的多声道音频的基于多元组的矩阵混合 |
-
2015
- 2015-07-27 JP JP2017505086A patent/JP6710675B2/ja active Active
- 2015-07-27 CN CN201580045969.3A patent/CN106688251B/zh active Active
- 2015-07-27 US US15/329,909 patent/US9875751B2/en active Active
- 2015-07-27 EP EP15747707.6A patent/EP3175446B1/en active Active
- 2015-07-27 WO PCT/US2015/042190 patent/WO2016018787A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN106688251A (zh) | 2017-05-17 |
JP2017526264A (ja) | 2017-09-07 |
WO2016018787A1 (en) | 2016-02-04 |
US20170243596A1 (en) | 2017-08-24 |
EP3175446A1 (en) | 2017-06-07 |
EP3175446B1 (en) | 2019-06-19 |
US9875751B2 (en) | 2018-01-23 |
CN106688251B (zh) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6710675B2 (ja) | オーディオ処理システムおよび方法 | |
RU2741738C1 (ru) | Система, способ и постоянный машиночитаемый носитель данных для генерирования, кодирования и представления данных адаптивного звукового сигнала | |
JP7033170B2 (ja) | 適応オーディオ・コンテンツのためのハイブリッドの優先度に基づくレンダリング・システムおよび方法 | |
JP5156110B2 (ja) | リアルタイム・マルチチャネル対話型デジタル・オーディオを提供するための方法 | |
JP6765476B2 (ja) | オーディオの対スクリーン・レンダリングおよびそのようなレンダリングのためのオーディオのエンコードおよびデコード | |
WO2013192111A1 (en) | Rendering and playback of spatial audio using channel-based audio systems | |
AU2012279357A1 (en) | System and method for adaptive audio signal generation, coding and rendering | |
RU2820838C2 (ru) | Система, способ и постоянный машиночитаемый носитель данных для генерирования, кодирования и представления данных адаптивного звукового сигнала |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20170217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180720 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200527 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6710675 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |