JP7000488B2 - マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム - Google Patents
マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム Download PDFInfo
- Publication number
- JP7000488B2 JP7000488B2 JP2020066343A JP2020066343A JP7000488B2 JP 7000488 B2 JP7000488 B2 JP 7000488B2 JP 2020066343 A JP2020066343 A JP 2020066343A JP 2020066343 A JP2020066343 A JP 2020066343A JP 7000488 B2 JP7000488 B2 JP 7000488B2
- Authority
- JP
- Japan
- Prior art keywords
- channel
- signals
- audio
- uncorrelator
- uncorrelated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004590 computer program Methods 0.000 title claims description 16
- 230000005236 sound signal Effects 0.000 claims description 207
- 238000000034 method Methods 0.000 claims description 158
- 239000011159 matrix material Substances 0.000 claims description 109
- 238000009877 rendering Methods 0.000 claims description 29
- 230000006870 function Effects 0.000 description 33
- 230000000875 corresponding effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 230000002829 reductive effect Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000000926 separation method Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000000354 decomposition reaction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000032258 transport Effects 0.000 description 7
- 230000015556 catabolic process Effects 0.000 description 6
- 238000006731 degradation reaction Methods 0.000 description 6
- 238000009795 derivation Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 241000473391 Archosargus rhomboidalis Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 101100126625 Caenorhabditis elegans itr-1 gene Proteins 0.000 description 1
- 101100018996 Caenorhabditis elegans lfe-2 gene Proteins 0.000 description 1
- 101100356268 Schizosaccharomyces pombe (strain 972 / ATCC 24843) red1 gene Proteins 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/22—Mode decision, i.e. based on audio signal content versus external parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
- G10L19/265—Pre-filtering, e.g. high frequency emphasis prior to encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/02—Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/03—Application of parametric coding in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- General Physics & Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Complex Calculations (AREA)
Description
他の実施の形態において、マルチチャネル・オーディオ・デコーダは、少なくとも2つの出力オーディオ信号を受信するフォーマット変換器またはレンダラによって使用される混合行列(Dconv,Drender)に等しいマルチチャネル非相関器による使用のためのプレミキシング行列(Mpre)を選択するように構成される。
図1は、本発明の実施の形態によるマルチチャネル・オーディオ・デコーダ100のブロック概略図を示す。
図2は、本発明の実施の形態によるマルチチャネル・オーディオ・エンコーダ200のブロック概略図を示す。マルチチャネル・オーディオ・エンコーダ200は、2つ以上の入力オーディオ信号210,212を受信し、それに基づいて符号化表現214を供給するように構成される。マルチチャネル・オーディオ・エンコーダは、少なくとも2つ以上の入力オーディオ信号210,212に基づいて、1つ以上のダウンミックス信号222を供給するように構成されるダウンミックス信号プロバイダ220を含む。さらに、マルチチャネル・オーディオ・エンコーダ200は、少なくとも2つの入力オーディオ信号210,214の間の関係(例えば、相互相関、相互共分散、レベル差等)を記述している1つ以上のパラメータ232を供給するように構成されるパラメータ・プロバイダ230を含む。
図3は、符号化表現に基づいて少なくとも2つの出力オーディオ信号を供給するための方法300のフローチャートを示す。方法は、複数のレンダリングされたオーディオ信号を得るために、1つ以上のレンダリング・パラメータに基づく符号化表現312に基づいて得られた複数の復号化オーディオをレンダリングするステップ310を含む。方法300は、また、レンダリングされたオーディオ信号から1つ以上の非相関化オーディオ信号を導出するステップ320を含む。方法300は、また、出力オーディオ信号332を得るために、レンダリングされたオーディオ信号またはそのスケール化バージョンと1つ以上の非相関化オーディオ信号とを結合するステップ330を含む。
図4は、少なくとも2つの入力オーディオ信号に基づく符号化表現を供給するための方法400のフローチャートを示す。方法400は、少なくとも2つの入力オーディオ信号に基づく1つ以上のダウンミックス信号を供給するステップ410を含む。さらに、方法400は、少なくとも2つの入力オーディオ信号412の間の関係を記述している1つ以上のパラメータを供給するステップ420と、オーディオ・デコーダのサイドで使用される複数の非相関化モードのうちの非相関化モードを記述している非相関化方法パラメータを供給するステップ430とを含む。従って、好ましくは、1つ以上のダウンミックス信号の符号化表現、少なくとも2つの入力オーディオ信号の間の関係を記述している1つ以上のパラメータ、および非相関化方法パラメータを含む符号化表現432が供給される。
図5は、本発明の実施の形態による符号化オーディオ表現500の概略図を示す。
図6は、本発明の実施の形態によるマルチチャネル非相関器600のブロック概略図を示す。
図7は本発明の実施の形態によるマルチチャネル・オーディオ・デコーダ700のブロック概略図を示す。
図8は、本発明の実施の形態によるマルチチャネル・オーディオ・エンコーダ800のブロック概略図を示す。マルチチャネル・オーディオ・エンコーダ800は、少なくとも2つの入力オーディオ信号810,812を受信し、それに基づいて、入力オーディオ信号810,812によって表わされるオーディオ・コンテンツの符号化表現814を供給するように構成される。
図9は、複数の非相関器入力信号に基づいて、複数の非相関信号を供給するような方法900のフローチャートを示す。
図10は、符号化表現に基づいて少なくとも2つの出力オーディオ信号を供給するための方法1000のフローチャートを示す。
図11は、少なくとも2つの入力オーディオ信号に基づいて符号化表現を供給する方法1100のフローチャートを示す。
図12は、本発明の実施の形態による符号化オーディオ表現の概略図を示す。符号化オーディオ表現1200は、ダウンミックス信号の符号化表現1210、少なくとも2つの入力オーディオ信号の間の関係を記述している1つ以上のパラメータの符号化表現1220、およびオーディオ・デコーダのサイドにおいて使用される非相関化の複雑さを記述している符号化非相関化複雑さパラメータ1230を含む。従って、符号化オーディオ表現1200は、改良された復号化効率、および改良されたオーディオ品質または符号化効率とオーディオ品質とのトレードオフの改良の可能性をもたらすマルチチャネル・オーディオ・デコーダによって使用される非相関化の複雑さを調整することを許容する。さらに、符号化オーディオ表現1200は、本願明細書において記載されるようにマルチチャネル・オーディオ・エンコーダによって供給されえ、そして、本願明細書において記載されるようにマルチチャネル・オーディオ・エンコーダによって使用されうる点に留意されたい。従って、符号化オーディオ表現1200は、マルチチャネル・オーディオ・エンコーダに関しておよびマルチチャネル・オーディオ・デコーダに関して記載される特徴のいずれかによって補充されうる。
近年では、複数のオーディオ・オブジェクトを含んでいるオーディオ・シーンのビットレートの効果的な伝送/格納のためのパラメータの技術は、オーディオ符号化の分野(例えば、参考文献[BCC][JSC][SAOC][SAOC1][SAOC2]を参照)およびインフォームド(informed)音源分離の分野(例えば、参考文献[ISS1][ISS2][ISS3][ISS4][ISS5][ISS6]を参照)において提案されている。これらの技術は、伝送され/格納されたオーディオ・シーンおよび/またはオーディオ・シーンにおける音源オブジェクトを記述している追加のサイド情報に基づいて、所望の出力オーディオ・シーンまたはオーディオ音源オブジェクトを再構成することを意図する。この再構成は、パラメータのインフォームド音源分離方式を使用してデコーダにおいて生じる。さらに、参照は、例えば、国際標準ISO/IEC 23003-1:2007において記載されるいわゆる「MPEG Surround(MPEGサラウンド)」のコンセプトにもなされる。さらに、参照は、国際標準ISO/IEC 23003-2:2010において記載されるいわゆる「Spatial Audio Object Coding(空間オーディオ・オブジェクト符号化)」にもなされる。さらに、参照は、国際規格ISO/IEC 23003-3:2012において記載されるいわゆる「Unified Speech and Audio Coding(音声音響統合符号化方式)」にもなされる。これらの標準からのコンセプトは、例えば、本願明細書において記載されるマルチチャネル・オーディオ・エンコーダおよび本願明細書において記載されるマルチチャネル・オーディオ・デコーダにおいて、本発明による実施の形態において使用される。ここで、いくつかの適応は必要とされうる。
一般的なパラメータ分離システムは、(例えば、内部チャネル相関値、内部チャネルレベル差値、内部オブジェクト相関値および/またはオブジェクト・レベル差情報のような)補助的なパラメータ情報を使用して信号混合(ダウンミックス)からオーディオ音源の数を推定することを意図する。この作業の典型的な解決は、最小2乗平均誤差(Minimum Mean Squared Error:MMSE)推定アルゴリズムのアプリケーションに基づく。SAOC技術は、パラメトリックオーディオ符号化/復号化システムのような1つの実施例である。
不完全なパラメトリック再構成の場合、出力信号は、元のオブジェクトと比較して低いエネルギーを示しうる。共分散行列の対角要素の誤差は、(理想的な参照出力と比較して)聞き取れるレベル差、および歪められた空間音像における非対角要素での誤差を結果として得る。提案された方法は、この課題を解決するための目的を有する。
結論として、表記法に関する概要が提供された。さらに、パラメトリック分離システムは、本発明による実施の形態がベースであることが述べられた。さらに、最小2乗平均誤差推定に適用される直交原理が概説された。さらに、再構成誤差XErrorの存在において適用する共分散行列EXの算出のための方程式が提供された。また、例えば、本発明による実施の形態において、(パラメトリックサイド情報において含まれうる)内部オブジェクト相関値から所望の共分散特性(または相関特性)を導出し、そして、おそらくオブジェクト・レベル差を形成するために適用されうる、いわゆる内部オブジェクト相関値および共分散行列EXの要素との間の関係が提供された。さらに、再構成オブジェクト信号の特性が、不完全な再構成のため、所望の特性と異なることが概説された。さらに、課題を取り扱う既存の解決策が、いくつかの特定の出力構成に限られており、従来の解決策の変更できない標準ブロックの特定の結合に依拠することが概説された。
14.1 コンセプトの概要
本発明による実施の形態は、任意の数のダウンミックス/アップミックスチャネルのための非相関化の解決策を有するパラメトリックオーディオ分離方式において使用されるMMSEパラメトリック再構成方法を拡張する。例えば、発明の装置および発明の方法のような本発明による実施の形態は、パラメトリック再構成の間のエネルギー損失を補償することができ、そして、推定されたオブジェクトの相関特性を復元しうる。
以下に、非相関器1590に関する若干の詳細が記載される。しかしながら、いくつか後述されるように、異なる非相関器のコンセプトが使用されうる点に留意されたい。
以下に、コンセプトが、合理的に良好な聴覚印象を得るように、出力オーディオ信号1552a~1552nの共分散特性を調整することを記載している。
C=REXRH
として、定義される。
ES=VQVH,C=UTUH
として、例えば、特異値分解(SVD)を使用して表わされ、TおよびQは、それぞれCおよびESの特異値を有する対角行列であり、UおよびVは、特異ベクトルに対応するユニタリ行列である。
このセクションにおいて、前述の混合行列Fのための2つの変形例の構造は、その値を決定するための典型的なアルゴリズムとともに記載される。2つの変形例は、異なる入力コンテンツ(例えば、オーディオ・コンテンツ)のために設計される。
- 高い相関コンテンツ(例えば、異なるチャネル対の間の高い相関を伴うチャネル・ベースの入力)のための共分散調整方法
- 独立入力信号(例えば、たいてい独立とみなされる、オブジェクト・ベースの入力)のためのエネルギー補償方法
ΔE=UTUH,EW=VQVH
として、例えば、特異値分解(SVD)を使用して表わされ、TおよびQは、それぞれΔEおよびEWの特異値を有する対角行列であり、UおよびVは、対応する特異ベクトルを含むユニタリ行列である。
時々(アプリケーション・シナリオに応じて)、(例えば、レンダリングされたオーディオ信号の)パラメトリック再構成または非相関化信号の混合を許容することを望まないが、しかし、個々に、各パラメータ的に再構成された信号(例えば、レンダリングされたオーディオ信号)とそれ自身の非相関化信号のみを混合することが望ましい。
以下に、混合行列F、セクション14.3および14.4において記載されているその導出は、低下を回避する必要性を満たすと説明される。
混合行列Fを得るために、結合信号Sの共分散行列ESの情報が必要とされるか、または、少なくとも価値がある。
以下に、本発明による実施の形態において使用される非相関器の複雑さがどのように低減されうるかが記載される。
SAOCデコーダ(または、さらに一般的にいえば、マルチチャネル・オーディオ・デコーダ)が、外部の第2のレンダラ/フォーマット変換器と共に使用される場合、以下において、提案されたコンセプト(方法または装置)に対する変更が、使用されうる。
以下において、追加の信号伝達情報がビットストリームにおいて(または、オーディオ・コンテンツの符号化表現において、同等に)使用されうることが記載される。本発明による実施の形態において、非相関化の方法は、所望の品質レベルを確実にするためのビットストリームに信号を送信されうる。このような方法で、ユーザ(またはオーディオ・エンコーダ)は、コンテンツに基づいて方法を選択するように、より多くの柔軟性を有する。この目的のために、MPEG SAOCビットストリーム構文は、例えば、使用された非相関化の方法を特定するための2ビットおよび/または構造(または複雑さ)を特定するための2ビットによって延長されうる。
オーディオ・シーンの人間の認識のためのより大きな重要性である導かれた方法の目的のうちの1つが、オーディオ・キューを復元することである点に留意されたい。本発明による実施の形態は、エネルギーのレベルおよび相関特性の再構成の正確さを改善し、従って、最後の出力信号の知覚的なオーディオ品質を増加させる。本発明による実施の形態は、任意の数のダウンミックス/アップミックスチャネルのために適用されうる。さらに、本願明細書において記載される方法および装置は、既存のパラメータのソース分離アルゴリズムと結合されうる。本発明による実施の形態は、適用される非相関化の機能の数における設定の制約によってシステムの計算の複雑さを制御することを許容する。本発明による実施の形態は、MPSトランスコーディング・ステップを取り除くことによって、SAOCのようなオブジェクト・ベースのパラメトリック構造アルゴリズムの簡略化に通じうる。
以下において、本発明によるコンセプトが適用されるオーディオ符号化/復号化の環境が記載される。
プレレンダラ/ミキサ2910は、符号化前に、チャネルに加えて、オブジェクト入力シーンをチャネル・シーンに変換するために任意に使用されうる。機能的に、例えば、それは、後述するオブジェクト・レンダラ/ミキサと同一もありうる。
スピーカチャネル信号、個々のオブジェクト信号、オブジェクト・ダウンミックス信号およびプレレンダリングされた信号のための主要部のコーデック2930,3020は、MPEG-D USAC技術に基づく。それは、入力チャネルおよびオブジェクト割り当ての幾何学的および意味論的な情報に基づくチャネルおよびオブジェクト・マッピング情報をもたらすことによる多数の信号の復号化を扱う。このマッピング情報は、どのように、入力チャネルおよびオブジェクトがUSACチャネル要素(CPE,SCE,LFE)にマッピングされるか、そして、対応する情報は、デコーダに送信されるかを記載する。
オブジェクト信号のためのSAOCエンコーダ2940およびSAOCデコーダ3060は、MPEG SAOC技術に基づく。システムは、送信されたチャネルおよび付加的なパラメータ・データ(オブジェクト・レベル差OLD、内部オブジェクト相関IOC、ダウンミックス・ゲインDMG)より少ない数に基づいて、オーディオ・オブジェクトの数を再形成し、修正し、そしてレンダリングすることができる。付加的なパラメータのデータは、復号化を非常に効率的にし、個々に、すべてのオブジェクトを送信するための必要であるより著しく低いデータレートを示す。SAOCエンコーダは、モノラル波形としてオブジェクト/チャネル信号を入力し、そして、(3Dオーディオ・ビットストリーム2932,3010に圧縮される)パラメトリック情報および(単一のチャネル要素を使用して符号化され、送信される)SAOCトランスポート・チャネルを出力する。SAOCデコーダ3000は、復号化SAOCトランスポート・チャネル3028およびパラメータの情報3030からオブジェクト/チャネル信号を再構成し、再構成レイアウト、展開されたオブジェクト・メタデータ情報およびユーザ相互作用情報のオプションに基づいて、出力オーディオ・シーンを生成する。
オブジェクト毎に、3D空間におけるオブジェクトの幾何学的な位置および量を特定する関連するメタデータは、時間および空間のオブジェクト特性の量子化によって、効率よく符号化される。圧縮されたオブジェクト・メタデータcOAM2954,3032は、サイド情報として受信機に送信される。
オブジェクト・レンダラは、所与の再構成フォーマットに従ってオブジェクト波形を生成するために、展開されたオブジェクト・メタデータOAM3044を利用する。各オブジェクトは、そのメタデータに従って、特定の出力チャネルにレンダリングされる。このブロックの出力は、部分的な結果の合計から結果を得る。
各入力チャネルが仮想音源によって表されるように、バイノーラル・レンダラ・モジュール3080は、マルチチャネル・オーディオ材料のバイノーラルのダウンミックスを生じる。処理は、QMF領域にフレームごとに実行される。バイノーラル化は、測定されたバイノーラルの部屋のインパルス応答に基づく。
スピーカ・レンダラ3090は、送信されたチャネル構成および所望の再生フォーマットとの間で変換する。以下において、それは、「フォーマット変換器」と呼ばれる。フォーマット変換器は、より少ない数の出力チャネルに変換する、すなわち、ダウンミックスを生成する。システムは、自動的に入出力フォーマットの所与の組み合わせのための最適化されたダウンミックス行列を生成して、ダウンミックス処理においてこれらの行列を適用する。フォーマット変換器は、標準のスピーカの構成と同様に、非標準のスピーカの位置を有するランダムな構成を許容する。
さらに、本願明細書において記載されたコンセプト、例えば、オーディオ・デコーダ100、オーディオ・エンコーダ200、マルチチャネル非相関器600、マルチチャネル・オーディオ・デコーダ700、オーディオ・エンコーダ800またはオーディオ・デコーダ1550が、オーディオ・エンコーダ2900および/またはオーディオ・デコーダ3000において使用されうる点に留意されたい。例えば、前述のオーディオ・エンコーダ/デコーダは、SAOCエンコーダ2940の一部としておよび/またはSAOCデコーダ3060の一部として使用されうる。一方、前述のコンセプトは、3Dオーディオ・デコーダ3000および/またはオーディオ・エンコーダ2900の他の位置でも使用されうる。
20.1 はじめに
以下において、本発明による他の実施の形態が、記載される。
ISO/IEC 23003-1:2007に記載されているハイブリッド・フィルタバンクが適用される。DMG、OLD、IOCパラメータの逆量子化は、ISO/IEC 23003-2:2010の7.1.2において定義されるように同じ規則に従う。
オーディオ信号は、あらゆる時間枠nおよびあらゆるハイブリッド・サブバンドkに対して定義される。対応するSAOC 3Dパラメータは、各パラメータ時間枠lおよび処理バンドmに対して定義される。ハイブリッドおよびパラメータ領域間の次のマッピングは、ISO/IEC 23003-1:2007の表A.31によって特定される。それゆえ、すべての計算は、特定の時間/バンド・インデックスに関して実行され、そして、対応する次元は、各導入変数に対して暗に定義される。
OLDi=DOLD(i,l,m),IOCi,j=DIOC(i,j,l,m)
として、得られる。
DMGi,j=DDMG(i,j,l)
として、得られる。
SAOC 3Dパラメータおよびレンダリング情報を用いて出力信号を得るための方法が記載される。SAOC 3Dデコーダは、例えば、SAOC 3Dパラメータ・プロセッサおよびSAOC 3Dダウンミックス・プロセッサから構成されうる。
(ハイブリッドQMF領域において表される)ダウンミックス・プロセッサの出力信号は、SAOC 3Dデコーダの最後の出力を得ている、ISO/IEC 23003-1:2007において記載されるように、対応する合成フィルタバンクに供給される。ダウンミックス・プロセッサの詳細な構造は、図31において表現される。
結合復号化モードの場合において、パラメトリック・アンミキシング行列Uは、
U=ED*J
によって、与えられる。
いくつかの態様が、装置との関連で記載されるが、これらの態様も、対応する方法の説明を表わすことは明らかであり、ブロックあるいは装置は、方法のステップ、または方法のステップの特徴に対応する。類似して、方法のステップとの関連で記載される態様は、装置に対応する、ブロック、アイテムまたは特徴の説明を表す。方法のステップのいくつかまたは全ては、たとえば、マイクロプロセッサ、プログラム可能なコンピュータ、または電子回路のようなハードウェア装置によって(または使用して)実行されうる。いくつかの実施の形態において、最も重要な方法のステップの1つ以上は、この種の装置によって実行されうる。
[BCC] C. Faller and F. Baumgarte, "Binaural Cue Coding - Part II: Schemes and applications," IEEE Trans. on Speech and Audio Proc., vol. 11, no. 6, Nov. 2003.
[Blauert] J. Blauert, "Spatial Hearing - The Psychophysics of Human Sound Localization", Revised Edition, The MIT Press, London, 1997.
[JSC] C. Faller, "Parametric Joint-Coding of Audio Sources", 120th AES Convention, Paris, 2006.
[ISS1] M. Parvaix and L. Girin: "Informed Source Separation of underdetermined instantaneous Stereo Mixtures using Source Index Embedding", IEEE ICASSP, 2010.
[ISS2] M. Parvaix, L. Girin, J.-M. Brossier: "A watermarking-based method for informed source separation of audio signals with a single sensor", IEEE Transactions on Audio, Speech and Language Processing, 2010.
[ISS3] A. Liutkus and J. Pinel and R. Badeau and L. Girin and G. Richard: "Informed source separation through spectrogram coding and data embedding", Signal Processing Journal, 2011.
[ISS4] A. Ozerov, A. Liutkus, R. Badeau, G. Richard: "Informed source separation: source coding meets source separation", IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, 2011.
[ISS5] S. Zhang and L. Girin: "An Informed Source Separation System for Speech Signals", INTERSPEECH, 2011.
[ISS6] L. Girin and J. Pinel: "Informed Audio Source Separation from Compressed Linear Stereo Mixtures", AES 42nd International Conference: Semantic Audio, 2011.
[MPS] ISO/IEC, "Information technology - MPEG audio technologies - Part 1: MPEG Surround," ISO/IEC JTC1/SC29/WG11 (MPEG) international Standard 23003-1:2006.
[OCD] J. Vilkamo, T. Baeckstroem, and A. Kuntz. "Optimized covariance domain framework for time-frequency processing of spatial audio", Journal of the Audio Engineering Society, 2013. in press.
[SAOC1] J. Herre, S. Disch, J. Hilpert, O. Hellmuth: "From SAC To SAOC - Recent Developments in Parametric Coding of Spatial Audio", 22nd Regional UK AES Conference, Cambridge, UK, April 2007.
[SAOC2] J. Engdegard, B. Resch, C. Falch, O. Hellmuth, J. Hilpert, A. Hoelzer, L. Terentiev, J. Breebaart, J. Koppens, E. Schuijers and W. Oomen: " Spatial Audio Object Coding (SAOC) - The Upcoming MPEG Standard on Parametric Object Based Audio Coding", 124th AES Convention, Amsterdam 2008.
[SAOC] ISO/IEC, "MPEG audio technologies - Part 2: Spatial Audio Object Coding (SAOC)," ISO/IEC JTC1/SC29/WG11 (MPEG) International Standard 23003-2.
International Patent No. WO/2006/026452, "MULTICHANNEL DECORRELATION IN SPATIAL AUDIO CODING" issued on 9 March 2006.
Claims (35)
- K=K’である、請求項1に記載のマルチチャネル非相関器。
- N=N’である、請求項1または請求項2に記載のマルチチャネル非相関器。
- N≧3およびN’≧3である、請求項1ないし請求項3のいずれかに記載のマルチチャネル非相関器。
- 結合される前記少なくとも2つの左側のチャネル信号は、結合される前記少なくとも2つの右側のチャネル信号に関連している前記空間的な位置と、前記オーディオ・シーンの中心面に関して、対称な空間的な位置に関連している、請求項12に記載のマルチチャネル非相関器。
- 前記マルチチャネル非相関器は、非相関器入力信号の前記第2のセットの非相関器入力信号の数Kを記述している複雑さの情報を受信するように構成され、前記マルチチャネル非相関器は、前記複雑さの情報に基づいて、プレミキシング行列(Mpre)を選択するように構成される、請求項1ないし請求項13のいずれかに記載のマルチチャネル非相関器。
- 符号化表現(110;1516a;1516b;1518)に基づいて、少なくとも2つの出力オーディオ信号(112,114;1552a-1552n)を供給するためのマルチチャネル・オーディオ・デコーダ(100;1550)であって、
ここで、前記マルチチャネル・オーディオ・デコーダは、請求項1ないし請求項18のいずれかに記載のマルチチャネル非相関器(140;600;1590;1700)を含む、マルチチャネル・オーディオ・デコーダ。 - 前記マルチチャネル・オーディオ・デコーダは、複数のレンダリングされたオーディオ信号(134,136;1582a-1582n)を得るために、1つ以上のレンダリング・パラメータ(132)に基づいて、前記符号化表現に基づいて得られた複数の復号化オーディオ信号(122;1562a-1562n)をレンダリングするように構成され、
前記マルチチャネル・オーディオ・デコーダは、前記マルチチャネル非相関器を使用して、前記レンダリングされたオーディオ信号から1つ以上の非相関化オーディオ信号(142,144;1592a-1592n)を導出するように構成され、ここで、前記レンダリングされたオーディオ信号は、非相関器入力信号の前記第1のセットを構成し、非相関器出力信号の前記第2のセットは、前記非相関化オーディオ信号を構成し、
前記マルチチャネル・オーディオ・デコーダは、前記出力オーディオ信号を得るために、前記レンダリングされたオーディオ信号またはそのスケール化バージョンと前記1つ以上の非相関化オーディオ信号とを結合する(150;1598)ように構成される、請求項19に記載のマルチチャネル・オーディオ・デコーダ。 - 前記マルチチャネル・オーディオ・デコーダは、前記符号化表現において含まれる制御情報に基づいて、前記マルチチャネル非相関器による使用のためのプレミキシング行列(Mpre)を選択するように構成される、請求項19または請求項20に記載のマルチチャネル・オーディオ・デコーダ。
- 前記マルチチャネル・オーディオ・デコーダは、オーディオ・シーンの空間的な位置に伴う前記出力オーディオ信号の配分を記述している出力構造に基づいて、前記マルチチャネル非相関器による使用のためのプレミキシング行列(Mpre)を選択するように構成される、請求項19ないし請求項21のいずれかに記載のマルチチャネル・オーディオ・デコーダ。
- 前記マルチチャネル・オーディオ・デコーダは、所与の出力構造のための前記符号化表現において含まれる制御情報に基づいて、前記マルチチャネル非相関器による使用のために3つ以上の異なるプレミキシング行列(Mpre)の間で選択するように構成され、前記3つ以上の異なるプレミキシング行列の各々は、K個の非相関器入力信号の前記第2のセットの信号の異なる数に関連している、請求項19ないし請求項22のいずれかに記載のマルチチャネル・オーディオ・デコーダ。
- 前記マルチチャネル・オーディオ・デコーダは、前記少なくとも2つの出力オーディオ信号を受信するフォーマット変換器またはレンダラによって使用される混合行列(Dconv,Drender)に基づいて、前記マルチチャネル非相関器による使用のためにプレミキシング行列(Mpre)を選択するように構成される、請求項19ないし請求項23のいずれかに記載のマルチチャネル・オーディオ・デコーダ。
- 前記マルチチャネル・オーディオ・デコーダは、前記少なくとも2つの出力オーディオ信号を受信するフォーマット変換器またはレンダラによって使用される混合行列(Dconv,Drender)に等しい前記マルチチャネル非相関器による使用のための前記プレミキシング行列(Mpre)を選択するように構成される、請求項24に記載のマルチチャネル・オーディオ・デコーダ。
- 符号化表現に基づく少なくとも2つの出力オーディオ信号を供給するための方法(1000)であって、
前記方法は、請求項26に記載の複数の非相関器入力信号に基づき複数の非相関化信号を供給するステップ(1020)を含む、方法。 - コンピュータ・プログラムがコンピュータ上で実行されると、前記コンピュータが請求項26または請求項27に記載の方法を実行する、コンピュータ・プログラム。
- 符号化表現に基づいて少なくとも2つの出力オーディオ信号を供給するための方法(1000)であって、
前記方法は、
N個の非相関器入力信号の第1のセットをK個の非相関器入力信号の第2のセットにプレミックスするステップ(910)であって、ここでK<Nである、ステップと、
K個の非相関器入力信号の前記第2のセットに基づき、K'個の非相関器出力信号の第1のセットを供給するステップ(920)と、
K'個の非相関器出力信号の前記第1のセットをN'個の非相関器出力信号の第2のセットにアップミックスするステップ(930)であって、ここでN'>K'である、ステップと、
複数の非相関器入力信号に基づいて複数の非相関化信号を供給するステップ(1020)とを含み、
前記方法は、前記マルチチャネル非相関器が使用するためのプレミキシング行列(M pre )を前記符号化表現に含まれる制御情報に依存して選択するステップを含む、
方法。 - コンピュータ・プログラムがコンピュータ上で実行されると、前記コンピュータが請求項32、請求項33または請求項34に記載の方法を実行する、コンピュータ・プログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP13177374 | 2013-07-22 | ||
EP13177374.9 | 2013-07-22 | ||
EP20130189339 EP2830333A1 (en) | 2013-07-22 | 2013-10-18 | Multi-channel decorrelator, multi-channel audio decoder, multi-channel audio encoder, methods and computer program using a premix of decorrelator input signals |
EP13189339.8 | 2013-10-18 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018137637A Division JP6687683B2 (ja) | 2013-07-22 | 2018-07-23 | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020120389A JP2020120389A (ja) | 2020-08-06 |
JP7000488B2 true JP7000488B2 (ja) | 2022-01-19 |
Family
ID=48832794
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016528442A Active JP6434013B2 (ja) | 2013-07-22 | 2014-07-17 | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム |
JP2018137637A Active JP6687683B2 (ja) | 2013-07-22 | 2018-07-23 | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム |
JP2020066343A Active JP7000488B2 (ja) | 2013-07-22 | 2020-04-02 | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016528442A Active JP6434013B2 (ja) | 2013-07-22 | 2014-07-17 | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム |
JP2018137637A Active JP6687683B2 (ja) | 2013-07-22 | 2018-07-23 | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム |
Country Status (19)
Country | Link |
---|---|
US (6) | US11115770B2 (ja) |
EP (5) | EP2830334A1 (ja) |
JP (3) | JP6434013B2 (ja) |
KR (1) | KR101893410B1 (ja) |
CN (1) | CN105580390B (ja) |
AR (2) | AR097014A1 (ja) |
AU (2) | AU2014295206B2 (ja) |
BR (1) | BR112016001245B1 (ja) |
CA (1) | CA2919077C (ja) |
ES (3) | ES2725427T3 (ja) |
MX (3) | MX362548B (ja) |
MY (1) | MY178904A (ja) |
PL (1) | PL3025515T3 (ja) |
PT (1) | PT3025515T (ja) |
RU (1) | RU2666640C2 (ja) |
SG (1) | SG11201600491SA (ja) |
TW (1) | TWI587285B (ja) |
WO (1) | WO2015011014A1 (ja) |
ZA (1) | ZA201601047B (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2830334A1 (en) * | 2013-07-22 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multi-channel audio decoder, multi-channel audio encoder, methods, computer program and encoded audio representation using a decorrelation of rendered audio signals |
JP6212645B2 (ja) * | 2013-09-12 | 2017-10-11 | ドルビー・インターナショナル・アーベー | オーディオ・デコード・システムおよびオーディオ・エンコード・システム |
ES2922373T3 (es) * | 2015-03-03 | 2022-09-14 | Dolby Laboratories Licensing Corp | Realce de señales de audio espacial por decorrelación modulada |
EP3067885A1 (en) * | 2015-03-09 | 2016-09-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for encoding or decoding a multi-channel signal |
CN107886960B (zh) * | 2016-09-30 | 2020-12-01 | 华为技术有限公司 | 一种音频信号重建方法及装置 |
US10349196B2 (en) | 2016-10-03 | 2019-07-09 | Nokia Technologies Oy | Method of editing audio signals using separated objects and associated apparatus |
US10839814B2 (en) * | 2017-10-05 | 2020-11-17 | Qualcomm Incorporated | Encoding or decoding of audio signals |
US11004457B2 (en) * | 2017-10-18 | 2021-05-11 | Htc Corporation | Sound reproducing method, apparatus and non-transitory computer readable storage medium thereof |
EP3588988B1 (en) * | 2018-06-26 | 2021-02-17 | Nokia Technologies Oy | Selective presentation of ambient audio content for spatial audio presentation |
US11990141B2 (en) * | 2018-12-20 | 2024-05-21 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and apparatus for controlling multichannel audio frame loss concealment |
GB2582748A (en) | 2019-03-27 | 2020-10-07 | Nokia Technologies Oy | Sound field related rendering |
GB2584630A (en) * | 2019-05-29 | 2020-12-16 | Nokia Technologies Oy | Audio processing |
EP3761672B1 (en) | 2019-07-02 | 2023-04-05 | Dolby International AB | Using metadata to aggregate signal processing operations |
KR20230001135A (ko) * | 2021-06-28 | 2023-01-04 | 네이버 주식회사 | 사용자 맞춤형 현장감 실현을 위한 오디오 콘텐츠를 처리하는 컴퓨터 시스템 및 그의 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010525403A (ja) | 2007-04-26 | 2010-07-22 | ドルビー インターナショナル アクチボラゲット | 出力信号の合成装置及び合成方法 |
JP2012505575A (ja) | 2008-10-07 | 2012-03-01 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 多チャネルオーディオ信号のバイノーラル・レンダリング |
JP6434013B2 (ja) | 2013-07-22 | 2018-12-05 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030014439A1 (en) * | 2001-06-20 | 2003-01-16 | International Business Machines Corporation | Defining a markup language representation for state chart data |
CA2992097C (en) * | 2004-03-01 | 2018-09-11 | Dolby Laboratories Licensing Corporation | Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters |
DE602005006777D1 (de) * | 2004-04-05 | 2008-06-26 | Koninkl Philips Electronics Nv | Mehrkanal-codierer |
TWI393121B (zh) | 2004-08-25 | 2013-04-11 | Dolby Lab Licensing Corp | 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式 |
US7720230B2 (en) | 2004-10-20 | 2010-05-18 | Agere Systems, Inc. | Individual channel shaping for BCC schemes and the like |
SE0402649D0 (sv) * | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Advanced methods of creating orthogonal signals |
SE0402652D0 (sv) | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Methods for improved performance of prediction based multi- channel reconstruction |
MX2007011995A (es) | 2005-03-30 | 2007-12-07 | Koninkl Philips Electronics Nv | Codificacion y decodificacion de audio. |
MX2007015118A (es) * | 2005-06-03 | 2008-02-14 | Dolby Lab Licensing Corp | Aparato y metodo para codificacion de senales de audio con instrucciones de decodificacion. |
US8626503B2 (en) | 2005-07-14 | 2014-01-07 | Erik Gosuinus Petrus Schuijers | Audio encoding and decoding |
JP4650343B2 (ja) | 2005-07-15 | 2011-03-16 | セイコーエプソン株式会社 | 電気光学装置及び電子機器 |
KR20070025905A (ko) | 2005-08-30 | 2007-03-08 | 엘지전자 주식회사 | 멀티채널 오디오 코딩에서 효과적인 샘플링 주파수비트스트림 구성방법 |
CN101253555B (zh) * | 2005-09-01 | 2011-08-24 | 松下电器产业株式会社 | 多声道音频信号处理装置及多声道音频信号处理方法 |
US8073703B2 (en) * | 2005-10-07 | 2011-12-06 | Panasonic Corporation | Acoustic signal processing apparatus and acoustic signal processing method |
KR100888474B1 (ko) | 2005-11-21 | 2009-03-12 | 삼성전자주식회사 | 멀티채널 오디오 신호의 부호화/복호화 장치 및 방법 |
KR101218776B1 (ko) | 2006-01-11 | 2013-01-18 | 삼성전자주식회사 | 다운믹스된 신호로부터 멀티채널 신호 생성방법 및 그 기록매체 |
US8411869B2 (en) * | 2006-01-19 | 2013-04-02 | Lg Electronics Inc. | Method and apparatus for processing a media signal |
KR100773560B1 (ko) * | 2006-03-06 | 2007-11-05 | 삼성전자주식회사 | 스테레오 신호 생성 방법 및 장치 |
TW200742275A (en) * | 2006-03-21 | 2007-11-01 | Dolby Lab Licensing Corp | Low bit rate audio encoding and decoding in which multiple channels are represented by fewer channels and auxiliary information |
EP1999997B1 (en) | 2006-03-28 | 2011-04-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Enhanced method for signal shaping in multi-channel audio reconstruction |
EP2000001B1 (en) | 2006-03-28 | 2011-12-21 | Telefonaktiebolaget LM Ericsson (publ) | Method and arrangement for a decoder for multi-channel surround sound |
KR101346490B1 (ko) | 2006-04-03 | 2014-01-02 | 디티에스 엘엘씨 | 오디오 신호 처리 방법 및 장치 |
US8027479B2 (en) | 2006-06-02 | 2011-09-27 | Coding Technologies Ab | Binaural multi-channel decoder in the context of non-energy conserving upmix rules |
SG175632A1 (en) * | 2006-10-16 | 2011-11-28 | Dolby Sweden Ab | Enhanced coding and parameter representation of multichannel downmixed object coding |
JP5337941B2 (ja) * | 2006-10-16 | 2013-11-06 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マルチチャネル・パラメータ変換のための装置および方法 |
KR101111520B1 (ko) | 2006-12-07 | 2012-05-24 | 엘지전자 주식회사 | 오디오 처리 방법 및 장치 |
CN101816191B (zh) * | 2007-09-26 | 2014-09-17 | 弗劳恩霍夫应用研究促进协会 | 用于提取环境信号的装置和方法 |
CA2701360C (en) | 2007-10-09 | 2014-04-22 | Dirk Jeroen Breebaart | Method and apparatus for generating a binaural audio signal |
WO2009049895A1 (en) | 2007-10-17 | 2009-04-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio coding using downmix |
EP2093911A3 (en) | 2007-11-28 | 2010-01-13 | Lg Electronics Inc. | Receiving system and audio data processing method thereof |
US8126172B2 (en) | 2007-12-06 | 2012-02-28 | Harman International Industries, Incorporated | Spatial processing stereo system |
KR101147780B1 (ko) | 2008-01-01 | 2012-06-01 | 엘지전자 주식회사 | 오디오 신호 처리 방법 및 장치 |
US20090194756A1 (en) * | 2008-01-31 | 2009-08-06 | Kau Derchang | Self-aligned eletrode phase change memory |
RU2469497C2 (ru) | 2008-02-14 | 2012-12-10 | Долби Лэборетериз Лайсенсинг Корпорейшн | Стереофоническое расширение |
JP5366104B2 (ja) | 2008-06-26 | 2013-12-11 | オランジュ | マルチチャネル・オーディオ信号の空間合成 |
EP2144229A1 (en) | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Efficient use of phase information in audio encoding and decoding |
JP5358691B2 (ja) | 2009-04-08 | 2013-12-04 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 位相値平滑化を用いてダウンミックスオーディオ信号をアップミックスする装置、方法、およびコンピュータプログラム |
EP2420050B1 (en) * | 2009-04-15 | 2013-04-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multichannel echo canceller |
ES2524428T3 (es) | 2009-06-24 | 2014-12-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Decodificador de señales de audio, procedimiento para decodificar una señal de audio y programa de computación que utiliza etapas en cascada de procesamiento de objetos de audio |
ES2690164T3 (es) | 2009-06-25 | 2018-11-19 | Dts Licensing Limited | Dispositivo y método para convertir una señal de audio espacial |
EP2461321B1 (en) * | 2009-07-31 | 2018-05-16 | Panasonic Intellectual Property Management Co., Ltd. | Coding device and decoding device |
TWI433137B (zh) | 2009-09-10 | 2014-04-01 | Dolby Int Ab | 藉由使用參數立體聲改良調頻立體聲收音機之聲頻信號之設備與方法 |
JP5604933B2 (ja) | 2010-03-30 | 2014-10-15 | 富士通株式会社 | ダウンミクス装置およびダウンミクス方法 |
JP5753899B2 (ja) * | 2010-07-20 | 2015-07-22 | ファーウェイ テクノロジーズ カンパニー リミテッド | オーディオ信号合成器 |
BR112013004362B1 (pt) * | 2010-08-25 | 2020-12-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | aparelho para a geração de um sinal descorrelacionado utilizando informação de fase transmitida |
RU2618383C2 (ru) * | 2011-11-01 | 2017-05-03 | Конинклейке Филипс Н.В. | Кодирование и декодирование аудиообъектов |
EP2956935B1 (en) | 2013-02-14 | 2017-01-04 | Dolby Laboratories Licensing Corporation | Controlling the inter-channel coherence of upmixed audio signals |
-
2013
- 2013-10-18 EP EP20130189345 patent/EP2830334A1/en not_active Withdrawn
- 2013-10-18 EP EP20130189339 patent/EP2830333A1/en not_active Withdrawn
-
2014
- 2014-07-17 CN CN201480052100.7A patent/CN105580390B/zh active Active
- 2014-07-17 SG SG11201600491SA patent/SG11201600491SA/en unknown
- 2014-07-17 BR BR112016001245-3A patent/BR112016001245B1/pt active IP Right Grant
- 2014-07-17 PL PL14741278T patent/PL3025515T3/pl unknown
- 2014-07-17 JP JP2016528442A patent/JP6434013B2/ja active Active
- 2014-07-17 MX MX2016000915A patent/MX362548B/es active IP Right Grant
- 2014-07-17 EP EP14741278.7A patent/EP3025515B1/en active Active
- 2014-07-17 KR KR1020167004501A patent/KR101893410B1/ko active IP Right Grant
- 2014-07-17 WO PCT/EP2014/065395 patent/WO2015011014A1/en active Application Filing
- 2014-07-17 ES ES14741278T patent/ES2725427T3/es active Active
- 2014-07-17 CA CA2919077A patent/CA2919077C/en active Active
- 2014-07-17 EP EP18178664.1A patent/EP3419314B1/en active Active
- 2014-07-17 AU AU2014295206A patent/AU2014295206B2/en active Active
- 2014-07-17 ES ES18178666T patent/ES2924174T3/es active Active
- 2014-07-17 EP EP18178666.6A patent/EP3419315B1/en active Active
- 2014-07-17 RU RU2016105468A patent/RU2666640C2/ru active
- 2014-07-17 MY MYPI2016000117A patent/MY178904A/en unknown
- 2014-07-17 PT PT14741278T patent/PT3025515T/pt unknown
- 2014-07-17 ES ES18178664T patent/ES2925038T3/es active Active
- 2014-07-21 TW TW103124969A patent/TWI587285B/zh active
- 2014-07-22 AR ARP140102718A patent/AR097014A1/es active IP Right Grant
- 2014-07-22 AR ARP140102719A patent/AR097015A1/es active IP Right Grant
-
2016
- 2016-01-21 MX MX2018012891A patent/MX2018012891A/es unknown
- 2016-01-21 MX MX2018012892A patent/MX2018012892A/es unknown
- 2016-01-22 US US15/004,738 patent/US11115770B2/en active Active
- 2016-02-16 ZA ZA2016/01047A patent/ZA201601047B/en unknown
- 2016-04-25 US US15/138,160 patent/US11240619B2/en active Active
- 2016-04-25 US US15/138,168 patent/US11381925B2/en active Active
- 2016-04-25 US US15/138,176 patent/US10448185B2/en active Active
-
2017
- 2017-10-20 AU AU2017248532A patent/AU2017248532B2/en active Active
-
2018
- 2018-07-23 JP JP2018137637A patent/JP6687683B2/ja active Active
- 2018-12-20 US US16/228,257 patent/US11252523B2/en active Active
-
2020
- 2020-04-02 JP JP2020066343A patent/JP7000488B2/ja active Active
-
2021
- 2021-08-27 US US17/459,904 patent/US20220167102A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010525403A (ja) | 2007-04-26 | 2010-07-22 | ドルビー インターナショナル アクチボラゲット | 出力信号の合成装置及び合成方法 |
JP2012505575A (ja) | 2008-10-07 | 2012-03-01 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 多チャネルオーディオ信号のバイノーラル・レンダリング |
JP6434013B2 (ja) | 2013-07-22 | 2018-12-05 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム |
JP6687683B2 (ja) | 2013-07-22 | 2020-04-28 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7000488B2 (ja) | マルチチャネル非相関器、マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダおよび非相関器入力信号のリミックスを使用したコンピュータ・プログラム | |
JP6777700B2 (ja) | マルチチャネル・オーディオ・デコーダ、マルチチャネル・オーディオ・エンコーダ、レンダリングされたオーディオ信号を使用する方法、コンピュータ・プログラムおよび符号化オーディオ表現 | |
KR20160053910A (ko) | 향상된 공간적 오디오 오브젝트 코딩을 위한 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200506 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7000488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |