JP6268180B2 - 空間オーディオオブジェクト符号化における時間/周波数分解能の後方互換性のある動的適応のためのエンコーダ、デコーダおよび方法 - Google Patents
空間オーディオオブジェクト符号化における時間/周波数分解能の後方互換性のある動的適応のためのエンコーダ、デコーダおよび方法 Download PDFInfo
- Publication number
- JP6268180B2 JP6268180B2 JP2015535006A JP2015535006A JP6268180B2 JP 6268180 B2 JP6268180 B2 JP 6268180B2 JP 2015535006 A JP2015535006 A JP 2015535006A JP 2015535006 A JP2015535006 A JP 2015535006A JP 6268180 B2 JP6268180 B2 JP 6268180B2
- Authority
- JP
- Japan
- Prior art keywords
- analysis
- window
- signal
- samples
- downmix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 65
- 230000006978 adaptation Effects 0.000 title description 8
- 230000001052 transient effect Effects 0.000 claims description 97
- 238000006243 chemical reaction Methods 0.000 claims description 42
- 230000008859 change Effects 0.000 claims description 35
- 238000001514 detection method Methods 0.000 claims description 19
- 230000001131 transforming effect Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 230000007704 transition Effects 0.000 claims description 9
- 238000002156 mixing Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 description 42
- 239000011159 matrix material Substances 0.000 description 36
- 230000006870 function Effects 0.000 description 28
- 230000005236 sound signal Effects 0.000 description 26
- 230000003595 spectral effect Effects 0.000 description 25
- 238000001228 spectrum Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 14
- 239000000203 mixture Substances 0.000 description 13
- 238000000926 separation method Methods 0.000 description 11
- 230000002123 temporal effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000009432 framing Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 101100180304 Arabidopsis thaliana ISS1 gene Proteins 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 101100519257 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) PDR17 gene Proteins 0.000 description 2
- 101100042407 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SFB2 gene Proteins 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 125000001475 halogen functional group Chemical group 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- -1 ISS2 Proteins 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 101100356268 Schizosaccharomyces pombe (strain 972 / ATCC 24843) red1 gene Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000009931 harmful effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
- G10L19/0208—Subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
- G10L19/025—Detection of transients or attacks for time/frequency resolution switching
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Stereophonic System (AREA)
Description
− N個の入力オーディオオブジェクト信号s1…sNが、要素d1,1…dN,Pより成るダウンミックス行列を用いてエンコーダ処理の一部としてP個のチャネルx1…xPへダウンミックスされる。さらに、エンコーダは、入力されるオーディオオブジェクトの特徴を記述するサイド情報を抽出する(サイド情報推定器(SIE)モジュール)。MPEG SAOCの場合、オブジェクト電力の相対的な関係がこのようなサイド情報の最も基本的な形式である。
− ダウンミックス信号とサイド情報が送信/蓄積される。この目的のために、ダウンミックスオーディオ信号は、例えば、MPEG−1/2レイヤIIまたはIII(aka.mp3)、MPEG−2/4アドバンスト・オーディオ・コーディング(AAC:Advanced Audio Coding)等の周知の知覚オーディオコーダを用いて圧縮することができる。
− 受信側において、デコーダは、概念的には、送信されるサイド情報を用いて(復号された)ダウンミックス信号からオリジナルのオブジェクト信号を復元(「オブジェクト分離」)するようとする。これの近似されたオブジェクト信号
は、次に、図3において係数r1,1…rN,Mにより記述されるレンダリング行列を用いて、M個のオーディオ出力チャネル
により表されるターゲットシーンにミックスされる。望ましいターゲットシーンは、極端な事例では混合物の中の1つだけのソース信号を実現するもの(ソース分離シナリオ)であってもよいが、送信された複数のオブジェクトより成る他の任意の音響シーンであってもよい。例えば、その出力は、単チャネル、2チャネルステレオまたは5.1多チャネルターゲットシーンであることができる。
標準SAOCエンコーダ([SAOC]で標準化されているようなMPEG SAOC)から発生するSAOCパラメータ・ビット・ストリームを、強化デコーダによっても標準デコーダで取得されるものに匹敵する知覚品質で復号することができ、
強化SAOCパラメータ・ビット・ストリームを、強化デコーダにより最適品質で復号することができ、かつ、
標準SAOCパラメータ・ビット・ストリームと強化SAOCパラメータ・ビット・ストリームを、例えば多地点制御装置(MCU:multi-point control unit)シナリオにおいて、標準デコーダまたは強化デコーダによって復号され得る1つの共通ビットストリームに混合することができる。
オブジェクト間クロストークを回避するために、準定常信号のスペクトル分離では周波数選択性を高くすること、および、
プレエコーおよびポストエコーを最小限に抑えるために、オブジェクト開始または過渡事象に対しては時間精度を高くすること。
但し、nは指数、iは第1のオブジェクト、jは第2のオブジェクト、bはパラメトリック帯域を示す。OLD(object level difference)は、例えば、オブジェクトレベル差を示す。
複数の分析ウインドウを決定することであって、各分析ウインドウはダウンミックス信号の複数の時間領域ダウンミックスサンプルを含み、複数の分析ウインドウの各分析ウインドウはその分析ウインドウの時間領域ダウンミックスサンプルの数を示すウインドウ長さを有し、複数の分析ウインドウの決定は、各分析ウインドウのウインドウ長さが2つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号特性に依存するように実行されることと、
変換されたダウンミックスを得るために、複数の分析ウインドウの各分析ウインドウの複数の時間領域ダウンミックスサンプルを、前記分析ウインドウのウインドウ長さに依存して時間領域から時間−周波数領域へ変換することと、
オーディオ出力信号を得るために、変換されたダウンミックスを、2つ以上のオーディオオブジェクト信号に関するパラメトリックサイド情報に基づいてアンミックスすること、を含む。
複数の分析ウインドウを決定することであって、各分析ウインドウは入力されたオーディオオブジェクト信号のうちの1つの信号の複数の時間領域信号サンプルを含み、各分析ウインドウはその分析ウインドウの時間領域信号サンプルの数を示すウインドウ長さを有し、複数の分析ウインドウの決定は、各分析ウインドウのウインドウ長さが2つ以上の入力されたオーディオオブジェクト信号のうちの少なくとも1つの信号の信号特性に依存するように実行されることと、
変換された信号サンプルを得るために、各分析ウインドウの時間領域信号サンプルを時間領域から時間−周波数領域へ変換することであって、各分析ウインドウの複数の時間領域信号サンプルの変換はその分析ウインドウのウインドウ長さに依存することと、
変換された信号サンプルに依存してパラメトリックサイド情報を決定すること、を含む。
複数のサブバンドサンプルを含む複数のサブバンドを得るために、複数の時間領域ダウンミックスサンプルを変換することと、
複数の分析ウインドウを決定することであって、各分析ウインドウは複数のサブバンドのうちの1つのサブバンドの複数のサブバンドサンプルを含み、複数の分析ウインドウの各分析ウインドウはその分析ウインドウのサブバンドサンプルの数を示すウインドウ長さを有し、複数の分析ウインドウの決定は、各分析ウインドウのウインドウ長さが2つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号特性に依存するように実行されることと、
変換されたダウンミックスを得るために、複数の分析ウインドウの各分析ウインドウの複数のサブバンドサンプルをその分析ウインドウのウインドウ長さに依存して変換することと、
オーディオ出力信号を得るために、変換されたダウンミックスを、2つ以上のオーディオオブジェクト信号に関するパラメトリックサイド情報に基づいてアンミックスすること、を含む。
複数のサブバンドサンプルを含む複数のサブバンドを得るために、複数の時間領域信号サンプルを変換することと、
複数の分析ウインドウを決定することであって、各分析ウインドウは複数のサブバンドのうちの1つのサブバンドの複数のサブバンドサンプルを含み、各分析ウインドウはその分析ウインドウのサブバンドサンプルの数を示すウインドウ長さを有し、複数の分析ウインドウの決定は、各分析ウインドウのウインドウ長さが2つ以上の入力されたオーディオオブジェクト信号のうちの少なくとも1つの信号の信号特性に依存するように実行されることと、
変換された信号サンプルを得るために、複数の分析ウインドウの各分析ウインドウの複数のサブバンドサンプルをその分析ウインドウのウインドウ長さに依存して変換することと、
変換された信号サンプルに依存してパラメトリックサイド情報を決定すること、を含む。
2つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号特性に依存して起動指示を起動状態に設定することと、
複数の第1のサブバンドチャネルを含む第1の変換されたダウンミックスを得るために、ダウンミックス信号を変換することと、
複数の第2のサブバンドチャネルを得るために、起動指示が起動状態に設定されていると、第1のサブバンドチャネルのうちの少なくとも1つを変換することによって第2の変換されたダウンミックスを生成することであって、第2の変換されたダウンミックスは、第2の分析モジュールによって変換されていない第1のサブバンドチャネルと、第2のサブバンドチャネルとを含むことと、
起動指示が起動状態に設定されていれば、オーディオ出力信号を得るために2つ以上のオーディオオブジェクト信号に関するパラメトリックサイド情報に基づいて第2の変換されたダウンミックスをアンミックスし、かつ起動指示が起動状態に設定されていなければ、オーディオ出力信号を得るために2つ以上のオーディオオブジェクト信号に関するパラメトリックサイド情報に基づいて第1の変換されたダウンミックスをアンミックスすること、を含む。
2つ以上の入力されたオーディオオブジェクト信号のうちの少なくとも1つの信号の信号特性に依存して起動指示を起動状態に設定することと、
前記入力されたオーディオオブジェクト信号の第1の変換されたオーディオオブジェクト信号を得るために、入力されたオーディオオブジェクト信号の各々を変換することであって、前記第1の変換されたオーディオオブジェクト信号は複数の第1のサブバンドチャネルを含むことと、
複数の第2のサブバンドチャネルを得るために、入力されたオーディオオブジェクト信号の各々について、起動指示が起動状態に設定されていると、前記入力されたオーディオオブジェクト信号の第1の変換されたオーディオオブジェクト信号の第1のサブバンドチャネルのうちの少なくとも1つを変換することによって第2の変換されたオーディオオブジェクト信号を生成することであって、前記第2の変換されたダウンミックスは、第2の分析モジュールによって変換されていない前記第1のサブバンドチャネルと、前記第2のサブバンドチャネルとを含むことと、
起動指示が起動状態に設定されていれば、入力されたオーディオオブジェクト信号の各々の第2の変換されたオーディオオブジェクト信号に基づいてパラメトリックサイド情報を決定し、かつ起動指示が起動状態に設定されていなければ、入力されたオーディオオブジェクト信号の各々の第1の変換されたオーディオオブジェクト信号に基づいてパラメトリックサイド情報を決定すること、を含む。
および
を回復してユーザが選択する任意のチャネルセット
上へレンダリングするために、サイド情報20だけでなくダウンミックス信号18も受信するアップミキサを備えている。そのレンダリングは、SAOCデコーダ12へ入力されるレンダリング情報26によって規定される。
として計算する。ここで、和および指数n、kは各々、SAOCフレーム(または処理用時間スロット)の指数lとパラメータ帯域のmで表わされる所定の時間/周波数タイル42に属する全ての時間指数34および全てのスペクトル指数30に及ぶ。これにより、あるオーディオ信号またはオブジェクトiの全てのサブバンド値χiのエネルギーが合計され、かつ全てのオブジェクトまたはオーディオ信号のうちのそのタイルの最高エネルギー値に対して正規化される。xi n,k*はxi n,kの複素共役を示す。
と呼ばれる。計算式は、次の通りである。
ここで、同じく、指数nおよびkは所定の時間/周波数タイル42に属する全てのサブバンド値に及び、iおよびjはオーディオオブジェクトs1−sNの所定のペアを示し、かつRe{ }は複素引数の虚数部を放棄する演算を示す。
DMGi=20log10(di+ε) (モノラルダウンミックス)、
DMGi=10log10(d11,i 2+d12,i 2+ε) (ステレオダウンミックス)、
に従って計算される。但し、εは10-9のような小値である。
において実行する。但し、行列Eは変数OLDおよびIOCの関数であり、行列Dは、次式のようなダウンミックス係数を含む。
である行列El,mは、i=jの場合、
および
であるので、その対角線沿いにオブジェクトレベル差、即ちi=jの場合の
を有する。その対角線の外側において、推定される共分散行列Eは、オブジェクト間相互相関度(inter-object cross-correlation measure)
で重み付けされたオブジェクトiおよびj各々のオブジェクトレベル差の幾何学的平均を表す行列係数を有する。
但し
である(
は、次の整数への引数の切り上げ演算を示し、かつ
は、同様に次の整数への引数の切り捨て演算を示す)。本例示において使用されるプロトタイプウインドウ関数は、
として定義される正弦波ウインドウであるが、他の形式を用いることもできる。過渡の位置tは、3つのウインドウの中心ck-1=t−lb、ck=tおよびck+1=t+laを画定し、数字lbおよびlaは過渡前後の所望されるウインドウ範囲を画定する。
として定義される。但し、nは時間指数を示し、iは第1のオブジェクトを示し、jは第2のオブジェクトを示し、bはパラメトリック帯域を示す。OLDは、例えば、オブジェクトレベル差を示すことができる。
であってオブジェクト相互相関行列に近似し、iとjはオブジェクト指数であり、J≒(DEDT)-1であり、かつDTはDの転置行列である。非混合行列計算器131は、適宜、非混合行列を計算するように構成することができる。
である。
およびIOC
が生じる。K(f,b)は、次式によって、周波数ビンfのパラメトリック帯域bへの割当てを定義するカーネル行列である。
およびJ(f)≒(D(f)E(f)DT(f))-1である。望むなら、レンダリング行列は、非混合行列G(f)へ乗算することができる。続いて、標準SAOCのように、時間補間器132による時間補間が行われる。
- デフォルトウインドウ長さ、即ちデフォルトの信号変換ブロックの長さを、例えば2048サンプルに設定する。
- パラメータフレームの長さを、例えば、50%の重なりをもった4つのデフォルトウインドウに対応する4096サンプルに設定する。パラメータフレームは、複数のウインドウを纏めてグルーピングし、ウインドウ毎に記述子を別々に有する代わりに、ブロック全体に単一の信号記述子セットが使用される。これにより、PSIの量を減らすことができる。
- 過渡が検出されていなければ、デフォルトウインドウおよびパラメータフレーム全長を用いる。
- 過渡が検出されれば、過渡の位置においてより優れた時間分解能を与えるようにウインドウイングを適合化する。
と定義される。但し、行列
は、次式によって、(このパラメータフレームにおけるN個のフレームの)フレームnにおけるFnt/f表現ビンからパラメトリックB帯域へのマッピングを定義し、
かつ、S*はSの複素共役である。スペクトル分解能は、1つのパラメータブロック内のフレーム間で変わる可能性があり、よって、マッピング行列はデータを共通の分解能ベースに変換する。このパラメータ化タイルにおける最大オブジェクトエネルギーは、最大オブジェクトエネルギー
であるものとして定義される。この値を得れば、OLDは、次式のような正規化されたオブジェクトエネルギーであるものと定義される。
であり、ここで、Si(f,n)はオブジェクトiの時間フレームnにおける複素スペクトルである。合計は、帯域bにおける周波数ビンfに渡って行われる。データから何らかの雑音効果を除去するために、値は、一次IIRフィルタ
によって低域通過フィルタリングされる。但し、0≦aLP≦1はフィルタフィードバック係数であり、例えば、aLP=0.9である。
を用いて調べられる。全ての一意のオブジェクトペアの変化は、次式によって検出関数へと合計される。
- LONGウインドウ:WLONG(n)=f(n,NLONG)、但しNLONG=2048である。
- SHORTウインドウ:WSHORT(n)=f(n,NSHORT)、但しNSHORT=256である。
- LONGからSHORTへの遷移ウインドウ
- SHORTからLONGへの遷移ウインドウ:WSTOP(n)=WSTART(NLONG−n−1)
Claims (18)
- 複数の時間領域ダウンミックスサンプルを含むダウンミックス信号から、1つまたは複数のオーディオ出力チャネルを含むオーディオ出力信号を生成するためのデコーダであって、前記ダウンミックス信号は3つ以上のオーディオオブジェクト信号を符号化し、
該デコーダは、
複数の分析ウインドウを決定するためのウインドウシーケンス発生器(134)であって、前記分析ウインドウは各々、前記ダウンミックス信号の複数の時間領域ダウンミックスサンプルを含み、前記複数の分析ウインドウの各分析ウインドウはその分析ウインドウの前記時間領域ダウンミックスサンプルの数を示すウインドウ長さを有し、該ウインドウシーケンス発生器(134)は、前記複数の分析ウインドウの各分析ウインドウのウインドウ長さが、その分析ウインドウが前記ダウンミックス信号によって符号化されつつある前記3つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含むかどうかに依存するように、前記複数の分析ウインドウを決定するように構成されているウインドウシーケンス発生器(134)と、
変換されたダウンミックスを得るために、前記複数の分析ウインドウの各分析ウインドウの前記複数の時間領域ダウンミックスサンプルを、前記分析ウインドウの前記ウインドウ長さに依存して時間領域から時間−周波数領域へ変換するためのt/f分析モジュール(135)と、
前記オーディオ出力信号を得るために、前記3つ以上のオーティオオブジェクト信号を符号化した前記変換されたダウンミックスを、前記3つ以上のオーディオオブジェクト信号に関するパラメトリックサイド情報に基づいてアンミックスするための非混合ユニット(136)と、を備えているデコーダ。 - 前記ウインドウシーケンス発生器(134)は、前記ダウンミックス信号によって符号化されつつある前記3つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡が前記複数の分析ウインドウのうちの第1の分析ウインドウと第2の分析ウインドウによって構成されるように前記複数の分析ウインドウを決定すべく構成され、前記過渡の位置tにより前記第1の分析ウインドウの第1の中心ckはck=t−lb(lbは数字)と画定され、かつ前記第2の分析ウインドウの第2の中心ck+1はck+1=t+la(laは数字)と画定され、lbは過渡tと前記第1の中心ckとの間の差を示す第1の数字であり、laは前記第2の中心ck+1と過渡tとの間の差を示す第2の数字であり、kは前記第1の分析ウインドウを示し、k+1は前記第2の分析ウインドウを示す請求項1に記載のデコーダ。
- 前記ウインドウシーケンス発生器(134)は、前記ダウンミックス信号によって符号化されつつある前記3つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡が前記複数の分析ウインドウのうちの第1の分析ウインドウによって構成されるように前記複数の分析ウインドウを決定すべく構成され、前記過渡の位置tにより前記第1の分析ウインドウの第1の中心ckはck=tと画定され、前記複数の分析ウインドウのうちの第2の分析ウインドウの第2の中心ck−1はck−1=t−lb(lbは数字)と前記過渡の位置tによって画定され、かつ前記複数の分析ウインドウのうちの第3の分析ウインドウの第3の中心ck+1はck+1=t+la(laは数字)と画定され、lbは過渡tと前記第2の中心ck−1との間の差を示す第1の数字であり、laは前記第3の中心ck+1と過渡tとの間の差を示す第2の数字であり、kは前記第1の分析ウインドウを示し、k−1は前記第2の分析ウインドウを示し、k+1は前記第3の分析ウインドウを示す請求項1に記載のデコーダ。
- 前記ウインドウシーケンス発生器(134)は、前記複数の分析ウインドウの各々が第1の数の時間領域信号サンプルまたは第2の数の時間領域信号サンプルの何れかを含むように前記複数の分析ウインドウを決定すべく構成され、前記第2の数の時間領域信号サンプルは前記第1の数の時間領域信号サンプルより多く、かつ前記複数の分析ウインドウの各分析ウインドウはその分析ウインドウが前記ダウンミックス信号によって符号化されつつある前記3つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含む場合に前記第1の数の時間領域信号サンプルを含む請求項1に記載のデコーダ。
- 複数の時間領域ダウンミックスサンプルを含むダウンミックス信号から、1つまたは複数のオーディオ出力チャネルを含むオーディオ出力信号を生成するためのデコーダであって、前記ダウンミックス信号は3つ以上のオーディオオブジェクト信号を符号化し、
該デコーダは、
複数のサブバンドサンプルを含む複数のサブバンドを得るために、前記複数の時間領域ダウンミックスサンプルを変換するための第1の分析サブモジュール(161)と、
複数の分析ウインドウを決定するためのウインドウシーケンス発生器(162)であって、前記分析ウインドウは各々、前記複数のサブバンドのうちの1つのサブバンドの複数のサブバンドサンプルを含み、前記複数の分析ウインドウの各分析ウインドウはその分析ウインドウのサブバンドサンプルの数を示すウインドウ長さを有し、該ウインドウシーケンス発生器(162)は、前記複数の分析ウインドウの各分析ウインドウのウインドウ長さが、その分析ウインドウが前記ダウンミックス信号によって符号化されつつある3つ以上の前記オーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含むかどうかに依存するように、前記複数の分析ウインドウを決定するように構成されているウインドウシーケンス発生器(162)と、
変換されたダウンミックスを得るために、前記複数の分析ウインドウの各分析ウインドウの前記複数のサブバンドサンプルをその分析ウインドウの前記ウインドウ長さに依存して変換するための第2の分析モジュール(163)と、
前記オーディオ出力信号を得るために、前記変換されたダウンミックスを、前記3つ以上のオーディオオブジェクト信号に関するパラメトリックサイド情報に基づいてアンミックスするための非混合ユニット(164)と、を備えているデコーダ。 - 3つ以上の入力されたオーディオオブジェクト信号を符号化するためのエンコーダであって、前記3つ以上の入力されたオーディオオブジェクト信号は各々、複数の時間領域信号サンプルを含み、
該エンコーダは、
複数の分析ウインドウを決定するためのウインドウシーケンス・ユニット(102)であって、前記分析ウインドウは各々、前記入力されたオーディオオブジェクト信号のうちの1つの信号の複数の前記時間領域信号サンプルを含み、前記分析ウインドウは各々、その分析ウインドウの時間領域信号サンプルの数を示すウインドウ長さを有し、該ウインドウシーケンス・ユニット(102)は、前記複数の分析ウインドウの各分析ウインドウのウインドウ長さが、その分析ウインドウが3つ以上の前記オーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含むかどうかに依存するように、前記複数の分析ウインドウを決定するように構成されているウインドウシーケンス・ユニット(102)と、
変換された信号サンプルを得るために、前記各分析ウインドウの前記時間領域信号サンプルを時間領域から時間−周波数領域へ変換するためのt/f分析ユニット(103)であって、該t/f分析ユニット(103)は、前記各分析ウインドウの前記複数の時間領域信号サンプルを、その分析ウインドウの前記ウインドウ長さに依存して変換するように構成されているt/f分析ユニット(103)と、
前記変換された信号サンプルに依存してパラメトリックサイド情報を決定するためのPSI推定ユニット(104)と、を備えているエンコーダ。 - 前記エンコーダは、前記分析ウインドウの各々について、その分析ウインドウが前記3つ以上の入力されたオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含むかどうかを決定するために、前記3つ以上の入力されたオーディオオブジェクト信号の複数のオブジェクトレベル差を決定するように構成され、かつ前記オブジェクトレベル差のうちの第1の差と第2の差との差がしきい値を超えているかどうかを決定するように構成されている過渡検出ユニット(101)をさらに備えている請求項6に記載のエンコーダ。
- 前記ウインドウシーケンス・ユニット(102)は、前記3つ以上の入力されたオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡が前記複数の分析ウインドウのうちの第1の分析ウインドウと第2の分析ウインドウによって構成されるように前記複数の分析ウインドウを決定すべく構成され、前記過渡の位置tにより前記第1の分析ウインドウの第1の中心ckはck=t−lb(lbは数字)と画定され、かつ前記第2の分析ウインドウの第2の中心ck+1はck+1=t+la(laは数字)と画定され、lbは過渡tと前記第1の中心ckとの間の差を示す第1の数字であり、laは前記第2の中心ck+1と過渡tとの間の差を示す第2の数字であり、kは前記第1の分析ウインドウを示し、k+1は前記第2の分析ウインドウを示す請求項6から8のいずれか一項に記載のエンコーダ。
- 前記ウインドウシーケンス・ユニット(102)は、前記3つ以上の入力されたオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡が前記複数の分析ウインドウのうちの第1の分析ウインドウによって構成されるように前記複数の分析ウインドウを決定すべく構成され、前記第1の分析ウインドウの第1の中心ckは前記過渡の位置tによりck=tと画定され、前記複数の分析ウインドウのうちの第2の分析ウインドウの第2の中心ck−1はck−1=t−lb(lbは数字)と画定され、かつ前記複数の分析ウインドウのうちの第3の分析ウインドウの第3の中心ck+1はck+1=t+la(laは数字)と画定され、lbは過渡tと前記第2の中心ck−1との間の差を示す第1の数字であり、laは前記第3の中心ck+1と過渡tとの間の差を示す第2の数字であり、kは前記第1の分析ウインドウを示し、k−1は前記第2の分析ウインドウを示し、k+1は前記第3の分析ウインドウを示す請求項6から8のいずれか一項に記載のエンコーダ。
- 前記ウインドウシーケンス・ユニット(102)は、前記複数の分析ウインドウの各々が第1の数の時間領域信号サンプルまたは第2の数の時間領域信号サンプルの何れかを含むように前記複数の分析ウインドウを決定すべく構成され、前記第2の数の時間領域信号サンプルは前記第1の数の時間領域信号サンプルより多く、かつ前記複数の分析ウインドウの各分析ウインドウは、その分析ウインドウが、前記3つ以上の入力されたオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含む場合に前記第1の数の時間領域信号サンプルを含む請求項6から8のいずれか一項に記載のエンコーダ。
- 3つ以上の入力されたオーディオオブジェクト信号を符号化するためのエンコーダであって、前記3つ以上の入力されたオーディオオブジェクト信号は各々、複数の時間領域信号サンプルを含み、
該エンコーダは、
複数のサブバンドサンプルを含む複数のサブバンドを得るために、前記複数の時間領域信号サンプルを変換するための第1の分析サブモジュール(171)と、
複数の分析ウインドウを決定するためのウインドウシーケンス・ユニット(172)であって、前記分析ウインドウは各々、前記複数のサブバンドのうちの1つのサブバンドの複数のサブバンドサンプルを含み、前記分析ウインドウは各々、その分析ウインドウのサブバンドサンプルの数を示すウインドウ長さを有し、該ウインドウシーケンス・ユニット(172)は、前記複数の分析ウインドウの各分析ウインドウのウインドウ長さが、その分析ウインドウが前記3つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含むかどうかに依存するように、前記複数の分析ウインドウを決定するように構成されているウインドウシーケンス・ユニット(172)と、
変換された信号サンプルを得るために、前記複数の分析ウインドウの各分析ウインドウの前記複数のサブバンドサンプルをその分析ウインドウの前記ウインドウ長さに依存して変換するための第2の分析モジュール(173)と、
前記変換された信号サンプルに依存してパラメトリックサイド情報を決定するためのPSI推定ユニット(174)と、を備えているエンコーダ。 - 複数の時間領域ダウンミックスサンプルを含むダウンミックス信号から1つまたは複数のオーディオ出力チャネルを含むオーディオ出力信号を生成するための復号方法であって、前記ダウンミックス信号は3つ以上のオーディオオブジェクト信号を符号化し、
該復号方法は、
複数の分析ウインドウを決定することであって、前記分析ウインドウは各々、前記ダウンミックス信号の複数の時間領域ダウンミックスサンプルを含み、前記複数の分析ウインドウの各分析ウインドウは、その分析ウインドウの前記時間領域ダウンミックスサンプルの数を示すウインドウ長さを有し、前記複数の分析ウインドウの決定は、前記複数の分析ウインドウの各分析ウインドウのウインドウ長さが、その分析ウインドウが前記ダウンミックス信号によって符号化されつつある前記3つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含むかどうかに依存するように実行されることと、
変換されたダウンミックスを得るために、前記複数の分析ウインドウの各分析ウインドウの前記複数の時間領域ダウンミックスサンプルをその分析ウインドウの前記ウインドウ長さに依存して時間領域から時間−周波数領域へ変換することと、
前記オーディオ出力信号を得るために、前記変換されたダウンミックスを、前記3つ以上のオーディオオブジェクト信号に関するパラメトリックサイド情報に基づいてアンミックスすること、を含む復号方法。 - 3つ以上の入力されたオーディオオブジェクト信号を符号化するための符号化方法であって、前記3つ以上の入力されたオーディオオブジェクト信号は各々、複数の時間領域信号サンプルを含み、
該符号化方法は、
複数の分析ウインドウを決定することであって、前記分析ウインドウは各々、前記入力されたオーディオオブジェクト信号のうちの1つの信号の複数の前記時間領域信号サンプルを含み、前記分析ウインドウは各々、その分析ウインドウの時間領域信号サンプルの数を示すウインドウ長さを有し、前記複数の分析ウインドウの決定は、前記複数の分析ウインドウの各分析ウインドウのウインドウ長さが、その分析ウインドウが前記3つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含むかどうかに依存するように実行されることと、
変換された信号サンプルを得るために、前記各分析ウインドウの前記時間領域信号サンプルを時間領域から時間−周波数領域へ変換することであって、前記各分析ウインドウの前記複数の時間領域信号サンプルの変換はその分析ウインドウの前記ウインドウ長さに依存することと、
前記変換された信号サンプルに依存してパラメトリックサイド情報を決定すること、を含む符号化方法。 - 複数の時間領域ダウンミックスサンプルを含むダウンミックス信号から、1つまたは複数のオーディオ出力チャネルを含むオーディオ出力信号を生成することによって復号するための復号方法であって、前記ダウンミックス信号は3つ以上のオーディオオブジェクト信号を符号化し、
該復号方法は、
複数のサブバンドサンプルを含む複数のサブバンドを得るために、前記複数の時間領域ダウンミックスサンプルを変換することと、
複数の分析ウインドウを決定することであって、前記分析ウインドウは各々、前記複数のサブバンドのうちの1つのサブバンドの複数のサブバンドサンプルを含み、前記複数の分析ウインドウの各分析ウインドウはその分析ウインドウのサブバンドサンプルの数を示すウインドウ長さを有し、前記複数の分析ウインドウの決定は、前記複数の分析ウインドウの各分析ウインドウのウインドウ長さが、その分析ウインドウが前記ダウンミックス信号によって符号化されつつある前記3つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含むかどうかに依存するように実行されることと、
変換されたダウンミックスを得るために、前記複数の分析ウインドウの各分析ウインドウの前記複数のサブバンドサンプルを、その分析ウインドウの前記ウインドウ長さに依存して変換することと、
前記オーディオ出力信号を得るために、前記変換されたダウンミックスを前記3つ以上のオーディオオブジェクト信号に関するパラメトリックサイド情報に基づいてアンミックスすること、を含む復号方法。 - 3つ以上の入力されたオーディオオブジェクト信号を符号化するための符号化方法であって、前記3つ以上の入力されたオーディオオブジェクト信号は各々、複数の時間領域信号サンプルを含み、
該符号化方法は、
複数のサブバンドサンプルを含む複数のサブバンドを得るために、前記複数の時間領域信号サンプルを変換することと、
複数の分析ウインドウを決定することであって、前記分析ウインドウは各々、前記複数のサブバンドのうちの1つのサブバンドの複数のサブバンドサンプルを含み、前記分析ウインドウは各々、その分析ウインドウのサブバンドサンプルの数を示すウインドウ長さを有し、前記複数の分析ウインドウの決定は、前記複数の分析ウインドウの各分析ウインドウのウインドウ長さが、その分析ウインドウが前記3つ以上のオーディオオブジェクト信号のうちの少なくとも1つの信号の信号変化を示す過渡を含むかどうかに依存するように実行されることと、
変換された信号サンプルを得るために、前記複数の分析ウインドウの各分析ウインドウの前記複数のサブバンドサンプルをその分析ウインドウの前記ウインドウ長さに依存して変換することと、
前記変換された信号サンプルに依存してパラメトリックサイド情報を決定すること、を含む符号化方法。 - コンピュータまたは信号プロセッサ上で実行されると、請求項13又は15に記載の方法の1つを実装するためのコンピュータプログラム。
- コンピュータまたは信号プロセッサ上で実行されると、請求項14又は16に記載の方法の1つを実装するためのコンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261710133P | 2012-10-05 | 2012-10-05 | |
US61/710,133 | 2012-10-05 | ||
EP13167481.4A EP2717265A1 (en) | 2012-10-05 | 2013-05-13 | Encoder, decoder and methods for backward compatible dynamic adaption of time/frequency resolution in spatial-audio-object-coding |
EP13167481.4 | 2013-05-13 | ||
PCT/EP2013/070551 WO2014053548A1 (en) | 2012-10-05 | 2013-10-02 | Encoder, decoder and methods for backward compatible dynamic adaption of time/frequency resolution in spatial-audio-object-coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015535960A JP2015535960A (ja) | 2015-12-17 |
JP6268180B2 true JP6268180B2 (ja) | 2018-01-24 |
Family
ID=48325509
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015535006A Active JP6268180B2 (ja) | 2012-10-05 | 2013-10-02 | 空間オーディオオブジェクト符号化における時間/周波数分解能の後方互換性のある動的適応のためのエンコーダ、デコーダおよび方法 |
JP2015535005A Active JP6185592B2 (ja) | 2012-10-05 | 2013-10-02 | 空間オーディオオブジェクト符号化における信号依存ズーム変換のためのエンコーダ、デコーダおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015535005A Active JP6185592B2 (ja) | 2012-10-05 | 2013-10-02 | 空間オーディオオブジェクト符号化における信号依存ズーム変換のためのエンコーダ、デコーダおよび方法 |
Country Status (17)
Country | Link |
---|---|
US (2) | US10152978B2 (ja) |
EP (4) | EP2717262A1 (ja) |
JP (2) | JP6268180B2 (ja) |
KR (2) | KR101685860B1 (ja) |
CN (2) | CN105190747B (ja) |
AR (2) | AR092928A1 (ja) |
AU (1) | AU2013326526B2 (ja) |
BR (2) | BR112015007649B1 (ja) |
CA (2) | CA2886999C (ja) |
ES (2) | ES2880883T3 (ja) |
HK (1) | HK1213361A1 (ja) |
MX (2) | MX350691B (ja) |
MY (1) | MY178697A (ja) |
RU (2) | RU2625939C2 (ja) |
SG (1) | SG11201502611TA (ja) |
TW (2) | TWI539444B (ja) |
WO (2) | WO2014053547A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI825492B (zh) * | 2020-10-13 | 2023-12-11 | 弗勞恩霍夫爾協會 | 對多個音頻對象進行編碼的設備和方法、使用兩個以上之相關音頻對象進行解碼的設備和方法、電腦程式及資料結構產品 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2717262A1 (en) | 2012-10-05 | 2014-04-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Encoder, decoder and methods for signal-dependent zoom-transform in spatial audio object coding |
EP2804176A1 (en) * | 2013-05-13 | 2014-11-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio object separation from mixture signal using object-specific time/frequency resolutions |
EP3312835B1 (en) | 2013-05-24 | 2020-05-13 | Dolby International AB | Efficient coding of audio scenes comprising audio objects |
KR102243395B1 (ko) * | 2013-09-05 | 2021-04-22 | 한국전자통신연구원 | 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법, 오디오 재생 장치 |
US20150100324A1 (en) * | 2013-10-04 | 2015-04-09 | Nvidia Corporation | Audio encoder performance for miracast |
CN105096957B (zh) | 2014-04-29 | 2016-09-14 | 华为技术有限公司 | 处理信号的方法及设备 |
CN105336335B (zh) | 2014-07-25 | 2020-12-08 | 杜比实验室特许公司 | 利用子带对象概率估计的音频对象提取 |
AU2016214553B2 (en) * | 2015-02-02 | 2019-01-31 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for processing an encoded audio signal |
EP3067885A1 (en) | 2015-03-09 | 2016-09-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for encoding or decoding a multi-channel signal |
WO2017064264A1 (en) | 2015-10-15 | 2017-04-20 | Huawei Technologies Co., Ltd. | Method and appratus for sinusoidal encoding and decoding |
GB2544083B (en) * | 2015-11-05 | 2020-05-20 | Advanced Risc Mach Ltd | Data stream assembly control |
US9711121B1 (en) * | 2015-12-28 | 2017-07-18 | Berggram Development Oy | Latency enhanced note recognition method in gaming |
US9640157B1 (en) * | 2015-12-28 | 2017-05-02 | Berggram Development Oy | Latency enhanced note recognition method |
US10269360B2 (en) * | 2016-02-03 | 2019-04-23 | Dolby International Ab | Efficient format conversion in audio coding |
US10210874B2 (en) * | 2017-02-03 | 2019-02-19 | Qualcomm Incorporated | Multi channel coding |
US10891962B2 (en) | 2017-03-06 | 2021-01-12 | Dolby International Ab | Integrated reconstruction and rendering of audio signals |
CN108694955B (zh) * | 2017-04-12 | 2020-11-17 | 华为技术有限公司 | 多声道信号的编解码方法和编解码器 |
CN110870006B (zh) | 2017-04-28 | 2023-09-22 | Dts公司 | 对音频信号进行编码的方法以及音频编码器 |
CN109427337B (zh) | 2017-08-23 | 2021-03-30 | 华为技术有限公司 | 立体声信号编码时重建信号的方法和装置 |
US10856755B2 (en) * | 2018-03-06 | 2020-12-08 | Ricoh Company, Ltd. | Intelligent parameterization of time-frequency analysis of encephalography signals |
TWI658458B (zh) * | 2018-05-17 | 2019-05-01 | 張智星 | 歌聲分離效能提升之方法、非暫態電腦可讀取媒體及電腦程式產品 |
GB2577885A (en) | 2018-10-08 | 2020-04-15 | Nokia Technologies Oy | Spatial audio augmentation and reproduction |
KR20220024593A (ko) * | 2019-06-14 | 2022-03-03 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 매개변수 인코딩 및 디코딩 |
CN113453114B (zh) * | 2021-06-30 | 2023-04-07 | Oppo广东移动通信有限公司 | 编码控制方法、装置、无线耳机及存储介质 |
CN114127844A (zh) * | 2021-10-21 | 2022-03-01 | 北京小米移动软件有限公司 | 一种信号编解码方法、装置、编码设备、解码设备及存储介质 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3175446B2 (ja) * | 1993-11-29 | 2001-06-11 | ソニー株式会社 | 情報圧縮方法及び装置、圧縮情報伸張方法及び装置、圧縮情報記録/伝送装置、圧縮情報再生装置、圧縮情報受信装置、並びに記録媒体 |
JP4714416B2 (ja) * | 2002-04-22 | 2011-06-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 空間的オーディオのパラメータ表示 |
US7272567B2 (en) * | 2004-03-25 | 2007-09-18 | Zoran Fejzo | Scalable lossless audio codec and authoring tool |
KR100608062B1 (ko) * | 2004-08-04 | 2006-08-02 | 삼성전자주식회사 | 오디오 데이터의 고주파수 복원 방법 및 그 장치 |
CN101046963B (zh) * | 2004-09-17 | 2011-03-23 | 广州广晟数码技术有限公司 | 解码经编码的音频数据流的方法 |
US7630902B2 (en) * | 2004-09-17 | 2009-12-08 | Digital Rise Technology Co., Ltd. | Apparatus and methods for digital audio coding using codebook application ranges |
WO2007010785A1 (ja) * | 2005-07-15 | 2007-01-25 | Matsushita Electric Industrial Co., Ltd. | オーディオデコーダ |
US7917358B2 (en) | 2005-09-30 | 2011-03-29 | Apple Inc. | Transient detection by power weighted average |
EP1974347B1 (en) * | 2006-01-19 | 2014-08-06 | LG Electronics Inc. | Method and apparatus for processing a media signal |
MX2008012217A (es) * | 2006-03-29 | 2008-11-12 | Koninkl Philips Electronics Nv | Decodificacion de audio. |
CA2874454C (en) * | 2006-10-16 | 2017-05-02 | Dolby International Ab | Enhanced coding and parameter representation of multichannel downmixed object coding |
ES2631906T3 (es) | 2006-10-25 | 2017-09-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato y procedimiento para la generación de valores de subbanda de audio, aparato y procedimiento para la generación de muestras de audio en el dominio temporal |
EP2137824A4 (en) * | 2007-03-16 | 2012-04-04 | Lg Electronics Inc | METHOD AND DEVICE FOR PROCESSING AN AUDIO SIGNAL |
CN101689368B (zh) * | 2007-03-30 | 2012-08-22 | 韩国电子通信研究院 | 对具有多声道的多对象音频信号进行编码和解码的设备和方法 |
CN103299363B (zh) * | 2007-06-08 | 2015-07-08 | Lg电子株式会社 | 用于处理音频信号的方法和装置 |
EP2144229A1 (en) * | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Efficient use of phase information in audio encoding and decoding |
WO2010105695A1 (en) * | 2009-03-20 | 2010-09-23 | Nokia Corporation | Multi channel audio coding |
KR101387808B1 (ko) * | 2009-04-15 | 2014-04-21 | 한국전자통신연구원 | 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치 |
EP2249334A1 (en) * | 2009-05-08 | 2010-11-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio format transcoder |
KR101388901B1 (ko) * | 2009-06-24 | 2014-04-24 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 오디오 신호 디코더, 오디오 신호를 디코딩하는 방법 및 캐스케이드된 오디오 객체 처리 단계들을 이용한 컴퓨터 프로그램 |
CN102549655B (zh) * | 2009-08-14 | 2014-09-24 | Dts有限责任公司 | 自适应成流音频对象的系统 |
KR20110018107A (ko) * | 2009-08-17 | 2011-02-23 | 삼성전자주식회사 | 레지듀얼 신호 인코딩 및 디코딩 방법 및 장치 |
KR101418661B1 (ko) * | 2009-10-20 | 2014-07-14 | 돌비 인터네셔널 에이비 | 다운믹스 시그널 표현에 기초한 업믹스 시그널 표현을 제공하기 위한 장치, 멀티채널 오디오 시그널을 표현하는 비트스트림을 제공하기 위한 장치, 왜곡 제어 시그널링을 이용하는 방법들, 컴퓨터 프로그램 및 비트 스트림 |
MY154641A (en) * | 2009-11-20 | 2015-07-15 | Fraunhofer Ges Forschung | Apparatus for providing an upmix signal representation on the basis of the downmix signal representation, apparatus for providing a bitstream representing a multi-channel audio signal, methods, computer programs and bitstream representing a multi-channel audio signal using a linear cimbination parameter |
CN102763432B (zh) * | 2010-02-17 | 2015-06-24 | 诺基亚公司 | 对多装置音频捕获的处理 |
CN102222505B (zh) * | 2010-04-13 | 2012-12-19 | 中兴通讯股份有限公司 | 可分层音频编解码方法系统及瞬态信号可分层编解码方法 |
EP2717262A1 (en) | 2012-10-05 | 2014-04-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Encoder, decoder and methods for signal-dependent zoom-transform in spatial audio object coding |
-
2013
- 2013-05-13 EP EP13167487.1A patent/EP2717262A1/en not_active Withdrawn
- 2013-05-13 EP EP13167481.4A patent/EP2717265A1/en not_active Withdrawn
- 2013-10-02 SG SG11201502611TA patent/SG11201502611TA/en unknown
- 2013-10-02 CA CA2886999A patent/CA2886999C/en active Active
- 2013-10-02 WO PCT/EP2013/070550 patent/WO2014053547A1/en active Application Filing
- 2013-10-02 ES ES13774118T patent/ES2880883T3/es active Active
- 2013-10-02 JP JP2015535006A patent/JP6268180B2/ja active Active
- 2013-10-02 CN CN201380052368.6A patent/CN105190747B/zh active Active
- 2013-10-02 ES ES13776987T patent/ES2873977T3/es active Active
- 2013-10-02 JP JP2015535005A patent/JP6185592B2/ja active Active
- 2013-10-02 CN CN201380052362.9A patent/CN104798131B/zh active Active
- 2013-10-02 BR BR112015007649-1A patent/BR112015007649B1/pt active IP Right Grant
- 2013-10-02 CA CA2887028A patent/CA2887028C/en active Active
- 2013-10-02 WO PCT/EP2013/070551 patent/WO2014053548A1/en active Application Filing
- 2013-10-02 EP EP13774118.7A patent/EP2904611B1/en active Active
- 2013-10-02 KR KR1020157011739A patent/KR101685860B1/ko active IP Right Grant
- 2013-10-02 RU RU2015116645A patent/RU2625939C2/ru active
- 2013-10-02 KR KR1020157011782A patent/KR101689489B1/ko active IP Right Grant
- 2013-10-02 RU RU2015116287A patent/RU2639658C2/ru active
- 2013-10-02 EP EP13776987.3A patent/EP2904610B1/en active Active
- 2013-10-02 MX MX2015004018A patent/MX350691B/es active IP Right Grant
- 2013-10-02 MY MYPI2015000807A patent/MY178697A/en unknown
- 2013-10-02 MX MX2015004019A patent/MX351359B/es active IP Right Grant
- 2013-10-02 AU AU2013326526A patent/AU2013326526B2/en active Active
- 2013-10-02 BR BR112015007650-5A patent/BR112015007650B1/pt active IP Right Grant
- 2013-10-04 TW TW102136012A patent/TWI539444B/zh active
- 2013-10-04 TW TW102136014A patent/TWI541795B/zh active
- 2013-10-07 AR ARP130103630A patent/AR092928A1/es active IP Right Grant
- 2013-10-07 AR ARP130103631A patent/AR092929A1/es active IP Right Grant
-
2015
- 2015-03-27 US US14/671,928 patent/US10152978B2/en active Active
- 2015-04-03 US US14/678,667 patent/US9734833B2/en active Active
-
2016
- 2016-02-05 HK HK16101374.6A patent/HK1213361A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI825492B (zh) * | 2020-10-13 | 2023-12-11 | 弗勞恩霍夫爾協會 | 對多個音頻對象進行編碼的設備和方法、使用兩個以上之相關音頻對象進行解碼的設備和方法、電腦程式及資料結構產品 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6268180B2 (ja) | 空間オーディオオブジェクト符号化における時間/周波数分解能の後方互換性のある動的適応のためのエンコーダ、デコーダおよび方法 | |
JP6285939B2 (ja) | 後方互換性のある多重分解能空間オーディオオブジェクト符号化のためのエンコーダ、デコーダおよび方法 | |
JP6289613B2 (ja) | オブジェクト特有時間/周波数分解能を使用する混合信号からのオーディオオブジェクト分離 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160726 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20161012 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20161014 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20161012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6268180 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |