JP2021119383A - 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 - Google Patents
改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 Download PDFInfo
- Publication number
- JP2021119383A JP2021119383A JP2021052602A JP2021052602A JP2021119383A JP 2021119383 A JP2021119383 A JP 2021119383A JP 2021052602 A JP2021052602 A JP 2021052602A JP 2021052602 A JP2021052602 A JP 2021052602A JP 2021119383 A JP2021119383 A JP 2021119383A
- Authority
- JP
- Japan
- Prior art keywords
- channel
- audio signal
- signal
- band
- spectral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 53
- 230000005236 sound signal Effects 0.000 claims abstract description 447
- 230000003595 spectral effect Effects 0.000 claims abstract description 344
- 238000010606 normalization Methods 0.000 claims abstract description 5
- 238000001228 spectrum Methods 0.000 claims description 123
- 238000012545 processing Methods 0.000 claims description 46
- 238000006243 chemical reaction Methods 0.000 claims description 35
- 238000007493 shaping process Methods 0.000 claims description 30
- 238000012937 correction Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 14
- 239000002131 composite material Substances 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 13
- 238000012805 post-processing Methods 0.000 claims description 12
- 230000002123 temporal effect Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 7
- 230000001419 dependent effect Effects 0.000 claims description 2
- 230000009977 dual effect Effects 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 21
- 230000000873 masking effect Effects 0.000 description 13
- 238000013139 quantization Methods 0.000 description 12
- 238000013459 approach Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 238000012856 packing Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000002087 whitening effect Effects 0.000 description 2
- 101100521334 Mus musculus Prom1 gene Proteins 0.000 description 1
- 241000677647 Proba Species 0.000 description 1
- KZSNJWFQEVHDMF-UHFFFAOYSA-N Valine Chemical compound CC(C)C(N)C(O)=O KZSNJWFQEVHDMF-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/03—Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/22—Mode decision, i.e. based on audio signal content versus external parameters
Abstract
Description
−オーディオ入力信号の第1チャンネルに依存すると共に、オーディオ入力信号の第2チャンネルに依存するオーディオ入力信号のための正規化値を決定すること。
−正規化値に依存して、オーディオ入力信号の第1チャンネルおよび第2チャンネルのうちの最低1つを変調することによって、正規化されたオーディオ信号の第1チャンネルおよび第2チャンネルを決定すること。
−処理されたオーディオ信号の第1チャンネルの1つ以上のスペクトル帯域が、正規化されたオーディオ信号の第1チャンネルの1つ以上のスペクトル帯域であるように、かつ、処理されたオーディオ信号の第2チャンネルの1つ以上のスペクトル帯域が、正規化されたオーディオ信号の第2チャンネルの1つ以上のスペクトル帯域であるように、かつ、処理されたオーディオ信号の第1チャンネルの最低1つのスペクトル帯域が、正規化されたオーディオ信号の第1チャンネルのスペクトル帯域に依存すると共に、正規化されたオーディオ信号の第2チャンネルのスペクトル帯域に依存して、ミッド信号のスペクトル帯域であるように、かつ、処理されたオーディオ信号の第2チャンネルの最低1つのスペクトル帯域が、正規化されたオーディオ信号の第1チャンネルのスペクトル帯域に依存すると共に、正規化されたオーディオ信号の第2チャンネルのスペクトル帯域に依存して、サイド信号のスペクトル帯域であるように、第1チャンネルおよび第2チャンネルを持つ処理されたオーディオ信号を生成し、そして、符号化されたオーディオ信号を得るために、処理されたオーディオ信号を符号化すること。
−符号化されたオーディオ信号の第1チャンネルの前記スペクトル帯域および符号化されたオーディオ信号の第2チャンネルの前記スペクトル帯域が、デュアル−モノ符号化またはミッド−サイド符号化を使用して符号化されたかを、複数のスペクトル帯域の個々のスペクトル帯域毎に決定すること。
−デュアル−モノ符号化が使われていた場合、中間オーディオ信号の第1チャンネルのスペクトル帯域として、符号化されたオーディオ信号の第1チャンネルの前記スペクトル帯域を使うと共に、中間オーディオ信号の第2チャンネルのスペクトル帯域として、符号化されたオーディオ信号の第2チャンネルの前記スペクトル帯域を使うこと。
―ミッド−サイド符号化が使われていた場合、符号化されたオーディオ信号の第1チャンネルの前記スペクトル帯域に基づくと共に、符号化されたオーディオ信号の第2チャンネルの前記スペクトル帯域に基づいて、中間オーディオ信号の第1チャンネルのスペクトル帯域を生成し、かつ、符号化されたオーディオ信号の第1チャンネルの前記スペクトル帯域に基づくと共に、符号化されたオーディオ信号の第2チャンネルの前記スペクトル帯域に基づいて、中間オーディオ信号の第2チャンネルのスペクトル帯域を生成すること。そして、
−復号化されたオーディオ信号の第1チャンネルおよび第2チャンネルを得るために、非正規化値に依存して、中間オーディオ信号の第1チャンネルおよび第2チャンネルのうちの最低1つを変調すること。
ここで、MDCTL,kは、オーディオ入力信号の第1チャンネルのMDCTスペクトルのk番目の係数である。MDCTR,kは、オーディオ入力信号の第2チャンネルのMDCTスペクトルのk番目の係数である。正規化器110は、例えば、ILDを量子化することによって、正規化値を決定するように構成される。
−複数のスペクトル帯域の個々のスペクトル帯域について、符号化されたオーディオ信号の第1チャンネルの前記スペクトル帯域、および、符号化されたオーディオ信号の第2チャンネルの前記スペクトル帯域が、デュアル−モノ符号化またはミッド−サイド符号化モードを使って符号化されたかを決定するように構成され、
−デュアル−モノ符号化が使われていた場合、中間オーディオ信号の第1チャンネルのスペクトル帯域として、符号化されたオーディオ信号の第1チャンネルの前記スペクトル帯域を使い、そして、中間オーディオ信号の第2チャンネルのスペクトル帯域として、符号化されたオーディオ信号の第2チャンネルの前記スペクトル帯域を使うように構成され、
−ミッド−サイド符号化が使われていた場合、符号化されたオーディオ信号の第1チャンネルの前記スペクトル帯域に基づくと共に、符号化されたオーディオ信号の第2チャンネルの前記スペクトル帯域に基づいて、中間オーディオ信号の第1チャンネルのスペクトル帯域を生成し、そして、符号化されたオーディオ信号の第1チャンネルの前記スペクトル帯域に基づくと共に、符号化されたオーディオ信号の第2チャンネルの前記スペクトル帯域に基づいて、中間オーディオ信号の第2チャンネルのスペクトル帯域を生成するように構成される。
L=(M+S)/sqrt(2)
R=(M−S)/sqrt(2)
ratioILD>1である場合、右チャンネルが1/ratioILDによって縮尺される。さもなければ、左チャンネルがratioILDによって縮尺される。これは、より大きなチャンネルが縮尺されることを効果的に意味する。
int context_based_arihmetic_coder_estimate(
int spectrum[],
int start_line,
int end_line,
int lastnz,//lastnz=last non-zero spectrum line
int&ctx,//ctx=context
int&probability,//14 bit fixed point probability
const unsigned int cum_freq[N_CONTEXTS][]
//cum_freq=cumulative frequency tables,14 bit fixed point
)
[
int nBits=0;
for(int k=start_line;k<min(lastnz,end_line);k+=2)
[
int a1=abs(spectrum[k]);
int b1=abs(spectrum[k+1]);
/*Signs Bits*/
nBits+=min(a1,1);
nBits+=min(b1,1);
while(max(a1,b1)>=4)
[
probability*=cum_freq[ctx][VAL_ESC];
int nlz=Number#of_leading_zeros(probability);
nBits+=2+nlz;
probability>>=14-nlz;
a1>>=1;
b1>>=1;
ctx=update_context(ctx,VAL_ESC);
]
int symbol=a1+4*b1;
probability*=(cum_freq[ctx][symbol]-
cum_freq[ctx][symbol+1]);
int nlz=Number_of_leading_zeros(probability);
nBits+=nlz;
hContextMem->proba>>=14-nlz;
ctx=update_context(ctx,a1+b1);
]
return nBits;
]
ここで、spectrumは、コード化されるべき量子化されたスペクトルを指し示すように設定される。start_lineは0に設定される。end_lineはスペクトルの長さに設定される。lastnzは、スペクトルの最後の非ゼロの要素のインデックスに設定される。ctxは0に設定される。確率は、14ビット固定ポイント表記法において1に設定される(16384=1<<14)。
が、例えば「完全デュアル−モノ」(bLR)に対して推定されたビット数を計算するために採用され、個々の帯域L/R符号化における信号化が使われる。
が、例えば「完全M/S」(bMS)に対して推定されたビット数を計算するために採用され、個々の帯域M/S符号化における信号化が使われる。
ここで、NRGR,iは、右チャンネルのi番目の帯域のエネルギーである。NRGL,iは、左チャンネルのi番目の帯域のエネルギーである。NRGM,iは、ミッドチャンネルのi番目の帯域のエネルギーである。NRGS,iは、サイドチャンネルのi番目の帯域のエネルギーである。nlinesiは、i番目の帯域のスペクトル係数の数である。ミッドチャンネルは左チャンネルおよび右チャンネルの合計であり、サイドチャンネルは左チャンネルおよび右チャンネルの差である。
Sres=S−g・M
S(t)=hb・M(t−1)
−DmxRは、例えば、白色化されたMDCTスペクトルのミッド信号を示す。
−SRは、例えば、白色化されたMDCTスペクトルのサイド信号を示す。
−DmxIは、例えば、白色化されたMDSTスペクトルのミッド信号を示す。
−SIは、例えば、白色化されたMDSTスペクトルのサイド信号を示す。
−prevDmxRは、例えば、1つのフレームにより遅延された、白色化されたMDCTスペクトルのミッド信号を示す。
−prevDmxIは、例えば、1つのフレームにより遅延された、白色化されたMDSTスペクトルのミッド信号を示す。
−サイド信号SRの残留ResRは、例えば、以下の式に従って計算される。
ResR=SR−aRDmxR−aIDmxI
ここで、aRは複合予測係数の実数部であり、aIは複合予測係数の虚数部である([10]参照)。
サイド信号SIの残留ResIは、例えば、以下の式に従って計算される。
ResI=SI−aRDmxR−aIDmxI
−エネルギー、例えば、残留Resの複合値されたエネルギーおよび前のフレームダウンミックス(ミッド信号)prevDmxの複合値されたエネルギーが以下の式によって計算される。
correction_factorfb=EResfb/(EprevDmxfb+ε)
ETfb=correction_factorfb・EprevDmxfb
ここで、iは、周波数帯域fb内の周波数ビン(スペクトル値)を示す。Nは、雑音が満ちたスペクトルである。facDmxfbは、前のダウンミックスに適用されるファクターであり、それは、エンコーダから送信されたステレオ充填補正ファクターに依存する。
ここで、ENfbは、帯域fbの雑音が満ちたスペクトルのエネルギーである。EprevDmxfbは、個々の前フレームダウンミックスエネルギーである。
−サイド信号SRの残留Resが、例えば、以下の式に従って計算される。
Res=SR−aRDmxR
ここで、aRは、(例えば実数)予測係数である。
correction_factorfb=EResfb/(EprevDmxfb+ε)
correction_factorfb=EResfb/(EprevDmxfb+ε)
ここで、correction_factorfbは、前記サイド信号の前記スペクトル帯域のための前記補正ファクターを示す。EResfbは、前記ミッド信号の前記スペクトル帯域に対応する前記残留のスペクトル帯域のエネルギーに依存する残留エネルギーを示す。EprevDmxfbは、前のミッド信号のスペクトル帯域のエネルギーに依存する前のエネルギーを示す。ε=0、または、0.1>ε>0。
ResR=SR−aRDmxR
ここで、ResRは、前記残留である。SRは、前記サイド信号である。aRは、(例えば実数)係数(例えば予測係数)である。DmxRは、前記ミッド信号である。符号化ユニット(120)は、以下の式に従って前記残留エネルギーを決定するように構成される。
ResR=SR−aRDmxR−aIDmxI
ここで、ResRは前記残留である。SRは前記サイド信号である。aRは複合(予測)係数の実数部であり、aIは複合(予測)係数の虚数部分である。DmxRは前記ミッド信号である。DmxIは、正規化されたオーディオ信号の第1チャンネルに依存すると共に、正規化されたオーディオ信号の第2チャンネルに依存する別のミッド信号である。正規化されたオーディオ信号の第1チャンネルに依存すると共に、正規化されたオーディオ信号の第2チャンネルに依存する別のサイド信号SIの別の残留は、以下の式に従って定義される。
ResI=SI−aRDmxR−aIDmxI
符号化ユニット120は、例えば、前記ミッド信号の前記スペクトル帯域に対応する前記残留のスペクトル帯域のエネルギーに依存すると共に、前記ミッド信号の前記スペクトル帯域に対応する前記別の残留のスペクトル帯域のエネルギーに依存する前のエネルギーを決定するように構成される。
Si=Ni+facDmxfb・prevDmxi
ここで、Siはサイド信号の前記スペクトル帯域のスペクトル値を示す。prevDmxiは前記前のミッド信号のスペクトル帯域のスペクトルの値を示す。Niは雑音が満ちたスペクトルのスペクトル値を示す。facDmxfbは以下の式に従って定義される。
ここで、correction_factorfbは、サイド信号の前記スペクトル帯域の補正ファクターである。ENfbは、雑音が満たされたスペクトルのエネルギーである。EprevDmxfbは、前記前のミッド信号の前記スペクトル帯域のエネルギーである。ε=0、または、0.1>ε>0。
[1] J. Herre, E. Eberlein and K. Brandenburg, “Combined Stereo Coding”, in 93rd AES Convention, San Francisco, 1992.
[2] J. D. Johnston and A. J. Ferreira, “Sum-difference stereo transform codi ng”, in Proc. ICASSP, 1992.
[3] ISO/IEC 11172-3, Information technology - Coding of moving pictures and a ssociated audio for digital storage media at up to about 1,5 Mbit/s - Part 3 : Audio, 1993.
[4] ISO/IEC 13818-7, Information technology - Generic coding of moving pictur es and associated audio information - Part 7: Advanced Audio Coding (AAC), 2 003.
[5] J.-M. Valin, G. Maxwell, T. B. Terriberry and K. Vos, “High-Quality, Lo w-Delay Music Coding in the Opus Codec”, in Proc. AES 135th Convention, New York, 2013.
[6a] 3GPP TS 26.445, Codec for Enhanced Voice Services (EVS); Detailed algorithmic description, V 12.5.0, Dezember 2015.
[6b] 3GPP TS 26.445, Codec for Enhanced Voice Services (EVS); Detailed algorithmic description, V 13.3.0, September 2016.
[7] H. Purnhagen, P. Carlsson, L. Villemoes, J. Robilliard, M. Neusinger, C. Helmrich, J. Hilpert, N. Rettelbach, S. Disch and B. Edler, “Audio encoder, audio decoder and related methods for processing multi-channel audio signal s using complex prediction”. US Patent 8,655,670 B2, 18 February 2014.
[8] G. Markovic, F. Guillaume, N. Rettelbach, C. Helmrich and B. Schubert, “ Linear prediction based coding scheme using spectral domain noise shaping” . European Patent 2676266 B1, 14 February 2011.
[9] S. Disch, F. Nagel, R. Geiger, B. N. Thoshkahna, K. Schmidt, S. Bayer, C. Neukam, B. Edler and C. Helmrich, “Audio Encoder, Audio Decoder and Relat ed Methods Using Two-Channel Processing Within an Intelligent Gap Filling Fr amework”. International Patent PCT/EP2014/065106, 15 07 2014.
[10] C. Helmrich, P. Carlsson, S. Disch, B. Edler, J. Hilpert, M. Neusi nger, H. Purnhagen, N. Rettelbach, J. Robilliard and L. Villemoes, “Effici ent Transform Coding Of Two-channel Audio Signals By Means Of Complex-valued Stereo Prediction”, in Acoustics, Speech and Signal Processing (ICASSP), 2 011 IEEE International Conference on, Prague, 2011.
[11] C. R. Helmrich, A. Niedermeier, S. Bayer and B. Edler, “Low-comp lexity semi-parametric joint-stereo audio transform coding”, in Signal Proc essing Conference (EUSIPCO), 2015 23rd European, 2015.
[12] H. Malvar, "A Modulated Complex Lapped Transform and its Applicati ons to Audio Processing", in Acoustics, Speech, and Signal Processing (ICASS P), 1999. Proceedings., 1999 IEEE International Conference on, Phoenix, AZ, 1999.
[13] B. Edler and G. Schuller, “Audio coding using a psychoacoustic pr e- and post-filter” Acoustics, Speech, and Signal Processing, 2000. ICASSP '00.
Claims (39)
- 符号化されたオーディオ信号を得るために、2つ以上のチャンネルを含むオーディオ入力信号の第1チャンネルおよび第2チャンネルを符号化するための装置であって、
前記装置は、前記オーディオ入力信号の前記第1チャンネルに依存し、かつ、前記オーディオ入力信号の前記第2チャンネルに依存して、前記オーディオ入力信号のための正規化値を決定するように構成された正規化器(110)であって、前記正規化器(110)は、前記正規化値に依存して、前記オーディオ入力信号の前記第1チャンネルおよび前記第2チャンネルのうちの少なくとも1つを変調することによって、正規化されたオーディオ信号の第1チャンネルおよび第2チャンネルを決定するように構成された正規化器(110)と、
前記装置は、処理されたオーディオ信号の第1チャンネルの1つ以上のスペクトル帯域が、前記正規化されたオーディオ信号の前記第1チャンネルの1つ以上のスペクトル帯域であるように、かつ、前記処理されたオーディオ信号の第2チャンネルの1つ以上のスペクトル帯域が、前記正規化されたオーディオ信号の前記第2チャンネルの1つ以上のスペクトル帯域であるように、かつ、前記処理されたオーディオ信号の前記第1チャンネルの最低1つのスペクトル帯域が、前記正規化されたオーディオ信号の前記第1チャンネルのスペクトル帯域に依存すると共に、前記正規化されたオーディオ信号の前記第2チャンネルのスペクトル帯域に依存して、ミッド信号のスペクトル帯域であるように、かつ、前記処理されたオーディオ信号の前記第2チャンネルの最低1つのスペクトル帯域が、前記正規化されたオーディオ信号の前記第1チャンネルのスペクトル帯域に依存すると共に、前記正規化されたオーディオ信号の前記第2チャンネルのスペクトル帯域に依存して、サイド信号のスペクトル帯域であるように、前記第1チャンネルおよび前記第2チャンネルを持つ前記処理されたオーディオ信号を生成するように構成されている符号化ユニット(120)であって、前記符号化ユニット(120)は、前記符号化されたオーディオ信号を得るために、前記処理されたオーディオ信号を符号化するように構成されている符号化ユニット(120)を含むこと、
を特徴とする装置。 - 前記符号化ユニット(120)は、前記正規化されたオーディオ信号の第1チャンネルの複数のスペクトル帯域に依存すると共に、前記正規化されたオーディオ信号の第2チャンネルの複数のスペクトル帯域に依存して、完全ミッド−サイド符号化モードおよび完全デュアル−モノ符号化モードおよび帯域に関する符号化モードの中から選ばれるように構成され、
前記完全ミッド−サイド符号化モードが選ばれた場合、前記符号化ユニット(120)は、ミッド−サイド信号の第1チャンネルとして、前記正規化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルからミッド信号を生成するように、そして、前記ミッド−サイド信号の第2チャンネルとして、前記正規化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルからサイド信号を生成するように、そして、符号化されたオーディオ信号を得るために前記ミッド−サイド信号を符号化するように構成され、
前記完全デュアル−モノ符号化モードが選ばれた場合、前記符号化ユニット(120)は、前記符号化されたオーディオ信号を得るために、前記正規化されたオーディオ信号を符号化するように構成され、
前記帯域に関する符号化モードが選ばれた場合、前記符号化ユニット(120)は、前記処理されたオーディオ信号の前記第1チャンネルの1つ以上のスペクトル帯域が、前記正規化されたオーディオ信号の前記第1チャンネルの1つ以上のスペクトル帯域であるように、かつ、前記処理されたオーディオ信号の前記第2チャンネルの1つ以上のスペクトル帯域が、前記正規化されたオーディオ信号の前記第2チャンネルの1つ以上のスペクトル帯域であるように、かつ、前記処理されたオーディオ信号の前記第1チャンネルの最低1つのスペクトル帯域が、前記正規化されたオーディオ信号の前記第1チャンネルのスペクトル帯域に依存すると共に、前記正規化されたオーディオ信号の前記第2チャンネルのスペクトル帯域に依存して、ミッド信号のスペクトル帯域であるように、かつ、前記処理されたオーディオ信号の前記第2チャンネルの最低1つのスペクトル帯域が、前記正規化されたオーディオ信号の前記第1チャンネルのスペクトル帯域に依存すると共に、前記正規化されたオーディオ信号の前記第2チャンネルのスペクトル帯域に依存して、サイド信号のスペクトル帯域であるように構成され、前記符号化ユニット(120)は、前記符号化されたオーディオ信号を得るために、前記処理されたオーディオ信号を符号化するように構成されていること、
を特徴とする請求項1に記載の装置。 - 前記符号化ユニット(120)は、前記帯域に関する符号化モードが選ばれた場合、前記処理されたオーディオ信号の複数のスペクトル帯域の個々のスペクトル帯域について、ミッド−サイド符号化が採用されるか、または、デュアル−モノ符号化が採用されるかどうかを決定するように構成され、
前記ミッド−サイド符号化が前記スペクトル帯域のために採用された場合、前記符号化ユニット(120)は、前記正規化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域に基づくと共に、前記正規化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域に基づいて、ミッド信号のスペクトル帯域として、前記処理されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域を生成するように構成され、mた、前記符号化ユニット(120)は、前記正規化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域に基づくと共に、前記正規化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域に基づいて、サイド信号のスペクトル帯域として、前記処理されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域を生成するように構成され、
前記デュアル−モノ符号化が前記スペクトル帯域のために採用された場合、前記符号化ユニット(120)は、前記処理されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域として、前記正規化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域を使用するように構成されると共に、前記処理されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域として、前記正規化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域を使用するように構成される、あるいは、前記符号化ユニット(120)は、前記処理されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域として、前記正規化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域を使用するように構成されると共に、前記処理されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域として、前記正規化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域を使用するように構成されていること、
を特徴とする請求項2に記載の装置。 - 前記符号化ユニット(120)は、前記完全ミッド−サイド符号化モードが採用されるときに符号化のために必要となる第1ビット数を推定する第1推定を決定することによって、そして、前記完全デュアル−モノ符号化モードが採用されるときに、符号化のために必要となる第2ビット数を推定する第2推定を決定することによって、そして、前記帯域に関する符号化モードが採用されるときに、符号化のために必要となる第3ビット数を推定する第3推定を決定することによって、そして、前記完全ミッド−サイド符号化モードおよび前記完全デュアル−モノ符号化モードおよび前記帯域に関する符号化モードのうち、前記第1推定および前記第2推定および前記第3推定のうちで最も小さいビット数を持つ符号化モードを選ぶことによって、前記完全ミッド−サイド符号化モードおよび前記完全デュアル−モノ符号化モードおよび前記帯域に関する符号化モードのうちから選ぶように構成されていること、
を特徴とする請求項2または請求項3に記載の装置。 - 前記符号化ユニット(120)は、前記完全ミッド−サイド符号化モードで符号化するときに、節約される第1ビット数を推定する第1推定を決定することによって、そして前記完全デュアル−モノ符号化モードで符号化するときに、節約される第2ビット数を推定する第2推定を決定することによって、そして前記帯域に関する符号化モードで符号化するときに、節約される第3ビット数を推定する第3推定を決定することによって、そして前記完全ミッド−サイド符号化モードおよび前記完全デュアル−モノ符号化モードおよび前記帯域に関する符号化モードのうち、前記第1推定および前記第2推定および前記第3推定のうちから節約される最も大きなビット数を持つ符号化モードを選ぶことによって、前記完全ミッド−サイド符号化モードおよび前記完全デュアル−モノ符号化モードおよび前記帯域に関する符号化モードのうちから選ぶように構成されていること、
を特徴とする請求項2または請求項3に記載の装置。 - 前記符号化ユニット(120)は、前記完全ミッド−サイド符号化モードが採用されるときに生じる第1信号対雑音比を推定することによって、そして前記完全デュアル−モノ符号化モードで符号化するときに生じる第2信号対雑音比を推定することによって、そして前記帯域に関する符号化モードで符号化するときに生じる第3信号対雑音比を推定することによって、そして前記完全ミッド−サイド符号化モードおよび前記完全デュアル−モノ符号化モードおよび前記帯域に関する符号化モードのうち、前記第1信号対雑音比および前記第2信号対雑音比および前記第3信号対雑音比のうちから最も大きな信号対雑音比を持つ符号化モードを選ぶことによって、前記完全ミッド−サイド符号化モードおよび前記完全デュアル−モノ符号化モードおよび前記帯域に関する符号化モードのうちから選ぶように構成されていること、
を特徴とする請求項2または請求項3に記載の装置。 - 前記符号化ユニット(120)は、前記処理されたオーディオ信号の前記第1チャンネルの前記最低1つのスペクトル帯域が、前記ミッド信号の前記スペクトル帯域であるように、そして、前記処理されたオーディオ信号の前記第2チャンネルの前記最低1つのスペクトル帯域が、前記サイド信号の前記スペクトル帯域であるように、前記処理されたオーディオ信号を生成するように構成され、
前記符号化されたオーディオ信号を得るために、前記符号化ユニット(120)は、前記サイド信号の前記スペクトル帯域のための補正ファクターを決定することによって、前記サイド信号の前記スペクトル帯域を符号化するように構成され、
前記符号化ユニット(120)は、残留に依存すると共に、前記ミッド信号の前記スペクトル帯域に対応する前のミッド信号のスペクトル帯域に依存して、前記サイド信号の前記スペクトル帯域のための前記補正ファクターを決定するように構成され、前記前のミッド信号は、時間において前記ミッド信号に先行し、
前記符号化ユニット(120)は、前記サイド信号の前記スペクトル帯域に依存すると共に、前記ミッド信号の前記スペクトル帯域に依存して、前記残留を決定するように構成されていること、
を特徴とする請求項1に記載の装置。 - 前記符号化ユニット(120)は、以下の式に従って、前記サイド信号の前記スペクトル帯域のための前記補正ファクターを決定するように構成され、
correction_factorfb=EResfb/(EprevDmxfb+ε)
correction_factorfbは、前記サイド信号の前記スペクトル帯域のための前記補正ファクターを示し、
EResfbは、前記ミッド信号の前記スペクトル帯域に対応する前記残留のスペクトル帯域のエネルギーに依存する残留エネルギーを示し、
EprevDmxfbは、前記前のミッド信号の前記スペクトル帯域のエネルギーに依存する前のエネルギーを示し、
ε=0、または、0.1>ε>0であること、
を特徴とする請求項8に記載の装置。 - 前記残留は以下の式に従って定義され、
ResR=SR−aRDmxR−aIDmxI
ResRは前記残留であり、SRは前記サイド信号であり、aRは複合係数の実数部であり、aIは前記複合係数の虚数部分であり、DmxRは前記ミッド信号であり、DmxIは、前記正規化されたオーディオ信号の前記第1チャンネルに依存すると共に、前記正規化されたオーディオ信号の前記第2チャンネルに依存する別のミッド信号であり、
前記正規化されたオーディオ信号の前記第1チャンネルに依存すると共に、前記正規化されたオーディオ信号の前記第2チャンネルに依存する別のサイド信号SIの別の残留は、以下の式に従って定義され、
ResI=SI−aRDmxR−aIDmxI
符号化ユニット(120)は、以下の式に従って前記残留エネルギーを決定するように構成され、
前記符号化ユニット(120)は、前記ミッド信号の前記スペクトル帯域に対応する前記残留の前記スペクトル帯域の前記エネルギーに依存すると共に、前記ミッド信号の前記スペクトル帯域に対応する前記別の残留のスペクトル帯域のエネルギーに依存する前記前のエネルギーを決定するように構成されていること、
を特徴とする請求項8または請求項9に記載の装置。 - 前記正規化器(110)は、前記オーディオ入力信号の前記第1チャンネルのエネルギーに依存すると共に、前記オーディオ入力信号の前記第2チャンネルのエネルギーに依存して、前記オーディオ入力信号のための前記正規化値を決定するように構成されること、を特徴とする請求項1ないし請求項11のいずれかに記載の装置。
- 前記オーディオ入力信号は、スペクトル領域で表され、
前記正規化器(110)は、前記オーディオ入力信号の前記第1チャンネルの複数のスペクトル帯域に依存すると共に、前記オーディオ入力信号の前記第2チャンネルの複数のスペクトル帯域に依存して、前記オーディオ入力信号のための前記正規化値を決定するように構成され、
前記正規化器(110)は、前記正規化値に依存して、前記オーディオ入力信号の前記第1チャンネルおよび前記第2チャンネルのうちの最低1つの複数のスペクトル帯域を変調することによって、前記正規化されたオーディオ信号を決定するように構成されていること、
を特徴とする請求項1ないし請求項12のいずれかに記載の装置。 - 符号化のための前記装置は、変換ユニット(102)と前処理ユニット(105)とをさらに含み、前記変換ユニット(102)は、変換されたオーディオ信号を得るために、時間領域から周波数領域に時間領域オーディオ信号を変換するように構成され、
前記前処理ユニット(105)は、エンコーダ側周波数領域雑音シェーピング操作を、前記変換されたオーディオ信号に適用することによって、前記オーディオ入力信号の前記第1チャンネルおよび前記第2チャンネルを生成させるように構成されていること、
を特徴とする請求項13または請求項14に記載の装置。 - 前記前処理ユニット(105)は、前記エンコーダ側周波数領域雑音シェーピング操作を、前記変換されたオーディオ信号に適用する前に、エンコーダ側時間的雑音シェーピング操作を、前記変換されたオーディオ信号に適用することによって、前記オーディオ入力信号の前記第1チャンネルおよび前記第2チャンネルを生成させるように構成されていること、を特徴とする請求項15に記載の装置。
- 前記正規化器(110)は、時間領域で表されている前記オーディオ入力信号の前記第1チャンネルに依存すると共に、前記時間領域で表されている前記オーディオ入力信号の前記第2チャンネルに依存して、前記オーディオ入力信号のための正規化値を決定するように構成され、
前記正規化器(110)は、前記正規化値に依存して、前記時間領域で表されている前記オーディオ入力信号の前記第1チャンネルおよび前記第2チャンネルのうちの最低1つを変調することによって、前記正規化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルを決定するように構成され、
前記装置は、前記正規化されたオーディオ信号がスペクトル領域で表されるように、前記正規化されたオーディオ信号を前記時間領域から前記スペクトル領域に変換するように構成された変換ユニット(115)をさらに含み、
前記変換ユニット(115)は、前記スペクトル領域で表されている前記正規化されたオーディオ信号を前記符号化ユニット(120)に供給するように構成されていること、
を特徴とする請求項1ないし請求項12のいずれかに記載の装置。 - 装置は、第1チャンネルおよび第2チャンネルを含む時間領域オーディオ信号を受信するように構成されている前処理ユニット(106)をさらに含み、
前記前処理ユニット(106)は、前記時間領域で表されている前記オーディオ入力信号の前記第1チャンネルを得るために、第1の知覚的に白色化されたスペクトルを作成する前記時間領域オーディオ信号の前記第1チャンネルに、フィルタを適用するように構成され、
前記前処理ユニット(106)は、前記時間領域で表されている前記オーディオ入力信号の前記第2チャンネルを得るために、第2の知覚的に白色化されたスペクトルを作成する前記時間領域オーディオ信号の前記第2チャンネルに、フィルタを適用するように構成されていること、
を特徴とする請求項17に記載の装置。 - 前記変換ユニット(115)は、変換されたオーディオ信号を得るために、前記時間領域から前記スペクトル領域に、前記正規化されたオーディオ信号を変換するように構成され、
前記装置は、スペクトル領域で表されている正規化されたオーディオ信号を得るために、前記変換されたオーディオ信号にエンコーダ側時間的雑音シェーピングを実施するように構成されているスペクトル領域前処理器(118)をさらに含むこと、
を特徴とする請求項17または請求項18に記載の装置。 - 前記符号化ユニット(120)は、エンコーダ側ステレオインテリジェントギャップ充填を、前記正規化されたオーディオ信号または前記処理されたオーディオ信号に適用することによって、前記符号化されたオーディオ信号を得るように構成されていること、を特徴とする請求項1ないし請求項19のいずれかに記載の装置。
- 前記オーディオ入力信号が、正確に2つのチャンネルを含むオーディオステレオ信号であること、を特徴とする請求項1ないし請求項20のいずれかに記載の装置。
- 符号化されたオーディオ信号を得るために、4つ以上のチャンネルを含むオーディオ入力信号の4つのチャンネルを符号化するためのシステムであって、前記システムは、
前記符号化されたオーディオ信号の第1チャンネルおよび第2チャンネルを得るために、前記オーディオ入力信号の前記4つ以上のチャンネルの第1チャンネルおよび第2チャンネルを符号化するための、請求項1ないし請求項20のいずれかに記載の第1装置(170)と、
前記符号化されたオーディオ信号の第3チャンネルおよび第4チャンネルを得るために、前記オーディオ入力信号の前記4つ以上のチャンネルの第3チャンネルおよび第4チャンネルを符号化するための、請求項1ないし請求項20のいずれかに記載の第2装置(180)と、を含むこと、
を特徴とするシステム。 - 2つ以上のチャンネルを含む復号化されたオーディオ信号の第1チャンネルおよび第2チャンネルを得るために、第1チャンネルおよび第2チャンネルを含んでいる符号化されたオーディオ信号を復号化するための装置であって、
前記装置は、複数のスペクトル帯域の個々のスペクトル帯域について、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域、および、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域が、デュアル−モノ符号化を使って符号化されたか、またはミッド−サイド符号化を使って符号化されたかを決定するように構成された復号化ユニット(210)を含み、
前記復号化ユニット(210)は、前記デュアル−モノ符号化が使われていた場合、中間オーディオ信号の第1チャンネルのスペクトル帯域として、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域を使うように構成されると共に、前記中間オーディオ信号の第2チャンネルのスペクトル帯域として、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域を使うように構成され、
前記復号化ユニット(210)は、前記ミッド−サイド符号化が使われていた場合、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域に基づくと共に、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域に基づいて、前記中間オーディオ信号の前記第1チャンネルのスペクトル帯域を生成し、そして、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域に基づくと共に、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域に基づいて、前記中間オーディオ信号の前記第2チャンネルのスペクトル帯域を生成するように構成され、
前記装置は、前記復号化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルを得るために、非正規化値に依存して、前記中間オーディオ信号の前記第1チャンネルおよび前記第2チャンネルのうちの最低1つを変調するように構成された非正規化器(220)を含むこと、
を特徴とする装置。 - 前記復号化ユニット(210)は、前記符号化されたオーディオ信号が、完全ミッド−サイド符号化モードまたは完全デュアル−モノ符号化モードまたは帯域に関する符号化モードで符号化されるかどうかを決定するように構成され、
前記復号化ユニット(210)は、前記符号化されたオーディオ信号が前記完全ミッド−サイド符号化モードで符号化されることが決定された場合、前記符号化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルから前記中間オーディオ信号の前記第1チャンネルを生成させると共に、前記符号化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルから前記中間オーディオ信号の前記第2チャンネルを生成させるように構成され、
前記復号化ユニット(210)は、前記符号化されたオーディオ信号が前記完全デュアル−モノ符号化モードで符号化されることが決定された場合、前記中間オーディオ信号の前記第1チャンネルとして、前記符号化されたオーディオ信号の前記第1チャンネルを使うと共に、前記中間オーディオ信号の前記第2チャンネルとして、前記符号化されたオーディオ信号の前記第2チャンネルを使うように構成され、
前記復号化ユニット(210)は、前記符号化されたオーディオ信号が前記帯域に関する符号化モードで符号化されることが決定された場合、
複数のスペクトル帯域の個々のスペクトル帯域について、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域、および、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域が、前記デュアル−モノ符号化を使って符号化されたか、または前記ミッド−サイド符号化モードを使って符号化されたかを決定するように構成され、
前記デュアル−モノ符号化が使われていた場合、前記中間オーディオ信号の前記第1チャンネルのスペクトル帯域として、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域を使い、そして、前記中間オーディオ信号の前記第2チャンネルのスペクトル帯域として、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域を使うように構成され、
前記ミッド−サイド符号化が使われていた場合、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域に基づくと共に、符号化されたオーディオ信号の第2チャンネルの前記スペクトル帯域に基づいて、前記中間オーディオ信号の前記第1チャンネルのスペクトル帯域を生成し、そして、前記符号化されたオーディオ信号の第前記1チャンネルの前記スペクトル帯域に基づくと共に、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域に基づいて、前記中間オーディオ信号の前記第2チャンネルのスペクトル帯域を生成するように構成されていること、
を特徴とする請求項23に記載の装置。 - 前記復号化ユニット(210)は、前記複数のスペクトル帯域の個々のスペクトル帯域について、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域、および、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域が、デュアル−モノ符号化を使って符号化されたか、またはミッド−サイド符号化を使って符号化されたかを決定するように構成され、
前記復号化ユニット(210)は、前記第2チャンネルの前記スペクトル帯域を再構成することによって、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域を得るように構成され、
ミッド−サイド符号化が使われていた場合、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域は、ミッド信号のスペクトル帯域であると共に、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域は、サイド信号のスペクトル帯域であり、
ミッド−サイド符号化が使われていた場合、前記復号化ユニット(210)は、前記サイド信号の前記スペクトル帯域のための補正ファクターに依存すると共に、前記ミッド信号の前記スペクトル帯域に対応する、前のミッド信号のスペクトル帯域に依存して、前記サイド信号の前記スペクトル帯域を再構成するように構成され、前記前のミッド信号は、時間において、前記ミッド信号に先行すること、
を特徴とする請求項23に記載の装置。 - ミッド−サイド符号化が使われていた場合、前記復号化ユニット(210)は、以下の式に従って前記サイド信号の前記スペクトル帯域のスペクトル値を再構成することによって、前記サイド信号の前記スペクトル帯域を再構成するように構成され、
Si=Ni+facDmxfb・prevDmxi
Siは、前記サイド信号の前記スペクトル帯域のスペクトル値を示し、prevDmxiは、前記前のミッド信号の前記スペクトル帯域のスペクトル値を示し、Niは、雑音が満ちたスペクトルのスペクトル値を示し、facDmxfbは、以下の式に従って定義され、
correction_factorfbは、前記サイド信号の前記スペクトル帯域のための補正ファクターであり、
ENfbは、雑音が満ちたスペクトルのエネルギーであり、
EprevDmxfbは、前記前のミッド信号の前記スペクトル帯域のエネルギーであり、
ε=0、または、0.1>ε>0であること、
を特徴とする請求項25に記載の装置。 - 前記非正規化器(220)は、前記復号化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルを得るために、前記非正規化値に依存して、前記中間オーディオ信号の前記第1チャンネルおよび前記第2チャンネルのうちの最低1つの前記複数のスペクトル帯域を変調するように構成されていること、
を特徴とする請求項23ないし請求項26のいずれかに記載の装置。 - 前記非正規化器(220)は、非正規化されたオーディオ信号を得るために、前記非正規化値に依存して、前記中間オーディオ信号の前記第1チャンネルおよび前記第2チャンネルのうちの最低1つの前記複数のスペクトル帯域を変調するように構成され
前記装置は、後処理ユニット(230)および変換ユニット(235)をさらに含み、
前記後処理ユニット(230)は、後処理されたオーディオ信号を得るために、前記非正規化されたオーディオ信号に、デコーダ側時間的雑音シェーピングおよびデコーダ側周波数領域雑音シェーピングのうちの最低1つを実施するように構成され、
前記変換ユニット(235)は、前記復号化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルを得るために、前記後処理されたオーディオ信号をスペクトル領域から時間領域に変換するように構成されていること、
を特徴とする請求項23ないし請求項26のいずれかに記載の装置。 - 前記装置は、前記中間オーディオ信号をスペクトル領域から時間領域に変換するように構成された変換ユニット(215)をさらに含み、
前記非正規化器(220)は、前記復号化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルを得るために、前記非正規化値に依存して、時間領域で表されている前記中間オーディオ信号の前記第1チャンネルおよび前記第2チャンネルのうちの最低1つを変調するように構成されていること、
を特徴とする請求項23ないし請求項26のいずれかに記載の装置。 - 前記装置は、前記中間オーディオ信号をスペクトル領域から時間領域に変換するように構成された変換ユニット(215)をさらに含み、
前記非正規化器(220)は、非正規化されたオーディオ信号を得るために、前記非正規化値に依存して、時間領域で表されている前記中間オーディオ信号の前記第1チャンネルおよび前記第2チャンネルのうちの最低1つを変調するように構成され、
前記装置は、前記復号化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルを得るために、知覚的に白色化されたオーディオ信号である前記非正規化されたオーディオ信号を処理するように構成された後処理ユニット(235)をさらに含むこと、
を特徴とする請求項23ないし請求項26のいずれかに記載の装置。 - 前記装置は、前記中間オーディオ信号に、デコーダ側時間的雑音シェーピングを実施するように構成されたスペクトル領域後処理器(212)をさらに含み、
前記変換ユニット(215)は、デコーダ側時間的雑音シェーピングが前記中間オーディオ信号に対して実施された後に、前記中間オーディオ信号を前記スペクトル領域から前記時間領域に変換するように構成されていること、
を特徴とする請求項29または請求項30に記載の装置。 - 前記復号化ユニット(210)は、デコーダ側ステレオインテリジェントギャップ充填を、符号化されたオーディオ信号に適用するように構成されていること、を特徴とする請求項23ないし請求項31のいずれかに記載の装置。
- 前記復号化されたオーディオ信号が、正確に2つのチャンネルを含むオーディオステレオ信号であること、を特徴とする請求項23ないし請求項32のいずれかに記載の装置。
- 4つ以上のチャンネルを含む復号化されたオーディオ信号の4つのチャンネルを得るために、4つ以上のチャンネルを含む符号化されたオーディオ信号を復号化するためのシステムであって、前記システムは、
前記復号化されたオーディオ信号の第1チャンネルおよび第2チャンネルを得るために、前記符号化されたオーディオ信号の前記4つ以上のチャンネルの第1チャンネルおよび第2チャンネルを復号化するための請求項23ないし請求項32のいずれかに記載の第1装置270と、
前記復号化されたオーディオ信号の第3チャンネルおよび第4チャンネルを得るために、前記符号化されたオーディオ信号の前記4つ以上のチャンネルの第3チャンネルおよび第4チャンネルを復号化するための請求項23ないし請求項32のいずれかに記載の第2装置280と、を含むこと、
を特徴とするシステム。 - オーディオ入力信号から、符号化されたオーディオ信号を生成すると共に、前記符号化されたオーディオ信号から、復号化されたオーディオ信号を生成するためのシステムであって、前記システムは、
請求項1ないし請求項21のいずれかに記載の装置(310)を含み、請求項1ないし請求項21のいずれかに記載の装置(310)は、前記オーディオ入力信号から、前記符号化されたオーディオ信号を生成するように構成され、
請求項23ないし請求項33のいずれかに記載の装置(320)を含み、請求項23ないし請求項33のいずれかに記載の装置(320)は、前記符号化されたオーディオ信号から、前記復号化されたオーディオ信号を生成するように構成されていること、
を特徴とするシステム。 - オーディオ入力信号から、符号化されたオーディオ信号を生成すると共に、符号化されたオーディオ信号から、復号化されたオーディオ信号を生成するためのシステムであって、前記システムは、
請求項22に記載のシステムであって、請求項22に記載のシステムは、前記オーディオ入力信号から、前記符号化されたオーディオ信号を生成するように構成され、
請求項34に記載のシステムであって、請求項34に記載のシステムは、前記符号化されたオーディオ信号から、前記復号化されたオーディオ信号を生成するように構成されていること、
を特徴とするシステム。 - 符号化されたオーディオ信号を得るために、2つ以上のチャンネルを含むオーディオ入力信号の第1チャンネルおよび第2チャンネルを符号化するための方法であっって、前記方法は、
前記オーディオ入力信号の前記第1チャンネルに依存すると共に、前記オーディオ入力信号の前記第2チャンネルに依存して、前記オーディオ入力信号のための正規化値を決定し、
前記正規化値に依存して、前記オーディオ入力信号の前記第1チャンネルおよび前記第2チャンネルのうちの最低1つを変調することによって、正規化されたオーディオ信号の第1チャンネルおよび第2チャンネルを決定し、
処理されたオーディオ信号の前記第1チャンネルの1つ以上のスペクトル帯域が、前記正規化されたオーディオ信号の前記第1チャンネルの1つ以上のスペクトル帯域であるように、かつ、前記処理されたオーディオ信号の前記第2チャンネルの1つ以上のスペクトル帯域が、前記正規化されたオーディオ信号の前記第2チャンネルの1つ以上のスペクトル帯域であるように、かつ、前記処理されたオーディオ信号の前記第1チャンネルの最低1つのスペクトル帯域が、前記正規化されたオーディオ信号の前記第1チャンネルのスペクトル帯域に依存すると共に、前記正規化されたオーディオ信号の前記第2チャンネルのスペクトル帯域に依存して、ミッド信号のスペクトル帯域であるように、かつ、前記処理されたオーディオ信号の前記第2チャンネルの最低1つのスペクトル帯域が、前記正規化されたオーディオ信号の前記第1チャンネルのスペクトル帯域に依存すると共に、前記正規化されたオーディオ信号の前記第2チャンネルのスペクトル帯域に依存して、サイド信号のスペクトル帯域であるように、前記第1チャンネルおよび前記第2チャンネルを持つ前記処理されたオーディオ信号を生成し、そして、前記符号化されたオーディオ信号を得るために、前記処理されたオーディオ信号を符号化することを含むこと、
を特徴とする方法。 - 2つ以上のチャンネルを含む復号化されたオーディオ信号の第1チャンネルおよび第2チャンネルを得るために、第1チャンネルおよび第2チャンネルを含む符号化されたオーディオ信号を復号化するための方法であって、前記方法は、
前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域および前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域が、デュアル−モノ符号化を使用して符号化されたか、またはミッド−サイド符号化を使用して符号化されたかを、複数のスペクトル帯域の個々のスペクトル帯域毎に決定し、
デュアル−モノ符号化が使われていた場合、中間オーディオ信号の第1チャンネルのスペクトル帯域として、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域を使うと共に、前記中間オーディオ信号の第2チャンネルのスペクトル帯域として、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域を使い、
ミッド−サイド符号化が使われていた場合、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域に基づくと共に、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域に基づいて、前記中間オーディオ信号の前記第1チャンネルのスペクトル帯域を生成し、かつ、前記符号化されたオーディオ信号の前記第1チャンネルの前記スペクトル帯域に基づくと共に、前記符号化されたオーディオ信号の前記第2チャンネルの前記スペクトル帯域に基づいて、前記中間オーディオ信号の前記第2チャンネルのスペクトル帯域を生成し、そして、
復号化されたオーディオ信号の前記第1チャンネルおよび前記第2チャンネルを得るために、非正規化値に依存して、前記中間オーディオ信号の前記第1チャンネルおよび前記第2チャンネルのうちの最低1つを変調することを含むこと、
を特徴とする方法。 - コンピュータまたは信号プロセッサにおいて実行されるとき、請求項37または請求項38の方法を実行するためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023078313A JP2023109851A (ja) | 2016-01-22 | 2023-05-11 | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16152457 | 2016-01-22 | ||
EP16152457.4 | 2016-01-22 | ||
EP16152454.1 | 2016-01-22 | ||
EP16152454 | 2016-01-22 | ||
EP16199895 | 2016-11-21 | ||
EP16199895.0 | 2016-11-21 | ||
JP2018538111A JP6864378B2 (ja) | 2016-01-22 | 2017-01-20 | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018538111A Division JP6864378B2 (ja) | 2016-01-22 | 2017-01-20 | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023078313A Division JP2023109851A (ja) | 2016-01-22 | 2023-05-11 | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021119383A true JP2021119383A (ja) | 2021-08-12 |
JP7280306B2 JP7280306B2 (ja) | 2023-05-23 |
Family
ID=57860879
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018538111A Active JP6864378B2 (ja) | 2016-01-22 | 2017-01-20 | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 |
JP2021052602A Active JP7280306B2 (ja) | 2016-01-22 | 2021-03-26 | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 |
JP2023078313A Pending JP2023109851A (ja) | 2016-01-22 | 2023-05-11 | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018538111A Active JP6864378B2 (ja) | 2016-01-22 | 2017-01-20 | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023078313A Pending JP2023109851A (ja) | 2016-01-22 | 2023-05-11 | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 |
Country Status (18)
Country | Link |
---|---|
US (2) | US11842742B2 (ja) |
EP (2) | EP4123645A1 (ja) |
JP (3) | JP6864378B2 (ja) |
KR (1) | KR102230668B1 (ja) |
CN (2) | CN109074812B (ja) |
AU (1) | AU2017208561B2 (ja) |
BR (1) | BR112018014813A2 (ja) |
CA (1) | CA3011883C (ja) |
ES (1) | ES2932053T3 (ja) |
FI (1) | FI3405950T3 (ja) |
MX (1) | MX2018008886A (ja) |
MY (1) | MY188905A (ja) |
PL (1) | PL3405950T3 (ja) |
RU (1) | RU2713613C1 (ja) |
SG (1) | SG11201806256SA (ja) |
TW (1) | TWI669704B (ja) |
WO (1) | WO2017125544A1 (ja) |
ZA (1) | ZA201804866B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023153228A1 (ja) * | 2022-02-08 | 2023-08-17 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、及び、符号化方法 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10734001B2 (en) * | 2017-10-05 | 2020-08-04 | Qualcomm Incorporated | Encoding or decoding of audio signals |
CN110556116B (zh) * | 2018-05-31 | 2021-10-22 | 华为技术有限公司 | 计算下混信号和残差信号的方法和装置 |
CN115132214A (zh) | 2018-06-29 | 2022-09-30 | 华为技术有限公司 | 立体声信号的编码、解码方法、编码装置和解码装置 |
SG11202012936VA (en) | 2018-07-04 | 2021-01-28 | Fraunhofer Ges Forschung | Multisignal audio coding using signal whitening as preprocessing |
BR112021012753A2 (pt) | 2019-01-13 | 2021-09-08 | Huawei Technologies Co., Ltd. | Método implementado por computador para codificação de áudio, dispositivo eletrônico e meio legível por computador não transitório |
DE102020210917B4 (de) | 2019-08-30 | 2023-10-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | Verbesserter M/S-Stereo-Codierer und -Decodierer |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0895599A (ja) * | 1994-05-06 | 1996-04-12 | Nippon Telegr & Teleph Corp <Ntt> | 信号の符号化方法と復号方法及びそれを使った符号器及び復号器 |
JP2010530079A (ja) * | 2007-06-11 | 2010-09-02 | フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー | インパルス状の部分と定常部分とを有するオーディオ信号を符号化するオーディオ符号器、符号化方法、復号器、復号化方法、および符号化されたオーディオ信号 |
JP2012521012A (ja) * | 2009-03-17 | 2012-09-10 | ドルビー インターナショナル アーベー | 適応的に選択可能な左/右又はミッド/サイド・ステレオ符号化及びパラメトリック・ステレオ符号化の組み合わせに基づいた高度ステレオ符号化 |
JP2013524281A (ja) * | 2010-04-09 | 2013-06-17 | ドルビー・インターナショナル・アーベー | Mdctベース複素予測ステレオ符号化 |
JP2014510306A (ja) * | 2011-02-14 | 2014-04-24 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | スペクトル領域ノイズ整形を使用する線形予測ベースコーディングスキーム |
JP2015535620A (ja) * | 2013-07-22 | 2015-12-14 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 時間雑音/パッチ整形を用いる符号化オーディオ信号の符号化および復号化装置および方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19628293C1 (de) * | 1996-07-12 | 1997-12-11 | Fraunhofer Ges Forschung | Codieren und Decodieren von Audiosignalen unter Verwendung von Intensity-Stereo und Prädiktion |
US6370502B1 (en) * | 1999-05-27 | 2002-04-09 | America Online, Inc. | Method and system for reduction of quantization-induced block-discontinuities and general purpose audio codec |
DE19959156C2 (de) * | 1999-12-08 | 2002-01-31 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Verarbeiten eines zu codierenden Stereoaudiosignals |
ATE378677T1 (de) | 2004-03-12 | 2007-11-15 | Nokia Corp | Synthese eines mono-audiosignals aus einem mehrkanal-audiosignal |
US8041042B2 (en) * | 2006-11-30 | 2011-10-18 | Nokia Corporation | Method, system, apparatus and computer program product for stereo coding |
CA2716926C (en) | 2008-03-04 | 2014-08-26 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus for mixing a plurality of input data streams |
EP2144231A1 (en) * | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme with common preprocessing |
DE102010014599A1 (de) | 2010-04-09 | 2010-11-18 | Continental Automotive Gmbh | Luftmassenmesser |
EP2375409A1 (en) * | 2010-04-09 | 2011-10-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder, audio decoder and related methods for processing multi-channel audio signals using complex prediction |
US10121481B2 (en) * | 2011-03-04 | 2018-11-06 | Telefonaktiebolaget Lm Ericsson (Publ) | Post-quantization gain correction in audio coding |
US8654984B2 (en) * | 2011-04-26 | 2014-02-18 | Skype | Processing stereophonic audio signals |
CN104050969A (zh) | 2013-03-14 | 2014-09-17 | 杜比实验室特许公司 | 空间舒适噪声 |
CN110992964B (zh) * | 2014-07-01 | 2023-10-13 | 韩国电子通信研究院 | 处理多信道音频信号的方法和装置 |
US10152977B2 (en) * | 2015-11-20 | 2018-12-11 | Qualcomm Incorporated | Encoding of multiple audio signals |
US10115403B2 (en) * | 2015-12-18 | 2018-10-30 | Qualcomm Incorporated | Encoding of multiple audio signals |
-
2017
- 2017-01-20 SG SG11201806256SA patent/SG11201806256SA/en unknown
- 2017-01-20 EP EP22191567.1A patent/EP4123645A1/en active Pending
- 2017-01-20 FI FIEP17700980.0T patent/FI3405950T3/fi active
- 2017-01-20 CA CA3011883A patent/CA3011883C/en active Active
- 2017-01-20 MY MYPI2018001322A patent/MY188905A/en unknown
- 2017-01-20 AU AU2017208561A patent/AU2017208561B2/en active Active
- 2017-01-20 MX MX2018008886A patent/MX2018008886A/es unknown
- 2017-01-20 CN CN201780012788.XA patent/CN109074812B/zh active Active
- 2017-01-20 EP EP17700980.0A patent/EP3405950B1/en active Active
- 2017-01-20 CN CN202311493628.5A patent/CN117542365A/zh active Pending
- 2017-01-20 JP JP2018538111A patent/JP6864378B2/ja active Active
- 2017-01-20 ES ES17700980T patent/ES2932053T3/es active Active
- 2017-01-20 KR KR1020187022988A patent/KR102230668B1/ko active IP Right Grant
- 2017-01-20 WO PCT/EP2017/051177 patent/WO2017125544A1/en active Application Filing
- 2017-01-20 BR BR112018014813A patent/BR112018014813A2/pt active Search and Examination
- 2017-01-20 RU RU2018130149A patent/RU2713613C1/ru active
- 2017-01-20 PL PL17700980.0T patent/PL3405950T3/pl unknown
- 2017-01-23 TW TW106102400A patent/TWI669704B/zh active
-
2018
- 2018-07-19 ZA ZA2018/04866A patent/ZA201804866B/en unknown
- 2018-07-20 US US16/041,691 patent/US11842742B2/en active Active
-
2021
- 2021-03-26 JP JP2021052602A patent/JP7280306B2/ja active Active
-
2023
- 2023-05-11 JP JP2023078313A patent/JP2023109851A/ja active Pending
- 2023-10-30 US US18/497,703 patent/US20240071395A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0895599A (ja) * | 1994-05-06 | 1996-04-12 | Nippon Telegr & Teleph Corp <Ntt> | 信号の符号化方法と復号方法及びそれを使った符号器及び復号器 |
JP2010530079A (ja) * | 2007-06-11 | 2010-09-02 | フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー | インパルス状の部分と定常部分とを有するオーディオ信号を符号化するオーディオ符号器、符号化方法、復号器、復号化方法、および符号化されたオーディオ信号 |
JP2012521012A (ja) * | 2009-03-17 | 2012-09-10 | ドルビー インターナショナル アーベー | 適応的に選択可能な左/右又はミッド/サイド・ステレオ符号化及びパラメトリック・ステレオ符号化の組み合わせに基づいた高度ステレオ符号化 |
JP2013524281A (ja) * | 2010-04-09 | 2013-06-17 | ドルビー・インターナショナル・アーベー | Mdctベース複素予測ステレオ符号化 |
JP2014510306A (ja) * | 2011-02-14 | 2014-04-24 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | スペクトル領域ノイズ整形を使用する線形予測ベースコーディングスキーム |
JP2015535620A (ja) * | 2013-07-22 | 2015-12-14 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 時間雑音/パッチ整形を用いる符号化オーディオ信号の符号化および復号化装置および方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023153228A1 (ja) * | 2022-02-08 | 2023-08-17 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、及び、符号化方法 |
Also Published As
Publication number | Publication date |
---|---|
CA3011883A1 (en) | 2017-07-27 |
AU2017208561B2 (en) | 2020-04-16 |
BR112018014813A2 (pt) | 2018-12-18 |
US11842742B2 (en) | 2023-12-12 |
KR20180103102A (ko) | 2018-09-18 |
TW201732780A (zh) | 2017-09-16 |
TWI669704B (zh) | 2019-08-21 |
FI3405950T3 (fi) | 2022-12-15 |
JP7280306B2 (ja) | 2023-05-23 |
CA3011883C (en) | 2020-10-27 |
US20180330740A1 (en) | 2018-11-15 |
EP4123645A1 (en) | 2023-01-25 |
JP2019506633A (ja) | 2019-03-07 |
EP3405950B1 (en) | 2022-09-28 |
ES2932053T3 (es) | 2023-01-09 |
CN109074812A (zh) | 2018-12-21 |
CN109074812B (zh) | 2023-11-17 |
PL3405950T3 (pl) | 2023-01-30 |
JP6864378B2 (ja) | 2021-04-28 |
MY188905A (en) | 2022-01-13 |
US20240071395A1 (en) | 2024-02-29 |
KR102230668B1 (ko) | 2021-03-22 |
ZA201804866B (en) | 2019-04-24 |
EP3405950A1 (en) | 2018-11-28 |
JP2023109851A (ja) | 2023-08-08 |
RU2713613C1 (ru) | 2020-02-05 |
AU2017208561A1 (en) | 2018-08-09 |
CN117542365A (zh) | 2024-02-09 |
MX2018008886A (es) | 2018-11-09 |
WO2017125544A1 (en) | 2017-07-27 |
SG11201806256SA (en) | 2018-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10984806B2 (en) | Method and system for encoding a stereo sound signal using coding parameters of a primary channel to encode a secondary channel | |
JP6864378B2 (ja) | 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法 | |
JP6735053B2 (ja) | マルチチャネル符号化におけるステレオ充填装置及び方法 | |
KR101657916B1 (ko) | 멀티채널 다운믹스/업믹스의 경우에 대한 일반화된 공간적 오디오 객체 코딩 파라미터 개념을 위한 디코더 및 방법 | |
CA2956019A1 (en) | Method for estimating noise in an audio signal, noise estimator, audio encoder, audio decoder, and system for transmitting audio signals | |
US20210027794A1 (en) | Method and system for decoding left and right channels of a stereo sound signal | |
Li et al. | Efficient stereo bitrate allocation for fully scalable audio codec | |
KR20090037806A (ko) | 가변 서브밴드 분석을 이용한 부호화와 복호화 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210426 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7280306 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |