JP6798048B2 - 時間領域チャンネル間予測 - Google Patents
時間領域チャンネル間予測 Download PDFInfo
- Publication number
- JP6798048B2 JP6798048B2 JP2019571621A JP2019571621A JP6798048B2 JP 6798048 B2 JP6798048 B2 JP 6798048B2 JP 2019571621 A JP2019571621 A JP 2019571621A JP 2019571621 A JP2019571621 A JP 2019571621A JP 6798048 B2 JP6798048 B2 JP 6798048B2
- Authority
- JP
- Japan
- Prior art keywords
- channel
- midchannel
- band
- predicted
- decoded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 61
- 238000013507 mapping Methods 0.000 claims description 20
- 238000001228 spectrum Methods 0.000 claims description 14
- 230000003044 adaptive effect Effects 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 12
- 230000003595 spectral effect Effects 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000002123 temporal effect Effects 0.000 description 80
- 230000005236 sound signal Effects 0.000 description 78
- 230000000875 corresponding effect Effects 0.000 description 11
- 230000001364 causal effect Effects 0.000 description 10
- 230000003111 delayed effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 230000005284 excitation Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004091 panning Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000010363 phase shift Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000027311 M phase Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Stereophonic System (AREA)
Description
M=(L+R)/2、 S=(L−R)/2、 式1
[0023]ここで、Mはミッドチャンネルに対応し、Sはサイドチャンネルに対応し、Lは左チャンネルに対応し、Rは右チャンネルに対応する。
M=c(L+R)、 S=c(L−R)、 式2
[0025]ここで、cは、周波数依存である複素数値に対応する。式1または式2に基づいて、ミッドチャンネルおよびサイドチャンネルを生成することは、「ダウンミキシング(downmixing)」と呼ばれ得る。式1または式2に基づいて、ミッドチャンネルおよびサイドチャンネルから、左チャンネルおよび右チャンネルを生成する逆のプロセスは、「アップミキシング(upmixing)」と呼ばれ得る。
M=(L+gDR)/2、または 式3
M=g1L+g2R 式4
[0027]ここで、g1+g2=1.0であり、ここで、gDは利得パラメータである。他の例では、ダウンミックスは、帯域において実行され得、ここで、mid(b)=c1L(b)+c2R(b)であり、ここで、c1およびc2は複素数であり、ここで、side(b)=c3L(b)−c4R(b)であり、ここで、c3およびc4は複素数である。
Mid=α*ch1+(1−α)*ch2 式5
そして、サイドチャンネル155は、次のように表され得る:
Side=(1−α)*ch1−α*ch2 式6、
[0052]ここで、αは、エンコーダ134ではダウンミックス係数およびデコーダ162ではアップミックス係数166に対応する。本明細書で使用される場合、αは、アップミックス係数166として説明される、しかしながら、エンコーダ134では、αは、チャンネル130、132をダウンミックスするために使用されるダウンミックス係数であることが理解されるべきである。アップミックス係数166は、0から1の間で変化し得る。アップミックス係数166が0.5である場合、エンコーダ134は、パッシブダウンミックスを実行する。アップミックス係数166が1に等しい場合、ミッドチャンネル154は、第1のオーディオチャンネル(ch1)130にマッピングされ、サイドチャンネル155は、負の第2のオーディオチャンネル(a negative of the second audio channel)132(例えば、−ch2)にマッピングされる。式5および式6では、チャンネル130、132は、非因果的シフトおよびターゲット利得が適用されるように、チャンネル間整合される(inter-channel aligned)。ミッドチャンネル154およびサイドチャンネル155は、コア(例えば、0〜6.4kHzまたは0〜8kHz)において波形コーディングされ、サイドチャンネル155と比べてより多くのビットがミッドチャンネル154をコーディングするために指定される。エンコーダ134は、符号化されたミッドチャンネル182を生成するために、ミッドチャンネルを符号化し得る。
Ch1=α*Mid_hat+(1−α)*(g_icp*Mid_filt+error_ICP_hat) 式7
Ch2=(1−α)*Mid_hat−α*(g_icp*Mid_filt+error_ICP_hat) 式8
1つのインプリメンテーションによると、第1のチャンネル(Ch1)が、低帯域左チャンネル248であり、第2のチャンネル(Ch2)が、低帯域右チャンネル250である。別のインプリメンテーションによると、第1のチャンネル(Ch1)が、低帯域右チャンネル250であり、第2のチャンネル(Ch2)が、低帯域左チャンネル248である。アップミックスプロセッサ224は、アップミックス動作中に、IIDパラメータ、ILDパラメータ、ITDパラメータ、IPDパラメータ、チャンネル間ボイシングパラメータ、チャンネル間ピッチパラメータ、およびチャンネル間利得パラメータを適用し得る。低帯域左チャンネル248は、組合せ回路228に提供され、低帯域右チャンネル250は、組合せ回路230に提供される。
Ch1=α*Mid_hat+(1−α)*Side_hat+ICP_1 式9
Ch2=(1−α)*Mid_hat−α*Side_hat+ICP_2 式10、
ここで、Side_hatは、復号されたサイドチャンネル(図示せず)に対応し、ここで、ICP_1は、α*(Mid−Mid_hat)+(1−α)*(Side−Side_hat)に対応し、ここで、ICP_2は、(1−α)*(Mid−Mid_hat)−α*(Side−Side_hat)に対応する。式9および式10によると、Mid−Mid_hatは、ミッドチャンネル154に比べて(relative to)、より無相関であり、より白色化される。加えて、Side−Side_hatは、Mid_hatから予測されるとともに、エンコーダ134において項ICP_1およびICP_2を低減させる。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1] 符号化されたミッドチャンネルと、チャンネル間予測利得とを含むビットストリームを受信するように構成された受信機と、
復号された低帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの低帯域部分を復号するように構成された低帯域ミッドチャンネルデコーダと、
低帯域フィルタリングされたミッドチャンネルを生成するために、1つまたは複数のフィルタ係数に従って、前記復号された低帯域ミッドチャンネルをフィルタリングするように構成された低帯域ミッドチャンネルフィルタと、
前記低帯域フィルタリングされたミッドチャンネルと、前記チャンネル間予測利得とに基づいて、チャンネル間予測された信号を生成するように構成されたチャンネル間予測器と、
アップミックス係数と、前記復号された低帯域ミッドチャンネルと、前記チャンネル間予測された信号とに基づいて、低帯域左チャンネルおよび低帯域右チャンネルを生成するように構成されたアップミックスプロセッサと、
復号された高帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの高帯域部分を復号するように構成された高帯域ミッドチャンネルデコーダと、
前記チャンネル間予測利得と、前記復号された高帯域ミッドチャンネルのフィルタリングされたバージョンとに基づいて、予測された高帯域サイドチャンネルを生成するように構成されたチャンネル間予測マッパーと、
前記復号された高帯域ミッドチャンネルと、前記予測された高帯域サイドチャンネルとに基づいて、高帯域左チャンネルおよび高帯域右チャンネルを生成するように構成されたチャンネル間帯域幅拡張デコーダと
を備えるデバイス。
[C2] 前記ビットストリームはまた、サイドチャンネル予測誤差のインジケーションを含み、前記低帯域左チャンネルおよび前記低帯域右チャンネルは、前記サイドチャンネル予測誤差に基づいてさらに生成される、C1に記載のデバイス。
[C3] 前記チャンネル間予測利得は、エンコーダ側のサイドチャンネルが、予測されたサイドチャンネルに実質的に等しくなるように、エンコーダにおいて閉ループ解析を使用して推定され、前記予測されたサイドチャンネルは、前記チャンネル間予測利得とエンコーダ側のフィルタリングされたミッドチャンネルとの積に基づく、C1に記載のデバイス。
[C4] エンコーダ側のミッドチャンネルが、前記エンコーダ側のフィルタリングされたミッドチャンネルを生成するために、前記1つまたは複数のフィルタ係数に従ってフィルタリングされる、C3に記載のデバイス。
[C5] 前記サイドチャンネル予測誤差は、前記エンコーダ側のサイドチャンネルと前記予測されたサイドチャンネルとの間の差に対応する、C3に記載のデバイス。
[C6] 前記チャンネル間予測利得は、エンコーダにおいて閉ループ解析を使用して推定され、これにより、エンコーダ側のサイドチャンネルの高周波部分が、予測されたサイドチャンネルの高周波部分に実質的に等しくなり、前記予測されたサイドチャンネルの前記高周波部分は、前記チャンネル間予測利得とエンコーダ側のミッドチャンネルの高周波部分との積に基づく、C1に記載のデバイス。
[C7] 前記低帯域フィルタリングされたミッドチャンネルは、前記復号された低帯域ミッドチャンネルの適応コードブック成分、または前記復号された低帯域ミッドチャンネルの帯域幅拡張されたバージョンを含む、C1に記載のデバイス。
[C8] 左チャンネルを生成するために、前記低帯域左チャンネルと前記高帯域左チャンネルを組み合わせるように構成された第1の組合せ回路と、
右チャンネルを生成するために、前記低帯域右チャンネルと前記高帯域右チャンネルを組み合わせるように構成された第2の組合せ回路と
をさらに備える、C1に記載のデバイス。
[C9] 前記左チャンネルおよび前記右チャンネルを出力するように構成された出力デバイスをさらに備える、C8に記載のデバイス。
[C10] 前記チャンネル間帯域幅拡張デコーダは、
高帯域残差チャンネルを生成するために、前記予測された高帯域サイドチャンネルに残差予測利得を適用するように構成された高帯域残差生成ユニットと、
高帯域基準チャンネルを生成するために、前記復号された高帯域ミッドチャンネルと前記高帯域残差チャンネルとを組み合わせるように構成された第3の組合せ回路と
を備える、C1に記載のデバイス。
[C11] 前記チャンネル間帯域幅拡張デコーダは、
スペクトル的にマッピングされた高帯域ミッドチャンネルを生成するために、前記復号された高帯域ミッドチャンネルに対して第1のスペクトルマッピング動作を実行するように構成された第1のスペクトルマッパーと、
第1の高帯域利得マッピングされたチャンネルを生成するために、前記スペクトル的にマッピングされた高帯域ミッドチャンネルに対して第1の利得マッピング動作を実行するように構成された第1の利得マッパーと
をさらに備える、C10に記載のデバイス。
[C12] 前記チャンネル間帯域幅拡張デコーダは、
スペクトル的にマッピングされた高帯域残差チャンネルを生成するために、前記高帯域残差チャンネルに対して第2のスペクトルマッピング動作を実行するように構成された第2のスペクトルマッパーと、
第2の高帯域利得マッピングされたチャンネルを生成するために、前記スペクトル的にマッピングされた高帯域残差チャンネルに対して第2の利得マッピング動作を実行するように構成された第2の利得マッパーと
をさらに備える、C11に記載のデバイス。
[C13] 前記チャンネル間帯域幅拡張デコーダは、
高帯域ターゲットチャンネルを生成するために、前記第1の高帯域利得マッピングされたチャンネルと前記第2の高帯域利得マッピングされたチャンネルとを組み合わせるように構成された第4の組合せ回路と、
基準チャンネルインジケータを受信することと、
前記基準チャンネルインジケータに基づいて、
前記高帯域左チャンネルとして、前記高帯域基準チャンネルまたは前記高帯域ターゲットチャンネルのうちの一方を指定することと、
前記高帯域右チャンネルとして、前記高帯域基準チャンネルまたは前記高帯域ターゲットチャンネルのうちの他方を指定することと
を行うように構成されたチャンネルセレクタと
をさらに備える、C12に記載のデバイス。
[C14] 前記復号された高帯域ミッドチャンネルの前記フィルタリングされたバージョンを生成するために、前記復号された高帯域ミッドチャンネルをフィルタリングするように構成された高帯域ミッドチャンネルフィルタをさらに備える、C1に記載のデバイス。
[C15] 前記高帯域ミッドチャンネルフィルタおよび前記低帯域ミッドチャンネルフィルタは、単一の構成要素に一体化される、C14に記載のデバイス。
[C16] 前記低帯域ミッドチャンネルデコーダ、前記ミッドチャンネルデコーダ、前記ミッドチャンネルフィルタ、前記アップミックスプロセッサ、前記高帯域ミッドチャンネルデコーダ、前記チャンネル間予測マッパー、および前記チャンネル間帯域幅拡張デコーダは、基地局に一体化される、C1に記載のデバイス。
[C17] 前記低帯域ミッドチャンネルデコーダ、前記ミッドチャンネルデコーダ、前記ミッドチャンネルフィルタ、前記アップミックスプロセッサ、前記高帯域ミッドチャンネルデコーダ、前記チャンネル間予測マッパー、および前記チャンネル間帯域幅拡張デコーダは、モバイルデバイスに一体化される、C1に記載のデバイス。
[C18] 符号化されたミッドチャンネルと、チャンネル間予測利得とを含むビットストリームを受信することと、
復号された低帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの低帯域部分を復号することと、
低帯域フィルタリングされたミッドチャンネルを生成するために、1つまたは複数のフィルタ係数に従って、前記復号された低帯域ミッドチャンネルをフィルタリングすることと、
前記低帯域フィルタリングされたミッドチャンネルと、前記チャンネル間予測利得とに基づいて、チャンネル間予測された信号を生成することと、
アップミックス係数と、前記復号された低帯域ミッドチャンネルと、前記チャンネル間予測された信号とに基づいて、低帯域左チャンネルおよび低帯域右チャンネルを生成することと、
復号された高帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの高帯域部分を復号することと、
前記チャンネル間予測利得と、前記復号された高帯域ミッドチャンネルのフィルタリングされたバージョンとに基づいて、予測された高帯域サイドチャンネルを生成することと、
前記復号された高帯域ミッドチャンネルと、前記予測された高帯域サイドチャンネルとに基づいて、高帯域左チャンネルおよび高帯域右チャンネルを生成することと
を備える方法。
[C19] 前記チャンネル間予測利得は、エンコーダ側のサイドチャンネルが、予測されたサイドチャンネルに実質的に等しくなるように、エンコーダにおいて閉ループ解析を使用して推定され、前記予測されたサイドチャンネルは、前記チャンネル間予測利得とエンコーダ側のフィルタリングされたミッドチャンネルとの積に基づく、C18に記載の方法。
[C20] エンコーダ側のミッドチャンネルが、前記エンコーダ側のフィルタリングされたミッドチャンネルを生成するために、前記1つまたは複数のフィルタ係数に従ってフィルタリングされる、C19に記載の方法。
[C21] 前記サイドチャンネル予測誤差は、前記エンコーダ側のサイドチャンネルと前記予測されたサイドチャンネルとの間の差に対応する、C19に記載の方法。
[C22] 前記チャンネル間予測利得は、エンコーダにおいて閉ループ解析を使用して推定され、これにより、エンコーダ側のサイドチャンネルの高周波部分が、予測されたサイドチャンネルの高周波部分に実質的に等しくなり、前記予測されたサイドチャンネルの前記高周波部分は、前記チャンネル間予測利得とエンコーダ側のミッドチャンネルの高周波部分との積に基づく、C18に記載の方法。
[C23] 前記低帯域フィルタリングされたミッドチャンネルは、前記復号された低帯域ミッドチャンネルの適応コードブック成分、または前記復号された低帯域ミッドチャンネルの帯域幅拡張されたバージョンを含む、C18に記載の方法。
[C24] 左チャンネルを生成するために、前記低帯域左チャンネルと前記高帯域左チャンネルを組み合わせることと、
右チャンネルを生成するために、前記低帯域右チャンネルと前記高帯域右チャンネルを組み合わせることと
をさらに備える、C18に記載の方法。
[C25] 前記左チャンネルおよび前記右チャンネルを出力することをさらに備える、C24に記載の方法。
[C26] 前記低帯域左チャンネルおよび前記低帯域右チャンネルを生成することは、基地局において実行される、C18に記載の方法。
[C27] 前記低帯域左チャンネルおよび前記低帯域右チャンネルを生成することは、モバイルデバイスにおいて実行される、C18に記載の方法。
[C28] 命令を備える非一時的なコンピュータ可読媒体であって、前記命令は、デコーダ内のプロセッサによって実行されると、前記プロセッサに、
符号化されたミッドチャンネルと、チャンネル間予測利得とを含むビットストリームを受信することと、
復号された低帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの低帯域部分を復号することと、
低帯域フィルタリングされたミッドチャンネルを生成するために、1つまたは複数のフィルタ係数に従って、前記復号された低帯域ミッドチャンネルをフィルタリングすることと、
前記低帯域フィルタリングされたミッドチャンネルと、前記チャンネル間予測利得とに基づいて、チャンネル間予測された信号を生成することと、
アップミックス係数と、前記復号された低帯域ミッドチャンネルと、前記チャンネル間予測された信号とに基づいて、低帯域左チャンネルおよび低帯域右チャンネルを生成することと、
復号された高帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの高帯域部分を復号することと、
前記チャンネル間予測利得と、前記復号された高帯域ミッドチャンネルのフィルタリングされたバージョンとに基づいて、予測された高帯域サイドチャンネルを生成することと、
前記復号された高帯域ミッドチャンネルと、前記予測された高帯域サイドチャンネルとに基づいて、高帯域左チャンネルおよび高帯域右チャンネルを生成することと
を備える動作を実行させる、非一時的なコンピュータ可読媒体。
[C29] 符号化されたミッドチャンネルと、チャンネル間予測利得とを含むビットストリームを受信するための手段と、
復号された低帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの低帯域部分を復号するための手段と、
低帯域フィルタリングされたミッドチャンネルを生成するために、1つまたは複数のフィルタ係数に従って、前記復号された低帯域ミッドチャンネルをフィルタリングするための手段と、
前記低帯域フィルタリングされたミッドチャンネルと、前記チャンネル間予測利得とに基づいて、チャンネル間予測された信号を生成するための手段と、
アップミックス係数と、前記復号された低帯域ミッドチャンネルと、前記チャンネル間予測された信号とに基づいて、低帯域左チャンネルおよび低帯域右チャンネルを生成するための手段と、
復号された高帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの高帯域部分を復号するための手段と、
前記チャンネル間予測利得と、前記復号された高帯域ミッドチャンネルのフィルタリングされたバージョンとに基づいて、予測された高帯域サイドチャンネルを生成するための手段と、
前記復号された高帯域ミッドチャンネルと、前記予測された高帯域サイドチャンネルとに基づいて、高帯域左チャンネルおよび高帯域右チャンネルを生成するための手段と
を備える装置。
[C30] 前記ビットストリームはまた、サイドチャンネル予測誤差のインジケーションを含み、前記低帯域左チャンネルおよび前記低帯域右チャンネルは、前記サイドチャンネル予測誤差に基づいてさらに生成される、C29に記載の装置。
Claims (30)
- 符号化されたミッドチャンネルと、チャンネル間予測利得とを含むビットストリームを受信するように構成された受信機と、
復号された低帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの低帯域部分を復号するように構成された低帯域ミッドチャンネルデコーダと、
低帯域フィルタリングされたミッドチャンネルを生成するために、1つまたは複数のフィルタ係数に従って、前記復号された低帯域ミッドチャンネルをフィルタリングするように構成された低帯域ミッドチャンネルフィルタと、
前記低帯域フィルタリングされたミッドチャンネルと、前記チャンネル間予測利得とに基づいて、チャンネル間予測された信号を生成するように構成されたチャンネル間予測器と、
アップミックス係数と、前記復号された低帯域ミッドチャンネルと、前記チャンネル間予測された信号とに基づいて、低帯域左チャンネルおよび低帯域右チャンネルを生成するように構成されたアップミックスプロセッサと、
復号された高帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの高帯域部分を復号するように構成された高帯域ミッドチャンネルデコーダと、
前記チャンネル間予測利得と、前記復号された高帯域ミッドチャンネルのフィルタリングされたバージョンとに基づいて、予測された高帯域サイドチャンネルを生成するように構成されたチャンネル間予測マッパーと、
前記復号された高帯域ミッドチャンネルと、前記予測された高帯域サイドチャンネルとに基づいて、高帯域左チャンネルおよび高帯域右チャンネルを生成するように構成されたチャンネル間帯域幅拡張デコーダと
を備えるデバイス。 - 前記ビットストリームはまた、サイドチャンネル予測誤差のインジケーションを含み、前記低帯域左チャンネルおよび前記低帯域右チャンネルは、前記サイドチャンネル予測誤差に基づいてさらに生成される、請求項1に記載のデバイス。
- 前記チャンネル間予測利得は、エンコーダ側のサイドチャンネルが、予測されたサイドチャンネルに実質的に等しくなるように、エンコーダにおいて閉ループ解析を使用して推定され、前記予測されたサイドチャンネルは、前記チャンネル間予測利得とエンコーダ側のフィルタリングされたミッドチャンネルとの積に基づく、請求項1に記載のデバイス。
- エンコーダ側のミッドチャンネルが、前記エンコーダ側のフィルタリングされたミッドチャンネルを生成するために、前記1つまたは複数のフィルタ係数に従ってフィルタリングされる、請求項3に記載のデバイス。
- 前記ビットストリームはまた、サイドチャンネル予測誤差のインジケーションを含み、
前記サイドチャンネル予測誤差は、前記エンコーダ側のサイドチャンネルと前記予測されたサイドチャンネルとの間の差に対応する、請求項3に記載のデバイス。 - 前記チャンネル間予測利得は、エンコーダにおいて閉ループ解析を使用して推定され、これにより、エンコーダ側のサイドチャンネルの高周波部分が、予測されたサイドチャンネルの高周波部分に実質的に等しくなり、前記予測されたサイドチャンネルの前記高周波部分は、前記チャンネル間予測利得とエンコーダ側のミッドチャンネルの高周波部分との積に基づく、請求項1に記載のデバイス。
- 前記低帯域フィルタリングされたミッドチャンネルは、前記復号された低帯域ミッドチャンネルの適応コードブック成分、または前記復号された低帯域ミッドチャンネルの帯域幅拡張されたバージョンを含む、請求項1に記載のデバイス。
- 左チャンネルを生成するために、前記低帯域左チャンネルと前記高帯域左チャンネルを組み合わせるように構成された第1の組合せ回路と、
右チャンネルを生成するために、前記低帯域右チャンネルと前記高帯域右チャンネルを組み合わせるように構成された第2の組合せ回路と
をさらに備える、請求項1に記載のデバイス。 - 前記左チャンネルおよび前記右チャンネルを出力するように構成された出力デバイスをさらに備える、請求項8に記載のデバイス。
- 前記チャンネル間帯域幅拡張デコーダは、
高帯域残差チャンネルを生成するために、前記予測された高帯域サイドチャンネルに残差予測利得を適用するように構成された高帯域残差生成ユニットと、
高帯域基準チャンネルを生成するために、前記復号された高帯域ミッドチャンネルと前記高帯域残差チャンネルとを組み合わせるように構成された第3の組合せ回路と
を備える、請求項1に記載のデバイス。 - 前記チャンネル間帯域幅拡張デコーダは、
スペクトル的にマッピングされた高帯域ミッドチャンネルを生成するために、前記復号された高帯域ミッドチャンネルに対して第1のスペクトルマッピング動作を実行するように構成された第1のスペクトルマッパーと、
第1の高帯域利得マッピングされたチャンネルを生成するために、前記スペクトル的にマッピングされた高帯域ミッドチャンネルに対して第1の利得マッピング動作を実行するように構成された第1の利得マッパーと
をさらに備える、請求項10に記載のデバイス。 - 前記チャンネル間帯域幅拡張デコーダは、
スペクトル的にマッピングされた高帯域残差チャンネルを生成するために、前記高帯域残差チャンネルに対して第2のスペクトルマッピング動作を実行するように構成された第2のスペクトルマッパーと、
第2の高帯域利得マッピングされたチャンネルを生成するために、前記スペクトル的にマッピングされた高帯域残差チャンネルに対して第2の利得マッピング動作を実行するように構成された第2の利得マッパーと
をさらに備える、請求項11に記載のデバイス。 - 前記チャンネル間帯域幅拡張デコーダは、
高帯域ターゲットチャンネルを生成するために、前記第1の高帯域利得マッピングされたチャンネルと前記第2の高帯域利得マッピングされたチャンネルとを組み合わせるように構成された第4の組合せ回路と、
基準チャンネルインジケータを受信することと、
前記基準チャンネルインジケータに基づいて、
前記高帯域左チャンネルとして、前記高帯域基準チャンネルまたは前記高帯域ターゲットチャンネルのうちの一方を指定することと、
前記高帯域右チャンネルとして、前記高帯域基準チャンネルまたは前記高帯域ターゲットチャンネルのうちの他方を指定することと
を行うように構成されたチャンネルセレクタと
をさらに備える、請求項12に記載のデバイス。 - 前記復号された高帯域ミッドチャンネルの前記フィルタリングされたバージョンを生成するために、前記復号された高帯域ミッドチャンネルをフィルタリングするように構成された高帯域ミッドチャンネルフィルタをさらに備える、請求項1に記載のデバイス。
- 前記高帯域ミッドチャンネルフィルタおよび前記低帯域ミッドチャンネルフィルタは、単一の構成要素に一体化される、請求項14に記載のデバイス。
- 前記低帯域ミッドチャンネルデコーダ、前記ミッドチャンネルフィルタ、前記アップミックスプロセッサ、前記高帯域ミッドチャンネルデコーダ、前記チャンネル間予測マッパー、および前記チャンネル間帯域幅拡張デコーダは、基地局に一体化される、請求項1に記載のデバイス。
- 前記低帯域ミッドチャンネルデコーダ、前記ミッドチャンネルフィルタ、前記アップミックスプロセッサ、前記高帯域ミッドチャンネルデコーダ、前記チャンネル間予測マッパー、および前記チャンネル間帯域幅拡張デコーダは、モバイルデバイスに一体化される、請求項1に記載のデバイス。
- 符号化されたミッドチャンネルと、チャンネル間予測利得とを含むビットストリームを受信することと、
復号された低帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの低帯域部分を復号することと、
低帯域フィルタリングされたミッドチャンネルを生成するために、1つまたは複数のフィルタ係数に従って、前記復号された低帯域ミッドチャンネルをフィルタリングすることと、
前記低帯域フィルタリングされたミッドチャンネルと、前記チャンネル間予測利得とに基づいて、チャンネル間予測された信号を生成することと、
アップミックス係数と、前記復号された低帯域ミッドチャンネルと、前記チャンネル間予測された信号とに基づいて、低帯域左チャンネルおよび低帯域右チャンネルを生成することと、
復号された高帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの高帯域部分を復号することと、
前記チャンネル間予測利得と、前記復号された高帯域ミッドチャンネルのフィルタリングされたバージョンとに基づいて、予測された高帯域サイドチャンネルを生成することと、
前記復号された高帯域ミッドチャンネルと、前記予測された高帯域サイドチャンネルとに基づいて、高帯域左チャンネルおよび高帯域右チャンネルを生成することと
を備える方法。 - 前記チャンネル間予測利得は、エンコーダ側のサイドチャンネルが、予測されたサイドチャンネルに実質的に等しくなるように、エンコーダにおいて閉ループ解析を使用して推定され、前記予測されたサイドチャンネルは、前記チャンネル間予測利得とエンコーダ側のフィルタリングされたミッドチャンネルとの積に基づく、請求項18に記載の方法。
- エンコーダ側のミッドチャンネルが、前記エンコーダ側のフィルタリングされたミッドチャンネルを生成するために、前記1つまたは複数のフィルタ係数に従ってフィルタリングされる、請求項19に記載の方法。
- 前記ビットストリームはまた、サイドチャンネル予測誤差のインジケーションを含み、
前記サイドチャンネル予測誤差は、前記エンコーダ側のサイドチャンネルと前記予測されたサイドチャンネルとの間の差に対応する、請求項19に記載の方法。 - 前記チャンネル間予測利得は、エンコーダにおいて閉ループ解析を使用して推定され、これにより、エンコーダ側のサイドチャンネルの高周波部分が、予測されたサイドチャンネルの高周波部分に実質的に等しくなり、前記予測されたサイドチャンネルの前記高周波部分は、前記チャンネル間予測利得とエンコーダ側のミッドチャンネルの高周波部分との積に基づく、請求項18に記載の方法。
- 前記低帯域フィルタリングされたミッドチャンネルは、前記復号された低帯域ミッドチャンネルの適応コードブック成分、または前記復号された低帯域ミッドチャンネルの帯域幅拡張されたバージョンを含む、請求項18に記載の方法。
- 左チャンネルを生成するために、前記低帯域左チャンネルと前記高帯域左チャンネルを組み合わせることと、
右チャンネルを生成するために、前記低帯域右チャンネルと前記高帯域右チャンネルを組み合わせることと
をさらに備える、請求項18に記載の方法。 - 前記左チャンネルおよび前記右チャンネルを出力することをさらに備える、請求項24に記載の方法。
- 前記低帯域左チャンネルおよび前記低帯域右チャンネルを生成することは、基地局において実行される、請求項18に記載の方法。
- 前記低帯域左チャンネルおよび前記低帯域右チャンネルを生成することは、モバイルデバイスにおいて実行される、請求項18に記載の方法。
- 命令を備える非一時的なコンピュータ可読媒体であって、前記命令は、デコーダ内のプロセッサによって実行されると、前記プロセッサに、
符号化されたミッドチャンネルと、チャンネル間予測利得とを含むビットストリームを受信することと、
復号された低帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの低帯域部分を復号することと、
低帯域フィルタリングされたミッドチャンネルを生成するために、1つまたは複数のフィルタ係数に従って、前記復号された低帯域ミッドチャンネルをフィルタリングすることと、
前記低帯域フィルタリングされたミッドチャンネルと、前記チャンネル間予測利得とに基づいて、チャンネル間予測された信号を生成することと、
アップミックス係数と、前記復号された低帯域ミッドチャンネルと、前記チャンネル間予測された信号とに基づいて、低帯域左チャンネルおよび低帯域右チャンネルを生成することと、
復号された高帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの高帯域部分を復号することと、
前記チャンネル間予測利得と、前記復号された高帯域ミッドチャンネルのフィルタリングされたバージョンとに基づいて、予測された高帯域サイドチャンネルを生成することと、
前記復号された高帯域ミッドチャンネルと、前記予測された高帯域サイドチャンネルとに基づいて、高帯域左チャンネルおよび高帯域右チャンネルを生成することと
を備える動作を実行させる、非一時的なコンピュータ可読媒体。 - 符号化されたミッドチャンネルと、チャンネル間予測利得とを含むビットストリームを受信するための手段と、
復号された低帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの低帯域部分を復号するための手段と、
低帯域フィルタリングされたミッドチャンネルを生成するために、1つまたは複数のフィルタ係数に従って、前記復号された低帯域ミッドチャンネルをフィルタリングするための手段と、
前記低帯域フィルタリングされたミッドチャンネルと、前記チャンネル間予測利得とに基づいて、チャンネル間予測された信号を生成するための手段と、
アップミックス係数と、前記復号された低帯域ミッドチャンネルと、前記チャンネル間予測された信号とに基づいて、低帯域左チャンネルおよび低帯域右チャンネルを生成するための手段と、
復号された高帯域ミッドチャンネルを生成するために、前記符号化されたミッドチャンネルの高帯域部分を復号するための手段と、
前記チャンネル間予測利得と、前記復号された高帯域ミッドチャンネルのフィルタリングされたバージョンとに基づいて、予測された高帯域サイドチャンネルを生成するための手段と、
前記復号された高帯域ミッドチャンネルと、前記予測された高帯域サイドチャンネルとに基づいて、高帯域左チャンネルおよび高帯域右チャンネルを生成するための手段と
を備える装置。 - 前記ビットストリームはまた、サイドチャンネル予測誤差のインジケーションを含み、前記低帯域左チャンネルおよび前記低帯域右チャンネルは、前記サイドチャンネル予測誤差に基づいてさらに生成される、請求項29に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762528378P | 2017-07-03 | 2017-07-03 | |
US62/528,378 | 2017-07-03 | ||
US16/003,704 US10475457B2 (en) | 2017-07-03 | 2018-06-08 | Time-domain inter-channel prediction |
US16/003,704 | 2018-06-08 | ||
PCT/US2018/036869 WO2019009983A1 (en) | 2017-07-03 | 2018-06-11 | INTER-CHANNEL PREDICTION IN THE TIME DOMAIN |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020525835A JP2020525835A (ja) | 2020-08-27 |
JP6798048B2 true JP6798048B2 (ja) | 2020-12-09 |
Family
ID=64739063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571621A Active JP6798048B2 (ja) | 2017-07-03 | 2018-06-11 | 時間領域チャンネル間予測 |
Country Status (10)
Country | Link |
---|---|
US (2) | US10475457B2 (ja) |
EP (1) | EP3649639B1 (ja) |
JP (1) | JP6798048B2 (ja) |
KR (1) | KR102154461B1 (ja) |
CN (1) | CN110770825B (ja) |
AU (1) | AU2018297938B2 (ja) |
BR (1) | BR112019027202A2 (ja) |
ES (1) | ES2882904T3 (ja) |
TW (1) | TWI713853B (ja) |
WO (1) | WO2019009983A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10475457B2 (en) | 2017-07-03 | 2019-11-12 | Qualcomm Incorporated | Time-domain inter-channel prediction |
EP3618464A1 (en) * | 2018-08-30 | 2020-03-04 | Nokia Technologies Oy | Reproduction of parametric spatial audio using a soundbar |
US10764676B1 (en) * | 2019-09-17 | 2020-09-01 | Amazon Technologies, Inc. | Loudspeaker beamforming for improved spatial coverage |
CN116887815A (zh) | 2021-02-12 | 2023-10-13 | 美德阿利克斯株式会社 | 难吸收性药物的吸收性得到改善的组合物 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE519981C2 (sv) * | 2000-09-15 | 2003-05-06 | Ericsson Telefon Ab L M | Kodning och avkodning av signaler från flera kanaler |
KR101218776B1 (ko) * | 2006-01-11 | 2013-01-18 | 삼성전자주식회사 | 다운믹스된 신호로부터 멀티채널 신호 생성방법 및 그 기록매체 |
US7831434B2 (en) * | 2006-01-20 | 2010-11-09 | Microsoft Corporation | Complex-transform channel coding with extended-band frequency coding |
JP5413839B2 (ja) | 2007-10-31 | 2014-02-12 | パナソニック株式会社 | 符号化装置および復号装置 |
CA3097372C (en) * | 2010-04-09 | 2021-11-30 | Dolby International Ab | Mdct-based complex prediction stereo coding |
US9443534B2 (en) * | 2010-04-14 | 2016-09-13 | Huawei Technologies Co., Ltd. | Bandwidth extension system and approach |
JP5895050B2 (ja) * | 2011-06-24 | 2016-03-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 符号化された多チャンネルオーディオ信号を処理するオーディオ信号プロセッサ及びその方法 |
US8977902B2 (en) * | 2012-10-24 | 2015-03-10 | International Business Machines Corporation | Integrity checking including side channel monitoring |
CN103928031B (zh) * | 2013-01-15 | 2016-03-30 | 华为技术有限公司 | 编码方法、解码方法、编码装置和解码装置 |
IN2015MN02784A (ja) | 2013-04-05 | 2015-10-23 | Dolby Int Ab | |
CN104517610B (zh) * | 2013-09-26 | 2018-03-06 | 华为技术有限公司 | 频带扩展的方法及装置 |
US9384746B2 (en) | 2013-10-14 | 2016-07-05 | Qualcomm Incorporated | Systems and methods of energy-scaled signal processing |
EP3067886A1 (en) | 2015-03-09 | 2016-09-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal |
WO2017125559A1 (en) * | 2016-01-22 | 2017-07-27 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatuses and methods for encoding or decoding an audio multi-channel signal using spectral-domain resampling |
US10224045B2 (en) * | 2017-05-11 | 2019-03-05 | Qualcomm Incorporated | Stereo parameters for stereo decoding |
US10475457B2 (en) | 2017-07-03 | 2019-11-12 | Qualcomm Incorporated | Time-domain inter-channel prediction |
-
2018
- 2018-06-08 US US16/003,704 patent/US10475457B2/en active Active
- 2018-06-11 AU AU2018297938A patent/AU2018297938B2/en active Active
- 2018-06-11 KR KR1020197038701A patent/KR102154461B1/ko active IP Right Grant
- 2018-06-11 BR BR112019027202-0A patent/BR112019027202A2/pt unknown
- 2018-06-11 CN CN201880041280.7A patent/CN110770825B/zh active Active
- 2018-06-11 EP EP18735136.6A patent/EP3649639B1/en active Active
- 2018-06-11 JP JP2019571621A patent/JP6798048B2/ja active Active
- 2018-06-11 ES ES18735136T patent/ES2882904T3/es active Active
- 2018-06-11 WO PCT/US2018/036869 patent/WO2019009983A1/en unknown
- 2018-06-12 TW TW107120169A patent/TWI713853B/zh active
-
2019
- 2019-09-19 US US16/576,401 patent/US10885922B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10885922B2 (en) | 2021-01-05 |
ES2882904T3 (es) | 2021-12-03 |
KR102154461B1 (ko) | 2020-09-09 |
TWI713853B (zh) | 2020-12-21 |
US20190005970A1 (en) | 2019-01-03 |
WO2019009983A1 (en) | 2019-01-10 |
CN110770825A (zh) | 2020-02-07 |
BR112019027202A2 (pt) | 2020-06-30 |
US20200013416A1 (en) | 2020-01-09 |
KR20200004436A (ko) | 2020-01-13 |
AU2018297938B2 (en) | 2021-05-20 |
JP2020525835A (ja) | 2020-08-27 |
EP3649639B1 (en) | 2021-07-21 |
CN110770825B (zh) | 2020-12-01 |
EP3649639A1 (en) | 2020-05-13 |
US10475457B2 (en) | 2019-11-12 |
TW201907730A (zh) | 2019-02-16 |
AU2018297938A1 (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102230623B1 (ko) | 다중의 오디오 신호들의 인코딩 | |
KR102628065B1 (ko) | 스테레오 디코딩을 위한 스테레오 파라미터들 | |
US10885922B2 (en) | Time-domain inter-channel prediction | |
US10885925B2 (en) | High-band residual prediction with time-domain inter-channel bandwidth extension | |
KR102581558B1 (ko) | 채널간 위상차 파라미터 수정 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200220 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200220 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6798048 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |