JP5978218B2 - 低ビットレート低遅延の一般オーディオ信号の符号化 - Google Patents
低ビットレート低遅延の一般オーディオ信号の符号化 Download PDFInfo
- Publication number
- JP5978218B2 JP5978218B2 JP2013535216A JP2013535216A JP5978218B2 JP 5978218 B2 JP5978218 B2 JP 5978218B2 JP 2013535216 A JP2013535216 A JP 2013535216A JP 2013535216 A JP2013535216 A JP 2013535216A JP 5978218 B2 JP5978218 B2 JP 5978218B2
- Authority
- JP
- Japan
- Prior art keywords
- frequency
- domain
- time domain
- mixed
- sound signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 title claims description 115
- 230000005284 excitation Effects 0.000 claims description 185
- 238000000034 method Methods 0.000 claims description 87
- 239000013598 vector Substances 0.000 claims description 68
- 238000001228 spectrum Methods 0.000 claims description 33
- 230000003044 adaptive effect Effects 0.000 claims description 27
- 238000013139 quantization Methods 0.000 claims description 25
- 238000004458 analytical method Methods 0.000 claims description 24
- 230000003595 spectral effect Effects 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 230000015572 biosynthetic process Effects 0.000 claims description 17
- 238000003786 synthesis reaction Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000009467 reduction Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims 2
- 238000010606 normalization Methods 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000007704 transition Effects 0.000 description 13
- 238000005070 sampling Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000007774 longterm Effects 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 230000001186 cumulative effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 238000002592 echocardiography Methods 0.000 description 3
- 238000000695 excitation spectrum Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 206010019133 Hangover Diseases 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
提案される時間領域と周波数領域がより統合されたモデルでは、上記の適応コードブック、1つまたは複数の固定コードブック(例えば代数コードブック、ガウスコードブック等)、すなわちいわゆる時間領域コードブック、および周波数領域量子化(周波数領域符号化モード)をコードブックライブラリと見なすことができ、すべての利用可能なコードブックまたはその部分集合にビットを分配することができる。これは、例えば入力された音信号がクリーンな音声である場合は、すべてのビットが時間領域符号化モードに割り当てられ、基本的に符号化を旧来のCELP方式にすることを意味する。一方、何らかの音楽セグメントの場合は、入力LP残差を符号化するために割り当てられるすべてのビットを、周波数領域、例えば変換領域で消費するのが最適である場合がある。
図1は、拡張CELPエンコーダ100、例えばACELPエンコーダの概略を示す概略ブロック図である。言うまでもなく、同じ概念を使用して他の種類の拡張CELPエンコーダを実装することができる。図2は、拡張CELPエンコーダ100のより詳細な構造の概略ブロック図である。
cst=0.9・col+0.1・cst
と定義される平滑化された開ループのピッチ相関である。
colは、例えばITU-T勧告G.718、項6.6に記載される、CELP符号化技術の当業者に知られる方法を使用して分析器203で計算された開ループのピッチ相関であり、
σcは、平滑化された開ループのピッチ相関の変動である。
-平滑化された開ループのピッチ相関Cstが0.96より高いか、または
-平滑化された開ループのピッチ相関Cstが0.85より高く、かつ現在の合計フレームエネルギーEtotと直前のフレームの合計エネルギーとの差Ediffが0.3dB未満であるか、または
-平滑化された開ループのピッチ相関σcの変動が0.1未満であり、かつ現在の合計フレームエネルギーEtotと直前のフレーム合計エネルギーの差Ediffが0.6dB未満であるか、または
-現在の合計フレームエネルギーEtotが20dB未満であり、
それが、第1レベルの分析の決定を変更しようとする少なくとも2番目の連続したフレーム(cnt≧2)である場合は、音声/一般オーディオ選択器205は、現在のフレームは、閉ループの汎用CELP符号器207(図2)を使用して、時間領域のみのモードを使用して符号化することを決定する。
典型的なCELPでは、入力された音信号サンプルは10〜30msのフレーム単位で処理され、それらのフレームを、適応コードブックおよび固定コードブックの分析のために数個のサブフレームに分割する。例えば、20msのフレーム(内部サンプリング周波数が12.8kHzの場合は256サンプル)を使用することができ、4つの5msサブフレームに分割することができる。可変のサブフレーム長は、1つの符号化モードへの時間領域と周波数領域の完全な統合を実現するために使用される機能である。サブフレーム長は、典型的な4分の1フレーム長から、2分の1フレーム、または1フレーム長全体まで変化させることができる。言うまでもなく、別の数のサブフレーム(サブフレーム長)の使用を実装することができる。
時間領域/周波数領域混合型符号化モードを使用する場合は、必要であれば固定型代数コードブックの検索を伴う閉ループのピッチ分析を行う。そのために、CELPエンコーダ100(図1)は、時間領域励振寄与分の計算器(図1および図2)105を備える。この計算器はさらに分析器211(図2)を備え、分析器211は、開ループピッチ分析器203で行われる開ループのピッチ分析と、計算器210で行われるサブフレーム長(すなわち1フレーム中のサブフレーム数)の決定に応じて、閉ループのピッチ分析を行う。閉ループのピッチ分析は当業者にはよく知られており、実装の一例が例えば参考文献[ITU-T G.718 Recommendation; Section 6.8.4.1.4.1]に記載される。上記参考文献は、参照により全内容が本明細書に組み込まれる。閉ループのピッチ分析の結果、適応コードブックパラメータとも呼ばれるピッチパラメータが算出され、このパラメータは主としてピッチ遅延(適応コードブックインデックスT)およびピッチ利得(または適応コードブック利得b)からなる。適応コードブックの寄与分は通常は、遅延Tにおける過去の励振か、またはそれを補間したバージョンである。適応コードブックインデックスTを符号化し、遠隔のデコーダに送信する。ピッチ利得bも量子化し、遠隔のデコーダに送信する。
時間領域/周波数領域混合型符号化モードの周波数領域符号化の際には、変換領域、例えば周波数領域で2つの信号を表す必要がある。一実施形態では、時間から周波数への変換は、256点タイプII(またはタイプIV)のDCT(離散コサイン変換)を使用して実現することができ、12.8kHzの内部サンプリング周波数で25Hzの分解能を得ることができるが、他の変換を使用することもできる。別の変換を使用する場合は、周波数の分解能(上記で定義した)、周波数帯の数および1band当たりの周波数ビンの数(さらに下記で定義する)をそれに応じて変更する必要がある可能性もある。この点に関して、CELPエンコーダ100は、分析器201による入力された音信号のLP分析で得られた入力LP残差res(n)に応じて周波数領域励振寄与分を計算する計算器107(図1)を備える。図2に示すように、計算器107は、DCT213、例えば入力LP残差res(n)のタイプIIのDCTを計算することができる。CELPエンコーダ100は、時間領域の励振寄与分の周波数変換の計算器106(図1)も備える。図2に示すように、計算器106は、時間領域の励振寄与分のDCT214、例えばタイプIIのDCTを計算することができる。入力LP残差fresおよび時間領域のCELP励振寄与分fexcの周波数変換は、以下の式を使用して計算することができる。
etd(n)=bv(n)+gc(n)
一般的なオーディオサンプルでは、時間領域の励振寄与分(適応型および/または固定型代数コードブックの組み合わせ)は、周波数領域の符号化と比べると、符号化の向上に常に大きく貢献するという訳ではない。しばしば、スペクトルの低い部分の符号化は改善するが、スペクトルの高い部分の改善は最小にとどまる。CELPエンコーダ100は、時間領域の励振寄与分で得られる符号化の向上が低くて有用性を失う周波数であるカットオフ周波数の発見器およびフィルタ108(図1)を備える。発見器およびフィルタ108は、図2のカットオフ周波数の計算器215とフィルタ216を備える。初めに、各周波数帯の計算器107で得られる周波数変換された入力LP残差と、計算器106で得られる周波数変換された時間領域の励振寄与分(上記の項4で定義したようにそれぞれfresおよびfexcと表記する)との正規化相互相関の算出器303(図3および図4)を使用して、時間領域の励振寄与分のカットオフ周波数を計算器215(図2)で推定する。例えば16個の周波数帯それぞれに含まれる最後の周波数LfをHz単位で以下のように定義する。
- カットオフ周波数の計算器215はさらに、ゼロにする周波数ビンの数の決定器307(図3)を備え、決定器307自体は、パラメータの分析器415(図4)、およびゼロにする周波数ビンの選択器416(図4)を含む。
- 周波数領域で動作するフィルタ216(図2)は、ゼロにすることが決定された周波数ビンをゼロにするゼロ化器308(図3)を備える。ゼロ化器は、すべての周波数ビンをゼロにする(図4のゼロ化器417)か、または(図4のフィルタ418)滑らかな遷移領域が補われたカットオフ周波数ftcより上に位置する高域周波数ビンの一部のみをゼロにすることができる。遷移領域は、カットオフ周波数ftcより上で、かつゼロにされるビンより下に位置し、ftcより下の無変更のスペクトルと、高域周波数のゼロにされたビンとの間が滑らかにスペクトル遷移するようにする。
ftcQ-{0,1175,1575,1975,2375,2775,3175,3575}
ftc>2375Hz
または
ftc>1175HzかつCol>0.7かつGlt≧0.6
または
ftc≧1175HzかつCst>0.8かつGlt≧0.4
または
ftcQ(t-1)!=0かつCol>0.5かつCst>0.5かつGlt≧0.6
差分ベクトルの生成
時間領域の励振寄与分のカットオフ周波数を定義すると、周波数領域符号化が行われる。CELPエンコーダ100は減算器または計算器109(図1、図2、図5、および図6)を備え、計算器109は、DCT213(図2)で得られる入力LP残差の周波数変換fres502(図5および図6)(または他の周波数表現)と、DCT214(図2)で得られる、ゼロから時間領域の励振寄与分のカットオフ周波数ftcまでの時間領域の励振寄与分の周波数変換fexc501(図5および図6)(または他の周波数表現)との差で、差分ベクトルfdの第1の部分を形成する。縮小係数603(図6)を次の遷移領域ftrans=2kHz(この実装例では80個の周波数ビン)のために周波数変換fexc501に適用してから、周波数変換fresのそれぞれのスペクトル部分から減算する。減算の結果が、カットオフ周波数ftcからftc+ftransまでの周波数範囲に相当する差分ベクトルfdの第2の部分を構成する。ベクトルfdの残りの第3の部分には、入力LP残差の周波数変換fres502を使用する。縮小係数603の適用で得られるベクトルfdの縮小された部分は、任意種のフェードアウト機能で行うことができ、数個のみの周波数ビンに短縮することができるが、カットオフ周波数ftcが変化している時に利用可能なビット配分がエネルギー振動アーチファクトを防止するのに十分であると判断される場合は省略することも可能である。例えば、12.8kHzの場合に256点DCTで1周波数ビンfbin=25Hzに相当する25Hzの分解能では、差分ベクトルは
CELPエンコーダ100は、差分ベクトルfdの周波数量子化器110(図1および図2)を備える。差分ベクトルfdは、いくつかの方法を使用して量子化することができる。いずれの場合も、周波数パルスを探し、量子化しなければならない。可能な単純な方法の1つでは、周波数領域符号化は、スペクトル全体で差分ベクトルfdの最もエネルギーが高いパルスの検索を含む。パルス検索の方法は、スペクトルを複数の周波数帯に分割し、周波数帯ごとに一定数のパルスを許可するという単純なものとすることができる。周波数帯ごとのパルスの数は、利用可能なビット配分と、スペクトル内での周波数帯の位置に応じて決まる。通例は、低域周波数により多くのパルスが割り当てられる。
利用可能なビットレートに応じて、種々の技術を使用して周波数パルスの量子化を行うことができる。一実施形態では、12kbps未満のビットレートでは、単純な検索および量子化方式を使用してパルスの位置および正負符号を符号化することができる。この方式について以下で説明する。
for j=0,..., j<nb_pulses
fdQ(pp(j))+=ps(j)
精度の差はあるもののすべての周波数帯が量子化される。前項で説明した量子化方法では、周波数帯内にあるすべての周波数ビンが量子化されることは保証されない。これは特に1周波数帯当たりの量子化されるパルスの数が比較的少ない低ビットレートの場合にそうである。そのような量子化されていないビンに起因する可聴アーチファクトの出現を防止するために、ノイズ付加器507(図5)でそのような空白に何らかのノイズを付加する。このノイズの付加は、例えば12kbps未満のビットレートではすべてのスペクトルに行われるが、高ビットレートの場合は時間領域の励振寄与分のカットオフ周波数ftcより上だけに適用することができる。単純化のために、ノイズの強度は利用可能なビットレートのみに応じて変動するとする。高いビットレートでは、ノイズレベルは低いが、低ビットレートではノイズレベルは高くなる。
周波数量子化器110は、周波数帯ごとの利得の計算器615(図6)および計算された周波数帯ごとの利得の量子化器616(図6)を含む周波数帯ごとの利得計算器/量子化器508(図5)を備える。必要な場合はノイズの埋め込みを含んでいる量子化された差分ベクトルfdQが見つかると、計算器615は各周波数帯の周波数帯ごとの利得を算出する。特定周波数帯の周波数帯ごとの利得Gb(i)は、対数領域における量子化されていない差分ベクトルfd信号のエネルギーと、量子化された差分ベクトルfdQのエネルギーとの対数領域として次のように定義される。
Ga(i)=10E'd(i)-EdQ(i)
ここで
101 入力信号
102 プリプロセッサ
103 時間/時間-周波数符号化選択器
104 時間領域専用符号器
105 時間領域励振寄与分の計算器
106 時間領域寄与分の周波数変換の計算器
107 周波数領域励振寄与分の計算器
108 発見器およびフィルタ
109 フィルタリング後の信号と残差の周波数変換との差分の減算器
110 量子化器
111 量子化された差分信号をフィルタリング後の信号に加算する加算器
112 変換器
113 合成フィルタ
201 LP分析器
202 スペクトル分析器
203 開ループピッチ分析器
204 信号分類器
205 音声/一般オーディオ選択器
206 メモリレス時間領域符号化モードの選択器
207 閉ループCELP符号器
208 一時的アタック検出器
209 分析器
210 サブフレーム数の計算器
211 閉ループピッチ分析器
212 固定コードブック
213 DCT
214 時間領域の励振寄与分のDCT
215 カットオフ周波数の計算器
216 フィルタ
220 IDCT
303 正規化相互相関の算出器
304 相互相関の平滑器
305 平均を計算する計算器
306 カットオフ周波数モジュール
307 ゼロにする周波数ビンの数の決定器
308 ゼロ化器
309 カットオフ周波数の量子化器
406 相互相関の制限器
407 相互相関の正規化器
408 発見器
409 発見器
410 第8高調波の外挿器
411 最終的なカットオフ周波数の選択器
412 長期平均ピッチ利得
413 開ループ相関
414 開ループのピッチ相関
415 パラメータの分析器
416 ゼロにする周波数ビンの選択器
417 ゼロ化器
418 フィルタ
501 時間領域の励振寄与分の周波数変換
502 入力LP残差の周波数変換
504 選択器
505 符号器
506 符号器
507 ノイズ付加器
508 利得計算器/量子化器
509 乗算器
603 縮小係数
607 周波数パルスの検索器
609 周波数パルスの検索器
610 FPC符号器
611 発見器
612 量子化器
613 加算器
614 推定器
615 計算器
616 量子化器
Claims (60)
- 入力された音信号を符号化するための時間領域/周波数領域混合型符号化装置であって、
前記入力された音信号に応じて時間領域の励振寄与分を計算する計算器と、
前記入力された音信号に応じて時間領域の励振寄与分のカットオフ周波数を計算する計算器と、
前記カットオフ周波数に応じて前記時間領域の励振寄与分の周波数範囲を調整するフィルタと、
前記入力された音信号に応じて周波数領域の励振寄与分を計算する計算器と、
フィルタリングされた時間領域の励振寄与分と前記周波数領域の励振寄与分とを加算して、前記入力された音信号の符号化バージョンを構成する時間領域/周波数領域混合型励振を形成する加算器と
を備える時間領域/周波数領域混合型符号化装置。 - 前記時間領域の励振寄与分は、(a)適応コードブック寄与分のみ、または(b)前記適応コードブック寄与分および固定コードブック寄与分を含む、請求項1に記載の時間領域/周波数領域混合型符号化装置。
- 前記時間領域の励振寄与分計算器は、前記入力された音信号の符号励振線形予測符号化を使用する、請求項1または2に記載の時間領域/周波数領域混合型符号化装置。
- 現在のフレームで使用するサブフレーム数を計算する計算器を備え、前記時間領域の励振寄与分の計算器は、前記現在のフレームについて前記サブフレーム数の計算器によって決定されたサブフレーム数を前記現在のフレームで使用する、請求項1から3のいずれか一項に記載の時間領域/周波数領域混合型符号化装置。
- 前記現在のフレームの前記サブフレーム数の計算器は、利用可能なビット配分と、前記入力された音信号の高域周波数のスペクトル動特性との少なくとも1つに応答する、請求項4に記載の時間領域/周波数領域混合型符号化装置。
- 前記時間領域の励振寄与分の周波数変換の計算器を備える、請求項1から5のいずれか一項に記載の時間領域/周波数領域混合型符号化装置。
- 前記周波数領域の励振寄与分の計算器は、前記入力された音信号のLP分析から得られるLP残差の周波数変換を行って、前記LP残差の周波数表現を生成する、請求項1から6のいずれか一項に記載の時間領域/周波数領域混合型符号化装置。
- 前記カットオフ周波数の計算器は、前記LP残差の周波数表現と、前記時間領域の励振寄与分の周波数表現との間の相互相関を複数の周波数帯各々について算出する算出器を備え、前記符号化装置は、前記相互相関に応じて前記カットオフ周波数の推定値を見つける発見器を備える、請求項7に記載の時間領域/周波数領域混合型符号化装置。
- 前記周波数帯間の相互相関を平滑化して相互相関ベクトルを生成する平滑器と、前記周波数帯にわたる前記相互相関ベクトルの平均を計算する計算器と、前記相互相関ベクトルの平均を正規化する正規化器とを備え、前記カットオフ周波数の推定値の前記発見器は、前記周波数帯のうち1つの周波数帯の最後の周波数と、前記相互相関ベクトルの前記正規化された平均にスペクトル幅値を乗算した値との差分が最小になる最後の周波数を見つけることにより、前記カットオフ周波数の第1の推定値を求める、請求項8に記載の時間領域/周波数領域混合型符号化装置。
- 前記カットオフ周波数の計算器は、前記時間領域の励振寄与分から算出される高調波が位置する、前記周波数帯のうち1つを見つける発見器と、前記カットオフ周波数の前記第1の推定値と、前記高調波が位置する前記周波数帯の最後の周波数とのうち高い方の周波数を前記カットオフ周波数として選択する選択器とを備える、請求項9に記載の時間領域/周波数領域混合型符号化装置。
- 前記フィルタは、前記カットオフ周波数より上の複数の周波数帯の周波数ビンを強制的にゼロにする、周波数ビンのゼロ化器を備える、請求項1から10のいずれか一項に記載の時間領域/周波数領域混合型符号化装置。
- 前記フィルタは、前記カットオフ周波数が所与の値より低い場合に複数の周波数帯のすべての周波数ビンを強制的にゼロにする周波数ビンのゼロ化器を備える、請求項1から11のいずれか一項に記載の時間領域/周波数領域混合型符号化装置。
- 前記周波数領域の励振寄与分の計算器は、前記入力された音信号のLP残差の周波数表現と、前記時間領域の励振寄与分のフィルタリング後周波数表現との差分を計算する計算器を備える、請求項1から12のいずれか一項に記載の時間領域/周波数領域混合型符号化装置。
- 前記周波数領域の励振寄与分の計算器は、前記LP残差の周波数表現と、前記カットオフ周波数までの前記時間領域の励振寄与分の周波数表現との差分を計算して、差分ベクトルの第1の部分を形成する計算器を備える、請求項7に記載の時間領域/周波数領域混合型符号化装置。
- 前記カットオフ周波数に続く所定の周波数範囲内の前記時間領域の励振寄与分の前記周波数表現に適用されて、前記差分ベクトルの第2の部分を形成するための縮小係数を備える、請求項14に記載の時間領域/周波数領域混合型符号化装置。
- 前記差分ベクトルは、前記所定の周波数範囲より上の残りの第3の部分については前記LP残差の周波数表現で形成される、請求項15に記載の時間領域/周波数領域混合型符号化装置。
- 前記差分ベクトルの量子化器を備える、請求項14から16のいずれか一項に記載の時間領域/周波数領域混合型符号化装置。
- 前記加算器は、量子化された差分ベクトルと、フィルタリング後の時間領域の励振寄与分の周波数変換されたバージョンとを前記周波数領域で加算して前記時間領域/周波数領域混合型励振を形成する、請求項17に記載の時間領域/周波数領域混合型符号化装置。
- 前記加算器は、前記時間領域の励振寄与分と前記周波数領域の励振寄与分とを前記周波数領域で加算する、請求項1から18のいずれか一項に記載の時間領域/周波数領域混合型符号化装置。
- 前記時間領域の励振寄与分と前記周波数領域の励振寄与分間でビット配分を動的に割り当てる手段を備える、請求項1から19のいずれか一項に記載の時間領域/周波数領域混合型符号化装置。
- 時間領域および周波数領域モデルを使用するエンコーダであって、
入力された音信号を音声または非音声に分類する分類器と、
時間領域専用符号器と、
請求項1から20のいずれか一項に記載の時間領域/周波数領域混合型符号化装置と、
前記入力された音信号の分類に応じて、前記入力された音信号を符号化するために、前記時間領域専用符号器および前記時間領域/周波数領域混合型符号化装置の一方を選択する選択器と
を備えるエンコーダ。 - 前記時間領域専用符号器は符号励振線形予測符号器である、請求項21に記載のエンコーダ。
- 前記分類器が前記入力された音信号を非音声に分類し前記入力された音信号中に一時的アタックを検出すると、前記時間領域専用符号器で前記入力された音信号を符号化する際にメモリレス時間領域符号化モードを強制的に使用させるメモリレス時間領域符号化モードの選択器を備える、請求項21または22に記載のエンコーダ。
- 前記時間領域/周波数領域混合型符号化装置は、時間領域寄与分の計算で可変長のサブフレームを使用する、請求項21から23のいずれか一項に記載のエンコーダ。
- 入力された音信号を符号化するための時間領域/周波数領域混合型符号化装置であって、
前記入力された音信号に応じて時間領域の励振寄与分を計算する計算器であって、前記時間領域の励振寄与分の計算器は、前記入力された音信号の連続したフレーム単位で前記入力された音信号を処理し、前記入力された音信号の現在のフレームで使用するサブフレーム数を計算する計算器を備え、前記時間領域の励振寄与分の計算器は、前記現在のフレームについて前記サブフレーム数の計算器によって決定されたサブフレーム数を前記現在のフレームで使用する、計算器と、
前記入力された音信号に応じて周波数領域の励振寄与分を計算する計算器と、
前記時間領域の励振寄与分と前記周波数領域の励振寄与分とを加算して、前記入力された音信号の符号化バージョンを構成する時間領域/周波数領域混合型励振を形成する加算器と
を備える時間領域/周波数領域混合型符号化装置。 - 前記現在のフレームの前記サブフレーム数の計算器は、利用可能なビット配分と、前記入力された音信号の高域周波数のスペクトル動特性との少なくとも1つに応答する、請求項25に記載の時間領域/周波数領域混合型符号化装置。
- 請求項1から20のいずれか一項に記載の時間領域/周波数領域混合型符号化装置を使用して符号化された音信号を復号するデコーダであって、
前記時間領域/周波数領域混合型励振を時間領域に変換する変換器と、
時間領域に変換された前記時間領域/周波数領域混合型励振に応じて前記音信号を合成する合成フィルタと
を備えるデコーダ。 - 前記変換器は逆離散コサイン変換を使用する、請求項27に記載のデコーダ。
- 前記合成フィルタはLP合成フィルタである、請求項27または28に記載のデコーダ。
- 請求項25または26に記載の時間領域/周波数領域混合型符号化装置を使用して符号化された音信号を復号するデコーダであって、
前記時間領域/周波数領域混合型励振を時間領域に変換する変換器と、
時間領域に変換された前記時間領域/周波数領域混合型励振に応じて前記音信号を合成する合成フィルタと
を備えるデコーダ。 - 入力された音信号を符号化する時間領域/周波数領域混合型符号化方法であって、
前記入力された音信号に応じて時間領域の励振寄与分を計算するステップと、
前記入力された音信号に応じて時間領域の励振寄与分のカットオフ周波数を計算するステップと、
前記カットオフ周波数に応じて前記時間領域の励振寄与分の周波数範囲を調整するステップと、
前記入力された音信号に応じて周波数領域の励振寄与分を計算するステップと、
前記調整された時間領域の励振寄与分と前記周波数領域の励振寄与分とを加算して、前記入力された音信号の符号化バージョンを構成する時間領域/周波数領域混合型励振を形成するステップと
とを含む方法。 - 前記時間領域の励振寄与分は、(a)適応コードブック寄与分のみ、または(b)前記適応コードブック寄与分および固定コードブック寄与分を含む、請求項31に記載の時間領域/周波数領域混合型符号化方法。
- 前記時間領域の励振寄与分を計算するステップは、前記入力された音信号の符号励振線形予測符号化を使用するステップを含む、請求項31または32に記載の時間領域/周波数領域混合型符号化方法。
- 現在のフレームで使用するサブフレーム数を計算するステップを含み、前記時間領域の励振寄与分を計算するステップは、前記現在のフレームについて決定されたサブフレーム数を前記現在のフレームで使用するステップを含む、請求項31から32のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 前記現在のフレームの前記サブフレーム数を計算するステップは、利用可能なビット配分と、前記入力された音信号の高域周波数のスペクトル動特性との少なくとも1つに応答する請求項34に記載の時間領域/周波数領域混合型符号化方法。
- 前記時間領域の励振寄与分の周波数変換を計算するステップを含む、請求項31から35のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 前記周波数領域の励振寄与分を計算するステップは、前記入力された音信号のLP分析から得られるLP残差の周波数変換を行って、前記LP残差の周波数表現を生成するステップを含む、請求項31から36のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 前記カットオフ周波数を計算するステップは、前記LP残差の周波数表現と、前記時間領域の励振寄与分の周波数表現との間の相互相関を複数の周波数帯各々について算出するステップを含み、前記符号化方法は、前記相互相関に応じて前記カットオフ周波数の推定値を見つけるステップを含む、請求項37に記載の時間領域/周波数領域混合型符号化方法。
- 前記周波数帯間の相互相関を平滑化して相互相関ベクトルを生成し、前記周波数帯にわたる前記相互相関ベクトルの平均を計算し、前記相互相関ベクトルの平均を正規化するステップを含み、前記カットオフ周波数の推定値を見つけるステップは、前記周波数帯のうち1つの周波数帯の最後の周波数と、前記相互相関ベクトルの前記正規化された平均にスペクトル幅値を乗算した値との差分が最小になる最後の周波数を見つけることにより、前記カットオフ周波数の第1の推定値を求めるステップを含む、請求項38に記載の時間領域/周波数領域混合型符号化方法。
- 前記カットオフ周波数を計算するステップは、前記時間領域の励振寄与分から算出される高調波が位置する、前記周波数帯のうち1つを見つけ、前記カットオフ周波数の前記第1の推定値と、前記高調波が位置する前記周波数帯の最後の周波数とのうち高い方の周波数を前記カットオフ周波数として選択するステップを含む、請求項39に記載の時間領域/周波数領域混合型符号化方法。
- 前記時間領域の励振寄与分の周波数範囲を調整するステップは、前記カットオフ周波数より上の複数の周波数帯の周波数ビンを強制的にゼロにする周波数ビンのゼロ化ステップを含む、請求項31から40のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 前記時間領域の励振寄与分の周波数範囲を調整するステップは、前記カットオフ周波数が所与の値より低い場合に、複数の周波数帯のすべての周波数ビンをゼロにする周波数ビンのゼロ化ステップを含む、請求項31から41のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 前記周波数領域の励振寄与分を計算するステップは、前記入力された音信号のLP残差の周波数表現と、前記時間領域の励振寄与分のフィルタリング後周波数表現との差分を計算するステップを含む、請求項31から42のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 前記周波数領域の励振寄与分を計算するステップは、前記LP残差の周波数表現と、前記カットオフ周波数までの前記時間領域の励振寄与分の周波数表現との差分を計算して、差分ベクトルの第1の部分を形成するステップを含む、請求項37から40のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 前記カットオフ周波数に続く所定の周波数範囲内の前記時間領域の励振寄与分の前記周波数表現に縮小係数を適用して、前記差分ベクトルの第2の部分を形成するステップを含む、請求項44に記載の時間領域/周波数領域混合型符号化方法。
- 前記所定の周波数範囲より上の残りの第3の部分については前記LP残差の周波数表現で前記差分ベクトルを形成するステップを含む、請求項45に記載の時間領域/周波数領域混合型符号化方法。
- 前記差分ベクトルを量子化するステップを含む、請求項44から46のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 調整された時間領域の励振寄与分と前記周波数領域の励振寄与分とを加算して前記時間領域/周波数領域混合型励振を形成するステップは、量子化された差分ベクトルと、前記調整された時間領域の励振寄与分の周波数変換バージョンとを前記周波数領域で加算するステップを含む、請求項47に記載の時間領域/周波数領域混合型符号化方法。
- 調整された時間領域の励振寄与分と前記周波数領域の励振寄与分とを加算して前記時間領域/周波数領域混合型励振を形成するステップは、前記時間領域の励振寄与分と前記周波数領域の励振寄与分とを前記周波数領域で加算するステップを含む、請求項31から48のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 前記時間領域の励振寄与分と前記周波数領域の励振寄与分間でビット配分を動的に割り当てるステップを含む、請求項31から49のいずれか一項に記載の時間領域/周波数領域混合型符号化方法。
- 時間領域および周波数領域モデルを使用した符号化の方法であって、
入力された音信号を音声または非音声に分類するステップと、
時間領域のみの符号化方法を備えるステップと、
請求項31から50のいずれか一項に記載の時間領域/周波数領域混合型符号化方法を備えるステップと、
前記入力された音信号の分類に応じて、前記入力された音信号を符号化するために、前記時間領域のみの符号化方法および前記時間領域/周波数領域混合型符号化方法の一方を選択するステップと
を含む方法。 - 前記時間領域のみの符号化方法は符号励振線形予測符号化方法である、請求項51に記載の符号化の方法。
- 前記入力された音信号が非音声に分類され前記入力された音信号中に一時的アタックが検出されると、前記時間領域のみの符号化方法を使用して前記入力された音信号を符号化する際にメモリレス時間領域符号化モードを強制的に使用させる、メモリレス時間領域符号化モードを選択するステップを含む、請求項51または52に記載の符号化の方法。
- 前記時間領域/周波数領域混合型符号化方法は、時間領域寄与分の計算で可変長のサブフレームを使用するステップを含む、請求項51から53のいずれか一項に記載の符号化の方法。
- 入力された音信号を符号化する時間領域/周波数領域混合型符号化方法であって、
前記入力された音信号に応じて時間領域の励振寄与分を計算するステップであって、前記時間領域の励振寄与分を計算するステップは、前記入力された音信号の連続したフレーム単位で前記入力された音信号を処理し、前記入力された音信号の現在のフレームで使用するサブフレーム数を計算するステップを含み、前記時間領域の励振寄与分を計算するステップは、前記現在のフレームについて計算されたサブフレーム数を前記現在のフレームで使用するステップを含む、ステップと
前記入力された音信号に応じて周波数領域の励振寄与分を計算するステップと、
前記時間領域の励振寄与分と前記周波数領域の励振寄与分とを加算して、前記入力された音信号の符号化バージョンを構成する時間領域/周波数領域混合型励振を形成するステップと
を含む方法。 - 前記現在のフレームの前記サブフレーム数を計算するステップは、利用可能なビット配分と、前記入力された音信号の高域周波数のスペクトル動特性との少なくとも1つに応答する、請求項55に記載の時間領域/周波数領域混合型符号化方法。
- 請求項31から50のいずれか一項に記載の時間領域/周波数領域混合型符号化方法を使用して符号化された音信号を復号する方法であって、
前記時間領域/周波数領域混合型励振を時間領域に変換するステップと、
時間領域に変換された前記時間領域/周波数領域混合型励振に応じて、合成フィルタを通じて前記音信号を合成するステップと
を含む方法。 - 前記時間領域/周波数領域混合型励振を時間領域に変換するステップは逆離散コサイン変換を使用するステップを含む、請求項57に記載の復号する方法。
- 前記合成フィルタはLP合成フィルタである、請求項57または58に記載の復号する方法。
- 請求項55または56に記載の時間領域/周波数領域混合型符号化方法を使用して符号化された音信号を復号する方法であって、
前記時間領域/周波数領域混合型励振を時間領域に変換するステップと、
時間領域に変換された前記時間領域/周波数領域混合型励振に応じて、合成フィルタを通じて前記音信号を合成するステップと
を含む方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US40637910P | 2010-10-25 | 2010-10-25 | |
US61/406,379 | 2010-10-25 | ||
PCT/CA2011/001182 WO2012055016A1 (en) | 2010-10-25 | 2011-10-24 | Coding generic audio signals at low bitrates and low delay |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014500521A JP2014500521A (ja) | 2014-01-09 |
JP5978218B2 true JP5978218B2 (ja) | 2016-08-24 |
Family
ID=45973717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013535216A Active JP5978218B2 (ja) | 2010-10-25 | 2011-10-24 | 低ビットレート低遅延の一般オーディオ信号の符号化 |
Country Status (21)
Country | Link |
---|---|
US (1) | US9015038B2 (ja) |
EP (3) | EP2633521B1 (ja) |
JP (1) | JP5978218B2 (ja) |
KR (2) | KR101998609B1 (ja) |
CN (1) | CN103282959B (ja) |
CA (1) | CA2815249C (ja) |
DK (2) | DK3239979T3 (ja) |
ES (2) | ES2982115T3 (ja) |
FI (1) | FI3239979T3 (ja) |
HK (1) | HK1185709A1 (ja) |
HR (1) | HRP20240863T1 (ja) |
HU (1) | HUE067096T2 (ja) |
LT (1) | LT3239979T (ja) |
MX (1) | MX351750B (ja) |
MY (1) | MY164748A (ja) |
PL (1) | PL2633521T3 (ja) |
PT (1) | PT2633521T (ja) |
RU (1) | RU2596584C2 (ja) |
SI (1) | SI3239979T1 (ja) |
TR (1) | TR201815402T4 (ja) |
WO (1) | WO2012055016A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5947294B2 (ja) | 2011-06-09 | 2016-07-06 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 通信端末装置、ネットワークノード及び通信方法 |
WO2013002696A1 (en) | 2011-06-30 | 2013-01-03 | Telefonaktiebolaget Lm Ericsson (Publ) | Transform audio codec and methods for encoding and decoding a time segment of an audio signal |
JP6126006B2 (ja) * | 2012-05-11 | 2017-05-10 | パナソニック株式会社 | 音信号ハイブリッドエンコーダ、音信号ハイブリッドデコーダ、音信号符号化方法、及び音信号復号方法 |
US9589570B2 (en) * | 2012-09-18 | 2017-03-07 | Huawei Technologies Co., Ltd. | Audio classification based on perceptual quality for low or medium bit rates |
US9129600B2 (en) * | 2012-09-26 | 2015-09-08 | Google Technology Holdings LLC | Method and apparatus for encoding an audio signal |
MY178710A (en) * | 2012-12-21 | 2020-10-20 | Fraunhofer Ges Forschung | Comfort noise addition for modeling background noise at low bit-rates |
CA2894625C (en) | 2012-12-21 | 2017-11-07 | Anthony LOMBARD | Generation of a comfort noise with high spectro-temporal resolution in discontinuous transmission of audio signals |
EP2962300B1 (en) * | 2013-02-26 | 2017-01-25 | Koninklijke Philips N.V. | Method and apparatus for generating a speech signal |
JP6111795B2 (ja) * | 2013-03-28 | 2017-04-12 | 富士通株式会社 | 信号処理装置、及び信号処理方法 |
US10083708B2 (en) * | 2013-10-11 | 2018-09-25 | Qualcomm Incorporated | Estimation of mixing factors to generate high-band excitation signal |
CN106409300B (zh) * | 2014-03-19 | 2019-12-24 | 华为技术有限公司 | 用于信号处理的方法和装置 |
AU2014204540B1 (en) * | 2014-07-21 | 2015-08-20 | Matthew Brown | Audio Signal Processing Methods and Systems |
EP2980797A1 (en) * | 2014-07-28 | 2016-02-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio decoder, method and computer program using a zero-input-response to obtain a smooth transition |
US9875745B2 (en) * | 2014-10-07 | 2018-01-23 | Qualcomm Incorporated | Normalization of ambient higher order ambisonic audio data |
ES2904275T3 (es) | 2015-09-25 | 2022-04-04 | Voiceage Corp | Método y sistema de decodificación de los canales izquierdo y derecho de una señal sonora estéreo |
US10373608B2 (en) | 2015-10-22 | 2019-08-06 | Texas Instruments Incorporated | Time-based frequency tuning of analog-to-information feature extraction |
US10210871B2 (en) * | 2016-03-18 | 2019-02-19 | Qualcomm Incorporated | Audio processing for temporally mismatched signals |
US10638227B2 (en) | 2016-12-02 | 2020-04-28 | Dirac Research Ab | Processing of an audio input signal |
BR112020004909A2 (pt) | 2017-09-20 | 2020-09-15 | Voiceage Corporation | método e dispositivo para distribuir, de forma eficiente, um bit-budget em um codec celp |
CA3170065A1 (en) | 2020-04-16 | 2021-10-21 | Vladimir Malenovsky | Method and device for speech/music classification and core encoder selection in a sound codec |
US20240321285A1 (en) * | 2021-01-08 | 2024-09-26 | Voiceage Corporation | Method and device for unified time-domain / frequency domain coding of a sound signal |
WO2024110562A1 (en) * | 2022-11-23 | 2024-05-30 | Telefonaktiebolaget Lm Ericsson (Publ) | Adaptive encoding of transient audio signals |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9811019D0 (en) | 1998-05-21 | 1998-07-22 | Univ Surrey | Speech coders |
DE60118627T2 (de) * | 2000-05-22 | 2007-01-11 | Texas Instruments Inc., Dallas | Vorrichtung und Verfahren zur Breitbandcodierung von Sprachsignalen |
KR100528327B1 (ko) * | 2003-01-02 | 2005-11-15 | 삼성전자주식회사 | 비트율 조절가능한 오디오 부호화 방법, 복호화 방법,부호화 장치 및 복호화 장치 |
CA2457988A1 (en) * | 2004-02-18 | 2005-08-18 | Voiceage Corporation | Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization |
RU2007109803A (ru) * | 2004-09-17 | 2008-09-27 | Мацусита Электрик Индастриал Ко., Лтд. (Jp) | Устройство масштабируемого кодирования, устройство масштабируемого декодирования, способ масштабируемого кодирования, способ масштабируемого декодирования, устройство коммуникационного терминала и устройство базовой станции |
US8010352B2 (en) * | 2006-06-21 | 2011-08-30 | Samsung Electronics Co., Ltd. | Method and apparatus for adaptively encoding and decoding high frequency band |
KR101390188B1 (ko) * | 2006-06-21 | 2014-04-30 | 삼성전자주식회사 | 적응적 고주파수영역 부호화 및 복호화 방법 및 장치 |
RU2319222C1 (ru) * | 2006-08-30 | 2008-03-10 | Валерий Юрьевич Тарасов | Способ кодирования и декодирования речевого сигнала методом линейного предсказания |
US8515767B2 (en) * | 2007-11-04 | 2013-08-20 | Qualcomm Incorporated | Technique for encoding/decoding of codebook indices for quantized MDCT spectrum in scalable speech and audio codecs |
EP2077550B8 (en) * | 2008-01-04 | 2012-03-14 | Dolby International AB | Audio encoder and decoder |
EP2144231A1 (en) * | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme with common preprocessing |
ES2592416T3 (es) * | 2008-07-17 | 2016-11-30 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Esquema de codificación/decodificación de audio que tiene una derivación conmutable |
-
2011
- 2011-10-24 SI SI201132111T patent/SI3239979T1/sl unknown
- 2011-10-24 PT PT11835383T patent/PT2633521T/pt unknown
- 2011-10-24 EP EP11835383.8A patent/EP2633521B1/en active Active
- 2011-10-24 WO PCT/CA2011/001182 patent/WO2012055016A1/en active Application Filing
- 2011-10-24 KR KR1020187011402A patent/KR101998609B1/ko active IP Right Grant
- 2011-10-24 ES ES17175692T patent/ES2982115T3/es active Active
- 2011-10-24 DK DK17175692.7T patent/DK3239979T3/da active
- 2011-10-24 DK DK11835383.8T patent/DK2633521T3/en active
- 2011-10-24 RU RU2013124065/08A patent/RU2596584C2/ru active
- 2011-10-24 MY MYPI2013700658A patent/MY164748A/en unknown
- 2011-10-24 HR HRP20240863TT patent/HRP20240863T1/hr unknown
- 2011-10-24 EP EP17175692.7A patent/EP3239979B1/en active Active
- 2011-10-24 CN CN201180062729.6A patent/CN103282959B/zh active Active
- 2011-10-24 LT LTEP17175692.7T patent/LT3239979T/lt unknown
- 2011-10-24 FI FIEP17175692.7T patent/FI3239979T3/fi active
- 2011-10-24 CA CA2815249A patent/CA2815249C/en active Active
- 2011-10-24 MX MX2013004673A patent/MX351750B/es active IP Right Grant
- 2011-10-24 JP JP2013535216A patent/JP5978218B2/ja active Active
- 2011-10-24 EP EP24167694.9A patent/EP4372747A3/en active Pending
- 2011-10-24 ES ES11835383.8T patent/ES2693229T3/es active Active
- 2011-10-24 HU HUE17175692A patent/HUE067096T2/hu unknown
- 2011-10-24 TR TR2018/15402T patent/TR201815402T4/tr unknown
- 2011-10-24 KR KR1020137013143A patent/KR101858466B1/ko active Application Filing
- 2011-10-24 PL PL11835383T patent/PL2633521T3/pl unknown
- 2011-10-25 US US13/280,707 patent/US9015038B2/en active Active
-
2013
- 2013-11-20 HK HK13112954.4A patent/HK1185709A1/xx unknown
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5978218B2 (ja) | 低ビットレート低遅延の一般オーディオ信号の符号化 | |
US8862463B2 (en) | Adaptive time/frequency-based audio encoding and decoding apparatuses and methods | |
RU2389085C2 (ru) | Способы и устройства для введения низкочастотных предыскажений в ходе сжатия звука на основе acelp/tcx | |
RU2483364C2 (ru) | Схема аудиокодирования/декодирования с переключением байпас | |
CN108831501B (zh) | 用于带宽扩展的高频编码/高频解码方法和设备 | |
US8069040B2 (en) | Systems, methods, and apparatus for quantization of spectral envelope representation | |
KR100488080B1 (ko) | 멀티모드 음성 인코더 | |
CN117940994A (zh) | 基于长期预测和/或谐波后置滤波生成预测频谱的处理器 | |
Moriya et al. | Progress in LPC-based frequency-domain audio coding | |
Song et al. | Harmonic enhancement in low bitrate audio coding using an efficient long-term predictor | |
AU2014280256B2 (en) | Apparatus and method for audio signal envelope encoding, processing and decoding by splitting the audio signal envelope employing distribution quantization and coding | |
US20240321285A1 (en) | Method and device for unified time-domain / frequency domain coding of a sound signal | |
KR20220084294A (ko) | 생성 모델을 사용한 오디오 신호의 파형 코딩 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141010 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5978218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |