JP6456412B2 - Celp符号器および復号器で使用するための柔軟で拡張性のある複合革新コードブック - Google Patents

Celp符号器および復号器で使用するための柔軟で拡張性のある複合革新コードブック Download PDF

Info

Publication number
JP6456412B2
JP6456412B2 JP2017000076A JP2017000076A JP6456412B2 JP 6456412 B2 JP6456412 B2 JP 6456412B2 JP 2017000076 A JP2017000076 A JP 2017000076A JP 2017000076 A JP2017000076 A JP 2017000076A JP 6456412 B2 JP6456412 B2 JP 6456412B2
Authority
JP
Japan
Prior art keywords
codebook
celp
excitation
innovation
contribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017000076A
Other languages
English (en)
Other versions
JP2017083876A (ja
Inventor
ブリュノ・ベセット
Original Assignee
ヴォイスエイジ・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=44798205&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6456412(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ヴォイスエイジ・コーポレーション filed Critical ヴォイスエイジ・コーポレーション
Publication of JP2017083876A publication Critical patent/JP2017083876A/ja
Application granted granted Critical
Publication of JP6456412B2 publication Critical patent/JP6456412B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Algebra (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本開示は、符号励振線形予測(CELP)符号器および復号器で使用するための複合革新コードブックデバイスおよび対応する方法に関する。
CELPモデルは、音響信号、例えば音声を低ビットレートで符号化するために広く使用されている。CELPでは、音響信号は、時変合成フィルターを通して処理される励振としてモデル化される。時変合成フィルターは、多くの形態をとることもあるけれども、線形再帰型全極フィルターが、しばしば使用される。この時変合成フィルターの逆のものは、それ故に線形オールゼロ非再帰型フィルターであるが、それが音響信号のサンプルs[i]と音響信号の前のサンプルs[i-1]、s[i-2]、・・、s[i-m]の加重和との間の予測誤差を最小化するように計算される係数を含み、ただしmはフィルターの次数であるので、それは、「短期予測」(STP)フィルターと呼ばれる。STPフィルターによく使用される別の名称は、「線形予測」(LP)フィルターである。
もしLPフィルターからの予測誤差の残差が、適切な初期状態を持つ時変合成フィルターの入力として適用されるならば、その合成フィルターの出力は、音声などの元の音響信号である。低ビットレートでは、正確な予測誤差残差を送ることは、不可能である。それに応じて、予測誤差残差は、励振と呼ばれる近似を形成するように符号化される。伝統的なCELP符号器では、励振は、2つの寄与の和として符号化され、第1の寄与は、いわゆる適応コードブックから生成され、第2の寄与は、いわゆる革新または固定コードブックから生成される。適応コードブックは本質的に、適切な利得を持つ過去の励振からのサンプルのブロックである。革新または固定コードブックは、LPフィルターおよび適応コードブックから予測誤差残差を符号化するタスクを有するコードベクトルで占められる。
革新または固定コードブックは、多くの構造体および制約を使用して設計できる。しかしながら、現代の音声符号化システムでは、代数的符号励振線形予測(ACELP)モデルが、しばしば使用される。ACELPは、音声符号化の当業者には周知であり、それに応じて、本明細書では詳細に述べられない。要約すると、ACELP革新コードブックでのコードベクトルは各々、パルス位置の異なる交互的トラックに属していると見なせるごく少数の非ゼロパルスを含有する。トラックおよびトラック当たりの非ゼロパルスの数は通常、ACELP革新コードブックのビットレートに依存する。ACELP符号器のタスクは、誤差基準を最小化するようにパルスの位置およびサインを探索することである。ACELPでは、この探索は、合成による分析手順を使用して行われ、その手順では誤差基準は、励振領域ではなくむしろ合成領域で、すなわち所与のACELPコードベクトルが時変合成フィルターを通してフィルタリングされた後に計算される。効率的なACELP探索アルゴリズムは、非常に大きなACELP革新コードブックを使ってさえ高速探索を可能にするために提案されている。
図1は、ACELP復号器100の主要構成要素および動作原理を示す概略ブロック図である。図1を参照すると、ACELP復号器100は、復号化済みピッチパラメーター101および復号化済みACELPパラメーター102を受け取る。復号化済みピッチパラメーター101は、適応コードベクトルを生成するために適応コードブック103に適用されるピッチ遅延を含む。本明細書の上で示されるように、適応コードブック103は本質的に、過去の励振からのサンプルのブロックであり、適応コードベクトルは、過去の励振を含む方程式を使用してそのピッチ遅延に過去の励振を補間することによって見いだされる。復号化済みピッチパラメーターはまた、第1の適応コードブック寄与113を形成するための増幅器112を使用して適応コードブック103からの適応コードベクトルに適用されるピッチ利得も含む。適応コードブック103および増幅器112は、適応コードブック構造体を形成する。復号化済みACELPパラメーターは、対応する革新コードベクトルを出力するために革新コードブック104に適用されるコードブックインデックスを含むACELP革新コードブックパラメーターを含む。復号化済みACELPパラメーターはまた、第2の革新コードブック寄与114を形成するための増幅器105を用いてコードブック104からの革新コードベクトルに適用される革新コードブック利得も含む。革新コードブック104および増幅器105は、革新コードブック構造体110を形成する。全励振115は次いで、第1の適応コードブック寄与113および第2の革新コードブック寄与114の加算器106での合計を通じて形成される。全励振115は次いで、LP合成フィルター107を通して処理されて元の音響信号、例えば音声の合成111を生成する。適応コードブック103のメモリは、現在のフレームの励振を使用して次のフレームのために更新され(矢印108)、適応コードブック103は次いで、次のサブフレームの復号化済みピッチパラメーターを処理することに移る(矢印109)。いくつかの変更が、前に述べられた基本的CELPモデルになされてもよい。例えば、合成フィルターの入力での励振信号は、信号を強めるように処理されてもよい。また後処理が、合成フィルターの出力において適用されてもよい。さらに、適応および代数的コードブックの利得は、一緒に量子化されてもよい。
ACELPコードブックは、音声を低ビットレートで符号化するのに非常に効率的であるけれども、ACELPコードブックサイズを増加させるとき、変換符号化およびベクトル量子化などの他の手法ほど速く品質が向上しないこともある。dB/ビット/サンプル単位で測定されるとき、ACELP革新コードブックでトラック当たりより多くの非ゼロパルスを使用することによって得られるより高いビットレート(例えば、16kbit/sよりも高いビットレート)での利得は、変換符号化およびベクトル量子化の利得(dB/ビット/サンプル単位で)ほど大きくない。これは、ACELPが本質的に、合成フィルターの遅延インパルス応答および拡大縮小されたインパルス応答の和として音響信号を符号化することを考えるとわかる。より低いビットレート(例えば、12kbit/sよりも低いビットレート)では、ACELP技術は、励振の必須成分を速く獲得する。しかしより高いビットレートでは、より高い粒度、特に、どのように追加のビットが信号の異なる周波数成分にわたって費やされるかについてのより良好な制御が、有用である。
従って、より高いビットレートで使用するためにより良く適合された革新コードブック構造体の必要性がある。
より具体的には、本開示は、
第1の適応コードブック励振残差を事前量子化するステップであって、変換領域で行われるその事前量子化するステップ、および第1の適応コードブック励振残差から生成される第2の励振残差に応答してCELP革新コードブックを探索するステップを含む、複合革新コードブック符号化方法、
事前量子化済み符号化パラメーターを第1の革新励振寄与に逆量子化するステップであって、符号化パラメーターの逆変換を計算するステップを含む、その事前量子化済み符号化パラメーターを逆量子化するステップ、および第2の革新励振寄与を生成するためにCELP革新コードブックパラメーターをCELP革新コードブック構造体に適用するステップを含む、複合革新コードブック復号化方法、
第1の適応コードブック励振残差の事前量子化器であって、変換領域で動作するその事前量子化器、および第1の適応コードブック励振残差から生成される第2の励振残差に応答するCELP革新コードブックモジュールを含む、複合革新コードブック符号化デバイス、
上述の複合革新コードブック符号化デバイスを含むCELP符号器、
事前量子化済み符号化パラメーターの第1の革新励振寄与への逆量子化器であって、その符号化パラメーターに応答する逆変換計算機を含むその逆量子化器、および第2の革新励振寄与を生成するようにCELP革新コードブックパラメーターに応答するCELP革新コードブック構造体を含む複合革新コードブック、ならびに
上述の複合革新コードブックを含むCELP復号器に関する。
複合革新コードブックデバイスおよび対応する方法の前述および他の特徴は、ほんの一例として添付図面を参照すると仮定して、例示的な実施形態の次の非制限的説明を読むことでより明らかになろう。
適応および革新コードブック構造体を含み、この限定されない例ではACELPを使用するCELP復号器の概略ブロック図である。 周波数領域で動作する第1の復号化段および例えばACELP革新コードブックを使用して時間領域で動作する第2の復号化段によって形成される複合革新コードブックを含むCELP復号器の概略ブロック図である。 複合革新コードブック符号化デバイスを使用するCELP符号器の一部分の概略ブロック図である。 プリエンファシスフィルターF(z)についての周波数応答の例を示すグラフであり、プリエンファシスフィルターのダイナミックスは、周波数応答の最小振幅と最大振幅との間の差(dB単位で)として示される。
図2の復号器200を参照すると、CELP革新コードブック構造体、例えば図1のACELP革新コードブック構造体110は、より高いビットレートではより良好な性能および拡張性を提供しながら、より低いビットレートではACELPの利点および符号化効率が保持されるように変更される。もちろん、ACELP以外のCELPモデルが、使用される可能性もある。
より具体的には、図2は、図1のACELP革新コードブック構造体110の変更から結果として生じる柔軟で拡張性のある「複合革新コードブック」201を示す。例示されるように、複合革新コードブック201は、2つの段、変換領域で動作する第1の復号化段202および時間領域ACELPコードブックを使用する第2の復号化段203の組合せを含む。
図2の復号器200をさらに説明するより前に、ACELP符号器300が、図3を参照して部分的に説明される。
線形予測フィルタリング
図3を参照すると、ACELP符号器300は、符号化すべき入力音響信号302を処理するLPフィルター301を含む。LPフィルター301は、例えばz変換で次の伝達関数、
を提示してもよく、ただしaiは、a0 = 1となる線形予測係数(LP係数)であり、Mは、線形予測係数の数(LP分析の次数)である。LP係数aiは、ACELP符号器300のLP分析器(図示されず)で決定される。
LPフィルター301は、それの出力にLP残差303を生成する。
適応コードブック探索 LPフィルター301からのLP残差信号303は、適応コードブック寄与305を見いだすためにACELP符号器300の適応コードブック探索モジュール304で使用される。適応コードブック探索モジュール304はまた、ピッチ遅延およびピッチ利得を含む、復号器200(図2)に送られるピッチパラメーター320も生成する。閉ループピッチ探索としてもまた周知の適応コードブック探索は通常、いわゆる目標信号の計算および聴覚的加重領域で元の信号と合成信号との間の誤差を最小化することによってパラメーターを見いだすことを含む。ACELP符号器の適応コードブック探索は、その他の点では当業者には周知であると思われ、それに応じて、本明細書ではさらに述べられない。
ACELP符号器300はまた、変換領域で動作し、事前量子化器と呼ばれる第1の符号化段306、および時間領域で動作し、例えばACELPを使用する第2の符号化段307を含む複合革新コードブック符号化デバイスも含む。例示的な実施形態での図3で例示されるように、第1の段または事前量子化器306は、低周波数を強調するプリエンファシスフィルターF(z)308、離散コサイン変換(DCT)計算機309および代数的ベクトル量子化器(AVQ)310(それはAVQ大域的利得を含む)を含む。第2の段307は、ACELP革新コードブック探索モジュール311を含む。DCTおよびAVQの使用は、単に例であり、他の変換が、使用されてもよく、変換係数を量子化するための他の方法がまた、使用されてもよいことに留意すべきである。
本明細書の上で述べられるように、事前量子化器306は、例えば音響信号の周波数表現としてのDCTおよびDCTの周波数領域係数を量子化し、符号化するための代数的ベクトル量子化器(AVQ)を使用してもよい。事前量子化器306は、特により低いビットレートにおいて、第1の段の量子化器よりもむしろ事前調整段としてより多く使用される。より具体的には、事前量子化器306を使用して、ACELP革新コードブック探索モジュール311(第2の符号化段307)は、第1の適応コードブック励振残差313よりも正常なスペクトルダイナミックスを持つ第2の励振残差312(図3)に適用される。その意味では、事前量子化器306は、適応コードブック探索の不完全な働きに部分的に起因する、時間および周波数での大きな信号ダイナミックスを吸収し、LP加重領域での(ACELP符号器300で行われ、音声符号化の当業者には周知の典型的な合成による分析ループでの)符号化誤差を最小化するタスクをACELP革新コードブック探索に任せる。
ピッチ残差信号313の生成
ACELP符号器300は、LP残差信号303から適応コードブック寄与305を引いて事前量子化器306に入力される上述の第1の適応コードブック励振残差313を生成するための減算器314を含む。適応コードブック励振残差r1[n]は、
r1[n]=r[n] -gpν[n]
によって与えられ、ただしr[n]は、LP残差であり、gpは、適応コードブック利得であり、ν[n]は、適応コードブック励振(通常補間された過去の励振)である。
事前量子化
事前量子化器306の動作は、図3を参照して次に述べられる。
プリエンファシスフィルタリング
第2の符号化段307でACELP革新コードブック探索のサブフレームと整列している所与のサブフレームでは、第1の適応コードブック励振残差313(図3)は、プリエンファシスフィルターF(z)308を使ってプリエンファシスされる。図4は、プリエンファシスフィルターF(z)308の周波数応答の例を示し、プリエンファシスフィルターのダイナミックスは、周波数応答の最小振幅と最大振幅との間の差(dB単位で)として示される。例となるプリエンファシスフィルターF(z)は、
F(z)=1/(1- αz-1)
によって与えられ、それは、差分方程式 y[n]=x[n]+ αy[n-1]
に対応し、ただしx[n]は、プリエンファシスフィルターF(z)308に入力される第1の適応コードブック励振残差313であり、y[n]は、プリエンファシスされた第1の適応コードブック励振残差であり、係数αは、プリエンファシスのレベルを制御する。この限定されない例では、もしαの値が、0から1の間に設定されるならば、プリエンファシスフィルターF(z)308は、より低い周波数でより大きな利得およびより高い周波数でより低い利得を有することになり、それは、より低い周波数が増幅される、プリエンファシスされた第1の適応コードブック励振残差y[n]を生成することになる。プリエンファシスフィルターF(z)308は、この残差のより低い周波数を強化するためにスペクトル傾斜を第1の適応コードブック励振残差313に適用する。
DCT計算
計算機309は、例えば長方形の非重なり窓を使用してプリエンファシスフィルターF(z)308からのプリエンファシスされた第1の適応コードブック励振残差y[n]に例えばDCTを適用する。この限定されない例では、DCT-IIが、使用され、それは、
として定義される。
代数的ベクトル量子化(AVQ)
量子化器、例えばAVQ310は、計算機309からのDCT Y[k](DCT変換され、ディエンファシスされた第1の適応コードブック励振残差)の周波数領域係数を量子化し、符号化する。AVQ実装の例は、米国特許第7,106,228号で見いだすことができる。AVQ310からの量子化され、符号化された周波数領域DCT係数315は、事前量子化済みパラメーターとして復号器(図2)に送られる。例えば、AVQ310は、事前量子化済みパラメーターとして大域的利得および拡大縮小された量子化済みDCT係数を生成してもよい。
ビットレートに応じて、AVQ310についての目標信号対雑音比(SNR)が、設定される(AVQ_SNR(図4))。ビットレートが高いほど、このSNRは、高く設定される。AVQ310の大域的利得は次いで、スペクトル_最大-AVQ_SNRよりも大きい平均振幅を持つDCT係数のブロックだけが量子化されることになるように設定され、ただしスペクトル_最大は、プリエンファシスフィルターF(z)308の周波数応答の最大振幅である。他の量子化されないDCT係数は、0に設定される。別の手法では、DCT係数の量子化済みブロックの数は、ビットレート量に依存し、例えばAVQは、利用できるビット量に応じて、より低い周波数だけに関係する変換係数を符号化してもよい。
励振残差信号312の生成
逆DCT計算
第2の符号化段307(この例ではACELP革新コードブック探索、他のCELP構造体がまた使用される可能性もある)のための励振残差信号312を得るために、AVQ310からのAVQ量子化済みDCT係数315は、計算機316で逆DCT変換される。
ディエンファシスフィルタリング
次いで逆DCT変換された係数315は、ディエンファシスフィルター1/F(z)317を通して処理されて事前量子化器306から時間領域寄与318を得る。ディエンファシスフィルター1/F(z)317は、プリエンファシスフィルターF(z)308の逆伝達関数を有する。本明細書の上で与えられるプリエンファシスフィルターF(z)308のための限定されない例では、ディエンファシスフィルター1/F(z)=1 - αz-1の差分方程式は、
y[n]=x[n]- αx[n-1]
によって与えられ、ただし、ディエンファシスフィルターの場合には、x[n]は、プリエンファシスされた量子化済み励振残差(計算機316から)であり、y[n]は、ディエンファシスされた量子化済み励振残差(時間領域寄与318)であり、係数αは、本明細書の上で定義されている。
第2の励振残差を生成するための減算
最後に、減算器319は、現在のサブフレームで適応コードブック探索を用いて見いだされる適応コードブック寄与305からディエンファシスされた励振残差y[n](時間領域寄与318)を引いて第2の励振残差312をもたらす。
ACELP革新コードブック探索
第2の励振残差312は、第2の符号化段307でACELP革新コードブック探索モジュール311によって符号化される。ACELP符号器の革新コードブック探索は、その他の点では当業者に周知であると思われ、それに応じて、本明細書ではさらに述べられない。ACELP革新コードブック探索計算機311の出力でのACELP革新コードブックパラメーター333は、ACELPパラメーターとして復号器(図2)に送られる。符号化パラメーター333は、革新コードブックインデックスおよび革新コードブック利得を含む。
複合革新コードブック201の動作
図2の復号器200に戻って参照すると、逆量子化器202と呼ばれる、複合革新コードブック201の第1の復号化段は、AVQ復号器および逆DCT計算機204、ならびに図3の符号器300のフィルター317に対応する逆フィルター1/F(z)205を含む。逆量子化器202からの寄与は、次の通りに得られる。
AVQ復号化
まず初めに、変換領域復号器(204)、この例ではAVQ(204)が、例えば図3のAVQ310からのAVQ量子化済みDCT係数315(それはAVQ大域的利得を含むこともある)によって形成される復号化済み事前量子化済み符号化パラメーターを受け取る。より具体的には、AVQ復号器は、復号器200によって受け取られる復号化済み事前量子化済み符号化パラメーターを逆量子化する。
逆DCT計算
逆DCT計算機(204)は次いで、逆変換、例えば逆DCTをAVQ復号器からの逆量子化され、拡大縮小されたパラメーターY'[k]に適用する。この限定されない例では、
として定義される逆DCT-IIが、使用される。
ディエンファシスフィルタリング(1/F(z))
復号器/計算機204からのAVQ復号化され、逆DCT変換されたパラメーターy'[n]は次いで、ディエンファシスフィルター1/F(z)205を通して処理されて逆量子化器202から第1の段の革新励振寄与208を生成する。
ACELPパラメーター復号化
図3のACELP革新コードブック探索計算機311での符号化(第2の符号化段307)はまた、傾斜フィルター(図示されず)を組み込んでもよく、それは、第1の符号化段306のDCT計算機309およびAVQ310からの情報によって制御されてもよいが必ずしもそうでなくてもよい。図2の復号器200では、復号化済みACELPパラメーターは、第2の復号化段203によって受け取られる。復号化済みACELPパラメーターは、ACELP革新コードブック探索計算機311の出力でのACELP革新コードブックパラメーター333を含み、それは、復号器(図2)に送られ、革新コードブックインデックスおよび革新コードブック利得を含む。図2の複合革新コードブック201の第2の復号化段は、増幅器207を使用して革新コードブック利得だけ増幅されるコードベクトルを生成するように革新コードブックインデックスに応答するACELPコードブック206を含む。第2のACELP革新コードブック励振寄与209は、増幅器207の出力に生成される。このACELP革新コードブック励振寄与209は、逆量子化器202での逆フィルター1/F(z)205の関係と同じように、上述の傾斜フィルターが符号器(図示されず)に組み込まれる場合にはそれの逆のものを通して処理される。使用される傾斜フィルターは、フィルターF(z)と同じとすることができるが、しかし一般的にそれは、F(z)とは異なることになる。
励振寄与の追加
最後に、復号器200は、適応コードブック寄与113、逆量子化器202からの励振寄与208およびACELP革新コードブック励振寄与209を合計して全励振信号211を形成するための加算器210を含む。
合成フィルタリング
励振信号211は、LP合成フィルター212を通して処理されて音響信号213を回復する。
図3を参照すると、事前量子化器306のDCT計算機309およびAVQ310は、ダイナミックスで所与のしきいを超える励振残差スペクトルの部分を符号化することに集中する。それは、典型的な2段量子化器での場合のように、第2の符号化段307のための第2の励振残差312を白色化することを目指していない。従って、符号器300においては、第2の段307(ACELP革新コードブック探索モジュール311)によって符号化される第2の励振残差312は、制御されたスペクトルダイナミックスを持つ励振残差であり、「過剰な」スペクトルダイナミックスは、第1の符号化段で事前量子化器306によってある程度吸収されている。ビットレートが増加するにつれて、DC成分から出発する、AVQ_SNR(図4)および量子化済みDCTブロックの数の両方は、第1の段で増加する。別の例では、量子化済みDCTブロックの数は、利用できるビットレート量に依存する。
しかしながら、ビットレートが高いほど、より多くのビットが、比例して、第1の符号化段で事前量子化器306によって使用され、それは、加重LPフィルターのスペクトル包絡線に追随するために全符号化ノイズがますます多く形成される結果をもたらす。
本発明は、例示的な実施形態に関係して前述の説明で述べられたけれども、これらの実施形態は、本発明の範囲および本質から逸脱することなく添付の請求項の範囲内で随意に変更されてもよい。
100 ACELP復号器
101 復号化済みピッチパラメーター
102 復号化済みACELPパラメーター
103 適応コードブック
104 革新コードブック
105 増幅器
106 加算器
107 LP合成フィルター
108 矢印(次のフレームのためのメモリ)
109 矢印(次のフレームのためのシフト)
110 革新コードブック構造体
111 元の音響信号の合成
112 増幅器
113 第1の適応コードブック寄与
114 第2の革新コードブック寄与
115 全励振
200 復号器
201 複合革新コードブック
202 第1の復号化段、逆量子化器
203 第2の復号化段
204 AVQ復号器および逆DCT計算機
205 逆フィルター1/F(z)
206 ACELPコードブック
207 増幅器
208 第1の段の革新励振寄与
209 第2のACELP革新コードブック励振寄与
210 加算器
211 全励振信号
212 LP合成フィルター
213 音響信号

Claims (34)

  1. 符号化パラメーターの第1、第2、および第3セットに音を符号化するための符号励振線形予測(CELP)コードブック符号化デバイスであって、
    入力音響信号を処理し、第1のLP残差を生成するための線形予測(LP)フィルターと、
    前記第1のLP残差に応答して、適応コードブック寄与を見いだし、符号化パラメーターの前記第1のセットを形成するピッチパラメーターを生成するための適応コードブック探索モジュールと、
    前記適応コードブック寄与と前記第1のLP残差との間の差として第2の適応コードブック励振残差を生成するための第1の減算器と、
    符号化パラメーターの前記第2のセットを形成する量子化済み変換係数を生成するために前記第2の適応コードブック励振残差の変換の計算機を含む事前量子化器と、
    前記量子化済み変換係数の逆変換されたバージョンと前記適応コードブック寄与との間の差として第3の励振残差を生成するための第2の減算器と、
    前記第3の励振残差に応答して、革新コードブック寄与を見いだし、符号化パラメーターの前記第3のセットを形成する革新コードブックパラメーターを生成するためのCELP革新コードブック探索モジュールと、を含む、
    CELPコードブック符号化デバイス。
  2. 前記事前量子化器の前記変換計算機は、離散コサイン変換(DCT)係数を生成する前記第2の適応コードブック励振残差のDCTの計算機である、請求項1に記載のCELPコードブック符号化デバイス。
  3. 前記変換計算機は、変換係数を生成し、前記事前量子化器は、前記量子化済み変換係数を生成する前記変換係数の量子化器を含む、請求項1または2に記載のCELPコードブック符号化デバイス。
  4. 前記事前量子化器の前記量子化器は、前記変換計算機からの前記変換係数に応答して、代数的ベクトル量子化済み変換係数を生成する代数的ベクトル量子化器である、請求項3に記載のCELPコードブック符号化デバイス。
  5. 前記事前量子化器が、前記変換を計算する前にプリエンファシスされた第2の適応コードブック励振残差を生成するために前記第2の適応コードブック励振残差のプリエンファシスフィルターを含む、請求項1乃至4のいずれか一項に記載のCELPコードブック符号化デバイス。
  6. 前記プリエンファシスフィルターは、前記第2の適応コードブック励振残差の低周波数を強調する、請求項5に記載のCELPコードブック符号化デバイス。
  7. 量子化済み変換係数の逆変換の計算機と、前記量子化済み変換係数の前記逆変換されたバージョンを形成する時間領域寄与を生成する逆変換された係数のディエンファシスフィルターを含むCELPコードブック符号化デバイスであって、前記第2の減算器は、前記第3の励振残差を生成するために、前記適応コードブック寄与から前記時間領域寄与を減算する、請求項5または6に記載のCELPコードブック符号化デバイス。
  8. 前記CELP革新コードブック探索モジュールは、代数的CELP(ACELP)革新コードブック探索モジュールである、請求項1から7のいずれか一項に記載のCELPコードブック符号化デバイス。
  9. 前記事前量子化器は、指定のしきいを超えるエネルギーを有する変換係数だけを量子化し、その結果前記第3の励振残差のスペクトルダイナミックスは、所望の範囲内に低減されるまたは維持される、請求項1から8のいずれか一項に記載のCELPコードブック符号化デバイス。
  10. 前記量子化器は、利用できるビット量に応じて、より低い周波数だけに関係する変換係数を符号化する、請求項3に記載のCELPコードブック符号化デバイス。
  11. 請求項1から10のいずれか一項に記載の符号励振線形予測(CELP)コードブック符号化デバイスを含むCELP符号器。
  12. ピッチパラメーター、事前量子化された符号化パラメーター、および革新コードブックパラメーターに応答して音を復号化するための符号励振線形予測(CELP)コードブック復号化デバイスであって、
    前記ピッチパラメーターに応答して、適応コードブック寄与を生成するための適応コードブック構造体と、
    前記事前量子化された符号化パラメーターの第1の革新励振寄与への逆量子化器であって、前記逆量子化器が前記符号化パラメーターに応答する逆変換計算機を含む、符号化パラメーターの逆量子化器と、
    第2の革新励振寄与を生成する前記革新コードブックパラメーターに応答するCELP革新コードブック構造体と、
    前記適応コードブック寄与の加算器であって、全励振信号を形成するための、前記第1の革新励振寄与と、前記第2の革新励振寄与との加算器と、
    前記全励振信号を形成し、および前記音の合成を表す合成信号を生成するための、線形予測(LP)合成フィルターと、を含む、
    CELPコードブック復号化デバイス。
  13. 前記逆量子化器は、前記事前量子化済み符号化パラメーターを逆量子化するための復号器を含む、請求項12に記載のCELPコードブック復号化デバイス。
  14. 前記復号器は、代数的ベクトル量子化器(AVQ)復号器を含む、請求項13に記載のCELPコードブック復号化デバイス。
  15. 前記逆変換計算機は、前記逆量子化済み符号化パラメーターに応答する、請求項13または14に記載のCELPコードブック復号化デバイス。
  16. 前記逆変換は、逆離散コサイン変換(DCT)である、請求項15に記載のCELPコードブック復号化デバイス。
  17. 前記逆量子化器は、前記第1の革新励振寄与を生成するために前記逆変換された逆量子化済み符号化パラメーターを供給されるディエンファシスフィルターを含む、請求項15または16に記載のCELPコードブック復号化デバイス。
  18. 請求項12から17のいずれか一項に記載の符号励振線形予測(CELP)コードブッ
    ク復号化デバイスを含む、CELP復号器。
  19. 音を符号化パラメーターの第1、第2、および第3のセットに符号化するための符号励振線形予測(CELP)コードブック符号化方法であって、
    音響信号を使用して第1の線形予測(LP)残差を生成するステップと、
    前記第1のLP残差に応答して、適応コードブック寄与を見いだしかつ符号化パラメーターの前記第1のセットを形成するピッチパラメーターを生成するために、適応コードブックを探索するステップと、
    前記適応コードブック寄与と前記第1のLP残差との差として第2の適応コードブック励振残差を生成するステップと、
    前記第2の適応コードブック励振残差を事前量子化するステップであって、前記事前量子化するステップが、符号化パラメーターの前記第2のセットを形成する量子化済み変換係数を生成するために前記第2の適応コードブック励振残差の変換を計算するステップを含む、事前量子化するステップと、
    前記量子化済み変換係数の逆変換されたバージョンと前記適応コードブック寄与との差として第3の励振残差を生成するステップと、
    前記第3の励振残差に応答して、革新コードブック寄与を見いだし、符号化パラメーターの前記第3のセットを形成する革新コードブックパラメーターを生成するためにCELP革新コードブックを探索するステップと、を含む、
    CELPコードブック符号化方法。
  20. 前記変換は、離散コサイン変換(DCT)である、請求項19に記載のCELPコードブック符号化方法。
  21. 前記事前量子化するステップは、変換係数を生成するように前記第2の適応コードブック励振残差の前記変換を計算するステップと、前記量子化済み変換係数を生成するように前記変換係数を量子化するステップとを含む、請求項19または20に記載のCELPコードブック符号化方法。
  22. 前記変換係数を量子化するステップは、前記変換係数を代数的ベクトル量子化するステップを含む、請求項21に記載のCELPコードブック符号化方法。
  23. 前記第2の適応コードブック励振残差を事前量子化するステップは、前記第2の適応コードブック励振残差の前記変換を計算するより前に前記第2の適応コードブック励振残差をプリエンファシスフィルタリングするステップを含む、請求項19から22のいずれか一項に記載のCELPコードブック符号化方法。
  24. プリエンファシスフィルタリングするステップは、前記第2の適応コードブック励振残差の低周波数を強調するステップを含む、請求項23に記載のCELPコードブック符号化方法。
  25. 前記量子化済み変換係数の逆変換を計算するステップと、前記量子化済み変換係数の前記逆変換されたバージョンを形成する時間領域寄与を生成するために前記逆変換係数をディエンファシスフィルタリングするステップと、を含み、前記第3の励振残差を生成するステップは、前記適応コードブック寄与から前記時間領域寄与を減算するステップを含む、請求項19乃至24のいずれか一項に記載のCELPコードブック符号化方法。
  26. 前記CELP革新コードブック探索は、ACELP革新コードブック探索である、請求項19から25のいずれか一項に記載のCELPコードブック符号化方法。
  27. 前記第2の適応コードブック励振残差を事前量子化するステップは、指定のしきいを超えるエネルギーを有する変換係数だけを事前量子化するステップを含み、その結果前記第3の励振残差のスペクトルダイナミックスは、所望の範囲内に低減されるまたは維持される、請求項19から26のいずれか一項に記載のCELPコードブック符号化方法。
  28. 前記変換係数を量子化するステップは、利用できるビット量に応じて、より低い周波数だけに関係する変換係数を符号化するステップを含む、請求項21または22に記載のCELPコードブック符号化方法。
  29. ピッチパラメーター、事前量子化された符号化パラメーター、および革新コードブックパラメーターに応答して、音を復号化するための符号励振線形予測(CELP)コードブック復号化方法であって、
    適応コードブック寄与を生成するために前記ピッチパラメーターを適応コードブック構造体に適用するステップと、
    前記事前量子化された符号化パラメーターを第1の革新励振寄与に逆量子化するステップであって、前記事前量子化された符号化パラメーターを逆量子化するステップは、前記符号化パラメーターの逆変換を計算するステップを含む、逆量子化するステップと、
    第2の革新励振寄与を生成するために前記革新コードブックパラメーターをCELP革新コードブック構造体に適用するステップと、
    全励振信号を形成するために、前記適応コードブック寄与、前記第1の革新励振寄与、および前記第2の革新励振寄与を追加するステップと、
    前記音の合成を表す合成信号を生成するために、線形予測(LP)合成フィルターを介して前記全励振信号を処理するステップと、を含む、
    CELPコードブック復号化方法。
  30. 前記事前量子化済み符号化パラメーターを逆量子化するステップは、逆量子化された符号化パラメーターを生成するように前記事前量子化済み符号化パラメーターを復号化するステップを含む、請求項29に記載のCELPコードブック復号化方法。
  31. 前記事前量子化済み符号化パラメーターを復号化するステップは、前記事前量子化済み符号化パラメーターを代数的ベクトル量子化器(AVQ)復号化するステップを含む、請求項30に記載のCELPコードブック復号化方法。
  32. 前記符号化パラメーターの逆変換を計算するステップは、前記逆量子化された符号化パラメーターの前記逆変換を計算するステップを含む、請求項30または31に記載のCELPコードブック復号化方法。
  33. 前記逆変換は、逆離散コサイン変換(DCT)である、請求項32に記載のCELPコードブック復号化方法。
  34. 前記逆変換され、逆量子化された符号化パラメーターをディエンファシスフィルタリングして前記第1の革新励振寄与を生成するステップを含む、請求項32に記載のCELPコードブック復号化方法。
JP2017000076A 2010-04-14 2017-01-04 Celp符号器および復号器で使用するための柔軟で拡張性のある複合革新コードブック Active JP6456412B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US32419110P 2010-04-14 2010-04-14
US61/324,191 2010-04-14

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013504078A Division JP6073215B2 (ja) 2010-04-14 2011-04-08 Celp符号器および復号器で使用するための柔軟で拡張性のある複合革新コードブック

Publications (2)

Publication Number Publication Date
JP2017083876A JP2017083876A (ja) 2017-05-18
JP6456412B2 true JP6456412B2 (ja) 2019-01-23

Family

ID=44798205

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013504078A Active JP6073215B2 (ja) 2010-04-14 2011-04-08 Celp符号器および復号器で使用するための柔軟で拡張性のある複合革新コードブック
JP2017000076A Active JP6456412B2 (ja) 2010-04-14 2017-01-04 Celp符号器および復号器で使用するための柔軟で拡張性のある複合革新コードブック

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013504078A Active JP6073215B2 (ja) 2010-04-14 2011-04-08 Celp符号器および復号器で使用するための柔軟で拡張性のある複合革新コードブック

Country Status (16)

Country Link
US (1) US9053705B2 (ja)
EP (1) EP2559028B1 (ja)
JP (2) JP6073215B2 (ja)
KR (1) KR101771065B1 (ja)
CN (1) CN102844810B (ja)
AU (1) AU2011241424B2 (ja)
BR (1) BR112012025347B1 (ja)
CA (1) CA2789107C (ja)
DK (1) DK2559028T3 (ja)
ES (1) ES2552179T3 (ja)
MX (1) MX2012011943A (ja)
MY (1) MY162594A (ja)
PT (1) PT2559028E (ja)
RU (1) RU2547238C2 (ja)
WO (1) WO2011127569A1 (ja)
ZA (1) ZA201206333B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NO2669468T3 (ja) * 2011-05-11 2018-06-02
KR101737254B1 (ko) 2013-01-29 2017-05-17 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 오디오 신호, 디코더, 인코더, 시스템 및 컴퓨터 프로그램을 합성하기 위한 장치 및 방법
ES2827278T3 (es) 2014-04-17 2021-05-20 Voiceage Corp Método, dispositivo y memoria no transitoria legible por ordenador para codificación y decodificación predictiva linealde señales sonoras en la transición entre tramas que tienen diferentes tasas de muestreo
CN105225671B (zh) 2014-06-26 2016-10-26 华为技术有限公司 编解码方法、装置及系统
WO2018148849A1 (en) 2017-02-17 2018-08-23 Hyasynth Biologicals Inc. Method and cell line for production of polyketides in yeast
CN111133510B (zh) 2017-09-20 2023-08-22 沃伊斯亚吉公司 用于在celp编解码器中高效地分配比特预算的方法和设备

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2292466A1 (fr) 1974-11-29 1976-06-25 Creat Lab Nouveaux medicaments anti-inflammatoires et analgesiques et leur procede de preparation
JP3193515B2 (ja) * 1993-03-11 2001-07-30 株式会社日立国際電気 音声符号化通信方式及びその装置
US5657422A (en) * 1994-01-28 1997-08-12 Lucent Technologies Inc. Voice activity detection driven noise remediator
JPH09127998A (ja) * 1995-10-26 1997-05-16 Sony Corp 信号量子化方法及び信号符号化装置
JP3849210B2 (ja) * 1996-09-24 2006-11-22 ヤマハ株式会社 音声符号化復号方式
US6134518A (en) * 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
US7117146B2 (en) 1998-08-24 2006-10-03 Mindspeed Technologies, Inc. System for improved use of pitch enhancement with subcodebooks
US6480822B2 (en) * 1998-08-24 2002-11-12 Conexant Systems, Inc. Low complexity random codebook structure
US7072832B1 (en) * 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6192335B1 (en) * 1998-09-01 2001-02-20 Telefonaktieboiaget Lm Ericsson (Publ) Adaptive combining of multi-mode coding for voiced speech and noise-like signals
CA2252170A1 (en) * 1998-10-27 2000-04-27 Bruno Bessette A method and device for high quality coding of wideband speech and audio signals
US6782360B1 (en) * 1999-09-22 2004-08-24 Mindspeed Technologies, Inc. Gain quantization for a CELP speech coder
US6757648B2 (en) * 2001-06-28 2004-06-29 Microsoft Corporation Techniques for quantization of spectral data in transcoding
US6662154B2 (en) * 2001-12-12 2003-12-09 Motorola, Inc. Method and system for information signal coding using combinatorial and huffman codes
CA2388358A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for multi-rate lattice vector quantization
JP3881943B2 (ja) * 2002-09-06 2007-02-14 松下電器産業株式会社 音響符号化装置及び音響符号化方法
KR100651712B1 (ko) * 2003-07-10 2006-11-30 학교법인연세대학교 광대역 음성 부호화기 및 그 방법과 광대역 음성 복호화기및 그 방법
FR2859566B1 (fr) * 2003-09-05 2010-11-05 Eads Telecom Procede de transmission d'un flux d'information par insertion a l'interieur d'un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre
US6983241B2 (en) * 2003-10-30 2006-01-03 Motorola, Inc. Method and apparatus for performing harmonic noise weighting in digital speech coders
US7430329B1 (en) * 2003-11-26 2008-09-30 Vidiator Enterprises, Inc. Human visual system (HVS)-based pre-filtering of video data
JP4871501B2 (ja) * 2004-11-04 2012-02-08 パナソニック株式会社 ベクトル変換装置及びベクトル変換方法
KR100956877B1 (ko) * 2005-04-01 2010-05-11 콸콤 인코포레이티드 스펙트럼 엔벨로프 표현의 벡터 양자화를 위한 방법 및장치
PT1875463T (pt) * 2005-04-22 2019-01-24 Qualcomm Inc Sistemas, métodos e aparelho para nivelamento de fator de ganho
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
JP5058152B2 (ja) * 2006-03-10 2012-10-24 パナソニック株式会社 符号化装置および符号化方法
KR101565919B1 (ko) * 2006-11-17 2015-11-05 삼성전자주식회사 고주파수 신호 부호화 및 복호화 방법 및 장치
JP5339919B2 (ja) * 2006-12-15 2013-11-13 パナソニック株式会社 符号化装置、復号装置およびこれらの方法
US20080249783A1 (en) 2007-04-05 2008-10-09 Texas Instruments Incorporated Layered Code-Excited Linear Prediction Speech Encoder and Decoder Having Plural Codebook Contributions in Enhancement Layers Thereof and Methods of Layered CELP Encoding and Decoding
US8515767B2 (en) * 2007-11-04 2013-08-20 Qualcomm Incorporated Technique for encoding/decoding of codebook indices for quantized MDCT spectrum in scalable speech and audio codecs
CN101981618B (zh) * 2008-02-15 2014-06-18 诺基亚公司 复杂度减少的矢量编制索引和去索引
JP5449133B2 (ja) * 2008-03-14 2014-03-19 パナソニック株式会社 符号化装置、復号装置およびこれらの方法
JP2011518345A (ja) * 2008-03-14 2011-06-23 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション スピーチライク信号及びノンスピーチライク信号のマルチモードコーディング
CN101335000B (zh) * 2008-03-26 2010-04-21 华为技术有限公司 编码的方法及装置
FR2929466A1 (fr) * 2008-03-28 2009-10-02 France Telecom Dissimulation d'erreur de transmission dans un signal numerique dans une structure de decodage hierarchique
PL3002750T3 (pl) * 2008-07-11 2018-06-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Koder i dekoder audio do kodowania i dekodowania próbek audio

Also Published As

Publication number Publication date
US9053705B2 (en) 2015-06-09
JP2013527492A (ja) 2013-06-27
KR20130069546A (ko) 2013-06-26
EP2559028B1 (en) 2015-09-16
JP2017083876A (ja) 2017-05-18
ES2552179T3 (es) 2015-11-26
AU2011241424B2 (en) 2016-05-05
MX2012011943A (es) 2013-01-24
PT2559028E (pt) 2015-11-18
AU2011241424A1 (en) 2012-08-30
WO2011127569A1 (en) 2011-10-20
CA2789107C (en) 2017-08-15
EP2559028A4 (en) 2014-07-02
RU2012148280A (ru) 2014-05-20
BR112012025347B1 (pt) 2020-06-09
BR112012025347A2 (pt) 2016-06-28
RU2547238C2 (ru) 2015-04-10
CA2789107A1 (en) 2011-10-20
DK2559028T3 (en) 2015-11-09
KR101771065B1 (ko) 2017-08-24
CN102844810B (zh) 2017-05-03
MY162594A (en) 2017-06-30
EP2559028A1 (en) 2013-02-20
CN102844810A (zh) 2012-12-26
ZA201206333B (en) 2013-04-24
US20120089389A1 (en) 2012-04-12
JP6073215B2 (ja) 2017-02-01

Similar Documents

Publication Publication Date Title
JP6456412B2 (ja) Celp符号器および復号器で使用するための柔軟で拡張性のある複合革新コードブック
CN101180676B (zh) 用于谱包络表示的向量量化的方法和设备
KR101344174B1 (ko) 오디오 신호 처리 방법 및 오디오 디코더 장치
KR100956877B1 (ko) 스펙트럼 엔벨로프 표현의 벡터 양자화를 위한 방법 및장치
US9037456B2 (en) Method and apparatus for audio coding and decoding
RU2530926C2 (ru) Изменение формы шума округления для основанных на целочисленном преобразовании кодирования и декодирования аудио и видеосигнала
US20070016417A1 (en) Method and apparatus to quantize/dequantize frequency amplitude data and method and apparatus to audio encode/decode using the method and apparatus to quantize/dequantize frequency amplitude data
US6246979B1 (en) Method for voice signal coding and/or decoding by means of a long term prediction and a multipulse excitation signal
JP6173304B2 (ja) Celpコーダにおける変換領域コードブック装置
JPWO2014034697A1 (ja) 復号方法、復号装置、プログラム、及びその記録媒体
EP1564723A1 (en) Transcoder and coder conversion method
JP3277090B2 (ja) ゲイン量子化方法及び装置、音声符号化方法及び装置並びに音声復号化方法及び装置
JPH05173596A (ja) コード励振線形予測符号化装置
JPH06222796A (ja) 音声符号化方式
JPH07142959A (ja) ディジタルフィルタ
WO2009097763A1 (zh) 一种增益量化方法及装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181218

R150 Certificate of patent or registration of utility model

Ref document number: 6456412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250