JP5265553B2 - フレーム消去回復のシステム、方法、および装置 - Google Patents
フレーム消去回復のシステム、方法、および装置 Download PDFInfo
- Publication number
- JP5265553B2 JP5265553B2 JP2009531638A JP2009531638A JP5265553B2 JP 5265553 B2 JP5265553 B2 JP 5265553B2 JP 2009531638 A JP2009531638 A JP 2009531638A JP 2009531638 A JP2009531638 A JP 2009531638A JP 5265553 B2 JP5265553 B2 JP 5265553B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- excitation signal
- format
- encoded
- gain value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 149
- 238000011084 recovery Methods 0.000 title description 13
- 230000003044 adaptive effect Effects 0.000 claims abstract description 81
- 230000005284 excitation Effects 0.000 claims description 339
- 230000005236 sound signal Effects 0.000 claims description 48
- 230000004044 response Effects 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 4
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000002459 sustained effect Effects 0.000 abstract 1
- 230000003595 spectral effect Effects 0.000 description 68
- 238000010586 diagram Methods 0.000 description 43
- 230000008569 process Effects 0.000 description 27
- 238000001228 spectrum Methods 0.000 description 26
- 238000003860 storage Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 238000003491 array Methods 0.000 description 8
- 230000000737 periodic effect Effects 0.000 description 7
- 238000005070 sampling Methods 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000013139 quantization Methods 0.000 description 6
- 102000003712 Complement factor B Human genes 0.000 description 5
- 108090000056 Complement factor B Proteins 0.000 description 5
- 108010025037 T140 peptide Proteins 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 230000005294 ferromagnetic effect Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/09—Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/24—Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Television Systems (AREA)
- Control Of Amplification And Gain Control (AREA)
- Electrolytic Production Of Metals (AREA)
- Manufacture, Treatment Of Glass Fibers (AREA)
- Detergent Compositions (AREA)
- Circuits Of Receivers In General (AREA)
Description
以下に、本願発明の当初の特許請求の範囲に記載された発明を付記する。
[1]
復号された音声信号のフレームを入手する方法であって、
符号化された音声信号の第1の符号化されたフレームおよび第1励起信号からの情報に基づいて、前記復号された音声信号の第1フレームを計算することと、
前記第1の符号化されたフレームに直接に続く前記符号化された音声信号のフレームの消去の表示に応答して、第2励起信号に基づいて、前記第1フレームに直接に続く前記復号された音声信号の第2フレームを計算することと、
第3励起信号に基づいて、前記復号された音声信号の前記第1フレームに先行する第3フレームを計算することと、を備え、
前記第1励起信号は、(A)前記第3励起信号からの情報に基づく値の第1シーケンスと(B)第1利得係数との積に基づき、
第2フレームの前記計算は、前記第2励起信号が(A)前記第1励起信号からの情報に基づく値の第2シーケンスと(B)前記第1利得係数より大きい第2利得係数との積に基づくように、しきい値と前記第1利得係数に基づく値との間の関係に従って前記第2励起信号を生成することを含む、方法。
[2]
復号された音声信号のフレームを入手する方法であって、
第1利得係数と、値の第1シーケンスとの積に基づく第1励起信号を生成することと、
前記第1励起信号および符号化された音声信号の第1の符号化されたフレームからの情報に基づいて、前記復号された音声信号の第1フレームを計算することと、
前記第1の符号化されたフレームに直接に続く前記符号化された音声信号のフレームの消去の表示に応答して、しきい値と前記第1利得係数に基づく値との間の関係に従って、(A)前記第1利得係数より大きい第2利得係数と(B)値の第2シーケンスとの積に基づいて第2励起信号を生成することと、
前記第2励起信号に基づいて、前記復号された音声信号の前記第1フレームに直接に続く第2フレームを計算することと、
第3励起信号に基づいて、前記復号された音声信号の前記第1フレームに先行する第3フレームを計算することと、を備え、
前記第1シーケンスは前記第3励起信号からの情報に基づき、前記第2シーケンスは前記第1励起信号からの情報に基づく、方法。
[3]
前記第2シーケンスは、少なくとも、前記第1励起信号のセグメントに基づく、[2]に記載の復号された音声信号のフレームを入手する方法。
[4]
前記第1利得係数は前記第1の符号化されたフレームからの情報に基づく、[2]に記載の復号された音声信号のフレームを入手する方法。
[5]
前記復号された音声信号の第1フレームを計算することは、第1の複数のスペクトルパラメータ値に従って前記第1励起信号を処理することを含み、前記第1の複数のスペクトルパラメータ値は前記第1の符号化されたフレームからの前記情報に基づき、
前記復号された音声信号の第2フレームを計算することは、第2の複数のスペクトルパラメータ値に従って前記第2励起信号を処理することを含み、前記第2の複数のスペクトルパラメータ値は前記第1の複数のスペクトルパラメータ値に基づく、[2]に記載の復号された音声信号のフレームを入手する方法。
[6]
前記第1励起信号を生成することは、少なくとも1つのピッチパラメータに従って前記第1シーケンスを処理することを含み、前記少なくとも1つのピッチパラメータは前記第1の符号化されたフレームからの情報に基づく、請求項2に記載の復号された音声信号のフレームを入手する方法。
[7]
前記方法は、
雑音信号を生成することと、
前記生成された雑音信号に基づいて前記第3励起信号を生成することと、
を備える、[2]に記載の復号された音声信号のフレームを入手する方法。
[8]
前記第3フレームは、前記復号された音声信号内で前記第1フレームにすぐに先行する、[7]に記載の復号された音声信号のフレームを入手する方法。
[9]
前記第3フレームを計算することは、複数のスペクトルパラメータ値に従って前記第3励起信号を処理することを含み、前記複数のスペクトルパラメータ値は前記符号化された音声信号内で前記第1の符号化されたフレームに先行する第2の符号化されたフレームからの情報に基づく、[8]に記載の復号された音声信号のフレームを入手する方法。
[10]
少なくとも1つのフレーム周期が、前記符号化された音声信号内で前記第2の符号化されたフレームを前記第1の符号化されたフレームから分離する、[9]に記載の復号された音声信号のフレームを入手する方法。
[11]
値の第1シーケンスに基づいて前記第1励起信号を生成することは、符号化された音声信号の第1の符号化されたフレームが第1フォーマットを有することの表示の結果として発生し、
前記生成された雑音信号に基づいて前記第3励起信号を生成することは、前記符号化された音声信号の前記第1の符号化されたフレームに先行する第2の符号化されたフレームが第2フォーマットを有することの表示の結果として発生し、
前記第2利得係数に基づいて前記第2励起信号を生成することは、(A)前記第1の符号化されたフレームが前記第1フォーマットを有し(B)前記第2の符号化されたフレームが前記第2フォーマットを有することの表示の結果として発生する、請求項7に記載の復号された音声信号のフレームを入手する方法。
[12]
値の第1シーケンスに基づいて前記第1励起信号を生成することは、前記第1の符号化されたフレームが第1フォーマットを有することの表示の結果として発生し、
前記方法は、雑音信号を生成することを備え、
前記方法は、(A)前記符号化された音声信号内で前記第1の符号化されたフレームに先行する第2の符号化されたフレームからの情報および(B)前記生成された雑音信号に基づく第4励起信号に基づいて、前記復号された音声信号内で前記第3フレームにすぐに先行する第4フレームを計算することを備え、
前記第3フレームを計算することは、複数のスペクトルパラメータ値に従って前記第3励起信号を処理することを含み、前記複数のスペクトルパラメータ値は、(A)前記符号化された音声信号内で前記第2の符号化されたフレームに先行し(B)前記第1フォーマットを有する第3の符号化されたフレームからの情報に基づく、請求項2に記載の復号された音声信号のフレームを入手する方法。
[13]
前記方法は、前記第2の符号化されたフレームが第2フォーマットを有することの表示の結果として、前記生成された雑音信号に基づいて第4励起信号を生成することを備え、
前記第2利得係数に基づいて前記第2励起信号を生成することは、(A)前記第1の符号化されたフレームが前記第1フォーマットを有し(B)前記第2の符号化されたフレームが前記第2フォーマットを有することの表示の結果として発生する、[12]に記載の復号された音声信号のフレームを入手する方法。
[14]
前記方法は、
前記第1利得係数に基づく値をしきい値と比較することと、
前記比較の結果に基づいて、(A)複数の利得係数値の中から前記第2利得係数を選択することと(B)前記第1利得係数および前記第1利得係数に基づく前記値の中の少なくとも1つに基づいて前記第2利得係数を計算することとのうちの少なくとも1つを実行することと、
を備える、[2]に記載の復号された音声信号のフレームを入手する方法。
[15]
前記復号された音声信号の前記第1フレームは複数のサブフレームを含み、前記複数のサブフレームのそれぞれは、複数のサブフレーム励起信号のうちの対応する1つに基づき、
前記複数のサブフレーム励起信号のそれぞれは、(A)複数のサブフレーム利得係数のうちの対応する1つと(B)複数のサブフレームシーケンスのうちの対応する1つとの積に基づき、
前記第1励起信号は、前記複数のサブフレーム励起信号を含み、前記第1利得係数は前記複数のサブフレーム利得係数のうちの1つであり、前記第1シーケンスは前記複数のサブフレームシーケンスのうちの1つである、
[2]に記載の復号された音声信号のフレームを入手する方法。
[16]
前記第1利得係数に基づく前記値は前記サブフレーム利得係数の平均値に基づく、[15]に記載の復号された音声信号のフレームを入手する方法。
[17]
前記第2利得係数は前記サブフレーム利得係数の前記平均値より大きい、[16]に記載の復号された音声信号のフレームを入手する方法。
[18]
復号された音声信号のフレームを入手する装置であって、
第1、第2、および第3の励起信号を生成するように構成された励起信号ジェネレータと、
(A)前記第1励起信号および符号化された音声信号の第1の符号化されたフレームからの情報に基づいて、復号された音声信号の第1フレームを計算し、(B)前記第2励起信号に基づいて、前記復号された音声信号の前記第1フレームに直接に続く第2フレームを計算し、(C)前記第3励起信号に基づいて、前記復号された音声信号の前記第1フレームに先行する第3フレームを計算するように構成されたスペクトルシェーパと、
(A)しきい値と第1利得係数に基づく値との間の関係を評価するように構成され、(B)前記第1の符号化されたフレームにすぐに続く符号化された音声信号のフレームの消去の表示を受け取るように配置された論理モジュールと、
を備え、
前記励起信号ジェネレータは、(A)第1利得係数と(B)前記第3励起信号からの情報に基づく値の第1シーケンスとの積に基づいて前記第1励起信号を生成するように構成され、
消去の前記表示に応答し、前記評価された関係に従って、前記論理モジュールは前記励起信号ジェネレータに、(A)前記第1利得係数より大きい第2利得係数と(B)前記第1励起信号からの情報に基づく値の第2シーケンスとの積に基づいて前記第2励起信号を生成させるように構成される、
装置。
[19]
前記スペクトルシェーパは、第1の複数のスペクトルパラメータ値に基づいて前記第1フレームを計算するように構成され、前記第1の複数のスペクトルパラメータ値は前記第1の符号化されたフレームからの情報に基づき、
前記スペクトルシェーパは、第2の複数のスペクトルパラメータ値に基づいて前記第2フレームを計算するように構成され、前記第2の複数のスペクトルパラメータ値は前記第1の複数のスペクトルパラメータ値に基づく、[18]に記載の復号された音声信号のフレームを入手する装置。
[20]
前記論理モジュールは、前記しきい値を(A)前記第1利得係数と(B)前記第1利得係数に基づく値のうちの少なくとも1つと比較することによって、前記しきい値と前記第1利得係数に基づく前記値との間の関係を評価するように構成される、[18]に記載の復号された音声信号のフレームを入手する装置。
[21]
前記第1の復号されたフレームは複数のサブフレームを含み、前記複数のサブフレームのそれぞれは、複数のサブフレーム励起信号のうちの対応する1つに基づき、
前記複数のサブフレーム励起信号のそれぞれは、(A)複数のサブフレーム利得係数のうちの対応する1つと(B)複数のサブフレームシーケンスのうちの対応する1つとの積に基づき、
前記第1励起信号は、前記複数のサブフレーム励起信号を含み、前記第1利得係数は前記複数のサブフレーム利得係数のうちの1つであり、前記第1シーケンスは前記複数のサブフレームシーケンスのうちの1つであり、
前記第1利得係数に基づく前記値は、前記サブフレーム利得係数の平均値に基づく、[18]に記載の復号された音声信号のフレームを入手する装置。
[22]
前記励起信号ジェネレータは、前記第1の符号化されたフレームが第1フォーマットを有することの表示に応答して前記第1励起信号を生成するように構成され、
第3の符号化されたフレームが前記第1フォーマットと異なる第2フォーマットを有することの表示に応答して、前記励起信号ジェネレータは、生成された雑音信号に基づいて前記第3励起信号を生成するように構成され、
前記論理モジュールは、前記励起信号ジェネレータに、(A)前記第1の符号化されたフレームが前記第1フォーマットを有し(B)前記第3の符号化されたフレームが前記第2フォーマットを有することの表示に応答して前記第2励起信号を生成させるように構成される、[18]に記載の復号された音声信号のフレームを入手する装置。
[23]
復号された音声信号のフレームを入手する装置であって、
第1利得係数と値の第1シーケンスとの積に基づく第1励起信号を生成するための手段と、
前記第1励起信号および符号化された音声信号の第1の符号化されたフレームからの情報に基づいて前記復号された音声信号の第1フレームを計算するための手段と、
前記第1の符号化されたフレームに直接に続く前記符号化された音声信号のフレームの消去の表示に応答して、しきい値と前記第1利得係数に基づく値との間の関係に従って、(A)前記第1利得係数より大きい第2利得係数と(B)値の第2シーケンスとの積に基づいて第2励起信号を生成するための手段と、
前記第2励起信号に基づいて、前記復号された音声信号の前記第1フレームに直接に続く第2フレームを計算するための手段と、
第3励起信号に基づいて、前記復号された音声信号の前記第1フレームに先行する第3フレームを計算するための手段と、を備え、
前記第1シーケンスが、前記第3励起信号からの情報に基づき、前記第2シーケンスが、前記第1励起信号からの情報に基づく、装置。
[24]
第1励起信号を生成するための前記手段は、前記第1の符号化されたフレームが第1フォーマットを有することの表示に応答して前記第1励起信号を生成するように構成され、
前記装置は、第3の符号化されたフレームが前記第1フォーマットと異なる第2フォーマットを有することの表示に応答して、生成された雑音信号に基づいて前記第3励起信号を生成するための手段を備え、
第2励起信号を生成するための前記手段は、(A)前記第1の符号化されたフレームが前記第1フォーマットを有し(B)前記第3の符号化されたフレームが前記第2フォーマットを有することの表示に応答して前記第2励起信号を生成するように構成される、[23]に記載の復号された音声信号のフレームを入手する装置。
[25]
コンピュータ可読媒体を備えるコンピュータプログラム製品であって、前記媒体が、
少なくとも1つのコンピュータに、第1利得係数と値の第1シーケンスとの積に基づく第1励起信号を生成させるコードと、
少なくとも1つのコンピュータに、前記第1励起信号および符号化された音声信号の第1の符号化されたフレームからの情報に基づいて、前記復号された音声信号の第1フレームを計算させるコードと、
少なくとも1つのコンピュータに、前記第1の符号化されたフレームに直接に続く前記符号化された音声信号のフレームの消去の表示に応答して、しきい値と前記第1利得係数に基づく値との間の関係に従って、(A)前記第1利得係数より大きい第2利得係数と(B)値の第2のシーケンスとの積に基づく第2励起信号を生成させるコードと、
少なくとも1つのコンピュータに、前記第2励起信号に基づいて、前記復号された音声信号の前記第1フレームに直接に続く第2フレームを計算させるコードと、
少なくとも1つのコンピュータに、第3励起信号に基づいて、前記復号された音声信号の前記第1フレームに先行する第3フレームを計算させるコードと、を備え、
前記第1シーケンスは前記第3励起信号からの情報に基づき、前記第2シーケンスは前記第1励起信号からの情報に基づく、コンピュータプログラム製品。
Claims (25)
- 符号化された音声信号を処理する方法であって、
前記符号化された音声信号の消去されたフレームのための利得値を、前記消去されたフレームに先行する前記符号化された音声信号の第1のフレームからの情報に基づいて予測することと、
(A)前記第1のフレームが第1のフォーマットにしたがって構成され、かつ、(B)前記符号化された音声信号の第1のフレームに先行する第2のフレームが前記第1のフォーマットとは異なる第2のフォーマットにしたがって構成されることを示す表示に応答して、前記予測された利得値をしきい値と比較することと、
前記比較することの結果に応答して、前記予測された利得値を増加することと、
前記増加された利得値に基づいて前記消去されたフレームのための励起信号を生成することと、
を備え、
前記第1のフォーマットは有声音フレームに対する符号化モードに関連付けられ、前記第2のフォーマットは無声音フレーム又はインアクティブフレームに対する符号化モードに関連付けられる、
方法。 - 前記予測される利得値は、適応コードブック利得値である、請求項1に記載の方法。
- 前記表示に応答して比較することは、前記表示に基づいて、前記第1および第2のフレームにおいて少なくとも1つの特定のモードのシーケンスを検出することと、前記検出することに応答して前記比較することを実行することとを備える、請求項1および2のいずれか1つに記載の方法。
- 前記第1のフレームが第1のフォーマットにしたがって構成されることを示す表示は、前記第1のフレームが、過去の励起情報のメモリに基づく励起信号を使用して復号されるものであることを示す、請求項1乃至3のいずれか1つに記載の方法。
- 前記第1のフレームが第1のフォーマットにしたがって構成されることを示す表示は、前記第1のフレームがcode−excited linear prediction符号化モードを使用して復号されるものであることを示す、請求項1乃至3のいずれか1つに記載の方法。
- 前記第2のフレームが第2のフォーマットにしたがって構成されることを示す表示は、前記第2のフレームが非周期的励起を有することを示す、請求項1乃至3のいずれか1つに記載の方法。
- 前記第2のフレームが第2のフォーマットにしたがって構成されることを示す表示は、前記第2のフレームがNoise−excited linear prediction符号化モードを使用して復号されるものであることを示す、請求項1乃至3のいずれか1つに記載の方法。
- 前記予測される利得値を増加することは、前記予測される利得値に、前記しきい値に等しい値を割り当てることを含む、請求項1乃至7のいずれか1つに記載の方法。
- 前記方法は、前記比較することの結果に応答して、前記消去されたフレームのサブフレームの適応コードブック利得係数に値を割り当てることを備え、前記増加された利得値は、前記割り当てられた値のうちの1つである、請求項1乃至8のいずれか1つに記載の方法。
- 前記割り当てられた値は、減少する利得プロファイルとなるように配置される、請求項9に記載の方法。
- 請求項1乃至10のいずれか1つに記載の方法を論理要素のアレイに実行させる命令群を記憶するコンピュータ読取可能な媒体。
- 符号化された音声信号を処理するための装置であって、
消去されたフレームに先行する前記符号化された音声信号の第1のフレームからの情報に基づいて、前記符号化された音声信号の消去されたフレームのための利得値を予測する手段と、
(A)前記第1のフレームが第1のフォーマットにしたがって構成され、かつ、(B)前記符号化された音声信号の第1のフレームに先行する第2のフレームが、前記第1のフォーマットとは異なる第2のフォーマットにしたがって構成されることを示す表示に応答して、前記予測された利得値をしきい値と比較する手段と、
前記比較することの結果に応答して、前記予測された利得値を増加する手段と、
前記増加された利得値に基づく前記消去されたフレームのための励起信号を生成する手段と、
を備え、
前記第1のフォーマットは有声音フレームに対する符号化モードに関連付けられ、前記第2のフォーマットは無声音フレーム又はインアクティブフレームに対する符号化モードに関連付けられる、
る装置。 - 前記予測される利得値は、適応コードブック利得値である、請求項12に記載の装置。
- 前記比較する手段は、前記表示に基づいて、前記第1および第2のフレームにおいて、少なくとも1つの特定のモードのシーケンスを検出し、前記検出することに応答して前記比較することを実行する手段を備える、請求項12および13のいずれか1つに記載の装置。
- 前記第1のフレームが第1のフォーマットにしたがって構成されることを示す表示は、前記第1のフレームが、過去の励起情報のメモリに基づく例示信号を使用して復号されるものであることを示す、請求項12乃至14のいずれか1つに記載の装置。
- 前記第2のフレームが第2のフォーマットにしたがって構成されることを示す表示は、前記第2のフォーマットが非周期的励起を有することを示す、請求項12乃至14のいずれか1つに記載の装置。
- 前記第2のフレームが第2のフォーマットにしたがって構成されることを示す表示は、前記第2のフレームがNoise−excited linear prediction符号化モードを使用して復号されるものであることを示す、請求項12乃至14のいずれか1つに記載の装置。
- 前記予測される利得値を増加する手段は、前記予測される利得値に、前記しきい値に等しい値を割り当てる手段を含む、請求項12乃至17のいずれか1つに記載の装置。
- 符号化された音声信号を処理するための装置であって、
前記符号化された音声信号の消去されたフレームのための利得値を、前記消去されたフレームに先行する前記符号化された音声信号の第1のフレームからの情報に基づいて予測し、
(A)前記第1のフレームが第1のフォーマットにしたがって構成され、かつ、(B)前記符号化された音声信号の前記第1のフレームに先行する第2のフレームが前記第1のフォーマットとは異なる第2のフォーマットにしたがって構成されることを示す表示に応答して、前記予測された利得値をしきい値と比較し、
前記比較することの結果に応答して、前記利得値を増加する
ように構成された論理モジュールと、
前記増加された利得値に基づく前記消去されたフレームのための励起信号を生成するように構成された励起信号ジェネレータと、
を備え、
前記第1のフォーマットは有声音フレームに対する符号化モードに関連付けられ、前記第2のフォーマットは無声音フレーム又はインアクティブフレームに対する符号化モードに関連付けられる、
装置。 - 前記予測される利得値は、適応コードブック利得値である請求項19に記載の装置。
- 前記論理モジュールは、前記表示に基づいて、前記第1および第2のフレームにおける少なくとも1つの特定のモードのシーケンスを検出し、前記検出することに応答して前記比較することを実行するように構成される、請求項19および20のいずれか1つに記載の装置。
- 前記第1のフレームが第1のフォーマットにしたがって構成されることを示す表示は、前記第1のフレームが、過去の励起情報のメモリに基づく励起信号を使用して復号されるものであることを示す、請求項19乃至21のいずれか1つに記載の装置。
- 前記第2のフレームが第2のフォーマットに従って構成されることを示す表示は、前記第2のフレームが非周期的励起を有することを示す、請求項19乃至21のいずれか1つに記載の装置。
- 前記第2のフレームが第2のフォーマットにしたがって構成されることを示す表示は、前記第2のフレームがNoise−excited linear prediction符号化モードを使用して復号されるものであることを示す、請求項19乃至21のいずれか1つに記載の装置。
- 前記論理モジュールは、前記予測される利得値に、しきい値に等しい値を割り当てることによって、前記予測される利得値を増加するように構成される、請求項19乃至24のいずれか1つに記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US82841406P | 2006-10-06 | 2006-10-06 | |
US60/828,414 | 2006-10-06 | ||
US11/868,351 | 2007-10-05 | ||
US11/868,351 US7877253B2 (en) | 2006-10-06 | 2007-10-05 | Systems, methods, and apparatus for frame erasure recovery |
PCT/US2007/080653 WO2008043095A1 (en) | 2006-10-06 | 2007-10-07 | Systems, methods, and apparatus for frame erasure recovery |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010506221A JP2010506221A (ja) | 2010-02-25 |
JP5265553B2 true JP5265553B2 (ja) | 2013-08-14 |
Family
ID=39052629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009531638A Active JP5265553B2 (ja) | 2006-10-06 | 2007-10-07 | フレーム消去回復のシステム、方法、および装置 |
Country Status (11)
Country | Link |
---|---|
US (2) | US7877253B2 (ja) |
EP (2) | EP2423916B1 (ja) |
JP (1) | JP5265553B2 (ja) |
KR (1) | KR101092267B1 (ja) |
CN (1) | CN101523484B (ja) |
AT (1) | ATE548726T1 (ja) |
BR (1) | BRPI0717495B1 (ja) |
CA (1) | CA2663385C (ja) |
RU (1) | RU2419167C2 (ja) |
TW (1) | TWI362031B (ja) |
WO (1) | WO2008043095A1 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100900438B1 (ko) * | 2006-04-25 | 2009-06-01 | 삼성전자주식회사 | 음성 패킷 복구 장치 및 방법 |
US7877253B2 (en) * | 2006-10-06 | 2011-01-25 | Qualcomm Incorporated | Systems, methods, and apparatus for frame erasure recovery |
EP2153439B1 (en) * | 2007-02-21 | 2018-01-17 | Telefonaktiebolaget LM Ericsson (publ) | Double talk detector |
US8607127B2 (en) * | 2007-09-21 | 2013-12-10 | France Telecom | Transmission error dissimulation in a digital signal with complexity distribution |
TWI350653B (en) * | 2007-10-19 | 2011-10-11 | Realtek Semiconductor Corp | Automatic gain control device and method |
CN101437009B (zh) * | 2007-11-15 | 2011-02-02 | 华为技术有限公司 | 丢包隐藏的方法及其系统 |
KR100998396B1 (ko) * | 2008-03-20 | 2010-12-03 | 광주과학기술원 | 프레임 손실 은닉 방법, 프레임 손실 은닉 장치 및 음성송수신 장치 |
US8706479B2 (en) * | 2008-11-14 | 2014-04-22 | Broadcom Corporation | Packet loss concealment for sub-band codecs |
US8238861B2 (en) * | 2009-01-26 | 2012-08-07 | Qualcomm Incorporated | Automatic gain control in a wireless communication network |
US8838819B2 (en) * | 2009-04-17 | 2014-09-16 | Empirix Inc. | Method for embedding meta-commands in normal network packets |
US8924207B2 (en) * | 2009-07-23 | 2014-12-30 | Texas Instruments Incorporated | Method and apparatus for transcoding audio data |
US8321216B2 (en) * | 2010-02-23 | 2012-11-27 | Broadcom Corporation | Time-warping of audio signals for packet loss concealment avoiding audible artifacts |
US8990094B2 (en) * | 2010-09-13 | 2015-03-24 | Qualcomm Incorporated | Coding and decoding a transient frame |
BR112013020324B8 (pt) * | 2011-02-14 | 2022-02-08 | Fraunhofer Ges Forschung | Aparelho e método para supressão de erro em fala unificada de baixo atraso e codificação de áudio |
PT2676267T (pt) | 2011-02-14 | 2017-09-26 | Fraunhofer Ges Forschung | Codificação e descodificação de posições de pulso de faixas de um sinal de áudio |
CN103493129B (zh) | 2011-02-14 | 2016-08-10 | 弗劳恩霍夫应用研究促进协会 | 用于使用瞬态检测及质量结果将音频信号的部分编码的装置与方法 |
PL2676266T3 (pl) | 2011-02-14 | 2015-08-31 | Fraunhofer Ges Forschung | Układ kodowania na bazie predykcji liniowej wykorzystujący kształtowanie szumu w dziedzinie widmowej |
PL2676268T3 (pl) | 2011-02-14 | 2015-05-29 | Fraunhofer Ges Forschung | Urządzenie i sposób przetwarzania zdekodowanego sygnału audio w domenie widmowej |
AU2012217158B2 (en) | 2011-02-14 | 2014-02-27 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Information signal representation using lapped transform |
NO2669468T3 (ja) * | 2011-05-11 | 2018-06-02 | ||
CN102800317B (zh) * | 2011-05-25 | 2014-09-17 | 华为技术有限公司 | 信号分类方法及设备、编解码方法及设备 |
JP5805601B2 (ja) * | 2011-09-30 | 2015-11-04 | 京セラ株式会社 | 装置、方法、及びプログラム |
US9728200B2 (en) * | 2013-01-29 | 2017-08-08 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for adaptive formant sharpening in linear prediction coding |
US9208775B2 (en) * | 2013-02-21 | 2015-12-08 | Qualcomm Incorporated | Systems and methods for determining pitch pulse period signal boundaries |
US9842598B2 (en) * | 2013-02-21 | 2017-12-12 | Qualcomm Incorporated | Systems and methods for mitigating potential frame instability |
US10199044B2 (en) * | 2013-03-20 | 2019-02-05 | Nokia Technologies Oy | Audio signal encoder comprising a multi-channel parameter selector |
US9502044B2 (en) | 2013-05-29 | 2016-11-22 | Qualcomm Incorporated | Compression of decomposed representations of a sound field |
CA2916150C (en) * | 2013-06-21 | 2019-06-18 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Apparatus and method realizing improved concepts for tcx ltp |
CN104299614B (zh) * | 2013-07-16 | 2017-12-29 | 华为技术有限公司 | 解码方法和解码装置 |
US10614816B2 (en) * | 2013-10-11 | 2020-04-07 | Qualcomm Incorporated | Systems and methods of communicating redundant frame information |
US10157620B2 (en) * | 2014-03-04 | 2018-12-18 | Interactive Intelligence Group, Inc. | System and method to correct for packet loss in automatic speech recognition systems utilizing linear interpolation |
WO2015161166A1 (en) * | 2014-04-17 | 2015-10-22 | Audimax, Llc | Systems, methods and devices for electronic communications having decreased information loss |
US10770087B2 (en) * | 2014-05-16 | 2020-09-08 | Qualcomm Incorporated | Selecting codebooks for coding vectors decomposed from higher-order ambisonic audio signals |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3194481B2 (ja) * | 1991-10-22 | 2001-07-30 | 日本電信電話株式会社 | 音声符号化法 |
ES2225321T3 (es) | 1991-06-11 | 2005-03-16 | Qualcomm Incorporated | Aparaato y procedimiento para el enmascaramiento de errores en tramas de datos. |
SE501340C2 (sv) * | 1993-06-11 | 1995-01-23 | Ericsson Telefon Ab L M | Döljande av transmissionsfel i en talavkodare |
JP3199142B2 (ja) * | 1993-09-22 | 2001-08-13 | 日本電信電話株式会社 | 音声の励振信号符号化方法および装置 |
US5502713A (en) | 1993-12-07 | 1996-03-26 | Telefonaktiebolaget Lm Ericsson | Soft error concealment in a TDMA radio system |
DE69633164T2 (de) * | 1995-05-22 | 2005-08-11 | Ntt Mobile Communications Network Inc. | Tondekoder |
US5699485A (en) * | 1995-06-07 | 1997-12-16 | Lucent Technologies Inc. | Pitch delay modification during frame erasures |
JP3095340B2 (ja) * | 1995-10-04 | 2000-10-03 | 松下電器産業株式会社 | 音声復号化装置 |
US5960386A (en) | 1996-05-17 | 1999-09-28 | Janiszewski; Thomas John | Method for adaptively controlling the pitch gain of a vocoder's adaptive codebook |
US6014622A (en) * | 1996-09-26 | 2000-01-11 | Rockwell Semiconductor Systems, Inc. | Low bit rate speech coder using adaptive open-loop subframe pitch lag estimation and vector quantization |
US6810377B1 (en) * | 1998-06-19 | 2004-10-26 | Comsat Corporation | Lost frame recovery techniques for parametric, LPC-based speech coding systems |
US6691092B1 (en) * | 1999-04-05 | 2004-02-10 | Hughes Electronics Corporation | Voicing measure as an estimate of signal periodicity for a frequency domain interpolative speech codec system |
US6636829B1 (en) | 1999-09-22 | 2003-10-21 | Mindspeed Technologies, Inc. | Speech communication system and method for handling lost frames |
EP1235203B1 (en) | 2001-02-27 | 2009-08-12 | Texas Instruments Incorporated | Method for concealing erased speech frames and decoder therefor |
JP3628268B2 (ja) * | 2001-03-13 | 2005-03-09 | 日本電信電話株式会社 | 音響信号符号化方法、復号化方法及び装置並びにプログラム及び記録媒体 |
DE60217522T2 (de) | 2001-08-17 | 2007-10-18 | Broadcom Corp., Irvine | Verbessertes verfahren zur verschleierung von bitfehlern bei der sprachcodierung |
US7590525B2 (en) * | 2001-08-17 | 2009-09-15 | Broadcom Corporation | Frame erasure concealment for predictive speech coding based on extrapolation of speech waveform |
US7379865B2 (en) * | 2001-10-26 | 2008-05-27 | At&T Corp. | System and methods for concealing errors in data transmission |
CA2388439A1 (en) * | 2002-05-31 | 2003-11-30 | Voiceage Corporation | A method and device for efficient frame erasure concealment in linear predictive based speech codecs |
FI118834B (fi) | 2004-02-23 | 2008-03-31 | Nokia Corp | Audiosignaalien luokittelu |
FI118835B (fi) | 2004-02-23 | 2008-03-31 | Nokia Corp | Koodausmallin valinta |
WO2005117366A1 (ja) * | 2004-05-26 | 2005-12-08 | Nippon Telegraph And Telephone Corporation | 音声パケット再生方法、音声パケット再生装置、音声パケット再生プログラム、記録媒体 |
JP3936370B2 (ja) * | 2005-05-09 | 2007-06-27 | 富士通株式会社 | 音声復号化装置及びその方法 |
FR2897977A1 (fr) | 2006-02-28 | 2007-08-31 | France Telecom | Procede de limitation de gain d'excitation adaptative dans un decodeur audio |
US7877253B2 (en) * | 2006-10-06 | 2011-01-25 | Qualcomm Incorporated | Systems, methods, and apparatus for frame erasure recovery |
US8165224B2 (en) * | 2007-03-22 | 2012-04-24 | Research In Motion Limited | Device and method for improved lost frame concealment |
-
2007
- 2007-10-05 US US11/868,351 patent/US7877253B2/en active Active
- 2007-10-07 JP JP2009531638A patent/JP5265553B2/ja active Active
- 2007-10-07 EP EP11175820.7A patent/EP2423916B1/en active Active
- 2007-10-07 EP EP07843945A patent/EP2070082B1/en active Active
- 2007-10-07 WO PCT/US2007/080653 patent/WO2008043095A1/en active Application Filing
- 2007-10-07 AT AT07843945T patent/ATE548726T1/de active
- 2007-10-07 RU RU2009117181/09A patent/RU2419167C2/ru active
- 2007-10-07 BR BRPI0717495-0A2 patent/BRPI0717495B1/pt active IP Right Grant
- 2007-10-07 CN CN2007800368454A patent/CN101523484B/zh active Active
- 2007-10-07 CA CA2663385A patent/CA2663385C/en not_active Expired - Fee Related
- 2007-10-07 KR KR1020097009177A patent/KR101092267B1/ko active IP Right Grant
- 2007-10-08 TW TW096137743A patent/TWI362031B/zh not_active IP Right Cessation
-
2010
- 2010-12-13 US US12/966,960 patent/US8825477B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
ATE548726T1 (de) | 2012-03-15 |
US8825477B2 (en) | 2014-09-02 |
CN101523484A (zh) | 2009-09-02 |
US20080086302A1 (en) | 2008-04-10 |
RU2009117181A (ru) | 2010-11-20 |
BRPI0717495B1 (pt) | 2019-12-10 |
KR20090082383A (ko) | 2009-07-30 |
JP2010506221A (ja) | 2010-02-25 |
KR101092267B1 (ko) | 2011-12-13 |
EP2423916B1 (en) | 2013-09-04 |
CA2663385A1 (en) | 2008-04-10 |
US7877253B2 (en) | 2011-01-25 |
BRPI0717495A2 (pt) | 2014-04-22 |
EP2423916A3 (en) | 2012-05-16 |
TWI362031B (en) | 2012-04-11 |
CN101523484B (zh) | 2012-01-25 |
US20110082693A1 (en) | 2011-04-07 |
WO2008043095A1 (en) | 2008-04-10 |
EP2070082A1 (en) | 2009-06-17 |
EP2423916A2 (en) | 2012-02-29 |
RU2419167C2 (ru) | 2011-05-20 |
CA2663385C (en) | 2013-07-02 |
TW200832356A (en) | 2008-08-01 |
EP2070082B1 (en) | 2012-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5265553B2 (ja) | フレーム消去回復のシステム、方法、および装置 | |
KR101034453B1 (ko) | 비활성 프레임들의 광대역 인코딩 및 디코딩을 위한 시스템, 방법, 및 장치 | |
US8532984B2 (en) | Systems, methods, and apparatus for wideband encoding and decoding of active frames | |
KR101078625B1 (ko) | 이득 계수 제한을 위한 시스템, 방법 및 장치 | |
US8990074B2 (en) | Noise-robust speech coding mode classification | |
KR102007972B1 (ko) | 스피치 처리를 위한 무성음/유성음 결정 | |
KR20070118170A (ko) | 스펙트럼 엔벨로프 표현의 벡터 양자화를 위한 방법 및장치 | |
BR112015018057B1 (pt) | Sistemas, métodos, aparelho e mídia legível por computador para aperfeiçoamento do formante adaptativo na codificação de predição linear | |
KR20230129581A (ko) | 음성 정보를 갖는 개선된 프레임 손실 보정 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111129 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120229 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130501 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5265553 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |