JP2018165834A - 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム - Google Patents
雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム Download PDFInfo
- Publication number
- JP2018165834A JP2018165834A JP2018128182A JP2018128182A JP2018165834A JP 2018165834 A JP2018165834 A JP 2018165834A JP 2018128182 A JP2018128182 A JP 2018128182A JP 2018128182 A JP2018128182 A JP 2018128182A JP 2018165834 A JP2018165834 A JP 2018165834A
- Authority
- JP
- Japan
- Prior art keywords
- linear prediction
- spectral
- prediction residual
- signal
- residual signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 230000003595 spectral effect Effects 0.000 claims abstract description 433
- 238000001228 spectrum Methods 0.000 claims abstract description 54
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 230000005284 excitation Effects 0.000 claims description 257
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 43
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 abstract description 5
- 230000015572 biosynthetic process Effects 0.000 description 26
- 238000003786 synthesis reaction Methods 0.000 description 26
- 230000005236 sound signal Effects 0.000 description 24
- 238000004458 analytical method Methods 0.000 description 19
- 238000005070 sampling Methods 0.000 description 19
- 230000008447 perception Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000000695 excitation spectrum Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/13—Residual excited linear prediction [RELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
励振信号としてランダム雑音シーケンスを使用することによって快適雑音を生成するための方法において、比較的快適な雑音が取得されることが可能であり、元の背景雑音のスペクトル包絡線が粗く回復されることも可能であるが、元の背景雑音のスペクトル細部は失われ得る。その結果、主観的な聴覚認識の観点で、生成された快適雑音と元の背景雑音の間に特定の差が依然として存在する。そのような差は、連続的に符号化された音声セグメントが快適雑音セグメントに移行されるとき、ユーザの主観的な聴覚の不快感を引き起こし得る。
雑音信号を獲得し、雑音信号に従って線形予測係数を取得するステップと、
線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得するステップと、
線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するステップと、
線形予測残差信号のスペクトル包絡線を符号化するステップと、を含む。
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップをさらに含み、
それに対応して、線形予測残差信号のスペクトル包絡線を符号化するステップは、具体的には、
線形予測残差信号のスペクトル細部を符号化するステップを含む。
線形予測残差信号に従って線形予測残差信号のエネルギーを取得するステップをさらに含み、
それに対応して、線形予測残差信号のスペクトル細部を符号化するステップは、具体的には、
線形予測係数、線形予測残差信号のエネルギー、および線形予測残差信号のスペクトル細部を符号化するステップを含む。
線形予測残差信号のエネルギーに従ってランダム雑音励振信号を取得するステップと、
線形予測残差信号のスペクトル包絡線とランダム雑音励振信号のスペクトル包絡線の間の差を線形予測残差信号のスペクトル細部として使用するステップと、である。
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップであって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、ステップと、 第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップと、を含む。
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するステップであって、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む。
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算される。
線形予測残差信号のスペクトル細部に従って線形予測残差信号のスペクトル構造を計算し、スペクトル構造に従って線形予測残差信号の第2の帯域幅のスペクトル細部を取得するステップであって、第2の帯域幅は線形予測残差信号の帯域幅の範囲内にあり、第2の帯域幅のスペクトル構造は、線形予測残差信号の、第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強い、ステップをさらに含み、
それに対応して、線形予測残差信号のスペクトル包絡線を符号化するステップは、具体的には、
線形予測残差信号の第2の帯域幅のスペクトル細部を符号化するステップを含む。
ビットストリームを受信し、ビットストリームを復号化してスペクトル細部および線形予測係数を取得するステップであって、スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、ステップと、
スペクトル細部に従って線形予測励振信号を取得するステップと、
線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップと、を含む。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号およびスペクトル包絡線に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
雑音信号を獲得し、雑音信号に従って線形予測係数を取得するように構成された獲得モジュールと、
獲得モジュールによって取得された線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得するように構成されたフィルタと、
線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するように構成されたスペクトル包絡線生成モジュールと、
線形予測残差信号のスペクトルを符号化するように構成された符号化モジュールと、を含む。
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部生成モジュールをさらに含み、
それに対応して、符号化モジュールは、具体的には、線形予測残差信号のスペクトル細部を符号化するように構成される。
線形予測残差信号に従って線形予測残差信号のエネルギーを取得するように構成された残差エネルギー計算モジュールをさらに含み、 それに対応して、符号化モジュールは、具体的には、線形予測係数、線形予測残差信号のエネルギー、および線形予測残差信号のスペクトル細部を符号化するように構成される。
線形予測残差信号のエネルギーに従ってランダム雑音励振信号を取得し、
線形予測残差信号のスペクトル包絡線とランダム雑音励振信号のスペクトル包絡線の間の差を線形予測残差信号のスペクトル細部として使用するように構成される。
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するように構成された第1の帯域幅スペクトル包絡線生成ユニットであって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、第1の帯域幅スペクトル包絡線生成ユニットと、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部計算ユニットと、を含む。
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するように構成され、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い。
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算する。
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得し、線形予測残差信号のスペクトル細部に従って線形予測残差信号のスペクトル構造を計算し、スペクトル構造に従って線形予測残差信号の第2の帯域幅のスペクトル細部を取得するように構成され、第2の帯域幅は線形予測残差信号の帯域幅の範囲内にあり、第2の帯域幅のスペクトル構造は、線形予測残差信号の、第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強く、
それに対応して、符号化モジュールは、具体的には、線形予測残差信号の第2の帯域幅のスペクトル細部を符号化するように構成される。
ビットストリームを受信し、ビットストリームを復号化してスペクトル細部および線形予測係数を取得するように構成された受信モジュールであって、スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、受信モジュールと、
スペクトル細部に従って線形予測励振信号を取得するように構成された線形残差信号生成モジュールと、
線形予測係数および線形予測励振信号に従って快適雑音信号を取得するように構成された快適雑音信号生成モジュールと、を含む。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号およびスペクトル包絡線に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュールであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、第1の雑音励振信号生成モジュールと、
第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュールと、をさらに含み、
それに対応して、快適雑音信号生成モジュールは、具体的には、線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するように構成される。
本発明の第3の態様の実施例のいずれか1つによる符号化器と、本発明の第4の態様の実施例のいずれか1つによる復号化器と、を含む。
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップであって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、ステップと、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップと、を含む。
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算される。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するステップと、をさらに含む。
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
雑音信号を獲得し、雑音信号に従って線形予測係数を取得するように構成された獲得モジュール71と、
獲得モジュール71に接続され、獲得モジュール71によって取得された線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得するように構成されたフィルタ72と、
フィルタ72に接続され、線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するように構成されたスペクトル包絡線生成モジュール73と、
スペクトル包絡線生成モジュール73に接続され、線形予測残差信号のスペクトル包絡線を符号化するように構成された符号化モジュール74と、を含む。
フィルタ72に接続され、線形予測残差信号に従って線形予測残差信号のエネルギーを取得するように構成された残差エネルギー計算モジュール75をさらに含む。
線形予測残差信号のエネルギーに従ってランダム雑音励振信号を取得し、
線形予測残差信号のスペクトル包絡線とランダム雑音励振信号のスペクトル包絡線の間の差を線形予測残差信号のスペクトル細部として使用するように構成される。
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するように構成された第1の帯域幅スペクトル包絡線生成ユニット761であって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、第1の帯域幅スペクトル包絡線生成ユニット761と、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部計算ユニット762と、を含む。
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するように構成され、ここで第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い。
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算する。
受信モジュール81に接続され、線形予測励振のエネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュール84であって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、第1の雑音励振信号生成モジュール84と、
線形予測励振信号生成モジュール82および第1の雑音励振信号生成モジュール84に別個に接続され、第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュール85と、をさらに含む。
符号化器70および復号化器80を含む。符号化器70および復号化器80の具体的な動作手順について、本発明の他の実施例への参照が行われ得る。
lpc(k)は線形予測フィルタA(Z)のフィルタ係数を示し、Mはオーディオ信号フレームの時間領域サンプリング点の数量を示し、Kは自然数であり、s(i-k)はオーディオ信号フレームを示す。
s(i)はオーディオ信号フレームであり、Nは線形予測残差の時間領域サンプリング点の数量を示す。
BR(m)およびBXR(m)は、それぞれ、線形予測残差のFFTエネルギー・スペクトルおよびランダム雑音励振のFFTエネルギー・スペクトルを示し、mはm番目のFFT周波数ビンを示し、h(j)およびl(j)は、それぞれ、j番目のスペクトル包絡線の上限および下限に対応するFFT周波数ビンを示す。スペクトル包絡線の数量Kの選択は、スペクトル解像度と符号化率の間で妥協することが可能であり、より大きなKはより高いスペクトル解像度および符号化される必要があるより大きなビットの数量を示し、そうでなければ、より小さいKはより低いスペクトル解像度および符号化される必要があるより少ないビットの数量を示す。線形予測残差R(i)のスペクトル細部SD(j)は、SR(j)とSXR(j)の間の差を使用することによって取得される。SIDフレームを符号化するとき、符号化器は、線形予測係数lpc(k)、線形予測残差のエネルギーER、および線形予測残差のスペクトル細部SD(j)を別個に量子化し、ここで線形予測係数lpc(k)の量子化は、一般に、ISP/ISF領域およびLSP/LSF領域について行われる。各々のパラメータを量子化するための具体的な方法は先行技術であり、本発明の概要ではないので、詳細はここに記載されない。
ER(m)は線形予測残差のFFTエネルギー・スペクトルを示し、mはm番目のFFT周波数ビンを示し、h(j)およびl(j)は、それぞれ、j番目のスペクトル包絡線の上限および下限に対応するFFT周波数ビンを示す。SM(j)はスペクトル包絡線の平均または平均スペクトル包絡線を示し、ERは線形予測残差のエネルギーである。
P(j)は総エネルギーにおけるj番目の包絡線によって占有される周波数帯域のエネルギーの比率を示し、SR(j)は線形予測残差のスペクトル包絡線であり、h(j)およびl(j)は、それぞれ、j番目のスペクトル包絡線の上限および下限に対応するFFT周波数ビンを示し、Etotはフレームの総エネルギーである。線形予測残差スペクトルのエントロピーCRはP(j)に従って計算される。
αは長期移動平均係数または忘却係数であり、Mはフィルタ次数であり、Kはスペクトル包絡線の数量である。
E(i)は利得調整の後に取得されるi番目のFFT 周波数ビンのエネルギーを示し、線形予測残差のスペクトル細部CNSD(j)によって決定される。E(i)とCNSD(j)の間の関係は、
E(i)=CNSD(j)、l(j)≦i≦h(j)について
である。
EX(i)=EXR(i)+EXD(i)、i=0, 1, … N-1
71 獲得モジュール
72 フィルタ
73 スペクトル包絡線生成モジュール
74 符号化モジュール
75 残差エネルギー計算モジュール
76 スペクトル細部生成モジュール
761 第1の帯域幅スペクトル包絡線生成ユニット
762 スペクトル細部計算ユニット
80 復号化器
81 受信モジュール
82 線形予測励振信号生成モジュール
83 快適雑音信号生成モジュール
84 第1の雑音励振信号生成モジュール
85 第2の雑音励振信号生成モジュール
90 符号化および復号化システム
励振信号としてランダム雑音シーケンスを使用することによって快適雑音を生成するための方法において、比較的快適な雑音が取得されることが可能であり、元の背景雑音のスペクトル包絡線が粗く回復されることも可能であるが、元の背景雑音のスペクトル細部は失われ得る。その結果、主観的な聴覚認識の観点で、生成された快適雑音と元の背景雑音の間に特定の差が依然として存在する。そのような差は、連続的に符号化された音声セグメントが快適雑音セグメントに移行されるとき、ユーザの主観的な聴覚の不快感を引き起こし得る。
ビットストリームを受信し、ビットストリームを復号化してスペクトル細部および線形予測係数を取得するように構成された受信モジュールであって、スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、受信モジュールと、
スペクトル細部に従って線形予測励振信号を取得するように構成された線形予測励振信号生成モジュールと、
線形予測係数および線形予測励振信号に従って快適雑音信号を取得するように構成された快適雑音信号生成モジュールと、を含む。
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するステップであって、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む。
受信モジュール81に接続され、線形予測励振のエネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュール84であって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、第1の雑音励振信号生成モジュール84と、
線形予測励振信号生成モジュール82および第1の雑音励振信号生成モジュール84に接続され、第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュール85と、をさらに含む。
lpc(k)は線形予測分析フィルタA(Z)のフィルタ係数を示し、Mはオーディオ信号フレームの時間領域サンプリング点の数量を示し、Kは自然数であり、s(i-k)はオーディオ信号フレームを示す。
Claims (23)
- 雑音信号を獲得し、前記雑音信号に従って線形予測係数を取得するステップと、
前記線形予測係数に従って前記雑音信号をフィルタリングして、線形予測残差信号を取得するステップと、
前記線形予測残差信号に従って前記線形予測残差信号のスペクトル包絡線を取得するステップと、
前記線形予測残差信号の前記スペクトル包絡線を符号化するステップと、
を含む、線形予測を基にした雑音信号処理方法。 - 前記線形予測残差信号に従って前記線形予測残差信号のスペクトル包絡線を取得する前記ステップの後に、前記方法は、
前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得するステップをさらに含み、
それに対応して、前記線形予測残差信号の前記スペクトル包絡線を符号化する前記ステップは、具体的には、
前記線形予測残差信号の前記スペクトル細部を符号化するステップを含む、請求項1に記載の雑音信号処理方法。 - 線形予測残差信号を取得する前記ステップの後に、前記方法は、
前記線形予測残差信号に従って前記線形予測残差信号のエネルギーを取得するステップをさらに含み、
それに対応して、前記線形予測残差信号の前記スペクトル細部を符号化する前記ステップは、具体的には、
前記線形予測係数、前記線形予測残差信号の前記エネルギー、および前記線形予測残差信号の前記スペクトル細部を符号化するステップを含む、請求項2に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得する前記ステップは、具体的には、
前記線形予測残差信号の前記エネルギーに従ってランダム雑音励振信号を取得するステップと、
前記線形予測残差信号の前記スペクトル包絡線と前記ランダム雑音励振信号のスペクトル包絡線の間の差を前記線形予測残差信号の前記スペクトル細部として使用するステップと、
である、請求項3に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得する前記ステップは、具体的には、
前記線形予測残差信号の前記スペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップであって、前記第1の帯域幅は前記線形予測残差信号の帯域幅の範囲内にある、ステップと、
前記第1の帯域幅の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル細部を取得するステップと、
を含む、請求項2または3に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得する前記ステップは、具体的には、
前記線形予測残差信号のスペクトル構造を計算し、前記線形予測残差信号の第1の部分のスペクトルを前記第1の帯域幅の前記スペクトル包絡線として使用するステップであって、前記第1の部分のスペクトル構造は、前記線形予測残差信号の、前記第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む、請求項5に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル構造は、以下の方式、
前記雑音信号のスペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、および、
前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、
のうちの1つで計算される、請求項6に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得する前記ステップの後に、前記方法は、
前記線形予測残差信号の前記スペクトル細部に従って前記線形予測残差信号のスペクトル構造を計算し、前記スペクトル構造に従って前記線形予測残差信号の第2の帯域幅のスペクトル細部を取得するステップであって、前記第2の帯域幅は前記線形予測残差信号の帯域幅の範囲内にあり、前記第2の帯域幅のスペクトル構造は、前記線形予測残差信号の、前記第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強い、ステップをさらに含み、
それに対応して、前記線形予測残差信号の前記スペクトル包絡線を符号化する前記ステップは、具体的には、
前記線形予測残差信号の前記第2の帯域幅の前記スペクトル細部を符号化するステップを含む、請求項2に記載の雑音信号処理方法。 - ビットストリームを受信し、前記ビットストリームを復号化してスペクトル細部および線形予測係数を取得するステップであって、前記スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、ステップと、
前記スペクトル細部に従って前記線形予測励振信号を取得するステップと、
前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得するステップと、
を含む、線形予測を基にした快適雑音信号生成方法。 - 前記スペクトル細部は、前記線形予測励振信号の前記スペクトル包絡線である、請求項9に記載の快適雑音信号生成方法。
- 前記ビットストリームは線形予測励振のエネルギーを含み、前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得する前記ステップの前に、前記方法は、
前記線形予測励振の前記エネルギーに従って第1の雑音励振信号を取得するステップであって、前記第1の雑音励振信号のエネルギーは前記線形予測励振の前記エネルギーに等しい、ステップと、
前記第1の雑音励振信号および前記線形予測励振信号に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得する前記ステップは、具体的には、
前記線形予測係数および前記第2の雑音励振信号に従って前記快適雑音信号を取得するステップを含む、請求項9に記載の快適雑音信号生成方法。 - 雑音信号を獲得し、前記雑音信号に従って線形予測係数を取得するように構成された獲得モジュールと、
前記獲得モジュールによって取得された前記線形予測係数に従って前記雑音信号をフィルタリングして、線形予測残差信号を取得するように構成されたフィルタと、
前記線形予測残差信号に従って前記線形予測残差信号のスペクトル包絡線を取得するように構成されたスペクトル包絡線生成モジュールと、
前記線形予測残差信号の前記スペクトル包絡線を符号化するように構成された符号化モジュールと、を含む符号化器。 - 前記符号化器は、前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部生成モジュールをさらに含み、
それに対応して、前記符号化モジュールは、具体的には、前記線形予測残差信号の前記スペクトル細部を符号化するように構成された、請求項12に記載の符号化器。 - 前記符号化器は、前記線形予測残差信号に従って前記線形予測残差信号のエネルギーを取得するように構成された残差エネルギー計算モジュールをさらに含み、
それに対応して、前記符号化モジュールは、具体的には、前記線形予測係数、前記線形予測残差信号の前記エネルギー、前記線形予測残差信号の前記スペクトル細部、および前記雑音信号を符号化するように構成された、請求項13に記載の符号化器。 - 前記スペクトル細部生成モジュールは、具体的には、
前記線形予測残差信号の前記エネルギーに従ってランダム雑音励振信号を取得し、
前記線形予測残差信号の前記スペクトル包絡線と前記ランダム雑音励振信号のスペクトル包絡線の間の差を前記線形予測残差信号の前記スペクトル細部として使用するように構成された、請求項14に記載の符号化器。 - 前記スペクトル細部生成モジュールは、
前記線形予測残差信号の前記スペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するように構成された第1の帯域幅スペクトル包絡線生成ユニットであって、前記第1の帯域幅は前記線形予測残差信号の帯域幅の範囲内にある、第1の帯域幅スペクトル包絡線生成ユニットと、
前記第1の帯域幅の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル細部を取得するように構成されたスペクトル細部計算ユニットと、を含む、請求項13または14に記載の符号化器。 - 前記第1の帯域幅スペクトル包絡線生成ユニットは、具体的には、
前記線形予測残差信号のスペクトル構造を計算し、前記線形予測残差信号の第1の部分のスペクトルを前記第1の帯域幅の前記スペクトル包絡線として使用するように構成され、前記第1の部分のスペクトル構造は、前記線形予測残差信号の、前記第1の部分以外の、他の部分のスペクトル構造より強い、請求項16に記載の符号化器。 - 前記第1の帯域幅スペクトル包絡線生成ユニットは、前記線形予測残差信号の前記スペクトル構造を、以下の方式、
前記雑音信号のスペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、および、
前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、
のうちの1つで計算する、請求項17に記載の符号化器。 - 前記スペクトル細部生成モジュールは、具体的には、
前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル細部を取得し、前記線形予測残差信号の前記スペクトル細部に従って前記線形予測残差信号のスペクトル構造を計算し、前記スペクトル構造に従って前記線形予測残差信号の第2の帯域幅のスペクトル細部を取得するように構成され、前記第2の帯域幅は前記線形予測残差信号の帯域幅の範囲内にあり、前記第2の帯域幅のスペクトル構造は、前記線形予測残差信号の、前記第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強く、
それに対応して、前記符号化モジュールは、具体的には、前記線形予測残差信号の前記第2の帯域幅の前記スペクトル細部を符号化するように構成された、請求項13に記載の符号化器。 - ビットストリームを受信し、前記ビットストリームを復号化してスペクトル細部および線形予測係数を取得するように構成された受信モジュールであって、前記スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、受信モジュールと、
前記スペクトル細部に従って前記線形予測励振信号を取得するように構成された線形予測励振信号生成モジュールと、
前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得するように構成された快適雑音信号生成モジュールと、
を含む復号化器。 - 前記スペクトル細部は、前記線形予測励振信号の前記スペクトル包絡線である、請求項20に記載の復号化器。
- 前記ビットストリームは線形予測励振のエネルギーを含み、前記復号化器は、
前記線形予測励振の前記エネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュールであって、前記第1の雑音励振信号のエネルギーは前記線形予測励振の前記エネルギーに等しい、第1の雑音励振信号生成モジュールと、
前記第1の雑音励振信号および前記線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュールと、をさらに含み、
それに対応して、前記快適雑音信号生成モジュールは、具体的には、前記線形予測係数および前記第2の雑音励振信号に従って前記快適雑音信号を取得するように構成された、請求項20に記載の復号化器。 - 請求項12から19のいずれか一項に記載の符号化器と、請求項20から22のいずれか一項に記載の復号化器と、を含む符号化および復号化システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410137474.0 | 2014-04-08 | ||
CN201410137474.0A CN104978970B (zh) | 2014-04-08 | 2014-04-08 | 一种噪声信号的处理和生成方法、编解码器和编解码系统 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503044A Division JP6368029B2 (ja) | 2014-04-08 | 2014-10-09 | 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018165834A true JP2018165834A (ja) | 2018-10-25 |
JP6636574B2 JP6636574B2 (ja) | 2020-01-29 |
Family
ID=54275424
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503044A Active JP6368029B2 (ja) | 2014-04-08 | 2014-10-09 | 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム |
JP2018128182A Active JP6636574B2 (ja) | 2014-04-08 | 2018-07-05 | 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503044A Active JP6368029B2 (ja) | 2014-04-08 | 2014-10-09 | 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム |
Country Status (7)
Country | Link |
---|---|
US (3) | US9728195B2 (ja) |
EP (2) | EP3671737A1 (ja) |
JP (2) | JP6368029B2 (ja) |
KR (3) | KR102132798B1 (ja) |
CN (1) | CN104978970B (ja) |
ES (1) | ES2798310T3 (ja) |
WO (1) | WO2015154397A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110289009A (zh) * | 2019-07-09 | 2019-09-27 | 广州视源电子科技股份有限公司 | 声音信号的处理方法、装置和交互智能设备 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105225668B (zh) * | 2013-05-30 | 2017-05-10 | 华为技术有限公司 | 信号编码方法及设备 |
GB2532041B (en) * | 2014-11-06 | 2019-05-29 | Imagination Tech Ltd | Comfort noise generation |
US10410398B2 (en) * | 2015-02-20 | 2019-09-10 | Qualcomm Incorporated | Systems and methods for reducing memory bandwidth using low quality tiles |
CA3045515A1 (en) * | 2016-01-03 | 2017-07-13 | Auro Technologies Nv | A signal encoder, decoder and methods using predictor models |
CN106531175B (zh) * | 2016-11-13 | 2019-09-03 | 南京汉隆科技有限公司 | 一种网络话机柔和噪声产生的方法 |
JP7139628B2 (ja) * | 2018-03-09 | 2022-09-21 | ヤマハ株式会社 | 音処理方法および音処理装置 |
CN112119457A (zh) * | 2018-04-05 | 2020-12-22 | 瑞典爱立信有限公司 | 可截断的预测编码 |
US10957331B2 (en) | 2018-12-17 | 2021-03-23 | Microsoft Technology Licensing, Llc | Phase reconstruction in a speech decoder |
US10847172B2 (en) * | 2018-12-17 | 2020-11-24 | Microsoft Technology Licensing, Llc | Phase quantization in a speech encoder |
TWI715139B (zh) * | 2019-08-06 | 2021-01-01 | 原相科技股份有限公司 | 聲音播放裝置及其透過遮噪音訊遮蓋干擾音之方法 |
CN112906157A (zh) * | 2021-02-20 | 2021-06-04 | 南京航空航天大学 | 一种主轴轴承健康状态评估及剩余寿命预测方法及装置 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1194553A (zh) * | 1996-11-14 | 1998-09-30 | 诺基亚流动电话有限公司 | 在不连续传输期间的安慰噪声参数的发送 |
US5960389A (en) | 1996-11-15 | 1999-09-28 | Nokia Mobile Phones Limited | Methods for generating comfort noise during discontinuous transmission |
JP3464371B2 (ja) * | 1996-11-15 | 2003-11-10 | ノキア モービル フォーンズ リミテッド | 不連続伝送中に快適雑音を発生させる改善された方法 |
FR2761512A1 (fr) | 1997-03-25 | 1998-10-02 | Philips Electronics Nv | Dispositif de generation de bruit de confort et codeur de parole incluant un tel dispositif |
DE19730130C2 (de) * | 1997-07-14 | 2002-02-28 | Fraunhofer Ges Forschung | Verfahren zum Codieren eines Audiosignals |
US6163608A (en) * | 1998-01-09 | 2000-12-19 | Ericsson Inc. | Methods and apparatus for providing comfort noise in communications systems |
US6782361B1 (en) * | 1999-06-18 | 2004-08-24 | Mcgill University | Method and apparatus for providing background acoustic noise during a discontinued/reduced rate transmission mode of a voice transmission system |
KR100348899B1 (ko) * | 2000-09-19 | 2002-08-14 | 한국전자통신연구원 | 캡스트럼 분석을 이용한 하모닉 노이즈 음성 부호화기 및부호화 방법 |
US6947888B1 (en) | 2000-10-17 | 2005-09-20 | Qualcomm Incorporated | Method and apparatus for high performance low bit-rate coding of unvoiced speech |
US6631139B2 (en) * | 2001-01-31 | 2003-10-07 | Qualcomm Incorporated | Method and apparatus for interoperability between voice transmission systems during speech inactivity |
US6708147B2 (en) * | 2001-02-28 | 2004-03-16 | Telefonaktiebolaget Lm Ericsson(Publ) | Method and apparatus for providing comfort noise in communication system with discontinuous transmission |
US20030093270A1 (en) * | 2001-11-13 | 2003-05-15 | Domer Steven M. | Comfort noise including recorded noise |
US8767974B1 (en) * | 2005-06-15 | 2014-07-01 | Hewlett-Packard Development Company, L.P. | System and method for generating comfort noise |
CN101193090B (zh) * | 2006-11-27 | 2011-12-28 | 华为技术有限公司 | 信号处理方法及其装置 |
CN101627426B (zh) * | 2007-03-05 | 2013-03-13 | 艾利森电话股份有限公司 | 用于控制稳态背景噪声的平滑的方法和设备 |
CN101303855B (zh) * | 2007-05-11 | 2011-06-22 | 华为技术有限公司 | 一种舒适噪声参数产生方法和装置 |
CN102760441B (zh) * | 2007-06-05 | 2014-03-12 | 华为技术有限公司 | 一种背景噪声编码/解码装置、方法和通信设备 |
CN101335003B (zh) * | 2007-09-28 | 2010-07-07 | 华为技术有限公司 | 噪声生成装置、及方法 |
CN101651752B (zh) * | 2008-03-26 | 2012-11-21 | 华为技术有限公司 | 解码的方法及装置 |
CN101335000B (zh) * | 2008-03-26 | 2010-04-21 | 华为技术有限公司 | 编码的方法及装置 |
GB2466675B (en) * | 2009-01-06 | 2013-03-06 | Skype | Speech coding |
CN102136271B (zh) * | 2011-02-09 | 2012-07-04 | 华为技术有限公司 | 舒适噪声生成器、方法及回声抵消装置 |
EP2676267B1 (en) | 2011-02-14 | 2017-07-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Encoding and decoding of pulse positions of tracks of an audio signal |
WO2012110482A2 (en) * | 2011-02-14 | 2012-08-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Noise generation in audio codecs |
KR102052144B1 (ko) | 2011-10-24 | 2019-12-05 | 엘지전자 주식회사 | 음성 신호의 대역 선택적 양자화 방법 및 장치 |
CN103093756B (zh) * | 2011-11-01 | 2015-08-12 | 联芯科技有限公司 | 舒适噪声生成方法及舒适噪声生成器 |
CN102664003B (zh) * | 2012-04-24 | 2013-12-04 | 南京邮电大学 | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 |
CN103680509B (zh) * | 2013-12-16 | 2016-04-06 | 重庆邮电大学 | 一种语音信号非连续传输及背景噪声生成方法 |
GB2532041B (en) * | 2014-11-06 | 2019-05-29 | Imagination Tech Ltd | Comfort noise generation |
-
2014
- 2014-04-08 CN CN201410137474.0A patent/CN104978970B/zh active Active
- 2014-10-09 KR KR1020187016493A patent/KR102132798B1/ko active IP Right Grant
- 2014-10-09 JP JP2017503044A patent/JP6368029B2/ja active Active
- 2014-10-09 KR KR1020167026295A patent/KR101868926B1/ko active IP Right Grant
- 2014-10-09 KR KR1020197015048A patent/KR102217709B1/ko active IP Right Grant
- 2014-10-09 EP EP19192008.1A patent/EP3671737A1/en active Pending
- 2014-10-09 WO PCT/CN2014/088169 patent/WO2015154397A1/zh active Application Filing
- 2014-10-09 ES ES14888957T patent/ES2798310T3/es active Active
- 2014-10-09 EP EP14888957.9A patent/EP3131094B1/en active Active
-
2016
- 2016-09-29 US US15/280,427 patent/US9728195B2/en active Active
-
2017
- 2017-07-27 US US15/662,043 patent/US10134406B2/en active Active
-
2018
- 2018-07-05 JP JP2018128182A patent/JP6636574B2/ja active Active
- 2018-10-23 US US16/168,252 patent/US10734003B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110289009A (zh) * | 2019-07-09 | 2019-09-27 | 广州视源电子科技股份有限公司 | 声音信号的处理方法、装置和交互智能设备 |
CN110289009B (zh) * | 2019-07-09 | 2021-06-15 | 广州视源电子科技股份有限公司 | 声音信号的处理方法、装置和交互智能设备 |
Also Published As
Publication number | Publication date |
---|---|
US20170018277A1 (en) | 2017-01-19 |
EP3131094A4 (en) | 2017-05-10 |
CN104978970A (zh) | 2015-10-14 |
ES2798310T3 (es) | 2020-12-10 |
CN104978970B (zh) | 2019-02-12 |
US9728195B2 (en) | 2017-08-08 |
KR101868926B1 (ko) | 2018-06-19 |
EP3671737A1 (en) | 2020-06-24 |
KR102132798B1 (ko) | 2020-07-10 |
US10134406B2 (en) | 2018-11-20 |
WO2015154397A1 (zh) | 2015-10-15 |
KR20190060887A (ko) | 2019-06-03 |
US20170323648A1 (en) | 2017-11-09 |
US20190057704A1 (en) | 2019-02-21 |
EP3131094B1 (en) | 2020-04-22 |
KR20160125481A (ko) | 2016-10-31 |
JP6636574B2 (ja) | 2020-01-29 |
KR20180066283A (ko) | 2018-06-18 |
KR102217709B1 (ko) | 2021-02-18 |
JP2017510859A (ja) | 2017-04-13 |
EP3131094A1 (en) | 2017-02-15 |
JP6368029B2 (ja) | 2018-08-01 |
US10734003B2 (en) | 2020-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6636574B2 (ja) | 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器 | |
RU2752127C2 (ru) | Усовершенствованный квантователь | |
JP5752134B2 (ja) | 最適化された低スループットパラメトリック符号化/復号化 | |
RU2740359C2 (ru) | Звуковые кодирующее устройство и декодирующее устройство | |
WO2019193173A1 (en) | Truncateable predictive coding | |
BR112014021054A2 (pt) | controle de coerência de fase para sinais harmônicos nos codecs de áudio perceptuais | |
JP2016508618A (ja) | 周波数領域におけるlpc系符号化のための低周波数エンファシス | |
DK2697795T3 (en) | ADAPTIVE SHARING Gain / FORM OF INSTALLMENTS | |
KR102052144B1 (ko) | 음성 신호의 대역 선택적 양자화 방법 및 장치 | |
KR101387808B1 (ko) | 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치 | |
KR101786863B1 (ko) | 고 주파수 복원 알고리즘들을 위한 주파수 대역 테이블 설계 | |
JP7258936B2 (ja) | 快適雑音生成モード選択のための装置および方法 | |
Geiser et al. | Binaural wideband telephony using steganography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180802 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6636574 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |