KR20010055965A - Method for estimating an audio signal of error frame in an EVRC vocoder - Google Patents
Method for estimating an audio signal of error frame in an EVRC vocoder Download PDFInfo
- Publication number
- KR20010055965A KR20010055965A KR1019990057309A KR19990057309A KR20010055965A KR 20010055965 A KR20010055965 A KR 20010055965A KR 1019990057309 A KR1019990057309 A KR 1019990057309A KR 19990057309 A KR19990057309 A KR 19990057309A KR 20010055965 A KR20010055965 A KR 20010055965A
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- error
- lsf
- change
- estimated
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000005236 sound signal Effects 0.000 title claims description 7
- 101100455532 Arabidopsis thaliana LSF2 gene Proteins 0.000 claims description 5
- 230000001934 delay Effects 0.000 claims description 2
- 101100455531 Arabidopsis thaliana LSF1 gene Proteins 0.000 claims 2
- 230000003595 spectral effect Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000010923 batch production Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Optimization (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
본 발명은 이 브이 알 씨(Enhanced Variable Rate Coder: 이하 EVRC라 칭함)보코더(Vocoder)에 관한 것으로서, 특히 입력되는 오디오 비트스트림에서 에러가 발생한 프레임에 대해 피치딜레이(Pitch Delay)와 스펙트럼 포락(Spectral Envelope) 변화의 연속성을 유지시키면서 에러가 발생한 프레임 신호를 추정함으로써, 보다 자연스러운 음을 재생할 수 있도록 한 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an enhanced variable rate coder (VoRC) vocoder, particularly for pitch delay and spectral envelope for frames in which an error occurs in an input audio bitstream. The present invention relates to a method for estimating an error frame speech signal in an EVRC vocoder capable of reproducing a more natural sound by estimating an error frame signal while maintaining continuity of change.
일반적으로 EVRC를 비롯한 대부분의 보코더들은 수십 msec의 프레임 길이를가진다.In general, most vocoders, including EVRC, have a frame length of several tens of msec.
이러한 보코더 비트스트림에서 CRC(Cyclic Redundancy Check)에러 등의 치명적인 에러가 발생할 경우, 에러가 발생한 프레임에 대한 처리방법은 대부분 묶음처리 또는 이전 프레임을 반복 재생하는 등의 방법이 주류를 이루고 있다.When a fatal error such as a cyclic redundancy check (CRC) error occurs in the vocoder bitstream, most of the processing methods for the error frame include a batch process or a replay of the previous frame.
그러나 이러한 방법들은 수십 msec의 프레임 길이를 가지는 보코더 비트스트림에서 수신자에게 상당한 부자연스러움을 느끼게 하여 통화음질을 저하시키는 문제점이 있다.However, these methods have a problem that the voice quality is degraded by making the receiver feel unnatural in the vocoder bitstream having a frame length of several tens of msec.
이러한 통화음질의 저하는 복호화기에서 에러가 발생한 프레임에 대해 묶음처리 또는 이전 프레임의 단순 반복재생함으로 인해 일어나는 음성신호의 스펙트럼 포락 및 피치 딜레이변화의 연속성을 소멸시키기 때문이다.This is because the degradation of the voice quality eliminates the continuity of the spectral envelope and pitch delay change of the speech signal caused by the grouping process or the simple repetition of the previous frame.
따라서, 본 발명은 상기한 종래 기술에 따른 제반 문제점을 해결하기 위하여 안출한 것으로 본 발명의 목적은 입력되는 오디오 비트스트림에서 에러가 발생한 프레임에 대해 피치딜레이(Pitch Delay)와 스펙트럼 포락(Spectral Envelope) 변화의 연속성을 유지시키면서 에러가 발생한 프레임 신호를 추정함으로써, 보다 자연스러운 음을 재생할 수 있도록 한 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법을 제공함에 있다.Accordingly, an object of the present invention is to solve the above-mentioned problems according to the prior art. An object of the present invention is to provide a pitch delay and a spectral envelope for a frame in which an error occurs in an input audio bitstream. The present invention provides an error frame speech signal estimating method in an EVRC vocoder capable of reproducing a more natural sound by estimating an error frame signal while maintaining continuity of change.
또한, 본 발명의 다른 특징은 상기한 추정방법에 상응하는 EVRC 보코더에 있어 에러 프레임 음성신호 추정장치를 제공함에 있다.In addition, another aspect of the present invention is to provide an error frame speech signal estimation apparatus for an EVRC vocoder corresponding to the above estimation method.
상기한 목적을 달성하기 위한 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법의 특징은 에러 프레임에 대한 음성신호 추정방법에 있어서, 현재 입력되는 비트스트림내에 에러 프레임이 존재하는지를 판단하는 단계와; 판단결과, 현재 입력되는 프레임에서 에러가 발생하지 않았을 경우, 입력되는 비트스트림에 대한 현재 프레임을 EVRC보코딩을 수행하는 단계와; EVRC 코보딩이 수행되면, 보코딩이 수행된 해당 프레임에 대한 LSF의 변화율 및 피치 딜레이의 변화율을 에러가 발생한 프레임이 입력될 때까지 계속적으로 추정하는 단계와; 입력된 비트스트림에 대한 현재의 프레임에 에러가 발생되면, 에러가 발생된 해당 프레임에 대한 LSF 및 피치 딜레이를 이전 프레임에서 추정하였던 LSF변화율 및 피치 딜레이 변화율을 이용하여 추정하는 단계와; 상기 추정된 LSF와 피치 딜레이의 변화율을 유지시키면서 EVRC 보코딩을 수행하여 에러가 발생한 프레임의 음성신호를 추정하는 단계로 이루어짐에 있다.In the EVRC vocoder according to the present invention for achieving the above object, an error frame speech signal estimation method is characterized in that in the speech signal estimation method for an error frame, determining whether an error frame exists in the currently input bitstream; ; If an error does not occur in the currently input frame, performing EVRC vocoding on the current frame with respect to the input bitstream; If EVRC coding is performed, continuously estimating the rate of change of the LSF and the rate of change of the pitch delay for the corresponding frame on which the vocoding is performed until an errored frame is input; If an error occurs in a current frame for the input bitstream, estimating the LSF and pitch delay for the frame in which the error occurred using the LSF change rate and the pitch delay change rate estimated in the previous frame; Estimating the speech signal of the frame in which an error occurs by performing EVRC vocoding while maintaining the estimated change rate of the LSF and the pitch delay.
도 1은 일반적인 EVRC보코더의 프레임 구조를 나타낸 도면,1 is a view showing a frame structure of a typical EVRC vocoder;
도 2는 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법에 대한 동작 플로우챠트를 나타낸 도면,2 is a flowchart illustrating an operation of an error frame speech signal estimation method in an EVRC vocoder according to the present invention;
도 3은 현재의 에러 프레임과 이전의 에러 프레임의 구조를 나타낸 도면,3 is a diagram illustrating the structure of a current error frame and a previous error frame;
이하, 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법 및 그 장치에 대하여 첨부한 도면을 참조하여 상세하게 살펴보기로 한다.Hereinafter, an error frame speech signal estimation method and apparatus thereof in an EVRC vocoder according to the present invention will be described in detail with reference to the accompanying drawings.
본 발명에 대한 구체적인 설명에 앞서 본 발명에 대한 기본적인 개념 및 전반적인 동작에 대하여 간단하게 먼저 살펴보기로 하자.Prior to the detailed description of the present invention, let us briefly look at the basic concept and overall operation of the present invention.
음성신호의 내용은 LSF(Line Spectral Frequency: 라인 스펙트럼 주파수) 파라메타에 의해 표현되는 신호의 스펙트럼 포락에 의해 결정되고, 음성의 고저는 신호의 피치 딜레이(피치구간)에 의해 결정된다. 그리고, 음성신호의 연속성은 피치 딜레이와 스펙트럼 포락의 연속성으로 특정 지워진다.The content of the speech signal is determined by the spectral envelope of the signal represented by the Line Spectral Frequency (LSF) parameter, and the pitch of the speech is determined by the pitch delay (pitch interval) of the signal. Then, the continuity of the audio signal is specified by the continuity of the pitch delay and the spectral envelope.
따라서, 피치 딜레이와 스펙트럼 포락의 변화를 유지시키면서 에러가 발생한 프레임에 대한 음성신호를 추정하여 재생시킨다면 보다 자연스러운 음성을 재생할 수 있을 것으로 기대된다.Therefore, it is expected that a more natural voice can be reproduced by estimating and reproducing a voice signal for an error frame while maintaining a change in pitch delay and spectral envelope.
이하, EVRC 보코더의 프레임 구조에 대하여 도 1을 참조하여 설명해 보기로 하자.Hereinafter, the frame structure of the EVRC vocoder will be described with reference to FIG. 1.
EVRC 보코더는 20msec의 메인 프레임(Main Frame) 길이를 가지면 10msec의 룩-백 프레임(look-back brame)과 10msec의 룩-어헤드 프레임(look-ahead frame)을 가진다.The EVRC vocoder has a main frame length of 20 msec and has a look-back frame of 10 msec and a look-ahead frame of 10 msec.
20 msec의 메인 프레임은 다시 3개의 서브 프레임(Sub-frame)으로 나누어진다.The main frame of 20 msec is further divided into three sub-frames.
EVRC 보코더는 8KHz의 샘플링 레이트(Sampling Rate)를 가지기 때문에 160 샘플의 메인 프레임, 80 샘플의 룩-백 및 룩-어헤드 프레임으로 구성되어 진다.Since the EVRC vocoder has a sampling rate of 8KHz, it consists of 160 samples of main frame, 80 samples of look-back and look-ahead frame.
또한, 각 서브 프레임 및 룩-백 및 룩-어헤드 프레임 마다 각자의 LSF 및 피치 딜레이를 가진다.In addition, each subframe and each look-back and look-ahead frame has its own LSF and pitch delay.
상기한 바와 같은 프레임 구조를 갖는 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법에 대하여 첨부한 도면을 참조하여 단계적이면서 상세하게 설명해 보기로 하자.An error frame speech signal estimation method in an EVRC vocoder having a frame structure as described above will be described in detail with reference to the accompanying drawings.
도 2는 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법에 대한 동작 플로우챠트를 나타낸 도면이고, 도 3은 현재의 에러 프레임과 이전의 에러 프레임의 구조를 나타낸 도면이다.2 is a flowchart illustrating an operation of an error frame speech signal estimation method in an EVRC vocoder according to the present invention, and FIG. 3 is a diagram illustrating a structure of a current error frame and a previous error frame.
먼저, 도 2에 도시된 바와 같이 파라메타를 초기화한다(S101).First, the parameter is initialized as shown in FIG. 2 (S101).
이어, 파라메타가 초기화되면, 현재 입력되는 비트스트림(Bitsream)내에 에러 프레임이 존재하는지를 판단한다(S102).Then, when the parameter is initialized, it is determined whether an error frame exists in the currently input bitstream Bitsam (S102).
판단결과, 현재 입력되는 프레임에서 에러가 발생하지 않았다고 판단되면, 입력되는 비트스트림에 대한 현재 프레임 프레임을 EVRC보코딩을 수행한다(S103).If it is determined that no error occurs in the currently input frame, EVRC vocoding is performed on the current frame frame with respect to the input bitstream (S103).
이어, EVRC 코보딩이 수행되면, 보코딩이 수행된 해당 프레임에 대한 LSF의 변화율을 추정한 후(S104), 피치 딜레이의 변화율을 추정하게 되는 것이다(S105). 즉, 현재의 프레임에 에러가 발생하지 않았을 경우, 프레임의 피치 딜레이와 피치 딜레이와 피치 딜레이의 변화율 및 스펙트럼 포락과 스펙트럼 포락의 변화율을 추정하는 것이다. 이때 이러한 추정은 에러 프레임이 발생할 때까지 계속적으로 추정하는 것이다.Subsequently, when EVRC coding is performed, the rate of change of the LSF for the corresponding frame on which the vocoding is performed is estimated (S104), and the rate of change of the pitch delay is estimated (S105). That is, when no error occurs in the current frame, the rate of change of the pitch delay, the pitch delay and the pitch delay of the frame, and the rate of change of the spectral envelope and the spectral envelope are estimated. In this case, the estimation is to continuously estimate until an error frame occurs.
이와 같이 에러가 발생하지 않은 해당 프레임에 대한 LSF 및 피치 딜레이의 변화율을 추정한 후, 해당 프레임이 프레임의 끝인가를 판단하여(S106) 프레임이 끝인 경우 정상적으로 음성을 재생하게 되고, 프레임의 끝이 아닌 경우에는 프레임을 증가시켜(S107) 그 다음 입력되는 프레임에 대한 에러 발생여부를 판단하게 되는 것이다(S102).After estimating the rate of change of the LSF and the pitch delay for the corresponding frame in which no error occurs as described above, it is determined whether the corresponding frame is the end of the frame (S106). If not, by increasing the frame (S107) it is determined whether an error occurs for the next input frame (S102).
이어, 상기 프레임이 증가되어 그다음 입력되는 프레임에 에러가 발생되는 경우에 또는 상기 S101단계에서 프레임 에러가 발생되었다고 판단되면, 에러가 발생된 해당 프레임에 대한 LSF를 이전 프레임에서 추정하였던 LSF변화율을 이용하여 추정한 후(S108), 이전 프레임에서 추정하였던 피치 딜레이 변화율을 이용하여 현재 프레임 즉, 에러가 발생된 프레임에 대한 피치 딜레이값을 추정하는 것이다(S109).Subsequently, when the frame is increased and an error occurs in a next input frame or when it is determined that a frame error occurs in step S101, the LSF change rate estimated from the previous frame is used for the LSF for the corresponding frame in which the error has occurred. After estimating (S108), the pitch delay value for the current frame, that is, the frame in which the error is generated, is estimated using the pitch delay change rate estimated in the previous frame (S109).
이어, 현재 프레임 즉, 에러가 발생한 현재 프레임에 대한 LSF와 피치 딜레이값이 추정되면, 추정된 LSF와 피치 딜레이의 변화율을 유지시키면서 EVRC 보코딩을 수행함으로써(S110), 에러가 발생한 프레임의 음성신호를 추정하여 재생하게 되는 것이다.Subsequently, when the LSF and the pitch delay value for the current frame, that is, the current frame in which the error has been estimated, are performed by performing EVRC vocoding while maintaining the estimated change rate of the LSF and the pitch delay (S110), the voice signal of the frame in which the error occurs. It is to be estimated and reproduced.
이하, 상기 S102단계에서 입력되는 프레임에서 에러가 발생되지 않았을 경우 LSF 변화율을 추정하는 방법에 대하여 살펴보기로 하자.Hereinafter, a method of estimating the LSF change rate when no error occurs in the frame input in step S102 will be described.
먼저, LSF변화율은 2차 변화율(Second Oder Derivative)를 사용한다. 먼저 3개의 서브 프레임에서 LSF들을 산술 평균하여 메인 프레임의 LSF를 결정한다.First, the LSF change rate uses a second change rate (Second Oder Derivative). First, the LSF of the main frame is determined by arithmetically averaging LSFs in three subframes.
그리고 룩 백 프레임, 메인 프레임, 룩 어헤드 프레임의 LSF에 의한 2차 유도함수를 이용하여 LSF의 변화율을 결정하는 것이다.The rate of change of the LSF is determined by using the second derivative function of the LSF of the look back frame, the main frame, and the look ahead frame.
룩 백 프레임의 LSF를 LSF_LB, 룩 어헤드 프레임의 LSF를 LSF_LA, 메인 프레임의 LSF를 LSF_M이라고 하면, 각 프레임간의 변화율들은 아래의 수학식을 이용하여 추정되는 것이다.If the LSF of the lookback frame is LSF_LB, the LSF of the lookahead frame is LSF_LA, and the LSF of the main frame is LSF_M, the rate of change between the frames is estimated using the following equation.
여기서, LSF_SFn은 n번째 서브 프레임의 LSF이고, LSF_M은 메인 프레임의 LSF, LSF_LB는 룩 백 프레임의 LSF, LSF_LA는 룩 어헤드 프레임의 LSF, △LSF1은 메인 프레임과 룩 어헤드 프레임사이의 1차 변화율, △LSF2는 룩 어헤드 프레임과 룩 백 프레임사의 1차 변화율, △2LSF는 LSF의 2차 변화율이다.Where LSF_SF n is the LSF of the nth subframe, LSF_M is the LSF of the main frame, LSF_LB is the LSF of the lookback frame, LSF_LA is the LSF of the lookahead frame, and ΔLSF1 is 1 between the main frame and the lookahead frame. The difference rate of change, DELTA LSF2, is the first rate of change of the look ahead frame and look back frame yarns, and DELTA 2 LSF is the second rate of change of the LSF.
한편, 프레임 에러가 발생된 경우 피치 딜레이 변화율을 추정하는 방법에 대하여 살펴보자.Meanwhile, a method of estimating a pitch delay change rate when a frame error occurs will be described.
먼저, 피치 딜레이의 변화율 역시 2차 변화율을 사용한다. 먼저 3개의 서브 프레임에서 피치 딜레이들을 산술 평균하여 메인 프레임의 피치 딜레이를 결정한다.First, the rate of change of the pitch delay also uses the rate of second order change. First, the pitch delay of the main frame is determined by arithmetically averaging the pitch delays in three subframes.
그리고, 룩 백 프레임, 룩 어헤드 프레임, 메인 프레임의 피치 딜레이에 의한 2차 유도함수를 이용하여 피치 딜레이의 변화율을 계산한다.Then, the rate of change of the pitch delay is calculated using the second derivative function of the pitch delay of the look back frame, the look ahead frame, and the main frame.
룩 백 프레임의 피치 딜레이를 PD_LB, 룩 백 프레임의 피치 딜레이를 PD_LA, 메인 프레임의 피치 딜레이를 PD_M이라고 하며, 각 프레임간의 변화율들은 아래의 수학식 2와 같이 주어진다.The pitch delay of the look back frame is referred to as PD_LB, the pitch delay of the look back frame is referred to as PD_LA, and the pitch delay of the main frame is referred to as PD_M, and the rate of change between the frames is given by Equation 2 below.
여기서, PD_SFn은 n번째 서브 프레임의 피치 딜레이, PD_M은 메인 프레임의 피치 딜레이, PD_LB는 룩 백 프레임의 피치 딜레이, PD_LA는 룩 어헤드 프레임의 피치 딜레이, △PD1은 메인 프레임과 룩 백 프레임간의 1차 변화율, △PD2는 룩 백 프레임과 메인 프레임간의 1차변화율, △2PD 는 피치 딜레이의 2차 변화율이다.Where PD_SF n is the pitch delay of the nth subframe, PD_M is the pitch delay of the main frame, PD_LB is the pitch delay of the lookback frame, PD_LA is the pitch delay of the look-ahead frame, and ΔPD1 is between the main frame and the lookback frame. first change rate, △ PD2 is the second rate of change of the look-back frame and the first rate of change between the main frame, △ 2, PD is the pitch delay.
이어, 에러가 발생한 프레임의 LSF 및 피치 딜레이 추정방법에 대하여 상세하게 살펴보기로 하자.Next, the method of estimating the LSF and pitch delay of a frame in which an error occurs will be described in detail.
상기에서 설명한 LSF 및 피치 딜레이 변화율의 추정을 에러 프레임이 발생할 때 까지 계속한다. 에러 프레임이 발생하면, 상기 수학식 1, 2의 변화율들을 이용하여 에러 프레임의 LSF 및 피치 딜레이를 추정하는 것이다.Estimation of the LSF and pitch delay change rates described above is continued until an error frame occurs. When an error frame occurs, the LSF and pitch delay of the error frame are estimated using the rate of change of Equations 1 and 2.
도 3은 현재의 에러 프레임과 이전의 에러 프레임의 구조를 나타낸 도면으로서, 에러가 발생한 프레임의 전반부 80샘플은 도 3에도시된 바와 같이 에러가 발생하기 이전 프레임의 룩 어헤드 프레임과 동일하다.FIG. 3 is a diagram illustrating the structure of a current error frame and a previous error frame. The first half sample of the frame in which the error occurs is the same as the look ahead frame of the frame before the error, as shown in FIG.
따라서, 현재 프레임의 후반부 80샘플에 대한 lSF 및 피치 딜레이를 추정한 뒤 이를 바탕으로 현재 프레임에 대한 3개의 서브 프레임의 LSF 및 피치 딜레이를추정하는 것이다.Therefore, after estimating the lSF and the pitch delay for the latter 80 samples of the current frame, the LSF and the pitch delay of the three subframes for the current frame are estimated based on this.
상기한 수학식 1, 2의 LSF 및 그 변화율로 부터 현재 프레임의 후반부 80샘플에 대한 LSF는 아래의 수학식 3과 같이 추정할 수있다.From the LSFs of Equations 1 and 2 and the rate of change thereof, the LSF for the latter 80 samples of the current frame can be estimated as Equation 3 below.
여기서, LSF_E(m)은 현재 에러 프레임 m의 후반부 80샘플에 대해 추정된 LSF, LSF_LA(m-1)은 에러 프레임 이전의 룩 어헤드 프레임의 LSF, △LSF2(m-1)은 에러 프레임 이전의 △LSF2, △2LSF(m-1)은 에러 프레임 이전의 △2LSF이다.Where LSF_E (m) is the estimated LSF for the latter 80 samples of the current error frame m, LSF_LA (m-1) is the LSF of the look ahead frame before the error frame, and ΔLSF2 (m-1) is before the error frame. DELTA LSF2 and DELTA 2 LSF (m-1) are DELTA 2 LSF before an error frame.
에러가 발생하지 않았던 이전 프레임의 LSF_LA(m-1) 및 수학식 3에서 추정한 LSF_E(m)을 이용하여 현재 프래임의 3개 서브 프레임에 대한 LSF는 아래의 수학식 4와 같이 추정될 수 있다.Using the LSF_LA (m-1) of the previous frame and the LSF_E (m) estimated in Equation 3 where no error occurred, the LSF for three subframes of the current frame may be estimated as Equation 4 below. .
여기서, LSF_SFn(m)은 현재 에러프레임 m의 각 서브 프레임에 대한 LSF이다.Here, LSF_SF n (m) is the LSF for each subframe of the current error frame m.
또한, 피치 딜레이에 대하여도 상기한 LSF 추정방법과 동일한 방법을 사용하여 추정할 수 있다. 즉, 아래의 수학식 5와 6을 이용하여 추정할 수 있는 것이다.The pitch delay can also be estimated using the same method as the above-described LSF estimation method. That is, it can be estimated using the following equations (5) and (6).
여기서, PD_E(m)은 현재 에러 프레임 m의 후반부 80샘플에 대해 추정된 PD, PD_LA(m-1)은 에러 프레임 이전의 룩 어헤드 프레임의 PD, △PD2(m-1)은 에러 프레임 이전의 △PD2, △2PD(m-1)은 에러 프레임 이전의 △2PD이다.Where PD_E (m) is the PD estimated for the latter 80 samples of the current error frame m, PD_LA (m-1) is the PD of the look ahead frame before the error frame, and ΔPD2 (m-1) is the error frame before DELTA PD2 and DELTA 2 PD (m-1) are DELTA 2 PDs before the error frame.
여기서, PD_SFn(m)은 현재 에러 프레임 m의 각 서브 프레임에 대한 LSF이다.Here, PD_SF n (m) is the LSF for each subframe of the current error frame m.
이와 같은 수학식 4와 수학식 6을 이용하여 추정한 LSF 및 피치 딜레이를 이용하여 에러가 발생한 현재 프레임의 음성신호를 추정한다. LSF 및 피치 딜레이 이외의 모든 파라메타들은 이전 프레임의 값을 그대로 사용한다.Using the LSF and the pitch delay estimated using the equations (4) and (6), the audio signal of the current frame in which an error occurs is estimated. All parameters other than the LSF and pitch delay use the value of the previous frame.
대부분의 보코더들은 EVRC와 유사한 프레임 구조를 채택하고 있다. 따라서, EVRC 외의 다른 보코더 예를들어 LPC010, QCELP, VSELP 등들에도 유사한 방법으로 사용하여 에러 프레임에 대한 추정을 할 수 있는 것이다.Most vocoders have a frame structure similar to EVRC. Therefore, other vocoder other than EVRC, for example, LPC010, QCELP, VSELP, etc. can be used in a similar manner to estimate the error frame.
상술한 바와 같은 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법은 에러가 발생하지 않은 이전의 프레임에 대해 추정한 LSF 및 피치 딜레의 변화율을 이용하여 에러가 발생한 프레임에 대한 LSF 및 피치 딜레이값을 추정하여 에러가 발생한 프레임의 음성신호를 추정한 후, 재생함으로써, 음성신호의 연속성이 유지되어 수신자로 하여금 보다 좋은 음질을 느끼게 할 수 있는 효과를 가진 것이다.In the EVRC vocoder according to the present invention as described above, the error frame speech signal estimation method uses the change rate of the LSF and pitch delay estimated for the previous frame in which no error occurs, and the LSF and pitch delay for the frame in which the error occurs. By estimating the value and estimating the audio signal of the frame in which the error has occurred, the audio signal has an effect of maintaining the continuity of the audio signal so that the receiver can feel better sound quality.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990057309A KR100346154B1 (en) | 1999-12-13 | 1999-12-13 | Method for estimating an audio signal of error frame in an EVRC vocoder |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990057309A KR100346154B1 (en) | 1999-12-13 | 1999-12-13 | Method for estimating an audio signal of error frame in an EVRC vocoder |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20010055965A true KR20010055965A (en) | 2001-07-04 |
KR100346154B1 KR100346154B1 (en) | 2002-08-01 |
Family
ID=19625540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019990057309A KR100346154B1 (en) | 1999-12-13 | 1999-12-13 | Method for estimating an audio signal of error frame in an EVRC vocoder |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100346154B1 (en) |
-
1999
- 1999-12-13 KR KR1019990057309A patent/KR100346154B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR100346154B1 (en) | 2002-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1088205B1 (en) | Improved lost frame recovery techniques for parametric, lpc-based speech coding systems | |
US8423358B2 (en) | Method and apparatus for performing packet loss or frame erasure concealment | |
JP4931318B2 (en) | Forward error correction in speech coding. | |
US6662155B2 (en) | Method and system for comfort noise generation in speech communication | |
EP1088303B1 (en) | Method and apparatus for performing frame erasure concealment | |
US8243761B2 (en) | Decoder synchronization adjustment | |
US7577565B2 (en) | Adaptive voice playout in VOP | |
US6952668B1 (en) | Method and apparatus for performing packet loss or frame erasure concealment | |
EP1454315B1 (en) | Signal modification method for efficient coding of speech signals | |
US6775649B1 (en) | Concealment of frame erasures for speech transmission and storage system and method | |
JP5149198B2 (en) | Method and device for efficient frame erasure concealment within a speech codec | |
US7881925B2 (en) | Method and apparatus for performing packet loss or frame erasure concealment | |
KR20040031035A (en) | Method and apparatus for reducing synchronization delay in packet-based voice terminals by resynchronizing during talk spurts | |
US20040181405A1 (en) | Recovering an erased voice frame with time warping | |
EP0786760A2 (en) | Speech coding | |
JPH0226901B2 (en) | ||
US20070055498A1 (en) | Method and apparatus for performing packet loss or frame erasure concealment | |
US6873954B1 (en) | Method and apparatus in a telecommunications system | |
US20100106490A1 (en) | Method and Speech Encoder with Length Adjustment of DTX Hangover Period | |
US6275798B1 (en) | Speech coding with improved background noise reproduction | |
US6961697B1 (en) | Method and apparatus for performing packet loss or frame erasure concealment | |
Lindblom et al. | Packet loss concealment based on sinusoidal extrapolation | |
KR100346154B1 (en) | Method for estimating an audio signal of error frame in an EVRC vocoder | |
Cluver et al. | Reconstruction of missing speech frames using sub-band excitation | |
Teague | Enhancing FS-1016 CELP via selective harmonic pre-emphasis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20060706 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |