KR20010055965A - Method for estimating an audio signal of error frame in an EVRC vocoder - Google Patents

Method for estimating an audio signal of error frame in an EVRC vocoder Download PDF

Info

Publication number
KR20010055965A
KR20010055965A KR1019990057309A KR19990057309A KR20010055965A KR 20010055965 A KR20010055965 A KR 20010055965A KR 1019990057309 A KR1019990057309 A KR 1019990057309A KR 19990057309 A KR19990057309 A KR 19990057309A KR 20010055965 A KR20010055965 A KR 20010055965A
Authority
KR
South Korea
Prior art keywords
frame
error
lsf
change
estimated
Prior art date
Application number
KR1019990057309A
Other languages
Korean (ko)
Other versions
KR100346154B1 (en
Inventor
이교혁
Original Assignee
박종섭
주식회사 하이닉스반도체
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박종섭, 주식회사 하이닉스반도체 filed Critical 박종섭
Priority to KR1019990057309A priority Critical patent/KR100346154B1/en
Publication of KR20010055965A publication Critical patent/KR20010055965A/en
Application granted granted Critical
Publication of KR100346154B1 publication Critical patent/KR100346154B1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PURPOSE: A method for estimating an error frame voice signal in an EVRC(Enhanced Variable Rate Coder) vocoder is provided to reproduce a natural voice by maintaining a continuity of a pitch delay and a spectral envelop change to a frame in which an error is generated and estimating a frame signal. CONSTITUTION: If parameters are initialized(S101), it is judged whether an error frame exists in a current inputted bitstream(S102). If an error is not generated in the current inputted frame, An EVRC vocoding of the current frame is performed in an inputted bitstream(S103). A change rate of an LSF(Line Spectral Frequency) to a corresponding frame is estimated(S104), and a change rate of a pitch delay is estimated(S105). Change rates of the LSF and the pitch delay regarding a corresponding frame in which an error is not generated is estimated, and it is judged whether the corresponding frame is an end of the frame(S106). If the corresponding frame is not the end of the frame, the frame is increased(S107) and an error is generated in a next inputted frame(S102). If the error is generated in the next inputted frame and the frame error is generated(S101), the LSF to a corresponding frame in which the error is generated is estimated using the change rate of the LSF estimated in a previous frame(S108). A pitch delay value to a current frame is estimated using a change rate of the pitch delay estimated in the previous frame(S109). The change rates of the estimated LSF and the pitch delay are maintained for performing an EVRC vocoding(S110).

Description

이 브이 알 씨 보코더에 있어 에러 프레임 음성신호 추정방법{Method for estimating an audio signal of error frame in an EVRC vocoder}Method for estimating an audio signal of error frame in an EVRC vocoder}

본 발명은 이 브이 알 씨(Enhanced Variable Rate Coder: 이하 EVRC라 칭함)보코더(Vocoder)에 관한 것으로서, 특히 입력되는 오디오 비트스트림에서 에러가 발생한 프레임에 대해 피치딜레이(Pitch Delay)와 스펙트럼 포락(Spectral Envelope) 변화의 연속성을 유지시키면서 에러가 발생한 프레임 신호를 추정함으로써, 보다 자연스러운 음을 재생할 수 있도록 한 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an enhanced variable rate coder (VoRC) vocoder, particularly for pitch delay and spectral envelope for frames in which an error occurs in an input audio bitstream. The present invention relates to a method for estimating an error frame speech signal in an EVRC vocoder capable of reproducing a more natural sound by estimating an error frame signal while maintaining continuity of change.

일반적으로 EVRC를 비롯한 대부분의 보코더들은 수십 msec의 프레임 길이를가진다.In general, most vocoders, including EVRC, have a frame length of several tens of msec.

이러한 보코더 비트스트림에서 CRC(Cyclic Redundancy Check)에러 등의 치명적인 에러가 발생할 경우, 에러가 발생한 프레임에 대한 처리방법은 대부분 묶음처리 또는 이전 프레임을 반복 재생하는 등의 방법이 주류를 이루고 있다.When a fatal error such as a cyclic redundancy check (CRC) error occurs in the vocoder bitstream, most of the processing methods for the error frame include a batch process or a replay of the previous frame.

그러나 이러한 방법들은 수십 msec의 프레임 길이를 가지는 보코더 비트스트림에서 수신자에게 상당한 부자연스러움을 느끼게 하여 통화음질을 저하시키는 문제점이 있다.However, these methods have a problem that the voice quality is degraded by making the receiver feel unnatural in the vocoder bitstream having a frame length of several tens of msec.

이러한 통화음질의 저하는 복호화기에서 에러가 발생한 프레임에 대해 묶음처리 또는 이전 프레임의 단순 반복재생함으로 인해 일어나는 음성신호의 스펙트럼 포락 및 피치 딜레이변화의 연속성을 소멸시키기 때문이다.This is because the degradation of the voice quality eliminates the continuity of the spectral envelope and pitch delay change of the speech signal caused by the grouping process or the simple repetition of the previous frame.

따라서, 본 발명은 상기한 종래 기술에 따른 제반 문제점을 해결하기 위하여 안출한 것으로 본 발명의 목적은 입력되는 오디오 비트스트림에서 에러가 발생한 프레임에 대해 피치딜레이(Pitch Delay)와 스펙트럼 포락(Spectral Envelope) 변화의 연속성을 유지시키면서 에러가 발생한 프레임 신호를 추정함으로써, 보다 자연스러운 음을 재생할 수 있도록 한 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법을 제공함에 있다.Accordingly, an object of the present invention is to solve the above-mentioned problems according to the prior art. An object of the present invention is to provide a pitch delay and a spectral envelope for a frame in which an error occurs in an input audio bitstream. The present invention provides an error frame speech signal estimating method in an EVRC vocoder capable of reproducing a more natural sound by estimating an error frame signal while maintaining continuity of change.

또한, 본 발명의 다른 특징은 상기한 추정방법에 상응하는 EVRC 보코더에 있어 에러 프레임 음성신호 추정장치를 제공함에 있다.In addition, another aspect of the present invention is to provide an error frame speech signal estimation apparatus for an EVRC vocoder corresponding to the above estimation method.

상기한 목적을 달성하기 위한 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법의 특징은 에러 프레임에 대한 음성신호 추정방법에 있어서, 현재 입력되는 비트스트림내에 에러 프레임이 존재하는지를 판단하는 단계와; 판단결과, 현재 입력되는 프레임에서 에러가 발생하지 않았을 경우, 입력되는 비트스트림에 대한 현재 프레임을 EVRC보코딩을 수행하는 단계와; EVRC 코보딩이 수행되면, 보코딩이 수행된 해당 프레임에 대한 LSF의 변화율 및 피치 딜레이의 변화율을 에러가 발생한 프레임이 입력될 때까지 계속적으로 추정하는 단계와; 입력된 비트스트림에 대한 현재의 프레임에 에러가 발생되면, 에러가 발생된 해당 프레임에 대한 LSF 및 피치 딜레이를 이전 프레임에서 추정하였던 LSF변화율 및 피치 딜레이 변화율을 이용하여 추정하는 단계와; 상기 추정된 LSF와 피치 딜레이의 변화율을 유지시키면서 EVRC 보코딩을 수행하여 에러가 발생한 프레임의 음성신호를 추정하는 단계로 이루어짐에 있다.In the EVRC vocoder according to the present invention for achieving the above object, an error frame speech signal estimation method is characterized in that in the speech signal estimation method for an error frame, determining whether an error frame exists in the currently input bitstream; ; If an error does not occur in the currently input frame, performing EVRC vocoding on the current frame with respect to the input bitstream; If EVRC coding is performed, continuously estimating the rate of change of the LSF and the rate of change of the pitch delay for the corresponding frame on which the vocoding is performed until an errored frame is input; If an error occurs in a current frame for the input bitstream, estimating the LSF and pitch delay for the frame in which the error occurred using the LSF change rate and the pitch delay change rate estimated in the previous frame; Estimating the speech signal of the frame in which an error occurs by performing EVRC vocoding while maintaining the estimated change rate of the LSF and the pitch delay.

도 1은 일반적인 EVRC보코더의 프레임 구조를 나타낸 도면,1 is a view showing a frame structure of a typical EVRC vocoder;

도 2는 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법에 대한 동작 플로우챠트를 나타낸 도면,2 is a flowchart illustrating an operation of an error frame speech signal estimation method in an EVRC vocoder according to the present invention;

도 3은 현재의 에러 프레임과 이전의 에러 프레임의 구조를 나타낸 도면,3 is a diagram illustrating the structure of a current error frame and a previous error frame;

이하, 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법 및 그 장치에 대하여 첨부한 도면을 참조하여 상세하게 살펴보기로 한다.Hereinafter, an error frame speech signal estimation method and apparatus thereof in an EVRC vocoder according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명에 대한 구체적인 설명에 앞서 본 발명에 대한 기본적인 개념 및 전반적인 동작에 대하여 간단하게 먼저 살펴보기로 하자.Prior to the detailed description of the present invention, let us briefly look at the basic concept and overall operation of the present invention.

음성신호의 내용은 LSF(Line Spectral Frequency: 라인 스펙트럼 주파수) 파라메타에 의해 표현되는 신호의 스펙트럼 포락에 의해 결정되고, 음성의 고저는 신호의 피치 딜레이(피치구간)에 의해 결정된다. 그리고, 음성신호의 연속성은 피치 딜레이와 스펙트럼 포락의 연속성으로 특정 지워진다.The content of the speech signal is determined by the spectral envelope of the signal represented by the Line Spectral Frequency (LSF) parameter, and the pitch of the speech is determined by the pitch delay (pitch interval) of the signal. Then, the continuity of the audio signal is specified by the continuity of the pitch delay and the spectral envelope.

따라서, 피치 딜레이와 스펙트럼 포락의 변화를 유지시키면서 에러가 발생한 프레임에 대한 음성신호를 추정하여 재생시킨다면 보다 자연스러운 음성을 재생할 수 있을 것으로 기대된다.Therefore, it is expected that a more natural voice can be reproduced by estimating and reproducing a voice signal for an error frame while maintaining a change in pitch delay and spectral envelope.

이하, EVRC 보코더의 프레임 구조에 대하여 도 1을 참조하여 설명해 보기로 하자.Hereinafter, the frame structure of the EVRC vocoder will be described with reference to FIG. 1.

EVRC 보코더는 20msec의 메인 프레임(Main Frame) 길이를 가지면 10msec의 룩-백 프레임(look-back brame)과 10msec의 룩-어헤드 프레임(look-ahead frame)을 가진다.The EVRC vocoder has a main frame length of 20 msec and has a look-back frame of 10 msec and a look-ahead frame of 10 msec.

20 msec의 메인 프레임은 다시 3개의 서브 프레임(Sub-frame)으로 나누어진다.The main frame of 20 msec is further divided into three sub-frames.

EVRC 보코더는 8KHz의 샘플링 레이트(Sampling Rate)를 가지기 때문에 160 샘플의 메인 프레임, 80 샘플의 룩-백 및 룩-어헤드 프레임으로 구성되어 진다.Since the EVRC vocoder has a sampling rate of 8KHz, it consists of 160 samples of main frame, 80 samples of look-back and look-ahead frame.

또한, 각 서브 프레임 및 룩-백 및 룩-어헤드 프레임 마다 각자의 LSF 및 피치 딜레이를 가진다.In addition, each subframe and each look-back and look-ahead frame has its own LSF and pitch delay.

상기한 바와 같은 프레임 구조를 갖는 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법에 대하여 첨부한 도면을 참조하여 단계적이면서 상세하게 설명해 보기로 하자.An error frame speech signal estimation method in an EVRC vocoder having a frame structure as described above will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법에 대한 동작 플로우챠트를 나타낸 도면이고, 도 3은 현재의 에러 프레임과 이전의 에러 프레임의 구조를 나타낸 도면이다.2 is a flowchart illustrating an operation of an error frame speech signal estimation method in an EVRC vocoder according to the present invention, and FIG. 3 is a diagram illustrating a structure of a current error frame and a previous error frame.

먼저, 도 2에 도시된 바와 같이 파라메타를 초기화한다(S101).First, the parameter is initialized as shown in FIG. 2 (S101).

이어, 파라메타가 초기화되면, 현재 입력되는 비트스트림(Bitsream)내에 에러 프레임이 존재하는지를 판단한다(S102).Then, when the parameter is initialized, it is determined whether an error frame exists in the currently input bitstream Bitsam (S102).

판단결과, 현재 입력되는 프레임에서 에러가 발생하지 않았다고 판단되면, 입력되는 비트스트림에 대한 현재 프레임 프레임을 EVRC보코딩을 수행한다(S103).If it is determined that no error occurs in the currently input frame, EVRC vocoding is performed on the current frame frame with respect to the input bitstream (S103).

이어, EVRC 코보딩이 수행되면, 보코딩이 수행된 해당 프레임에 대한 LSF의 변화율을 추정한 후(S104), 피치 딜레이의 변화율을 추정하게 되는 것이다(S105). 즉, 현재의 프레임에 에러가 발생하지 않았을 경우, 프레임의 피치 딜레이와 피치 딜레이와 피치 딜레이의 변화율 및 스펙트럼 포락과 스펙트럼 포락의 변화율을 추정하는 것이다. 이때 이러한 추정은 에러 프레임이 발생할 때까지 계속적으로 추정하는 것이다.Subsequently, when EVRC coding is performed, the rate of change of the LSF for the corresponding frame on which the vocoding is performed is estimated (S104), and the rate of change of the pitch delay is estimated (S105). That is, when no error occurs in the current frame, the rate of change of the pitch delay, the pitch delay and the pitch delay of the frame, and the rate of change of the spectral envelope and the spectral envelope are estimated. In this case, the estimation is to continuously estimate until an error frame occurs.

이와 같이 에러가 발생하지 않은 해당 프레임에 대한 LSF 및 피치 딜레이의 변화율을 추정한 후, 해당 프레임이 프레임의 끝인가를 판단하여(S106) 프레임이 끝인 경우 정상적으로 음성을 재생하게 되고, 프레임의 끝이 아닌 경우에는 프레임을 증가시켜(S107) 그 다음 입력되는 프레임에 대한 에러 발생여부를 판단하게 되는 것이다(S102).After estimating the rate of change of the LSF and the pitch delay for the corresponding frame in which no error occurs as described above, it is determined whether the corresponding frame is the end of the frame (S106). If not, by increasing the frame (S107) it is determined whether an error occurs for the next input frame (S102).

이어, 상기 프레임이 증가되어 그다음 입력되는 프레임에 에러가 발생되는 경우에 또는 상기 S101단계에서 프레임 에러가 발생되었다고 판단되면, 에러가 발생된 해당 프레임에 대한 LSF를 이전 프레임에서 추정하였던 LSF변화율을 이용하여 추정한 후(S108), 이전 프레임에서 추정하였던 피치 딜레이 변화율을 이용하여 현재 프레임 즉, 에러가 발생된 프레임에 대한 피치 딜레이값을 추정하는 것이다(S109).Subsequently, when the frame is increased and an error occurs in a next input frame or when it is determined that a frame error occurs in step S101, the LSF change rate estimated from the previous frame is used for the LSF for the corresponding frame in which the error has occurred. After estimating (S108), the pitch delay value for the current frame, that is, the frame in which the error is generated, is estimated using the pitch delay change rate estimated in the previous frame (S109).

이어, 현재 프레임 즉, 에러가 발생한 현재 프레임에 대한 LSF와 피치 딜레이값이 추정되면, 추정된 LSF와 피치 딜레이의 변화율을 유지시키면서 EVRC 보코딩을 수행함으로써(S110), 에러가 발생한 프레임의 음성신호를 추정하여 재생하게 되는 것이다.Subsequently, when the LSF and the pitch delay value for the current frame, that is, the current frame in which the error has been estimated, are performed by performing EVRC vocoding while maintaining the estimated change rate of the LSF and the pitch delay (S110), the voice signal of the frame in which the error occurs. It is to be estimated and reproduced.

이하, 상기 S102단계에서 입력되는 프레임에서 에러가 발생되지 않았을 경우 LSF 변화율을 추정하는 방법에 대하여 살펴보기로 하자.Hereinafter, a method of estimating the LSF change rate when no error occurs in the frame input in step S102 will be described.

먼저, LSF변화율은 2차 변화율(Second Oder Derivative)를 사용한다. 먼저 3개의 서브 프레임에서 LSF들을 산술 평균하여 메인 프레임의 LSF를 결정한다.First, the LSF change rate uses a second change rate (Second Oder Derivative). First, the LSF of the main frame is determined by arithmetically averaging LSFs in three subframes.

그리고 룩 백 프레임, 메인 프레임, 룩 어헤드 프레임의 LSF에 의한 2차 유도함수를 이용하여 LSF의 변화율을 결정하는 것이다.The rate of change of the LSF is determined by using the second derivative function of the LSF of the look back frame, the main frame, and the look ahead frame.

룩 백 프레임의 LSF를 LSF_LB, 룩 어헤드 프레임의 LSF를 LSF_LA, 메인 프레임의 LSF를 LSF_M이라고 하면, 각 프레임간의 변화율들은 아래의 수학식을 이용하여 추정되는 것이다.If the LSF of the lookback frame is LSF_LB, the LSF of the lookahead frame is LSF_LA, and the LSF of the main frame is LSF_M, the rate of change between the frames is estimated using the following equation.

여기서, LSF_SFn은 n번째 서브 프레임의 LSF이고, LSF_M은 메인 프레임의 LSF, LSF_LB는 룩 백 프레임의 LSF, LSF_LA는 룩 어헤드 프레임의 LSF, △LSF1은 메인 프레임과 룩 어헤드 프레임사이의 1차 변화율, △LSF2는 룩 어헤드 프레임과 룩 백 프레임사의 1차 변화율, △2LSF는 LSF의 2차 변화율이다.Where LSF_SF n is the LSF of the nth subframe, LSF_M is the LSF of the main frame, LSF_LB is the LSF of the lookback frame, LSF_LA is the LSF of the lookahead frame, and ΔLSF1 is 1 between the main frame and the lookahead frame. The difference rate of change, DELTA LSF2, is the first rate of change of the look ahead frame and look back frame yarns, and DELTA 2 LSF is the second rate of change of the LSF.

한편, 프레임 에러가 발생된 경우 피치 딜레이 변화율을 추정하는 방법에 대하여 살펴보자.Meanwhile, a method of estimating a pitch delay change rate when a frame error occurs will be described.

먼저, 피치 딜레이의 변화율 역시 2차 변화율을 사용한다. 먼저 3개의 서브 프레임에서 피치 딜레이들을 산술 평균하여 메인 프레임의 피치 딜레이를 결정한다.First, the rate of change of the pitch delay also uses the rate of second order change. First, the pitch delay of the main frame is determined by arithmetically averaging the pitch delays in three subframes.

그리고, 룩 백 프레임, 룩 어헤드 프레임, 메인 프레임의 피치 딜레이에 의한 2차 유도함수를 이용하여 피치 딜레이의 변화율을 계산한다.Then, the rate of change of the pitch delay is calculated using the second derivative function of the pitch delay of the look back frame, the look ahead frame, and the main frame.

룩 백 프레임의 피치 딜레이를 PD_LB, 룩 백 프레임의 피치 딜레이를 PD_LA, 메인 프레임의 피치 딜레이를 PD_M이라고 하며, 각 프레임간의 변화율들은 아래의 수학식 2와 같이 주어진다.The pitch delay of the look back frame is referred to as PD_LB, the pitch delay of the look back frame is referred to as PD_LA, and the pitch delay of the main frame is referred to as PD_M, and the rate of change between the frames is given by Equation 2 below.

여기서, PD_SFn은 n번째 서브 프레임의 피치 딜레이, PD_M은 메인 프레임의 피치 딜레이, PD_LB는 룩 백 프레임의 피치 딜레이, PD_LA는 룩 어헤드 프레임의 피치 딜레이, △PD1은 메인 프레임과 룩 백 프레임간의 1차 변화율, △PD2는 룩 백 프레임과 메인 프레임간의 1차변화율, △2PD 는 피치 딜레이의 2차 변화율이다.Where PD_SF n is the pitch delay of the nth subframe, PD_M is the pitch delay of the main frame, PD_LB is the pitch delay of the lookback frame, PD_LA is the pitch delay of the look-ahead frame, and ΔPD1 is between the main frame and the lookback frame. first change rate, △ PD2 is the second rate of change of the look-back frame and the first rate of change between the main frame, △ 2, PD is the pitch delay.

이어, 에러가 발생한 프레임의 LSF 및 피치 딜레이 추정방법에 대하여 상세하게 살펴보기로 하자.Next, the method of estimating the LSF and pitch delay of a frame in which an error occurs will be described in detail.

상기에서 설명한 LSF 및 피치 딜레이 변화율의 추정을 에러 프레임이 발생할 때 까지 계속한다. 에러 프레임이 발생하면, 상기 수학식 1, 2의 변화율들을 이용하여 에러 프레임의 LSF 및 피치 딜레이를 추정하는 것이다.Estimation of the LSF and pitch delay change rates described above is continued until an error frame occurs. When an error frame occurs, the LSF and pitch delay of the error frame are estimated using the rate of change of Equations 1 and 2.

도 3은 현재의 에러 프레임과 이전의 에러 프레임의 구조를 나타낸 도면으로서, 에러가 발생한 프레임의 전반부 80샘플은 도 3에도시된 바와 같이 에러가 발생하기 이전 프레임의 룩 어헤드 프레임과 동일하다.FIG. 3 is a diagram illustrating the structure of a current error frame and a previous error frame. The first half sample of the frame in which the error occurs is the same as the look ahead frame of the frame before the error, as shown in FIG.

따라서, 현재 프레임의 후반부 80샘플에 대한 lSF 및 피치 딜레이를 추정한 뒤 이를 바탕으로 현재 프레임에 대한 3개의 서브 프레임의 LSF 및 피치 딜레이를추정하는 것이다.Therefore, after estimating the lSF and the pitch delay for the latter 80 samples of the current frame, the LSF and the pitch delay of the three subframes for the current frame are estimated based on this.

상기한 수학식 1, 2의 LSF 및 그 변화율로 부터 현재 프레임의 후반부 80샘플에 대한 LSF는 아래의 수학식 3과 같이 추정할 수있다.From the LSFs of Equations 1 and 2 and the rate of change thereof, the LSF for the latter 80 samples of the current frame can be estimated as Equation 3 below.

여기서, LSF_E(m)은 현재 에러 프레임 m의 후반부 80샘플에 대해 추정된 LSF, LSF_LA(m-1)은 에러 프레임 이전의 룩 어헤드 프레임의 LSF, △LSF2(m-1)은 에러 프레임 이전의 △LSF2, △2LSF(m-1)은 에러 프레임 이전의 △2LSF이다.Where LSF_E (m) is the estimated LSF for the latter 80 samples of the current error frame m, LSF_LA (m-1) is the LSF of the look ahead frame before the error frame, and ΔLSF2 (m-1) is before the error frame. DELTA LSF2 and DELTA 2 LSF (m-1) are DELTA 2 LSF before an error frame.

에러가 발생하지 않았던 이전 프레임의 LSF_LA(m-1) 및 수학식 3에서 추정한 LSF_E(m)을 이용하여 현재 프래임의 3개 서브 프레임에 대한 LSF는 아래의 수학식 4와 같이 추정될 수 있다.Using the LSF_LA (m-1) of the previous frame and the LSF_E (m) estimated in Equation 3 where no error occurred, the LSF for three subframes of the current frame may be estimated as Equation 4 below. .

여기서, LSF_SFn(m)은 현재 에러프레임 m의 각 서브 프레임에 대한 LSF이다.Here, LSF_SF n (m) is the LSF for each subframe of the current error frame m.

또한, 피치 딜레이에 대하여도 상기한 LSF 추정방법과 동일한 방법을 사용하여 추정할 수 있다. 즉, 아래의 수학식 5와 6을 이용하여 추정할 수 있는 것이다.The pitch delay can also be estimated using the same method as the above-described LSF estimation method. That is, it can be estimated using the following equations (5) and (6).

여기서, PD_E(m)은 현재 에러 프레임 m의 후반부 80샘플에 대해 추정된 PD, PD_LA(m-1)은 에러 프레임 이전의 룩 어헤드 프레임의 PD, △PD2(m-1)은 에러 프레임 이전의 △PD2, △2PD(m-1)은 에러 프레임 이전의 △2PD이다.Where PD_E (m) is the PD estimated for the latter 80 samples of the current error frame m, PD_LA (m-1) is the PD of the look ahead frame before the error frame, and ΔPD2 (m-1) is the error frame before DELTA PD2 and DELTA 2 PD (m-1) are DELTA 2 PDs before the error frame.

여기서, PD_SFn(m)은 현재 에러 프레임 m의 각 서브 프레임에 대한 LSF이다.Here, PD_SF n (m) is the LSF for each subframe of the current error frame m.

이와 같은 수학식 4와 수학식 6을 이용하여 추정한 LSF 및 피치 딜레이를 이용하여 에러가 발생한 현재 프레임의 음성신호를 추정한다. LSF 및 피치 딜레이 이외의 모든 파라메타들은 이전 프레임의 값을 그대로 사용한다.Using the LSF and the pitch delay estimated using the equations (4) and (6), the audio signal of the current frame in which an error occurs is estimated. All parameters other than the LSF and pitch delay use the value of the previous frame.

대부분의 보코더들은 EVRC와 유사한 프레임 구조를 채택하고 있다. 따라서, EVRC 외의 다른 보코더 예를들어 LPC010, QCELP, VSELP 등들에도 유사한 방법으로 사용하여 에러 프레임에 대한 추정을 할 수 있는 것이다.Most vocoders have a frame structure similar to EVRC. Therefore, other vocoder other than EVRC, for example, LPC010, QCELP, VSELP, etc. can be used in a similar manner to estimate the error frame.

상술한 바와 같은 본 발명에 따른 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법은 에러가 발생하지 않은 이전의 프레임에 대해 추정한 LSF 및 피치 딜레의 변화율을 이용하여 에러가 발생한 프레임에 대한 LSF 및 피치 딜레이값을 추정하여 에러가 발생한 프레임의 음성신호를 추정한 후, 재생함으로써, 음성신호의 연속성이 유지되어 수신자로 하여금 보다 좋은 음질을 느끼게 할 수 있는 효과를 가진 것이다.In the EVRC vocoder according to the present invention as described above, the error frame speech signal estimation method uses the change rate of the LSF and pitch delay estimated for the previous frame in which no error occurs, and the LSF and pitch delay for the frame in which the error occurs. By estimating the value and estimating the audio signal of the frame in which the error has occurred, the audio signal has an effect of maintaining the continuity of the audio signal so that the receiver can feel better sound quality.

Claims (15)

에러 프레임에 대한 음성신호 추정방법에 있어서,In the speech signal estimation method for an error frame, 현재 입력되는 비트스트림내에 에러 프레임이 존재하는지를 판단하는 단계와;Determining whether an error frame exists in the currently input bitstream; 판단결과, 현재 입력되는 프레임에서 에러가 발생하지 않았을 경우, 입력되는 비트스트림에 대한 현재 프레임을 EVRC보코딩을 수행하는 단계와;If an error does not occur in the currently input frame, performing EVRC vocoding on the current frame with respect to the input bitstream; EVRC 코보딩이 수행되면, 보코딩이 수행된 해당 프레임에 대한 LSF의 변화율 및 피치 딜레이의 변화율을 에러가 발생한 프레임이 입력될 때까지 계속적으로 추정하는 단계와;If EVRC coding is performed, continuously estimating the rate of change of the LSF and the rate of change of the pitch delay for the corresponding frame on which the vocoding is performed until an errored frame is input; 입력된 비트스트림에 대한 현재의 프레임에 에러가 발생되면, 에러가 발생된 해당 프레임에 대한 LSF 및 피치 딜레이를 이전 프레임에서 추정하였던 LSF변화율 및 피치 딜레이 변화율을 이용하여 추정하는 단계와;If an error occurs in a current frame for the input bitstream, estimating the LSF and pitch delay for the frame in which the error occurred using the LSF change rate and the pitch delay change rate estimated in the previous frame; 상기 추정된 LSF와 피치 딜레이의 변화율을 유지시키면서 EVRC 보코딩을 수행하여 에러가 발생한 프레임의 음성신호를 추정하는 단계로 이루어짐을 특징으로 하는 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법.Estimating the speech signal of the frame in which the error occurs by performing EVRC vocoding while maintaining the estimated change rate of the LSF and the pitch delay. 제 1 항에 있어서,The method of claim 1, 상기 프레임 에러가 발생하지 않았을 경우 아래의 수학식을 이용하여 LSF를추정하는 것을 특징으로 하는 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법When the frame error does not occur, error frame speech signal estimation method in EVRC vocoder, characterized in that the LSF is estimated using the following equation 여기서, △LSF1은 메인 프레임과 룩 어헤드 프레임사이의 1차 변화율, △LSF2는 룩 어헤드 프레임과 룩 백 프레임사의 1차 변화율, △2LSF는 LSF의 2차 변화율.Here, △ LSF1 a primary rate of change between the main frame and the look-ahead frames, △ LSF2 the look-ahead frame and the look-back frame's first rate of change, △ 2 LSF is the second rate of change of the LSF. 제 2 항에 있어서,The method of claim 2, 상기 수학식에서 △LSF1(메인 프레임과 룩 어헤드 프레임사이의 1차 변화율)은 메인 프레임의 LSF에서 룩 백 프레임의 LSF값을 뺀 값인 것을 특징으로 하는 EVRC보코더에 있어 에러 프레임 음성신호 추정방법.[Delta] LSF1 (primary rate of change between the main frame and the look-ahead frame) is an error frame speech signal estimation method for an EVRC vocoder, wherein the LSF of the main frame is obtained by subtracting the LSF value of the lookback frame. 제 3 항에 있어서,The method of claim 3, wherein 상기 메인 프레임의 LSF는 상기 메인 프레임의 각 서브 프레임에 대한 LSF의 합을 서브프레임의 수로 나눈 값인 것을 특징으로 하는 EVRC보코더에 있어 에러 프레임 음성신호 추정방법.The LSF of the main frame is an error frame speech signal estimation method for an EVRC vocoder, characterized in that the sum of the LSF for each subframe of the main frame divided by the number of subframes. 제 2 항에 있어서,The method of claim 2, 상기 수학식에서 △LSF2(메인 프레임과 룩 백 프레임사이의 1차 변화율)은 룩 어헤드 프레임의 LSF에서 메인 프레임의 LSF값을 뺀 값인 것을 특징으로 하는 EVRC보코더에 있어 에러 프레임 음성신호 추정방법.[Delta] LSF2 (primary rate of change between the main frame and the look back frame) is an error frame speech signal estimation method for an EVRC vocoder, wherein the LSF of the look ahead frame is obtained by subtracting the LSF value of the main frame. 제 1 항에 있어서,The method of claim 1, 상기 프레임 에러가 발생하지 않았을 경우 아래의 수학식을 이용하여 피치 딜레이를 추정하는 것을 특징으로 하는 EVRC 보코더에 있어 에러 프레임 음성신호 추정방법.When the frame error does not occur, error frame speech signal estimation method for an EVRC vocoder, characterized in that the pitch delay is estimated using the following equation. 여기서, △PD1은 메인 프레임과 룩 백 프레임간의 1차 변화율, △PD2는 룩 백 프레임과 메인 프레임간의 1차변화율, △2PD 는 피치 딜레이의 2차 변화율.Here, △ PD1 is the first rate of change between the main frame and the look-back frame, △ PD2 is the look back frame and the first rate of change between the main frame, △ 2, PD is the second rate of change of the pitch delay. 제 6 항에 있어서,The method of claim 6, 상기 상기 수학식에서 △PD1(메인 프레임과 룩 어헤드 프레임사이의 1차 변화율)은 메인 프레임의 피치 딜레이값에서 룩 백 프레임의 피치 딜레이값을 뺀 값인 것을 특징으로 하는 EVRC보코더에 있어 에러 프레임 음성신호 추정방법.ΔPD1 (first-order rate of change between main frame and look-ahead frame) is an error frame speech signal in EVRC vocoder, characterized by subtracting the pitch delay value of look-back frame from the pitch delay value of main frame. Estimation method. 제 7 항에 있어서,The method of claim 7, wherein 상기 메인 프레임의 피치 딜레이는 상기 메인 프레임의 각 서브 프레임에 대한 피치 딜레이의 합을 서브프레임의 수로 나눈 값인 것을 특징으로 하는 EVRC보코더에 있어 에러 프레임 음성신호 추정방법.The pitch delay of the main frame is an error frame speech signal estimation method for an EVRC vocoder, characterized in that the sum of the pitch delays for each subframe of the main frame is divided by the number of subframes. 제 6 항에 있어서,The method of claim 6, 상기 수학식에서 △PD2(메인 프레임과 룩 백 프레임사이의 1차 변화율)는 룩 어헤드 프레임의 피치 딜레이값에서 메인 프레임의 피치 딜레이값을 뺀 값인 것을 특징으로 하는 EVRC보코더에 있어 에러 프레임 음성신호 추정방법.ΔPD2 (primary rate of change between the main frame and the look back frame) is an error frame speech signal estimation for an EVRC vocoder, wherein the pitch delay value of the look-ahead frame is subtracted from the pitch delay value of the main frame. Way. 제 1 항에 있어서,The method of claim 1, 상기 프레임 에러가 발생된 경우, 이전의 에러가 발생되지 않은 프레임에 대해 추정한 LSF의 변화율로 부터 에러가 발생한 현재 프레임의 후반부 80샘플에 대해서 LSF를 추정하는 것을 특징으로 하는 EVRC 보코더에 있어 에러 프레임의 음성신호 추정방법.When the frame error occurs, the error frame in the EVRC vocoder characterized by estimating the LSF for the latter 80 samples of the current frame in which the error occurred from the rate of change of the LSF estimated for the frame in which no previous error occurred. Voice signal estimation method. 제 10 항에 있어서,The method of claim 10, 상기 이전의 에러가 발생되지 않은 프레임에 대해 추정한 LSF의 변화율로 부터 에러가 발생한 현재 프레임의 후반부 80샘플에 대한 LSF는 아래의 수학식을 이용하여 추정하는 것을 특징으로 하는 EVRC 보코더에 있어 에러 프레임의 음성신호 추정방법.From the rate of change of the LSF estimated for the frame in which the previous error did not occur, the LSF for the latter 80 samples of the current frame in which the error occurred is estimated using the following equation. Voice signal estimation method. 여기서, LSF_E(m)은 현재 에러 프레임 m의 후반부 80샘플에 대해 추정된 LSF, LSF_LA(m-1)은 에러 프레임 이전의 룩 어헤드 프레임의 LSF, △LSF2(m-1)은 에러 프레임 이전의 △LSF2, △2LSF(m-1)은 에러 프레임 이전의 △2LSF.Where LSF_E (m) is the estimated LSF for the latter 80 samples of the current error frame m, LSF_LA (m-1) is the LSF of the look ahead frame before the error frame, and ΔLSF2 (m-1) is before the error frame. DELTA LSF2, DELTA 2 LSF (m-1) is DELTA 2 LSF before the error frame. 제 11 항에 있어서,The method of claim 11, 상기 에러가 발생하지 않았던 이전 프레임의 룩 어헤드 프레임 LSF 및 상기 에러가 발생한 프레임의 후반부 80샘플에 대한 LSF를 이용하여 에러가 발생한 현재 프레임의 각 서브 프레임에 대한 LSF는 아래의 수학식을 이용하여 추정하는 것을 특징으로 하는 EVRC 보코도에 있어 에러 프레임의 음성신호 추정방법.The LSF for each subframe of the current frame in which an error is generated using the look-ahead frame LSF of the previous frame in which the error did not occur and the LSF of the latter 80 samples of the frame in which the error occurred is obtained by using the following equation. An audio signal estimation method of an error frame in an EVRC vocodo characterized by estimating. 여기서, LSF_SFn(m)은 현재 에러프레임 m의 각 서브 프레임에 대한 LSF.Here, LSF_SF n (m) is LSF for each subframe of the current error frame m. 제 1 항에 있어서,The method of claim 1, 상기 프레임 에러가 발생된 경우, 이전의 에러가 발생되지 않은 프레임에 대해 추정한 피치 딜레이 변화율로 부터 에러가 발생한 현재 프레임의 후반부 80샘플에 대해서 피치 딜레이를 추정하는 것을 특징으로 하는 EVRC 보코더에 있어 에러 프레임의 음성신호 추정방법.When the frame error is generated, an error in the EVRC vocoder is estimated from a pitch delay change rate estimated for a frame in which no previous error has occurred. Speech signal estimation method of the frame. 제 13 항에 있어서,The method of claim 13, 상기 이전의 에러가 발생되지 않은 프레임에 대해 추정한 피치 딜레이의 변화율로 부터 에러가 발생한 현재 프레임의 후반부 80샘플에 대한 피치 딜레이는 아래의 수학식을 이용하여 추정하는 것을 특징으로 하는 EVRC 보코더에 있어 에러 프레임의 음성신호 추정방법.In the EVRC vocoder, the pitch delay for the latter 80 samples of the current frame in which the error is generated is estimated from the change rate of the pitch delay estimated for the frame in which the previous error has not occurred. Voice signal estimation method of error frame. 여기서, PD_E(m)은 현재 에러 프레임 m의 후반부 80샘플에 대해 추정된 PD, PD_LA(m-1)은 에러 프레임 이전의 룩 어헤드 프레임의 PD, △PD2(m-1)은 에러 프레임 이전의 △PD2, △2PD(m-1)은 에러 프레임 이전의 △2PD.Where PD_E (m) is the PD estimated for the latter 80 samples of the current error frame m, PD_LA (m-1) is the PD of the look ahead frame before the error frame, and ΔPD2 (m-1) is the error frame before [Delta] PD2, [Delta] 2 PD (m-1) are [Delta] 2 PD before the error frame. 제 14 항에 있어서,The method of claim 14, 상기 에러가 발생하지 않았던 이전 프레임의 룩 어헤드 프레임 피치 딜레이 및 상기 에러가 발생한 프레임의 후반부 80샘플에 대한 피치 딜레이를 이용하여 에러가 발생한 현재 프레임의 각 서브 프레임에 대한 피치 딜레이는 아래의 수학식을 이용하여 추정하는 것을 특징으로 하는 EVRC 보코도에 있어 에러 프레임의 음성신호 추정방법.Using the look ahead frame pitch delay of the previous frame where the error did not occur and the pitch delay for the latter 80 samples of the frame where the error occurred, the pitch delay for each subframe of the current frame where the error occurred was The speech signal estimation method of an error frame in the EVRC vocodo, characterized in that the estimation using. 여기서, PD_SFn(m)은 현재 에러 프레임 m의 각 서브 프레임에 대한 LSF.Where PD_SF n (m) is the LSF for each subframe of the current error frame m.
KR1019990057309A 1999-12-13 1999-12-13 Method for estimating an audio signal of error frame in an EVRC vocoder KR100346154B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990057309A KR100346154B1 (en) 1999-12-13 1999-12-13 Method for estimating an audio signal of error frame in an EVRC vocoder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990057309A KR100346154B1 (en) 1999-12-13 1999-12-13 Method for estimating an audio signal of error frame in an EVRC vocoder

Publications (2)

Publication Number Publication Date
KR20010055965A true KR20010055965A (en) 2001-07-04
KR100346154B1 KR100346154B1 (en) 2002-08-01

Family

ID=19625540

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990057309A KR100346154B1 (en) 1999-12-13 1999-12-13 Method for estimating an audio signal of error frame in an EVRC vocoder

Country Status (1)

Country Link
KR (1) KR100346154B1 (en)

Also Published As

Publication number Publication date
KR100346154B1 (en) 2002-08-01

Similar Documents

Publication Publication Date Title
EP1088205B1 (en) Improved lost frame recovery techniques for parametric, lpc-based speech coding systems
US8423358B2 (en) Method and apparatus for performing packet loss or frame erasure concealment
JP4931318B2 (en) Forward error correction in speech coding.
US6662155B2 (en) Method and system for comfort noise generation in speech communication
EP1088303B1 (en) Method and apparatus for performing frame erasure concealment
US8243761B2 (en) Decoder synchronization adjustment
US7577565B2 (en) Adaptive voice playout in VOP
US6952668B1 (en) Method and apparatus for performing packet loss or frame erasure concealment
EP1454315B1 (en) Signal modification method for efficient coding of speech signals
US6775649B1 (en) Concealment of frame erasures for speech transmission and storage system and method
JP5149198B2 (en) Method and device for efficient frame erasure concealment within a speech codec
US7881925B2 (en) Method and apparatus for performing packet loss or frame erasure concealment
KR20040031035A (en) Method and apparatus for reducing synchronization delay in packet-based voice terminals by resynchronizing during talk spurts
US20040181405A1 (en) Recovering an erased voice frame with time warping
EP0786760A2 (en) Speech coding
JPH0226901B2 (en)
US20070055498A1 (en) Method and apparatus for performing packet loss or frame erasure concealment
US6873954B1 (en) Method and apparatus in a telecommunications system
US20100106490A1 (en) Method and Speech Encoder with Length Adjustment of DTX Hangover Period
US6275798B1 (en) Speech coding with improved background noise reproduction
US6961697B1 (en) Method and apparatus for performing packet loss or frame erasure concealment
Lindblom et al. Packet loss concealment based on sinusoidal extrapolation
KR100346154B1 (en) Method for estimating an audio signal of error frame in an EVRC vocoder
Cluver et al. Reconstruction of missing speech frames using sub-band excitation
Teague Enhancing FS-1016 CELP via selective harmonic pre-emphasis

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20060706

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee