KR20070059860A - Method and apparatus for restoring digital audio packet loss - Google Patents

Method and apparatus for restoring digital audio packet loss Download PDF

Info

Publication number
KR20070059860A
KR20070059860A KR1020060050751A KR20060050751A KR20070059860A KR 20070059860 A KR20070059860 A KR 20070059860A KR 1020060050751 A KR1020060050751 A KR 1020060050751A KR 20060050751 A KR20060050751 A KR 20060050751A KR 20070059860 A KR20070059860 A KR 20070059860A
Authority
KR
South Korea
Prior art keywords
frame
loss
lost
pitch
audio
Prior art date
Application number
KR1020060050751A
Other languages
Korean (ko)
Other versions
KR100792209B1 (en
Inventor
김익균
조한진
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20070059860A publication Critical patent/KR20070059860A/en
Application granted granted Critical
Publication of KR100792209B1 publication Critical patent/KR100792209B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error

Abstract

A method and an apparatus for recovering digital audio packet loss are provided to reduce audio quality deterioration by hiding a lost audio frame and improve accuracy of recovering an audio frame loss. A method for recovering digital audio packet loss includes a step of detecting whether an audio frame included in a received audio packet is lost, a step of detecting whether continuous audio frames are lost when an audio frame included in the received audio packet is lost, and a step of detecting a pitch from frames before lost audio frames when the continuous audio frames are lost and repeating the detected pitch to replace the lost audio frames.

Description

디지털 오디오 패킷 손실을 복구하기 위한 방법 및 장치{Method and apparatus for restoring digital audio packet loss }Method and apparatus for restoring digital audio packet loss

도 1은 본 발명에 따른 손실 프레임 복원 장치의 블록도,1 is a block diagram of a lost frame recovery apparatus according to the present invention;

도 2는 오디오 비트스트림 프레임의 일례를 나타내는 구조도,2 is a structural diagram showing an example of an audio bitstream frame;

도 3은 본 발명의 일 실시 예에 따른 손실 은닉 방법의 순서를 도시한 흐름도,3 is a flowchart illustrating a procedure of a loss concealment method according to an embodiment of the present invention;

도 4는 제1 복원 모듈에서 일어나는 제1 손실 복원 방법을 도시한 흐름도,4 is a flowchart illustrating a first loss restoration method occurring in the first restoration module;

도 5는 피치 검색 단계를 설명하기 위한 도면,5 is a diagram for explaining a pitch search step;

도 6은 손실 전 프레임과 피치의 연결 부분에서 OLA를 실시하는 방법을 도시하고 있는 도면,FIG. 6 is a diagram illustrating a method for performing OLA at a connection portion of a frame and a pitch before loss; FIG.

도 7은 제2 복원 모듈에서 일어나는 제2 손실 복원 방법을 도시한 흐름도, 7 is a flowchart illustrating a second loss restoration method occurring in the second restoration module;

도 8은 손실 전 버퍼로부터 얻은 피치와 손실 후 버퍼로부터 얻은 피치의 연결 부분에서 OLA를 적용하는 단계를 도시한 도면.8 shows the step of applying an OLA at the concatenation of the pitch obtained from the pre-loss buffer and the pitch obtained from the post-loss buffer.

<도면의 주요 부분에 대한 간단한 설명><Brief description of the main parts of the drawing>

100: 오디오 비트스트림 110: 손실 프레임 검출기100: audio bitstream 110: lost frame detector

120: 복호화기 130: 손실 전 프레임 버퍼120: decoder 130: frame buffer before loss

140: 손실 후 프레임 버퍼 150: 손실 프레임 복원 모듈140: frame buffer after loss 150: lost frame restoration module

152: 제1 복원 모듈 154: 제2 복원 모듈152: first restoration module 154: second restoration module

160: 오디오 신호160: audio signal

본 발명은 DMB(Digital Multimedia Broadcasting) 장치의 수신단에서 손실된 오디오 신호를 복구하는 방법 및 장치에 관한 것으로, 손실된 프레임이 수신된 경우, 손실 전 프레임과 손실 후 프레임을 이용하여 상기 손실된 프레임을 복구하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for recovering a lost audio signal at a receiving end of a digital multimedia broadcasting (DMB) device. When a lost frame is received, the lost frame is recovered using a frame before loss and a frame after loss. The present invention relates to a method and an apparatus for recovering.

DMB와 같은 방송 네트워크에서는 패킷 형태의 데이터가 송수신 되는데, 상기 패킷의 데이터 영역에는 오디오 프레임이 저장되어 있다. 상기 DMB 네트워크의 경우 패킷의 손실이 심하지 않은 특징이 있지만, 멀티미디어를 실시간으로 수신 재생하여야 하는 DMB 수신기의 경우 전송상의 문제, 패킷의 처리 문제, 영상 데이터와의 동기 문제 등으로 패킷 손실이 발생하게 된다. 고음질을 요구하는 방송 수신기에서 이러한 패킷 손실은 내부에 포함된 오디오의 손실으로 이어지므로 음질을 저하하는 요인이 되며, 영상과의 동기 문제 등을 야기하는 요인이 된다. 따라서 실시간 오디오 서비스를 가능하게 하기 위해 손실된 패킷의 복구 및 오류 은닉(loss concealment) 기술이 요구된다.In a broadcast network such as a DMB, data in a packet form is transmitted and received, and an audio frame is stored in the data area of the packet. In the case of the DMB network, packet loss is not severe. However, in the case of a DMB receiver that needs to receive and reproduce multimedia in real time, packet loss occurs due to transmission problems, packet processing problems, and synchronization with video data. . In a broadcast receiver requiring high sound quality, such packet loss leads to a loss of audio included therein, thereby degrading sound quality and causing a synchronization problem with a video. Therefore, lost concealment and loss concealment techniques are needed to enable real-time audio services.

상기 실시간 오디오 서비스를 구현하기 위해 추가로 지연을 발생시키지 않는 수신단 기반의 에러 은닉 방법이 적합하지만, 손실된 프레임에 대한 어떠한 정보도 가지고 있지 않으므로, 손실률이 낮고(15% 이하) 짧은 시간(4~40ms)의 구간 손실에서 적용이 가능하다. 손실 전의 정보를 너무 오랫동안 사용하여 손실을 보상한다면, 인공적인 사운드에 의해 복원되므로 오디오는 오히려 부자연스러워 진다. 이러한 특성 때문에 대부분의 에러 은닉 알고리즘은 신호의 감쇄를 적용하여 60ms 이상의 경우에는 묵음으로 대체하는 방법을 사용한다. To implement the real-time audio service, a receiver-based error concealment method that does not incur additional delay is suitable, but since it does not have any information on lost frames, the loss rate is low (less than 15%) and short time (4 ~ 40ms) can be applied at interval loss. If you use the information before the loss for too long to compensate for the loss, the audio is unnatural because it is restored by artificial sound. Due to this characteristic, most error concealment algorithms apply attenuation of the signal and replace it with silence in case of more than 60ms.

한편, 지상파 DMB 서비스가 활성화되고 있는 상황에서 표준 오디오 복호화기에 적합한 에러 은닉 알고리즘이 필요하며, 고음질을 요구하는 방송 시스템에서 손실구간 중 뒷부분은 손실 이후 프레임 정보로 보상함으로써 손실 프레임에 의한 음질 저하를 적게 할 필요가 있다. On the other hand, when terrestrial DMB service is active, an error concealment algorithm suitable for a standard audio decoder is required, and in a broadcasting system requiring high sound quality, the lower part of the loss section is compensated with frame information after loss, thereby reducing the sound quality degradation due to lost frames. Needs to be.

그러나, 국내 지상파 DMB의 오디오 압축 기술의 표준인 MPEG-4 BSAC(Bit Sliced Arithmetic Coding) 오디오 복호화기에는 상기 오디오 프레임이 손실되었을 때 이를 은닉하기 위한 알고리즘이 적용되어 있지 않다. 이는 프레임 손실이 발생하였을 때 여러 가지 문제를 발생시킬 수 있는 요인이 되며, 음질을 저하하는 요인이 된다.However, the MPEG-4 Bit Sliced Arithmetic Coding (BSAC) audio decoder, which is the standard of the audio compression technology of the domestic terrestrial DMB, does not have an algorithm for concealing the audio frame when it is lost. This is a factor that can cause various problems when the frame loss occurs, it is a factor that degrades the sound quality.

한편, 패킷 손실의 복구에 관한 선행 특허(대한민국 등록특허 제341391호, "대화형 오디오 서비스를 위한 적응형 부가 전송 방법 및 패킷 손실 복구 방법과 이를 위한 멀티미디어 컴퓨터의 오디오 입출력 제어 장치" )를 살펴보면, 상기 특허에서는 송신측 및 수신측으로 구성되는 부가 전송 처리기를 구비하여, 송신측에서는 수신측에서 피드백되는 손실 정보를 이용하여 부가 전송 방식을 동적으로 설정 하고, 수신측에서는 부가 데이터를 이용하여 손실 패킷을 복구하는 방법을 사용하고 있다. 상기 방법에서는 부가 정보를 구성하기 위하여 수신측으로부터 손실 정보를 피드백 받아야 하기 때문에, 피드백으로 인한 지연 현상이 필수적으로 발생하는 문제점이 있으며, 손실률에 따라 부가 정보의 지연 정도를 변화시키게 되어, 손실률이 증가함에 따라 복호화 지연시간이 증가하게 되고 부가 정보에 의해 대역폭이 증가하는 단점이 있다. On the other hand, looking at the prior patent (recovery of the Republic of Korea Patent No. 341391, "Adaptive additional transmission method and packet loss recovery method for the interactive audio service and the audio input and output control device of the multimedia computer for this") regarding the recovery of the packet loss, The patent includes an additional transmission processor composed of a transmitting side and a receiving side, and the transmitting side dynamically sets the additional transmission scheme using the loss information fed back from the receiving side, and the receiving side recovers the lost packet using the additional data. I'm using the method. In the above method, since the loss information needs to be fed back from the receiver in order to configure the additional information, there is a problem in that a delay caused by the feedback is inevitably generated, and the degree of delay of the additional information is changed according to the loss rate, thereby increasing the loss rate. As a result, the decoding delay time is increased and bandwidth is increased by additional information.

또한, 패킷 손실의 복구에 관한 다른 선행 특허(대한민국 등록특허 제238324호, "오디오 신호의 에러 은닉 방법과 장치")를 살펴보면, 상기 선행 특허는 삼각 변환기, 선택기 및 에러 은닉 데이터 발생기로 구성되며, 에너지 집중도를 이용하여 손실 프레임 전후 프레임의 오디오 신호 성분을 가장 잘 특징짓는 변환 계수를 찾아서 오디오 데이터를 복원하는 것을 그 특징으로 하고 있다. 그러나 상기 선행 특허에서는 주파수 영역으로 변환을 위해 여러 삼각 변환기가 적용되어 시스템이 복잡해지며, 구현이 쉽지 않다는 단점이 있어 연속 손실이 크게 발생하지 않는 DMB 시스템에의 적용은 적절하지 못하다.In addition, referring to other prior patents related to the recovery of packet loss (Korean Patent No. 238324, "Error concealment method and apparatus for audio signals"), the prior patent consists of a triangular converter, a selector and an error concealment data generator, The energy concentration is used to find the transform coefficients that best characterize the audio signal components of the frames before and after the lost frame and restore the audio data. However, in the above patent, a system is complicated by applying a triangular converter for conversion into a frequency domain, and there is a disadvantage in that it is not easy to implement, and therefore, it is not appropriate to be applied to a DMB system in which continuous loss does not occur significantly.

상술한 문제점을 해결하기 위하여, 손실된 프레임이 수신된 경우, 손실 전 프레임과 손실 후 프레임을 이용하여 상기 손실된 프레임을 복구하는 방법 및 장치를 제공하는 것을 목적으로 한다. In order to solve the above-described problem, an object of the present invention is to provide a method and apparatus for recovering a lost frame by using a pre-loss frame and a post-loss frame when a lost frame is received.

상기의 목적을 달성하기 위하여 본 발명의 오디오 패킷 손실 복구 방법은 수 신된 오디오 패킷 내에 저장된 오디오 프레임의 손실 여부를 검출하는 단계와, 상기 오디오 프레임의 손실이 발생한 경우 연속되는 오디오 프레임의 손실 여부를 검출하는 단계와, 상기 오디오 프레임이 연속적으로 손실된 경우 손실 전 프레임들로부터 피치를 검색하고 상기 검색된 피치를 반복하여 손실 프레임을 대체하는 손실 복원 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, the audio packet loss recovery method of the present invention includes detecting whether an audio frame stored in a received audio packet is lost, and detecting a loss of a continuous audio frame when the audio frame is lost. And a loss reconstruction step of retrieving a pitch from pre-loss frames and replacing the lost frame by repeating the retrieved pitch when the audio frame is continuously lost.

또한, 본 발명의 오디오 패킷 손실 복구 방법은 수신된 오디오 패킷 내에 저장된 오디오 프레임의 손실 여부를 검출하는 단계와, 상기 오디오 프레임의 손실이 발생한 경우 연속되는 오디오 프레임의 손실 여부를 검출하는 단계와, 상기 오디오 프레임의 손실이 발생한 직후에 무손실 프레임이 입력된 경우 손실 전 프레임들 및 손실 후 프레임들로부터 피치 프레임을 검색하고, 상기 검색된 피치 프레임들을 반복하여 손실 프레임을 대체하는 손실 복원 단계를 포함하는 것을 특징으로 한다.In addition, the audio packet loss recovery method of the present invention comprises the steps of detecting the loss of the audio frame stored in the received audio packet, and if the loss of the audio frame occurs, detecting whether the loss of the continuous audio frame, and And a loss retrieval step of retrieving a pitch frame from pre-loss frames and post-loss frames if a lossless frame is input immediately after a loss of the audio frame, and repeating the retrieved pitch frames to replace the lost frame. It is done.

또한, 본 발명의 오디오 패킷 손실 복구 장치는 수신된 오디오 패킷 내에 저장된 오디오 프레임의 손실 여부를 검출하는 손실 프레임 검출기와, 상기 수신된 오디오 프레임을 복호화하는 복호화기와, 상기 손실 프레임 이전의 프레임들을 임시 저장하는 손실 전 프레임 버퍼와, 상기 손실 프레임 이후의 프레임들을 임시 저장하는 손실 후 프레임 버퍼와, 상기 손실 전 프레임 버퍼로부터 검색한 피치를 손실 프레임으로 대체하는 제1 복원 모듈과, 상기 손실 전 프레임 버퍼로부터 검색한 피치와 상기 손실 후 프레임 버퍼로부터 검색한 피치를 결합하여 손실 프레임으로 대체하는 제2 복원 모듈을 포함한다.In addition, the apparatus for recovering an audio packet loss of the present invention includes a lost frame detector for detecting whether an audio frame stored in a received audio packet is lost, a decoder for decoding the received audio frame, and temporarily storing frames before the lost frame. A pre-loss frame buffer, a post-loss frame buffer for temporarily storing frames after the lost frame, a first reconstruction module for replacing a pitch retrieved from the pre-loss frame buffer with a lost frame, and the pre-loss frame buffer. And a second reconstruction module that combines the retrieved pitch and the retrieved pitch from the lost frame buffer and replaces the lost frame with a lost frame.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 손실 프레임 복원 장치의 블록도를 도시한 도면이다.1 is a block diagram of an apparatus for recovering a lost frame according to an embodiment of the present invention.

도 1을 참조하면, 상기 복원 장치는 수신된 오디오 비트스트림 패킷(100)에 대해 패킷의 손실 여부를 체크 하여 프레임의 손실 여부를 검출하는 손실 프레임 검출기(110)와, 상기 수신된 오디오 비트스트림 패킷을 복호화하는 복호화기(120)와, 상기 복호화기를 거친 프레임들을 임시 저장하는 손실 전/손실 후 프레임 버퍼(130, 140)와, 손실 프레임이 발생한 경우 손실 전/손실 후 프레임으로부터 손실 프레임을 복원하는 제1, 제2 복원 모듈(152, 154)을 포함하는 손실 프레임 복원 모듈(150)을 포함한다.Referring to FIG. 1, the restoration apparatus checks whether a packet is lost with respect to the received audio bitstream packet 100, and detects whether a frame is lost or not, and the received audio bitstream packet. A decoder 120 that decodes the signal, a pre- and post-loss frame buffer 130 and 140 for temporarily storing frames that have passed through the decoder, and restores a lost frame from a pre- / post-loss frame when a lost frame occurs. The lost frame recovery module 150 includes the first and second recovery modules 152 and 154.

상기 오디오 비트스트림 패킷(100)은 패킷데이터들이 일렬로 나열되어 전송되는 형태의 데이터로서 수신단(미도시됨)에서 수신된다. 상기 오디오 비트스트림 패킷(100)은 헤더 구역과 데이터 구역으로 구성되는데 상기 헤더 구역에는 소스, 목적지, 패킷의 식별자 또는 헤더 체크섬(Checksum) 등에 대한 정보가 포함되어 있으므로, 상기 정보를 통해 패킷의 손실 여부를 확인할 수 있으며, 상기 데이터 구역에는 전송하고자 하는 오디오 프레임이 저장되어 있다. 본 발명의 실시 예에서는 샘플링 주파수로 44.1Khz를 사용하고, 1 프레임은 1024 개의 샘플로 구성되므로 1 프레임의 재생시간은 대략 23ms(1024/43100)가 된다.The audio bitstream packet 100 is received at a receiving end (not shown) as data in a form in which packet data are arranged in a line and transmitted. The audio bitstream packet 100 is composed of a header section and a data section. The header section includes information on a source, a destination, an identifier of a packet, a header checksum, and the like. In the data area, an audio frame to be transmitted is stored. In the embodiment of the present invention, since 44.1 Khz is used as the sampling frequency, and one frame is composed of 1024 samples, the playback time of one frame is approximately 23 ms (1024/43100).

상기 패킷의 손실은 곧 프레임의 손실을 의미하므로, 상기 손실 프레임 검출기(110)에서 수신된 패킷의 손실 여부를 판단하는 과정을 통해 패킷에 저장된 프레임의 손실 여부를 판단하게 된다. 한편 상기 비트스트림이란 한번에 한 패킷씩 직렬 통신선로를 통해 연속적으로 전송되는 데이터의 흐름을 나타낸다. 따라서, 이후에 진행되는 본 발명에서는 연속적으로 전송되는 패킷단위별로 손실 여부를 판단하고, 복호화하게 된다. Since the loss of the packet means the loss of the frame, the loss frame detector 110 determines whether the lost frame is lost by determining whether the received packet is lost. On the other hand, the bitstream represents a flow of data continuously transmitted through the serial communication line one packet at a time. Therefore, in the present invention, which is performed afterwards, it is determined whether or not there is a loss for each packet transmitted continuously and then decoded.

상기 손실 프레임 검출기(110)는 오디오 비트스트림 패킷(100)을 수신하여 패킷에 저장되어 있는 헤더 체크섬을 이용하여 수신된 패킷의 손실 여부를 판단하고, 수신된 패킷이 손실되었다면 그 패킷에 저장된 프레임도 손실된 것으로 판단하는바 그 판단 방법에 대해서는 후술하기로 한다. 상기 판단 결과에 따라 패킷이 손실된 경우에는 패킷의 손실 사실에 대한 정보를 상기 손실 프레임 복원 모듈(150)에 전달하며, 이때 손실된 프레임의 개수나, 손실된 프레임의 식별자 등의 정보를 같이 전달한다. The lost frame detector 110 receives the audio bitstream packet 100 and determines whether the received packet is lost by using a header checksum stored in the packet, and if the received packet is lost, the frame stored in the packet is also lost. It is determined that the loss will be described later will be described. If the packet is lost according to the determination result, information about the packet loss is transmitted to the lost frame recovery module 150, and information such as the number of lost frames and the identifier of the lost frame is also transmitted. do.

한편, 상기 복호화기(120)는 상기 손실 프레임 검출기(110)로부터 전송받은 프레임들을 오디오 신호로 복호화한다. 디지털 신호의 전송시에, 연속되는 데이터 중에서 타이밍 정보가 유실되는 것을 방지하고 전송 과정에서 발생하는 혼/변조 현상을 방지하기 위해 송신 측에서는 입력 데이터를 임의 부호 계열로 변환시켜 전송하는데, 이때 수신 측에서는 상기 임의 부호 계열로부터 원래 데이터를 복원하는 복호화 과정을 거치게 된다.Meanwhile, the decoder 120 decodes the frames received from the lost frame detector 110 into an audio signal. When transmitting a digital signal, the transmitting side converts the input data into an arbitrary code sequence to prevent the timing information from being lost in the continuous data and to prevent the mixing / modulation phenomenon occurring during the transmission process. A decoding process is performed to recover original data from a random code sequence.

상기 복호화 과정을 거치게 되면, 상기 오디오 패킷의 데이터 구역에 저장되 었던 프레임들은 상기 손실 전/손실 후 프레임 버퍼(130, 140)로 전송된다.When the decoding process is performed, the frames stored in the data region of the audio packet are transmitted to the frame buffers 130 and 140 before and after the loss.

상기 손실 전/손실 후 프레임 버퍼(130, 140)들은 상기 복호화된 신호들을 임시 저장한다. 이때, 패킷 손실이 발생하지 않은 경우라면, 즉 프레임의 손실이 없다면 상기 손실 전 프레임 버퍼(130)에 임시 저장되며, 일정 시간이 지난 뒤에는 오디오 신호(160)로 출력된다. 그러나 손실 패킷이 발생한 경우라면, 패킷 손실이 발생한 후 전송된 패킷의 프레임, 즉 손실 후 프레임들은 상기 손실 후 프레임 버퍼(140)에 임시 저장된다.The before and after loss frame buffers 130 and 140 temporarily store the decoded signals. In this case, if no packet loss occurs, that is, if there is no frame loss, the packet buffer is temporarily stored in the frame buffer 130 before the loss, and is output as the audio signal 160 after a predetermined time. However, if a lost packet occurs, frames of the packet transmitted after the packet loss occurs, that is, frames after the loss, are temporarily stored in the lost frame buffer 140.

상기 손실 프레임 복원 모듈(150)은 상기 손실 프레임 검출기(110)로부터 패킷 손실에 대한 정보를 수신하여, 손실된 프레임을 복원한다. 상기 복원 모듈(150)은 손실 전 오디오 신호로부터 손실된 오디오 신호를 복원하는 제1 복원 모듈(152)과 손실 후 오디오 신호 및 손실 전 오디오 신호로부터 손실된 오디오 신호를 복원하는 제2 복원 모듈(154)을 포함한다. 상기 제1, 제2 복원 모듈의 동작을 살펴보기 위해 도 3에 도시된 오디오 비트스트림 프레임의 예를 참조하기로 한다. The lost frame recovery module 150 receives information on packet loss from the lost frame detector 110 to recover lost frames. The reconstruction module 150 includes a first reconstruction module 152 for reconstructing a lost audio signal from a pre-loss audio signal and a second reconstruction module 154 for reconstructing a lost audio signal from a post-loss audio signal and a pre-loss audio signal. ). Reference will be made to the example of the audio bitstream frame shown in FIG. 3 to look at the operation of the first and second reconstruction modules.

도 2는 상기 오디오 비트스트림 프레임의 일례를 나타내는 구조도로서, 각 패킷의 데이터에 해당하는 프레임들을 일렬로 나열한 것이다. 진하게 음영처리된 An, An+1 프레임은 손실된 프레임에 해당한다.2 is a structural diagram illustrating an example of the audio bitstream frame, in which frames corresponding to data of each packet are arranged in a line. Darkly shaded A n , A n + 1 frames correspond to the lost frames.

도 2를 참조하여 상기 복원 모듈 내의 동작을 간략히 살펴보면, 손실된 An, An+1 프레임 중에서 An프레임을 복원하기 위해서는 An+1프레임이 손실되었으므로 손실 후 정보를 이용할 수 없게 되어 손실 전 프레임인 An-3, An-2, An-1 프레임을 이용하여 복원하며 이는 상기 제1 복원 모듈에서 처리된다. 하지만, An+1프레임을 복원하기 위해서는 손실 후 프레임을 이용할 수 있으므로 손실 전 프레임인 An-2, An-1 프레임과 손실 후 프레임인An+2 프레임을 이용하여 복원하며 이는 상기 제2 복원 모듈에서 처리된다. Referring to FIG. 2, the operation in the restoration module will be briefly described. In order to restore the A n frame among the lost A n and A n + 1 frames, since A n + 1 frames are lost, the information after the loss cannot be used. A frame is recovered using A n-3 , A n-2 and A n-1 frames, which are processed in the first reconstruction module. However, since the lost frame can be used to recover the A n + 1 frame, the lost frame is restored using A n-2 and A n-1 frames before the loss and A n + 2 frames after the loss. 2 is processed in the restoration module.

즉, 손실된 프레임이 발생한 경우, 연이어서 프레임의 손실이 일어났는지를 판단하여, 연속적으로 프레임의 손실이 발생한 경우에는 손실 후 프레임을 이용할 수 없으므로 손실 전 프레임들만을 이용하여 복원하는 제1 복원 모듈(152)을 이용하며, 그렇지 않은 경우에는 손실 전 프레임과 손실 후 프레임을 이용하여 복원하는 제 2 복원 모듈(154)을 이용하게 된다. 상기 복원 모듈들의 상세한 동작에 대해 설명하기에 앞서서, 먼저 본 발명에 따른 손실 은닉 방법의 전체적인 흐름에 대해 살펴보기로 한다.That is, when a lost frame occurs, it is determined whether the frame has been lost in succession, and if the lost frames are continuously made, the first reconstruction module restores using only the frames before the loss since the frames after the loss cannot be used. If not, the second recovery module 154 recovers using the pre-lost frame and the post-lost frame. Before describing the detailed operation of the restoration modules, the overall flow of the loss concealment method according to the present invention will be described.

도 3은 본 발명의 일 실시 예에 따른 손실 은닉 방법의 순서를 도시한 흐름도이다. 3 is a flowchart illustrating a procedure of a loss concealment method according to an embodiment of the present invention.

도 3을 참조하면, 먼저 패킷을 수신하고(310) 수신된 패킷의 손실 여부를 판단하는 과정을 통해 내부에 저장되어 있는 프레임의 손실 여부를 확인한다(단계 320).Referring to FIG. 3, first, a packet is received (310), and a process of determining whether a received packet is lost is checked whether or not a frame stored therein is lost (step 320).

이는 상기 손실 프레임 검출기(110)에서 이루어지는 동작으로서, 상기 수신 된 패킷의 헤더 구역에 저장된 헤더 체크섬을 통해 손실 여부를 확인한다. 헤더가 생성되거나 수정될 때마다 CRC(cyclic redundancy checking, 주기적 덧붙임 검사)를 통해 헤더 내 비트를 검사하며, 패킷이 전송되면, 똑같은 CRC 과정이 헤더에서 반복된다. 만약 결과가 똑같이 나타난다면 헤더의 모든 비트는 정확하게 전송된 것이며, 다르게 나타나면 헤더의 비트 일부가 전송되지 않은 것으로, 이는 전송 중에 패킷이 일부 손실되었다는 뜻이다. 결국 체크섬을 통해 패킷이 손실되었다고 판단되면, 데이터 구역 내에 저장된 프레임이 손실되었다고 판단한다.This operation is performed in the lost frame detector 110, and checks whether or not a loss is made through a header checksum stored in a header area of the received packet. Whenever a header is created or modified, a bit in the header is checked through cyclic redundancy checking (CRC). When a packet is sent, the same CRC process is repeated in the header. If the result is the same, all the bits in the header are sent correctly, and if different, some of the bits in the header are not sent, which means that some packets were lost during transmission. After all, if it is determined that the packet is lost through the checksum, it is determined that the frame stored in the data area is lost.

수신된 현재 프레임이 손실된 경우 수신된 현재 프레임보다 시간적으로 먼저 입력되었던 과거 프레임의 손실 여부를 판단한다(단계 322). 상기 과거 프레임의 손실 여부는 상기 단계(320)와 같이 헤더 체크섬을 통해 판단하는 것이 아니라, 각 과거에 수신되었던 프레임의 손실 여부에 대한 정보가 저장되어 있는 BFI(Buffer index)를 판독하여 판단한다. 상기 BFI 에는 각 프레임에 대해 손실 또는 무손실 등의 정보가 저장된다. 상기 단계(322)를 통해 과거 프레임도 손실된 것으로 판단되면 상기 제1 복원 모듈에서 실행되는 제1 손실 복원 방법을 수행하는데(단계 324) 이때 손실 복원의 대상은 현재 손실 프레임이 아닌 손실된 과거 프레임이다. 한편, 과거 프레임이 손실되지 않은 경우에는 현재 수신된 프레임에 대해 손실된 프레임이라는 정보를 BFI에 설정한다(단계 326). 상기 제1 손실 복원 방법(단계 324)에 대해서는 추후에 상세히 설명할 것이다.If the received current frame is lost, it is determined whether a past frame that has been input in time prior to the received current frame is lost (step 322). The loss of the past frame is not determined through a header checksum as in step 320, but is determined by reading a buffer index (BFI) in which information on whether the frame has been received in the past is stored. The BFI stores information such as loss or lossless for each frame. If it is determined that the previous frame is also lost through the step 322, a first loss restoration method executed in the first restoration module is performed (step 324). In this case, the lost restoration frame is not a current loss frame but a lost past frame. to be. On the other hand, if the past frame is not lost, information about the lost frame is set in the BFI for the currently received frame (step 326). The first loss recovery method (step 324) will be described later in detail.

상기 단계(326)를 거친 후에 새로운 패킷을 수신하며(단계 310), 수신된 새로운 패킷에 저장된 프레임의 손실 여부를 판단하는데(단계 320), 이렇게 반복적으 로 손실 여부를 판단하는 이유는 수신된 프레임들이 연속적으로 손실되었는지를 판단하여 미래 프레임을 사용할 수 있는지 판단하기 위함이다. After the step 326, a new packet is received (step 310), and whether or not the frame stored in the received new packet is lost (step 320). This is to determine whether future frames can be used by judging whether they are lost continuously.

예를 들어, 도 2에서와 같은 비트스트림 프레임이 입력될 경우 손실된 An 프레임이 입력되면 An은 손실되었으므로 과거 프레임의 손실 여부 판단 단계(322)로 넘어가고, 그 과거 프레임인 An-1은 손실되지 않았으므로 An 프레임이 손실되었다는 정보를 BFI에 저장하는 단계(326)로 넘어간다. 이후 다시 패킷을 수신하는 단계(310)를 거치며, 그 다음 프레임인 An+1에 대해 손실 여부를 판단하는데 An+1도 손실된 프레임이므로 과거 프레임의 손실 여부 판단 단계(322)로 넘어가고, 그 과거 프레임인 An에 대해서는 BFI에 저장된 값에 따라 손실된 것으로 판단하므로 제1 손실 복원 방법을 적용하는 단계(324)로 넘어가게 되는 것이다. 이때, 제1 손실 복원 방법의 적용 대상이 되는 프레임은 아직 손실 복원 방법이 적용되지 아니한 프레임인 An 프레임이 되며, 위의 판단 결과에 따라 An+1 프레임 역시 손실되어 사용할 수 없으므로 손실되지 않은 과거 프레임만을 사용하는 제1 손실 복원 방법을 적용하는 것이다.For example, when a lost A n frame is input when the bitstream frame as shown in FIG. 2 is input, since A n is lost, the process proceeds to a step 322 of determining whether a past frame is lost, and the previous frame A n− 1 is not lost, and the process proceeds to step 326 of storing information in the BFI that the A n frame is lost. After receiving the packet 310 again, and determines whether the next frame A n + 1 is lost or not, since A n + 1 is also a lost frame, the process proceeds to the step 322 of determining whether the previous frame is lost. Since the previous frame A n is determined to be lost according to the value stored in the BFI, the process proceeds to step 324 of applying the first loss recovery method. In this case, the frame to which the first loss restoration method is applied is an A n frame, which is a frame to which the loss restoration method has not yet been applied, and according to the above determination result, the A n + 1 frame is also lost and cannot be used. The first loss recovery method using only past frames is applied.

한편, 상기 현재 프레임의 손실 여부 판단 단계(320)에서 손실이 없는 프레임으로 판단되면 과거 프레임의 손실 여부를 판단하는 단계(330)로 넘어간다. 이 단계(330)역시 앞의 판단 단계(324)에서와 같이 BFI값을 읽고 과거 프레임의 손실 여부를 판단한다. 상기 판단 결과 과거 프레임의 손실이 없는 경우에는 정상적인 복호화 단계(334)를 거치고, 현재 프레임에 대해 BFI에 무손실이라는 정보를 저장하며(단계 336) 그 데이터를 과거 프레임 버퍼에 임시 저장시킨 후(단계 338), 다른 패킷을 수신한다. 그러나 과거 프레임의 손실이 있었던 경우에는 상기 제2 복원 모듈에서 실행되는 제2 손실 복원 방법을 적용하여 과거 프레임의 손실을 은닉한다(단계 332).On the other hand, if it is determined in step 320 whether the current frame is lost or not, the process proceeds to step 330 in which the previous frame is lost or not. This step 330 also reads the BFI value as in the previous decision step 324 and determines whether a past frame is lost. If there is no loss of the past frame as a result of the determination, the normal decoding step 334 is performed, the lossless information is stored in the BFI for the current frame (step 336), and the data is temporarily stored in the past frame buffer (step 338). ), To receive another packet. However, if there is a loss of the past frame, the second loss restoration method executed in the second restoration module is applied to conceal the loss of the past frame (step 332).

예를 들어, 도 2를 다시 참조하면 An+2 프레임이 입력되는 경우 현재 프레임의 손실이 없어 과거 프레임의 손실 여부 판단 단계(330)로 넘어가며(단계 320), 과거 프레임인 An+1이 손실되었으므로 제2 손실 복원 방법으로 넘어간다. 제2 손실 복원 방법에서는 손실되지 않은 미래 프레임 An+2와 손실되지 않은 과거 프레임 An-2, An-1 등을 이용하여 An+1을 복원하게 된다. For example, referring again to Figure 2 A n + when the second frame is input do not have loss of the current frame gamyeo passed to step determines the loss if the past frame 330 (step 320), past frame of A n + 1 Since this has been lost, the method proceeds to the second loss recovery method. In the second loss restoration method, A n + 1 is restored using the future frame A n + 2 that is not lost and the past frames A n-2 , A n-1 that are not lost.

이제, 상기 제1, 제2 복원 모듈의 내부에서 일어나는 상기 제1 손실 복원 방법과 제2 손실 복원 방법을 도 4 내지 8을 참조하여 살펴 보기로 한다.Now, the first loss restoration method and the second loss restoration method occurring in the first and second restoration modules will be described with reference to FIGS. 4 to 8.

도 4는 상기 제1 복원 모듈에서 일어나는 상기 제1 손실 복원 방법을 도시한 흐름도이다.4 is a flowchart illustrating the first loss restoration method occurring in the first restoration module.

도 4를 참조하면, 손실 전 프레임 버퍼(130)에 저장된 프레임 데이터로부터 피치를 검색하는 단계(410), 손실된 프레임을 보간하는 단계(420), OLA(overlap-and-add) 및 스케일링 단계(430)를 수행하는바 각 단계에 대해 살펴보기로 한다.Referring to FIG. 4, a step 410 of retrieving a pitch from frame data stored in the frame buffer 130 before loss, an interpolation 420 of lost frames, an overlap-and-add (OLA) and a scaling step ( Performing step 430 will be described for each step.

상기 피치 검색 단계(410)는 G.711 규격으로 부호화된 프레임으로부터 피치를 얻기 위하여 과거 프레임으로부터 정규화된 교차상관도(nomalized cross-correlation)의 피크 점을 찾아 도 5와 같이 피치를 결정한다. The pitch search step 410 determines the pitch as shown in FIG. 5 by finding peak points of normalized cross-correlation from a past frame to obtain a pitch from a frame encoded by the G.711 standard.

상기 피치(pitch)는 음성신호 특히 유성음을 발성할 때 발생하는 주기적인 진동을 의미하며 주기적으로 반복되는 음성신호 그래프에 있어서 피크 값을 나타내는 지점의 시간적 간격으로 표시되는데, 상기 피치는 주로 음성신호의 고유 특성이 되나, 본 발명과 같이 음성 신호등을 포함하는 오디오 신호에서도 피치와 같은 주기적인 진동특성이 나타날 수 있다. 즉 오디오 신호는 음성 신호보다 노이즈 성분을 많이 포함하고 있지만, 기본적으로 소리는 같은 신호의 반복적인 주기성을 가지고 있기 때문에 피치 검색의 적용에 의미가 있다. 또한, 에러 은닉에 사용하기 위해 피치를 적용하는 구간은 3, 4 프레임 내이며, 그 이상 된다면 묵음으로 처리될 것이므로, 이와 같은 짧은 구간에서의 피치 적용은 오디오 신호라 하더라도 무리 없을 것이며, 정확한 아웃풋을 만드는 것이 목적이 아닌 손실 상황에서의 에러 은닉을 목적으로 하는바, 디코딩할 어떠한 비트스트림이 없는 상황에서 이전 프레임의 피치 정보는 아주 유용한 정보가 되며, 이전 신호와의 연속성을 만들어 주면 귀에 거슬리는 소리가 발생하는 것을 방지할 수 있다.The pitch refers to a periodic vibration generated when a voice signal, especially a voiced sound, is expressed and is represented by a time interval at a point indicating a peak value in a periodically repeated voice signal graph. Although it is inherent in characteristics, periodic vibration characteristics such as pitch may appear in an audio signal including a voice signal as in the present invention. That is, the audio signal contains more noise components than the voice signal, but since the sound basically has the repetitive periodicity of the same signal, it is meaningful to apply the pitch search. In addition, the interval for applying the pitch for use in error concealment is within 3 or 4 frames, and if it is more than that, it will be treated as muted. The goal is to conceal errors in loss situations, not to create them. In the absence of any bitstream to decode, the pitch information of the previous frame is very useful, and if you create continuity with the previous signal, It can be prevented from occurring.

이에 상기 제1 손실 복원 방법(324)의 피치 검색 단계(410)에서는, 손실 전 프레임 버퍼(130)에 저장된 손실 전 프레임들로부터 손실 프레임을 대신할 프레임을 복원하기 위해 손실 전 프레임들의 공통적인 특징인 피치를 검색한다.Accordingly, in the pitch retrieval step 410 of the first loss reconstruction method 324, a common feature of pre-loss frames is used to recover a frame to replace a lost frame from pre-loss frames stored in the pre-loss frame buffer 130. Search for pitch.

도 5는 상기 피치 검색 단계(410)를 설명하기 위한 도면이다.5 is a diagram for describing the pitch search step 410.

도 5를 참조하여 상기 피치 검색 단계(410)를 상세히 살펴보면, 먼저 손실 전 프레임들 간의 교차 상관도의 수식을 통해 그 값이 최대가 되는 구간을 구하여 그 구간을 피치로 결정한다. Referring to FIG. 5, the pitch search step 410 is described in detail. First, a section in which a value is maximized is determined by a formula of cross correlation between frames before loss, and the section is determined as a pitch.

Figure 112006039830980-PAT00001
Figure 112006039830980-PAT00001

상기 수학식 1에서 A와 B는 각각 손실 전 프레임들로, A는 손실 전 프레임들 중 손실 프레임과 시간적으로 제일 인접한 프레임을 사용한다. Aj는 A 프레임의 1024 개의 샘플 중 j번째 샘플을 의미하며, Bij는 B 프레임의 1024개의 샘플 중 i+j 번째 샘플을 의미한다. 도 5에서는 손실 전 프레임들인 A와 B프레임들이 도시되어 있으며, A 프레임을 복사하여 B 프레임과의 교차 상관도의 수식을 적용한다. 상기

Figure 112006039830980-PAT00002
는 i 번째 샘플의 교차 상관도 값을 의미하며, B 프레임을 i 샘플만큼 왼쪽으로 이동했을 때, A 프레임과 얼마나 많이 닮았는지를 나타내는 지수이다. 이때, B 프레임의 모든 샘플을 검색대상으로 하는 것은 아니며, 일정 영역을 검색 영역으로 지정한다. In Equation 1, A and B are pre-loss frames, respectively, and A is the frame closest in time to the lost frame among the pre-loss frames. Aj means the j th sample of the 1024 samples of the A frame, Bij means the i + j th sample of the 1024 samples of the B frame. In FIG. 5, A and B frames, which are pre-loss frames, are illustrated. The A frame is copied and the equation of the cross correlation with the B frame is applied. remind
Figure 112006039830980-PAT00002
Denotes the cross-correlation value of the i th sample, and is an index indicating how much resembles the A frame when the B frame is moved left by the i sample. At this time, not all samples of the B frame are to be searched, and a predetermined area is designated as a search area.

본 발명에서는 수학식 1에서 정한 것과 같이 160 샘플을 기준으로 검색한다. 이는 검색 영역이 최소한 하나의 피치 혹은 피치의 대부분을 포함하고 있어야 한다는 조건과, 검색 영역이 너무 길 경우 계산 량이 증가하고 피치의 n배에 해당하는 주기를 찾게 될 수 있다는 문제점 등을 고려해서 정한다. 이에 160 샘플은 그에 대한 적절한 임계값을 정한 것으로, 그 기준은 음성 신호에서 나타나고 있는 피치의 값을 기준으로 하였다. 따라서, B 샘플의 왼쪽 첫 번째 샘플로부터 검색영역에 해당하는 160 샘플 만큼에 대해 교차 상관도가 최대가 되는 값을 검색한다. 도 5에서는 B의 i 번째 샘플에서 검색영역을 설정하여 검색하였고, 검색영역중 j 번째 지점에서 최대상관지점이 나타났음을 볼 수 있다.In the present invention, as described in Equation 1, the search is performed based on 160 samples. This is determined in consideration of the condition that the search area should include at least one pitch or most of the pitch, and the problem that if the search area is too long, the calculation amount increases and a period corresponding to n times the pitch may be found. Therefore, 160 samples set an appropriate threshold value based on the value of the pitch appearing in the voice signal. Therefore, a value of the maximum cross correlation is searched for as many as 160 samples corresponding to the search area from the first left sample of the B sample. In FIG. 5, the search region is set in the i-th sample of B and searched, and the maximum correlation point appears at the j-th point of the search region.

한편, j 번째 지점에서 최대상관지점이 나타남에 따라 이전프레임들의 가장 최근 데이터부터 보면 (나) 영역 이전에 가장 유사한 데이터가 발생했다고 볼 수 있으며, 따라서 (나) 영역이 피치를 포함하는 피치가 된다. 상기 손실 전 프레임 A, B로부터 검색한 상기 피치를 반복하여 사용함으로써 손실된 프레임을 대체하게 된다.On the other hand, as the maximum correlation point appears at the j th point, the most recent data of the previous frames can be regarded as the most similar data before the (b) region, and thus, the (b) region is the pitch including the pitch. . By repeatedly using the pitch retrieved from the frames A and B before the loss, the lost frame is replaced.

이때, 피치를 반복하기에 앞서 손실 전 프레임과 손실 전 프레임 뒤에 복사될 피치와의 연결에 연속성을 갖게 하기 위해 OLA를 실시한다.At this time, prior to repeating the pitch, OLA is performed in order to ensure continuity in the connection between the pre-loss frame and the pitch to be copied after the pre-loss frame.

다시 도 5를 참조하면, 상기 검색된 피치를 반복하여 적용할 때, 즉 (나) 영역의 뒷부분에 (나)영역을 그대로 복사하여 사용하면 연속성이 떨어져 귀에 거슬리는 소리가 들릴 수 있으므로, (나)영역의 앞 부분과 연속성을 갖는 (가)영역의 뒷부분을 (나)영역의 뒷부분과 OLA(overlap and add)하여 손실 전 프레임을 재생산한다.Referring back to FIG. 5, when the searched pitch is repeatedly applied, that is, when the (B) region is copied to the rear of the (B) region as it is, the continuity may be degraded and annoying sound may be heard. The previous part of the area (a) and the rear part of the area (b) that overlap with the rear part of the area (b) are overlapped and added to reproduce the frame before the loss.

도 5에 도시된 바와 같이 (가) 영역의 뒷부분 중 1/4 피치만큼의 부분과 (나)영역의 뒷부분 중 1/4 피치만큼의 부분을 선택하여, 삼각 윈도우를 통해 OLA 를 하게 된다. 상기 OLA는 연속되는 부분의 앞 부분과 뒷부분의 일정부분의 데이터를 겹치게(overlap) 함으로써 이질적인 신호 간에 연속성을 주려는 방법이다. 도 5에서는 피치의 반복되는 특성에 따라 인접할 것으로 기대되는 (가)영역의 뒷부분의 데이터와 (나)영역의 뒷부분의 데이터를 대상으로 1/4 피치만큼의 데이터에 대해 삼각 윈도우의 빗변의 기울기 만큼의 가중치를 적용하면서 OLA를 실시하여 손실 전 프레임을 재생산하게 된다.As shown in FIG. 5, a portion of the (a) quarter of the back of the region and one quarter of the back of the (b) region are selected to perform OLA through a triangular window. The OLA is a method of providing continuity between heterogeneous signals by overlapping data of a part of the front part and the back part of the continuous part. In FIG. 5, the inclination of the hypotenuse of the triangular window is applied to the data of 1/4 pitches for the data at the back of the (a) area and the data at the back of the (b) area expected to be adjacent according to the repeated characteristics of the pitch. OLA is applied while applying the weight, so that the frame before loss is reproduced.

한편, 상기 피치 검색 단계(410)에서는 많은 계산량이 요구되기 때문에 시스템의 복잡도가 증가하게 된다. 본원 발명의 오디오 부호화기의 경우 음성 부호화기보다 샘플링 주파수가 높고 프레임당 샘플 수가 많으므로 (음성 부호화기의 통상적인 샘플링 주파수는 8Khz 이고 1 프레임은 80 개의 샘플, 본원 발명의 오디오 부호화기의 샘플링 주파수는 44.1Khz이고 1프레임은 1024 샘플), 이 과정에서의 계산량이 많아짐에 따라 시스템 복잡도는 더욱 증가하게 된다.  On the other hand, the pitch search step 410, because a large amount of calculation is required, the complexity of the system is increased. In the audio encoder of the present invention, since the sampling frequency is higher than that of the speech encoder and the number of samples per frame (the typical encoder is 8Khz, one frame is 80 samples, the audio encoder of the present invention is 44.1Khz, One frame is 1024 samples), and as the computational amount increases in this process, the system complexity increases.

따라서 계산량을 줄이기 위해 검색영역을 8:1로 축소하여 검색을 할 수 있다. 이렇게 할 경우 계산량을 줄일 수 있지만 실제 피치 값보다 2배에서 8배에 해당하는 피치가 검출될 수 있고 정확도가 낮아진다. 따라서 찾아진 피치 값을 8 등분하여 피치가 될 수 있는 8개의 후보 피치를 구하고 각 후보 피치 주변의 8 샘플에 대하여 다시 교차 상관도를 구해 정확한 피치 주기를 다시 검색하는 방법을 사용할 수 있다. 이 방법을 이용하여 계산량에 의한 복잡도를 줄이면서 더욱 정확한 피치 값을 구할 수 있다. Therefore, the search area can be reduced to 8: 1 to reduce the amount of computation. This can reduce computation, but can detect pitches that are two to eight times larger than the actual pitch value, resulting in lower accuracy. Therefore, a method of retrieving the exact pitch period may be obtained by dividing the found pitch value by eight to obtain eight candidate pitches that may become pitches, and then obtaining cross correlations for the eight samples around each candidate pitch. Using this method, more accurate pitch values can be obtained while reducing the complexity of calculation.

상기 피치 검색 단계(410)를 거친 후 상기 손실 프레임 보간 단계(420)를 거친다.After the pitch searching step 410, the loss frame interpolation step 420 is performed.

손실 프레임의 합성 신호 생성은 상기 검색 단계(410)를 통해 검색한 피치를 기반으로 G.711 Appendix I의 방법을 적용한다. 처음 발생한 손실 프레임은 상기 검색한 피치를 한번 사용한다. 이후 연속 두 번째 발생한 손실 프레임에서는 합성 신호에 사용된 피치를 두 배로 증가하여 반복하고, 연속 세 번째 손실 프레임에서는 피치 주기가 한 번 더 더해져 3 배로 증가하여 반복한다. 그 이후 손실에 대해서는 추가적인 수정 없이 만든다. 이와 같은 방법은 연속 손실이 발생하였을 경우 임의로 만들어진 피치에 의한 인위적인 소리를 감쇄하는 역할을 한다.The generation of the synthesized signal of the lost frame applies the method of G.711 Appendix I based on the pitch retrieved through the search step 410. The first lost frame uses the retrieved pitch once. After that, in the second consecutive lost frames, the pitch used for the synthesized signal is doubled and repeated. In the third consecutive lost frames, the pitch period is added one more time and repeated three times. Subsequent losses are made without further modification. This method serves to attenuate the artificial sound due to the randomly generated pitch when continuous loss occurs.

상기 손실 프레임 보간 단계(420)를 거친 후에 OLA 및 스케일링 단계(430)를 거친다.The lossy frame interpolation step 420 is followed by the OLA and scaling step 430.

상기 OLA는 크게 두 부분에서 이루어지는데, 도 5를 들어 설명한 바와 같이 손실 전 프레임에 대해 피치와의 연결을 대비해서 OLA를 하여 손실 전 프레임을 재생산하는 경우와, 상기 재생산된 손실 전 프레임과 피치의 연결 부분에서 OLA를 할 수 있다.The OLA is largely composed of two parts. As described with reference to FIG. 5, in the case of reproducing the pre-loss frame by performing OLA in preparation for connection to the pitch for the pre-loss frame, OLA can be done in the connection section.

도 6은 손실 전 프레임과 피치의 연결 부분에서 OLA를 실시하는 방법을 도시하고 있는 도면이다.FIG. 6 is a diagram illustrating a method for performing OLA at a connection portion of a frame and a pitch before loss.

도 6을 참조하면, 선정된 길이의 오버랩 길이 동안 손실 전 프레임의 뒷부분 데이터와 피치의 앞 부분 데이터에 대해 각각 삼각 윈도우를 적용하여 OLA를 실시 한다. 손실 전 프레임 버퍼의 출력되지 않은 오디오신호의 마지막 128 샘플(44.1Khz 일 때 약 2.75 ms)과 복원된 신호 앞의 128 샘플에 대해 삼각 윈도우를 이용하여 가중치가 적용되어 합쳐진다. Referring to FIG. 6, an OLA is performed by applying a triangular window to the data of the rear part of the frame before the loss and the data of the front part of the pitch, respectively, during the overlap length of the predetermined length. The last 128 samples (approximately 2.75 ms at 44.1Khz) of the non-output audio signal of the frame buffer before loss and the 128 samples before the reconstructed signal are weighted together using a triangular window.

한편, 손실 프레임을 대체하는 피치는 ANSI T1.521a-1000 (Annex B)에 서술되어 있는 것처럼 스케일 다운된다. 스케일은 초기에 1.0으로 설정되었다가, 만일 손실이 발생하면 피치의 시작점부터 1/4 프레임까지는 10ms 당 0.054씩 감소가 된다. 그리고 1/4 프레임 이상의 손실부터는 10ms 당 0.222씩 감소가 된다. 이 과정은 출력 프레임의 마지막 신호 혹은 스케일이 0이 될 때까지 계속된다.On the other hand, the pitch that replaces the lost frame is scaled down as described in ANSI T1.521a-1000 (Annex B). The scale is initially set to 1.0, but if a loss occurs, it is reduced by 0.054 per 10ms from the beginning of the pitch to the quarter frame. From a loss of more than a quarter frame, this decreases by 0.222 per 10 ms. This process continues until the last signal or scale of the output frame is zero.

이제, 상기 제2 복원 모듈(154)에서 이루어지는 제2 손실 복원 방법(332)에 대해 살펴보기로 한다.Now, the second loss restoration method 332 performed in the second restoration module 154 will be described.

도 7은 상기 제2 복원 모듈에서 일어나는 상기 제2 손실 복원 방법을 도시한 흐름도이다. 7 is a flowchart illustrating the second loss restoration method occurring in the second restoration module.

도 7을 참조하면, 먼저 손실 전 프레임 버퍼(130)에 저장된 손실 전 프레임들로부터 피치를 검색하고(단계 710), 손실 후 프레임 버퍼(140)에 저장된 손실 후 프레임들로부터 피치를 검색하여(단계 720), 상기 검색된 두 가지 피치를 이용하여 손실 프레임을 보간 하여 생성하고(단계 730), 상기 생성된 손실 프레임에 대해 OLA 및 스케일링 단계(740)를 수행한다.Referring to FIG. 7, first, the pitch is retrieved from pre-loss frames stored in the pre-loss frame buffer 130 (step 710), and the pitch is retrieved from the post-loss frames stored in the frame buffer 140 after loss (step). 720, the lost frames are interpolated using the searched two pitches (step 730), and the OLA and scaling steps 740 are performed on the generated lost frames.

먼저 피치 검색 단계(710, 720)를 살펴보면, 손실 전 프레임들로부터 피치를 검색하는 단계(710)는 제1 복원 모듈에서 실시되는 피치 검색 단계(410)와 동일한 방법을 사용한다.First, referring to the pitch search steps 710 and 720, the step 710 of searching for the pitch from the frames before loss uses the same method as the pitch search step 410 performed in the first reconstruction module.

손실 후 프레임들로부터 피치를 검색하는 단계(720) 역시 상기 피치 검색 단계(410)의 원리와 큰 차이가 없다. 손실 후 프레임들로부터 피치를 얻기 위하여 손실이 발생한 프레임 뒤의 연속되는 두 개의 프레임 중 첫 번째 프레임을 수학식 1의 B 프레임, 두 번째 프레임을 A 프레임으로 입력하여 피치를 검색한다.The step 720 of retrieving the pitch from the frames after loss is also not significantly different from the principle of the pitch retrieval step 410. In order to obtain the pitch from the frames after the loss, the first frame of two consecutive frames after the loss is input, the B frame of Equation 1, and the second frame as the A frame to search for the pitch.

상기 검색된 피치와 손실 후 프레임과의 연결에 연속성을 주기 위해 손실 후 프레임의 한 피치 주기 이후 신호와 손실 후 프레임의 시작 부분 신호를 1/4 피치의 만큼 OLA를 적용하여 손실 후 프레임을 재생산한다. In order to provide continuity for the connection between the retrieved pitch and the lost frame, the frame after the loss is reproduced by applying the OLA by one quarter pitch of the signal after one pitch period of the lost frame and the start signal of the lost frame.

상기 손실 전 버퍼로부터 얻은 피치와 손실 후 버퍼로부터 얻은 피치는 손실 패킷을 복원하기 위해 각각 손실 프레임 보간 단계(730)로 넘긴다.The pitch obtained from the pre-lost buffer and the pitch from the post-lost buffer are passed to lost frame interpolation step 730 to recover lost packets, respectively.

상기 손실 프레임 보간 단계(730)는 상기 제1 복원 모듈에서의 손실 프레임 보간 단계(410)에서와 같이 G.711 Appendix I의 방법을 적용한다. 상기 손실 전 프레임으로부터 검색한 피치를 반복하고 손실 후 프레임으로부터 검색한 피치를 반복하여 손실 프레임을 대체한다.The lost frame interpolation step 730 applies the method of G.711 Appendix I as in the lost frame interpolation step 410 in the first reconstruction module. The pitch retrieved from the frame before the loss is repeated and the pitch retrieved from the frame after the loss is repeated to replace the lost frame.

상기 보간 단계(730)를 거친 후 상기 손실 프레임을 대체하고 있는 두 피치 사이에 OLA 및 스케일링을 적용한다(단계 740).After the interpolation step 730, OLA and scaling are applied between the two pitches replacing the lost frame (step 740).

도 8은 손실 전 버퍼로부터 얻은 피치와 손실 후 버퍼로부터 얻은 피치의 연결 부분에서 OLA를 적용하는 단계를 도시한 도면이다.FIG. 8 is a diagram illustrating the step of applying an OLA in the connection portion of the pitch obtained from the pre-loss buffer and the pitch obtained from the post-loss buffer.

도 8을 참조하면, 손실 후 신호를 이용하여 생성한 패킷과 손실 전 신호를 이용하여 생성한 패킷에 OLA를 적용한다. 이때 OLA를 적용하는 오버랩 길이는 수학식 2와 같이 손실 프레임의 길이에 따라 달라진다. Referring to FIG. 8, an OLA is applied to a packet generated using a post-loss signal and a packet generated using a pre-loss signal. In this case, the overlap length to which the OLA is applied depends on the length of the lost frame as shown in Equation 2.

오버랩 길이 = (손실 후 프레임에서 검색된 피치 주기)/4 + erase_cnt×128(2.75ms)Overlap Length = (Pitch period retrieved in frames after loss) / 4 + erase_cnt × 128 (2.75 ms)

{ overlap length , < 1024 samples ( 1 frame){overlap length, <1024 samples (1 frame)

{ 1024 samples , >= 1024 samples ( 1 frame){1024 samples,> = 1024 samples (1 frame)

상기 erase_cnt 는 연속적으로 손실된 프레임의 수를 누적(count)한 값으로, 연속 손실 개수가 클수록 손실 전 프레임과 손실 후 프레임과의 상관도가 작을 것이기 때문에 오버랩 길이를 길게 적용한다.The erase_cnt is a value that counts the number of consecutively lost frames. As the number of consecutive losses increases, the correlation length between the frames before the loss and the frames after the loss becomes smaller, so that the overlap length is applied.

도 6에서 설명했던 OLA 과정과 동일하게 손실 전 프레임 버퍼로부터 얻은 피치와 손실 후 버퍼로부터 얻은 피치 각각에 대해 삼각 윈도우를 적용하여 OLA를 실시하고 있다.As in the OLA process described with reference to FIG. 6, an OLA is performed by applying a triangular window to each of the pitch obtained from the pre-loss frame buffer and the pitch obtained from the post-loss buffer.

한편, 상기 제1 손실 복원 방법의 스케일링 단계(430)에서와 같이 손실 프레임을 대체하는 피치를 스케일 다운한다. 스케일은 초기에 1.0으로 설정되었다가, 만일 손실이 발생하면 프레임의 시작점부터 1/4 프레임까지는 10ms 당 0.054씩 감소가 된다. 그리고 1/4 프레임이상의 손실부터는 10ms 당 0.222씩 감소가 된다. 이 과정은 출력 프레임의 마지막 신호 혹은 스케일이 0이 될 때까지 계속된다.Meanwhile, as in the scaling step 430 of the first loss recovery method, the pitch replacing the lost frame is scaled down. The scale is initially set to 1.0, but if a loss occurs, it is reduced by 0.054 per 10ms from the start of the frame to the quarter frame. And from a loss of more than 1/4 frame, it decreases by 0.222 per 10ms. This process continues until the last signal or scale of the output frame is zero.

본 발명은 오디오 프레임의 손실이 발생한 경우 손실 후 프레임을 이용할 수 없는 경우에는 손실 전에 정상적으로 전송된 프레임을 가지고 손실된 프레임을 복원하고, 손실 후 패킷을 이용할 수 있는 경우에는 손실 전에 정상적으로 전송된 프레임과 손실 후 프레임을 이용하여 복원함으로써 오디오 프레임의 손실이 발생하였을 때 손실 프레임을 은닉함으로써 음질 저하를 줄일 수 있다. 또한 상기 방법은 많은 연산 과정이 필요하지 않으며, 손실 패킷 전과 후 프레임을 이용하므로 복원의 정확도를 높일 수 있다. 특히, 연속적인 프레임 손실이 많지 않은 DMB와 같은 방송 시스템에 적합하다고 할 수 있다.The present invention restores a lost frame with a frame that was normally transmitted before the loss if the frame after the loss is not available, and if the packet after the loss is available, the frame and the normal transmission before the loss By reconstructing the frame after the loss, the sound quality degradation can be reduced by concealing the lost frame when the loss of the audio frame occurs. In addition, the method does not require a lot of computational process, and since the frames are used before and after lost packets, the accuracy of restoration can be improved. In particular, it can be said that it is suitable for a broadcasting system such as DMB which does not have a large number of continuous frame loss.

Claims (9)

수신된 오디오 패킷 내에 저장된 오디오 프레임의 손실 여부를 검출하는 단계와,Detecting whether an audio frame stored in the received audio packet is lost; 상기 오디오 프레임의 손실이 발생한 경우 연속되는 오디오 프레임의 손실 여부를 검출하는 단계와,Detecting whether the audio frame is lost when the audio frame is lost; 상기 오디오 프레임이 연속적으로 손실된 경우 손실 전 프레임들로부터 피치를 검색하고 상기 검색된 피치를 반복하여 손실 프레임을 대체하는 손실 복원 단계A loss retrieval step of retrieving a pitch from pre-loss frames and replacing the lost frame by repeating the retrieved pitch when the audio frame is continuously lost 를 포함하는 것을 특징으로 하는 오디오 패킷 손실 복구 방법.Audio packet loss recovery method comprising the. 제1항에 있어서, 상기 손실 복원 단계는 상기 손실된 프레임의 개수에 따라 상기 검색된 피치를 1회 이상 반복하는 단계와,The method of claim 1, wherein the loss recovery step includes repeating the retrieved pitch one or more times according to the number of lost frames; 상기 손실 전 프레임과 상기 피치의 연결 부분에서 OLA(overlap-and-add)를 실행하는 단계와,Performing overlap-and-add (OLA) on the connection between the pre-loss frame and the pitch; 상기 연결된 피치를 스케일 다운하는 단계 Scaling down the connected pitch 를 더 포함하는 것을 특징으로 하는 오디오 패킷 손실 복구 방법.The audio packet loss recovery method further comprises. 제1항에 있어서, 상기 수신된 오디오 패킷에 저장된 오디오 신호는 44.1Khz의 샘플링 주파수에 따라 샘플링되고, 상기 오디오 프레임은 1024 개의 샘플을 포함하는 것을 특징으로 하는 오디오 패킷 손실 복구 방법. The method of claim 1, wherein the audio signal stored in the received audio packet is sampled according to a sampling frequency of 44.1 Khz, and the audio frame includes 1024 samples. 수신된 오디오 패킷 내에 저장된 오디오 프레임의 손실 여부를 검출하는 단계와,Detecting whether an audio frame stored in the received audio packet is lost; 상기 오디오 프레임의 손실이 발생한 경우 연속되는 오디오 프레임의 손실 여부를 검출하는 단계와,Detecting whether the audio frame is lost when the audio frame is lost; 상기 오디오 프레임의 손실이 발생한 직후에 무손실 프레임이 입력된 경우 손실 전 프레임들 및 손실 후 프레임들로부터 피치 프레임을 검색하고, 상기 검색된 피치 프레임들을 반복하여 손실 프레임을 대체하는 손실 복원 단계A loss retrieval step of retrieving a pitch frame from pre-loss frames and post-loss frames if a lossless frame is input immediately after the loss of the audio frame, and repeating the retrieved pitch frames to replace the lost frame. 를 포함하는 것을 특징으로 하는 오디오 패킷 손실 복구 방법.Audio packet loss recovery method comprising the. 제4항에 있어서, 상기 손실 복원 단계는 상기 손실된 프레임의 개수에 따라 상기 검색된 피치 프레임들을 1회 이상 반복하는 단계와,5. The method of claim 4, wherein the loss recovery step includes repeating the retrieved pitch frames one or more times according to the number of lost frames; 상기 손실 전 프레임들로부터 검색된 피치 프레임과 상기 손실 후 프레임들 로부터 검색된 피치 프레임에 대해 OLA(overlap-and-add)를 실행하여 연결하는 단계와,Performing overlap-and-add (OLA) on the pitch frame retrieved from the frames before the loss and the pitch frame retrieved from the frames after the loss; 상기 연결된 피치 프레임을 스케일 다운하는 단계Scaling down the connected pitch frame 를 더 포함하는 것을 특징으로 하는 오디오 패킷 손실 복구 방법.The audio packet loss recovery method further comprises. 수신된 오디오 패킷 내에 저장된 오디오 프레임의 손실 여부를 검출하는 손실 프레임 검출기와,A lost frame detector for detecting whether an audio frame stored in the received audio packet is lost; 상기 수신된 오디오 프레임을 복호화하는 복호화기와,A decoder for decoding the received audio frame; 상기 손실 프레임 이전의 프레임들을 임시 저장하는 손실 전 프레임 버퍼와,A pre-loss frame buffer for temporarily storing frames before the lost frame; 상기 손실 프레임 이후의 프레임들을 임시 저장하는 손실 후 프레임 버퍼와,A post-loss frame buffer for temporarily storing frames after the lost frame; 상기 손실 전 프레임 버퍼로부터 검색한 피치를 손실 프레임으로 대체하는 제1 복원 모듈과,A first reconstruction module for replacing a pitch retrieved from the pre-loss frame buffer with a lost frame; 상기 손실 전 프레임 버퍼로부터 검색한 피치와 상기 손실 후 프레임 버퍼로부터 검색한 피치를 결합하여 손실 프레임으로 대체하는 제2 복원 모듈A second reconstruction module that combines the pitch retrieved from the pre-loss frame buffer with the pitch retrieved from the post-loss frame buffer and replaces the lost frame with a lost frame 을 포함하는 오디오 패킷 손실 복구 장치.Audio packet loss recovery device comprising a. 제6항에 있어서, 상기 복호화기는 MPEG-4 BSAC(Bit Sliced Arithmetic Coding) 표준에 따르는 것을 특징으로 하는 오디오 패킷 손실 복구 장치.7. The apparatus of claim 6, wherein the decoder complies with the MPEG-4 Bit Sliced Arithmetic Coding (BSAC) standard. 제6항에 있어서, 상기 제1 복원 모듈은 상기 손실 전 프레임과 상기 피치의 연결 부분에서 OLA(overlap-and-add)를 실행하는 것을 특징으로 하는 오디오 패킷 손실 복구 장치.7. The apparatus of claim 6, wherein the first reconstruction module executes overlap-and-add (OLA) in the connection portion of the pre-loss frame and the pitch. 제6항에 있어서, 상기 제2 복원 모듈은 상기 피치들을 결합하기 위해 OLA(overlap-and-add)를 실행하는 것을 특징으로 하는 오디오 패킷 손실 복구 장치.7. The apparatus of claim 6, wherein the second reconstruction module implements overlap-and-add (OLA) to combine the pitches.
KR1020060050751A 2005-12-07 2006-06-07 Method and apparatus for restoring digital audio packet loss KR100792209B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050119081 2005-12-07
KR20050119081 2005-12-07

Publications (2)

Publication Number Publication Date
KR20070059860A true KR20070059860A (en) 2007-06-12
KR100792209B1 KR100792209B1 (en) 2008-01-08

Family

ID=38356116

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060050751A KR100792209B1 (en) 2005-12-07 2006-06-07 Method and apparatus for restoring digital audio packet loss

Country Status (1)

Country Link
KR (1) KR100792209B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2200018A2 (en) * 2007-06-14 2010-06-23 Huawei Technologies Co., Ltd. Method and device for performing packet loss concealment
WO2011006369A1 (en) * 2009-07-16 2011-01-20 中兴通讯股份有限公司 Compensator and compensation method for audio frame loss in modified discrete cosine transform domain
WO2013060223A1 (en) * 2011-10-24 2013-05-02 中兴通讯股份有限公司 Frame loss compensation method and apparatus for voice frame signal
CN113035207A (en) * 2021-03-03 2021-06-25 北京猿力未来科技有限公司 Audio processing method and device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102389312B1 (en) 2014-07-08 2022-04-22 삼성전자주식회사 Method and apparatus for transmitting multimedia data
WO2016006915A1 (en) * 2014-07-08 2016-01-14 삼성전자 주식회사 Method and apparatus for sending multimedia data

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699485A (en) 1995-06-07 1997-12-16 Lucent Technologies Inc. Pitch delay modification during frame erasures
WO2000063885A1 (en) * 1999-04-19 2000-10-26 At & T Corp. Method and apparatus for performing packet loss or frame erasure concealment
KR100954668B1 (en) * 2003-04-17 2010-04-27 주식회사 케이티 Method for concealing Packet Loss using Information of Packets before and after Packet Loss
KR100542435B1 (en) * 2003-09-01 2006-01-11 한국전자통신연구원 Method and apparatus for frame loss concealment for packet network
KR100591544B1 (en) * 2003-12-26 2006-06-19 한국전자통신연구원 METHOD AND APPARATUS FOR FRAME LOSS CONCEALMENT FOR VoIP SYSTEMS

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2200018A2 (en) * 2007-06-14 2010-06-23 Huawei Technologies Co., Ltd. Method and device for performing packet loss concealment
EP2200018A3 (en) * 2007-06-14 2010-12-01 Huawei Technologies Co., Ltd. A method and device for performing packet loss concealment
US8600738B2 (en) 2007-06-14 2013-12-03 Huawei Technologies Co., Ltd. Method, system, and device for performing packet loss concealment by superposing data
WO2011006369A1 (en) * 2009-07-16 2011-01-20 中兴通讯股份有限公司 Compensator and compensation method for audio frame loss in modified discrete cosine transform domain
US8731910B2 (en) 2009-07-16 2014-05-20 Zte Corporation Compensator and compensation method for audio frame loss in modified discrete cosine transform domain
WO2013060223A1 (en) * 2011-10-24 2013-05-02 中兴通讯股份有限公司 Frame loss compensation method and apparatus for voice frame signal
US9330672B2 (en) 2011-10-24 2016-05-03 Zte Corporation Frame loss compensation method and apparatus for voice frame signal
CN113035207A (en) * 2021-03-03 2021-06-25 北京猿力未来科技有限公司 Audio processing method and device
CN113035207B (en) * 2021-03-03 2024-03-22 北京猿力未来科技有限公司 Audio processing method and device

Also Published As

Publication number Publication date
KR100792209B1 (en) 2008-01-08

Similar Documents

Publication Publication Date Title
KR101513184B1 (en) Concealment of transmission error in a digital audio signal in a hierarchical decoding structure
US6597961B1 (en) System and method for concealing errors in an audio transmission
EP1088205B1 (en) Improved lost frame recovery techniques for parametric, lpc-based speech coding systems
EP2535893B1 (en) Device and method for lost frame concealment
US7596488B2 (en) System and method for real-time jitter control and packet-loss concealment in an audio signal
JP5341857B2 (en) Method and receiver implemented in a receiver
US5907822A (en) Loss tolerant speech decoder for telecommunications
US7627467B2 (en) Packet loss concealment for overlapped transform codecs
KR100395458B1 (en) Method for decoding an audio signal with transmission error correction
US20070150262A1 (en) Sound packet transmitting method, sound packet transmitting apparatus, sound packet transmitting program, and recording medium in which that program has been recorded
IL154728A (en) Transmission error concealment in an audio signal
EP1886307A2 (en) Robust decoder
KR20120019503A (en) Systems and methods for reconstructing an erased speech frame
KR100792209B1 (en) Method and apparatus for restoring digital audio packet loss
JP2004361731A (en) Audio decoding system and audio decoding method
US6871175B2 (en) Voice encoding apparatus and method therefor
US7302385B2 (en) Speech restoration system and method for concealing packet losses
De Martin et al. Improved frame erasure concealment for CELP-based coders
JP5604572B2 (en) Transmission error spoofing of digital signals by complexity distribution
KR100594599B1 (en) Apparatus and method for restoring packet loss based on receiving part
KR100462024B1 (en) Method for restoring packet loss by using additional speech data and transmitter and receiver using the method
KR100591544B1 (en) METHOD AND APPARATUS FOR FRAME LOSS CONCEALMENT FOR VoIP SYSTEMS
KR20070091512A (en) Method and apparatus for error concealment of decoded audio signal
KR19990053837A (en) Method and apparatus for error concealment of audio signal
KR0178731B1 (en) Error correcting method of digital audio signal and subband decoding apparatus using the method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20101201

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee