KR100954668B1 - Method for concealing Packet Loss using Information of Packets before and after Packet Loss - Google Patents

Method for concealing Packet Loss using Information of Packets before and after Packet Loss Download PDF

Info

Publication number
KR100954668B1
KR100954668B1 KR1020030024438A KR20030024438A KR100954668B1 KR 100954668 B1 KR100954668 B1 KR 100954668B1 KR 1020030024438 A KR1020030024438 A KR 1020030024438A KR 20030024438 A KR20030024438 A KR 20030024438A KR 100954668 B1 KR100954668 B1 KR 100954668B1
Authority
KR
South Korea
Prior art keywords
loss
packet
voice
information
section
Prior art date
Application number
KR1020030024438A
Other languages
Korean (ko)
Other versions
KR20040090567A (en
Inventor
한민수
김재현
김학균
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020030024438A priority Critical patent/KR100954668B1/en
Publication of KR20040090567A publication Critical patent/KR20040090567A/en
Application granted granted Critical
Publication of KR100954668B1 publication Critical patent/KR100954668B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야1. TECHNICAL FIELD OF THE INVENTION

본 발명은 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 관한 것임.The present invention relates to a packet loss concealment method using before and after loss packet information.

2. 발명이 해결하려고 하는 기술적 과제2. The technical problem to be solved by the invention

본 발명은, 비오아이피(VoIP : Voice over Internet Protocol)와 같은 방식을 이용하는 오디오 전송 시스템에서의 패킷손실을 손실 전/후의 피치정보와 스펙트럼 거리를 이용하여 양쪽의 음소를 비교하여 손실구간을 앞/뒤의 음소정보를 활용하여 보다 자연스러운 합성 음성신호를 제공하도록 하는 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법을 제공하고자 함.The present invention compares both phonemes using the pitch information before and after loss and the spectral distance in an audio transmission system using a voice over internet protocol (VoIP) method to improve the loss period. The purpose of the present invention is to provide a packet loss concealment method using pre / post loss packet information to provide a more natural synthesized speech signal using the phoneme information of the back.

3. 발명의 해결방법의 요지 3. Summary of Solution to Invention

본 발명은, 수신된 음성 패킷의 손실을 확인하고 상기 손실 전/후의 패킷을 비교하여 상기 손실 전/후의 패킷이 서로 상이한 음소인지를 판단하는 제 1 단계; 상기 제 1 단계의 판단 결과, 상기 손실 전/후의 패킷이 서로 동일한 음소라고 판단되면, 상기 손실 전 패킷의 음성정보를 이용하여 손실구간을 보상함으로써 수신된 상기 음성 패킷의 손실을 은닉하는 제 2 단계; 및 상기 제 1 단계의 판단 결과, 상기 손실 전/후의 패킷이 서로 상이한 음소라고 판단되면, 상기 손실 전 패킷의 음성정보 및 상기 손실 후 패킷의 음성정보를 이용하여 상기 손실구간을 보상함으로써 수신된 상기 음성 패킷의 손실을 은닉하는 제 3 단계를 포함함.The present invention includes a first step of checking the loss of the received voice packet and comparing the packets before and after the loss to determine whether the packets before and after the loss are different phonemes; A second step of concealing the loss of the received voice packet by compensating for the loss interval by using the voice information of the pre-loss packet as a result of the determination of the first step as the same phoneme before and after the loss; ; And if it is determined that the packets before and after the loss are different phonemes from the first step, the loss period received by compensating the loss section using the voice information of the pre-loss packet and the voice information of the post-loss packet. A third step of concealing the loss of the voice packet.

4. 발명의 중요한 용도4. Important uses of the invention

본 발명은 VoIP 방식의 오디오 전송 시스템 등에 이용됨.The present invention is used for the audio transmission system of the VoIP method.

음성, 패킷, 손실, 보상, 은닉, 피치, 스펙트럼 거리, 음소Voice, packet, loss, compensation, concealment, pitch, spectral distance, phoneme

Description

손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법{Method for concealing Packet Loss using Information of Packets before and after Packet Loss} Method for concealing Packet Loss using Information of Packets before and after Packet Loss}             

도 1 은 본 발명이 적용되는 오디오 전송 시스템의 구성예시도.1 is an exemplary configuration diagram of an audio transmission system to which the present invention is applied.

도 2 는 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 있어서 패킷손실구간 보상에 대한 일예시도.2 is an exemplary view of packet loss interval compensation in a packet loss concealment method using before and after loss packet information according to the present invention.

도 3 은 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 있어서 불연속성을 줄이기 위한 OLA의 일예시도.3 is an exemplary diagram of an OLA for reducing discontinuity in a packet loss concealment method using before and after loss packet information according to the present invention.

도 4 는 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 있어서 손실구간 합성음성의 크기조절에 대한 일예시도.Figure 4 is an exemplary view for controlling the size of the loss interval synthesized voice in the packet loss concealment method using before and after loss packet information according to the present invention.

도 5 는 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 대한 일실시예 설명도.5 is a diagram illustrating an embodiment of a packet loss concealment method using before and after loss packet information according to the present invention;

도 6a 및 도 6b 는 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 따른 일실시예 흐름도.
6A and 6B are flowcharts illustrating an embodiment of a packet loss concealment method using before and after loss packet information according to the present invention.

*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

110 : 인코더 115 : 손실 프레임 검출기 110: encoder 115: lost frame detector                 

120 : 디코더 130 : 패킷손실 은닉 모듈
120: decoder 130: packet loss concealment module

본 발명은 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 관한 것으로, 더욱 상세하게는 비오아이피(VoIP : Voice over Internet Protocol)와 같은 오디오 전송 시스템에서 패킷손실에 의한 음성품질 저하를 개선하기 위한 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 관한 것이다. The present invention relates to a method for concealing packet loss using packet information before and after loss, and more particularly, to improve voice quality degradation due to packet loss in an audio transmission system such as Voice over Internet Protocol (VoIP). The present invention relates to a packet loss concealment method using packet information before and after loss.

종래에 VoIP상에서 패킷손실을 보상하기 위해서 흔히 쓰이는 기술로 에프이씨(FEC : Forward Error Correction)와 패킷손실 은닉(PLC : Packet Loss Concealment)을 들 수 있다. FEC는 송신 측과 수신 측에서 소스에 대한 추가적인 처리가 요구되며, 그 효율성은 손실율과 손실분포에 따라 달라진다는 문제점이 있었다. 또한, FEC 방식은 넓은 대역폭과 부가적인 처리에 따른 지연을 필요로 한다는 문제점이 있었다. Conventionally, techniques commonly used to compensate for packet loss in VoIP include FEC (Forward Error Correction) and Packet Loss Concealment (PLC). The FEC has a problem that additional processing of the source is required at the transmitting side and the receiving side, and its efficiency depends on the loss rate and the loss distribution. In addition, the FEC method requires a wide bandwidth and a delay due to additional processing.

반면, 패킷손실은닉 방식은 수신된 비트 스트림에 대해서 네트워크 상에서 사라진 데이터를 대신할 수 있는 합성음성신호를 만들어 내는 것이다. 음성신호는 대개 부분적으로 안정화 되어있기 때문에 이전의 음성신호로부터 손실된 패킷의 음 성신호를 추정하는 것이 가능하다. 이제까지 VoIP 코덱들에 주로 적용되는 패킷손실 은닉 방식들은 이전 패킷의 정보를 손실구간에 그대로 대체하거나 묵음으로 처리하고 있으며, 패턴매칭이나 음성정보 모델링에 기반한 다양한 알고리즘들이 연구되고 이에 대한 적용사례가 발표되고 있다. Packet loss concealment, on the other hand, generates a synthetic speech signal that can replace the lost data on the network for the received bit stream. Since the speech signal is usually partially stabilized, it is possible to estimate the speech signal of the packet lost from the previous speech signal. So far, packet loss concealment methods mainly applied to VoIP codecs are replaced or silently processed the information of previous packet in the loss interval. Various algorithms based on pattern matching or voice information modeling are studied and application cases are presented. have.

그러나, 이제까지의 손실은닉 방식은 단일 프레임(4-40ms)의 낮은 패킷손실율(<15%)에 대해서 효과적으로 적용될 수 있으며, 연속적인 패킷손실에 의한 상대적으로 긴 구간에 대해서 패킷손실을 보상하기에는 무리가 있다는 문제점이 있었다.However, the loss concealment method up to now can be effectively applied for the low packet loss rate (<15%) of a single frame (4-40ms), and it is difficult to compensate for the packet loss over a relatively long period due to continuous packet loss. There was a problem.

종래기술의 문제점에 대해 다시 한 번 설명하면 다음과 같다.The problem of the prior art will be described once again.

실제 네트워크 상에서 패킷손실은 연이어서 발생하는 경우가 빈번하다. 따라서, 음성신호의 손실보상은 비교적 긴 구간의 패킷손실에 대해서도 좋은(robust) 결과를 제공해야 한다. 하지만, 음성 신호가 변하는 구간(transition)ㅣ나 한 음소정보 전부가 손실될 정도의 손실에 대해서는 앞 프레임 정보만을 이용한 손실보상은 한계가 있는 것이 사실이다. On a real network, packet loss often occurs consecutively. Therefore, the loss compensation of the speech signal should provide a robust result even for packet loss in a relatively long period. However, it is true that the loss compensation using only the previous frame information is limited in terms of the transition | transition of the audio signal or the loss to which all one phoneme information is lost.

예를 들어 설명하자면, 무리하게 피치정보를 반복함으로 해서 부자연스러운 인공결과물(artifact)이 발생하게 된다는 것이다. 이런 현상은 오디오 전송에 있어서 음성신호가 올바르게 손실이 보상되는 것이라 말할 수 없다. 물론, 'ITU-T' 권고안이나 종래 특허 출원된 "패킷 손실 또는 프레임 삭제 은폐를 실행하는 방법 및 장치(대한민국 출원번호 : 10-2000-7014272)"에도 이를 방지하기 위해 생성된 신호를 서서히 줄이는 방식을 제시하고 있다. 그러나, 이는 상기한 것처럼 비교적 긴구 간의 패킷손실을 보상하기에는 충분치 않다는 문제점이 있었다.
For example, by unduly repeating pitch information, unnatural artifacts are generated. This phenomenon cannot be said that the audio signal is compensated for loss in audio transmission correctly. Of course, the 'ITU-T' recommendation or the conventional patent application "Method and apparatus for performing packet loss or frame erasure concealment (Korean Application No. 10-2000-7014272)" also gradually reduces the generated signal to prevent this. Presenting. However, this has a problem that it is not enough to compensate for packet loss of a relatively long period as described above.

본 발명은, 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로, VoIP와 같은 방식을 이용하는 오디오 전송 시스템에서의 패킷손실을 손실 전/후의 피치정보와 스펙트럼 거리를 이용하여 양쪽의 음소를 비교하여 손실구간을 앞/뒤의 음소정보를 활용하여 보다 자연스러운 합성 음성신호를 제공하도록 하는 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법을 제공하는데 그 목적이 있다. The present invention has been made to solve the above problems, and the packet loss in the audio transmission system using a method such as VoIP is lost by comparing both phonemes using the pitch information before and after the loss and the spectral distance. It is an object of the present invention to provide a packet loss concealment method using pre / post loss packet information to provide a more natural synthesized speech signal using front / back phoneme information.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법은, 오디오 전송 시스템에 적용되는 패킷손실 은닉 방법에 있어서, 수신된 음성 패킷의 손실을 확인하고 상기 손실 전/후의 패킷을 비교하여 상기 손실 전/후의 패킷이 서로 상이한 음소인지를 판단하는 제 1 단계; 상기 제 1 단계의 판단 결과, 상기 손실 전/후의 패킷이 서로 동일한 음소라고 판단되면, 상기 손실 전 패킷의 음성정보를 이용하여 손실구간을 보상함으로써 수신된 상기 음성 패킷의 손실을 은닉하는 제 2 단계; 및 상기 제 1 단계의 판단 결과, 상기 손실 전/후의 패킷이 서로 상이한 음소라고 판단되면, 상기 손실 전 패킷의 음성정보 및 상기 손실 후 패킷의 음성정보를 이용하여 상기 손실구간을 보상함으로써 수신된 상기 음성 패킷의 손실을 은닉하는 제 3 단계를 포함한다.In the packet loss concealment method using before and after loss packet information according to an embodiment of the present invention for achieving the above object, in the packet loss concealment method applied to an audio transmission system, Comparing the packets before and after the loss to determine whether the packets before and after the loss are different phonemes; A second step of concealing the loss of the received voice packet by compensating for the loss interval by using the voice information of the pre-loss packet as a result of the determination of the first step as the same phoneme before and after the loss; ; And if it is determined that the packets before and after the loss are different phonemes from the first step, the loss period received by compensating the loss section using the voice information of the pre-loss packet and the voice information of the post-loss packet. And a third step of concealing the loss of the voice packet.

삭제delete

본 발명은, VoIP의 음성품질을 개선하기 위하여 음성패킷 손실 구간에 대해서 손실 전/후의 음소의 피치정보와 스펙트럼 거리를 비교하여 동일음소 여부를 확인하고 이에 따라서 패킷손실 전의 음소정보만을 이용하여 손실구간을 보상하거나 손실이후 음소정보를 추가로 이용하여 손실구간을 보상하게 되는 것이다. 여기서, 손실구간의 보상은 사라진 데이터를 대신할 수 있는 합성음성신호를 만들어 낸다는 것이다.In order to improve the voice quality of VoIP, the present invention compares the pitch information and the spectral distance of the phoneme before and after the loss of the voice packet loss interval, and confirms whether the same phoneme is used. To compensate for this loss or to use additional phoneme information after loss to compensate for the loss. Here, the compensation of the loss section is to produce a synthesized speech signal to replace the missing data.

상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다. The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.                     

도 1 은 본 발명이 적용되는 오디오 전송 시스템의 구성예시도이다.1 is an exemplary configuration diagram of an audio transmission system to which the present invention is applied.

본 발명이 적용되는 오디오 전송 시스템은 도면에 도시된 것처럼 인코더(110), 손실 프레임 검출기(115), 디코더(120) 및 패킷손실 은닉 모듈(130)을 포함한다.The audio transmission system to which the present invention is applied includes an encoder 110, a lost frame detector 115, a decoder 120, and a packet loss concealment module 130 as shown in the figure.

도 1에서 인코더(110)는 입력 오디오 프레임을 전달받아 코드화된 비트-스트림(bit-stream)을 전송한다. 전송된 비트-스트림은 프레임이 손실되었나 여부를 결정하는 수신측의 손실 프레임 검출기(115)에 전달된다. 손실 프레임 검출기(115)에서 프레임이 손실된 것으로 결정되면 손실 프레임 검출기(115)는 손실 프레임을 재구성하기 위해 패킷손실 은닉 모듈(130)로 이를 통보한다. In FIG. 1, the encoder 110 receives an input audio frame and transmits a coded bit-stream. The transmitted bit-stream is passed to the lost frame detector 115 at the receiving side which determines whether the frame has been lost. If the lost frame detector 115 determines that the frame is lost, the lost frame detector 115 notifies the packet loss concealment module 130 to reconstruct the lost frame.

패킷손실 은닉 모듈(130)에서는 손실 프레임에 대해 주어진 패킷손실 은닉 방식에 따라 보상하여 온전한 오디오 프레임이 디코더(120)를 통해 출력될 수 있도록 한다.The packet loss concealment module 130 compensates for the lost frame according to a given packet loss concealment scheme so that an intact audio frame can be output through the decoder 120.

상기한 바와 같은 오디오 전송 시스템은 본 발명이 적용되는 시스템의 일예가 될 수 있다.The audio transmission system as described above may be an example of a system to which the present invention is applied.

본 발명에 따른 패킷손실 은닉 방법은 손실이전 패킷과 손실이후 패킷에서 피치검출을 실시하고 피치가 검출되면 유성음, 그렇지 않으면 무성음으로 구분한다. 양쪽 다 무성음이나 유성음으로 같을 경우에는 두 패킷의 음성신호간의 스펙트럼 거리를 계산한다. 만일 스펙트럼 거리가 이웃한 스펙트럼 거리와 비교하여 상대적으로 차이가 많이 나면 서로 상이한 음소로 판단하고, 그렇지 않다면 동일한 음소라고 판단한다. In the packet loss concealment method according to the present invention, pitch detection is performed on the packet before the loss and the packet after the loss, and when the pitch is detected, the packet loss concealment is divided into voiced sound and voiceless sound. If both voiced or voiced sounds are equal, the spectral distance between the voice signals of the two packets is calculated. If the spectral distance is relatively different from the neighboring spectral distance, it is determined to be different phonemes from each other, otherwise it is determined to be the same phoneme.                     

손실구간 양단의 음소가 동일하다면 앞의 패킷의 음소정보를 이용하여 손실구간 전부를 보상하고, 그렇지 않다면 손실구간의 2/3를 앞의 음소정보로 보상하고 나머지 1/3 부분을 뒤 패킷의 음소정보로 보상한다. 이때, 음소가 유성음인 경우에는 피치구간 음성정보를 반복해주고, 무성음인 경우에는 패킷의 음성정보를 전부 사용한다. 여기서, 유성음인 경우에 수행되는 피치구간 음성정보의 반복은 도 2를 통해 간략히 제시된다.If the phonemes at both ends of the loss section are the same, the phoneme information of the previous packet is used to compensate for the entire loss section. Otherwise, two-thirds of the loss section is compensated with the previous phoneme information, and the remaining 1/3 is called the Reward with information In this case, when the phoneme is a voiced sound, the pitch section voice information is repeated, and in the case of the unvoiced sound, all voice information of the packet is used. Here, the repetition of the pitch section speech information performed in the case of voiced sound is briefly shown through FIG. 2.

손실구간을 앞/뒤의 음성정보로 보상하게 되면 손실구간 끝 부분이나 중간에서 불연속적인 부분이 나타난다. 이 부분은 하기에 설명하는 도 3에 도시된 것처럼 중복구간 D(5msec) 만큼을 추가적으로 보상음성신호를 만들어 삼각 창을 이용한 오버랩 가산(OLA : Overlap Add)을 적용함으로써 불연속성을 줄일 수 있다.When the loss section is compensated with the front / rear voice information, a discontinuous part appears at the end or the middle of the loss section. This part can reduce the discontinuity by applying an overlap addition (OLA: Overlap Add) using a triangular window by additionally compensating for the overlapping section D (5 msec) as shown in FIG.

손실구간이 길어짐에 따라 동일한 음성신호를 길게 반복하여 보상해 주면 재생되는 합성음이 부자연스러워지게 된다. 이때는 하기에 설명하는 도 4에서처럼 손실구간 2/3 구간의 음성신호 크기를 10 msec 당 20%씩 감소하도록 조절하고, 나머지 1/3 부분을 뒤프레임 음성신호의 크기와 맞도록 다시 서서히 증가시킨다. 만일 손실구간 앞뒤가 동일 음소인 경우에는 앞/뒤 음성정보의 피크점을 고려해 보상음성신호의 크기를 선형적으로 조정한다.As the duration of the loss becomes longer, the synthesized sound to be reproduced becomes unnatural if the same voice signal is repeatedly compensated for a long time. In this case, as illustrated in FIG. 4, the control unit adjusts the size of the voice signal in the loss section 2/3 by 20% per 10 msec, and gradually increases the remaining 1/3 to match the size of the back frame voice signal. If the front and rear of the loss section are the same phoneme, the amplitude of the compensated voice signal is linearly adjusted in consideration of the peak points of the front and rear voice information.

도 2 는 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 있어서 패킷손실구간 보상에 대한 일예시도이다.2 is an exemplary view of packet loss interval compensation in a packet loss concealment method using before and after loss packet information according to the present invention.

도 2에서는 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법이 가지는 특징을 도면을 통해 나타내고 있다. 즉, 패킷손실구간에 대해 손실구 간 전의 피치구간 음성정보와 손실구간 후의 피치구간 음성정보를 손실구간에 적용하고 있음을 도시하고 있다. 또한, 손실구간 전/후의 패킷이 만나는 불연속면에 대해 이를 줄이기 위해 OLA를 적용함을 나타내고 있다.2 shows the characteristics of a packet loss concealment method using before and after loss packet information according to the present invention. That is, it shows that the pitch section speech information before the loss section and the pitch section speech information after the loss section are applied to the loss section for the packet loss section. In addition, it indicates that the OLA is applied to reduce the discontinuity between the packets before and after the loss section.

도 3 은 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 있어서 불연속성을 줄이기 위한 OLA의 일예시도이다.3 is an exemplary diagram of an OLA for reducing discontinuity in a packet loss concealment method using before and after loss packet information according to the present invention.

본 발명에 따라 손실구간 합성음성을 보상하는데 있어서 손실전/후의 음성정보를 이용함으로 해서 발생하는 경계부분의 불연속성을 줄이기 위한 OLA를 나타내고 있다. 이때, 도 3에 도시된 것처럼 삼각창(triangular window) 형태로 OLA가 이루어진다.According to the present invention, the OLA for reducing the discontinuity of the boundary portion generated by using the voice information before and after loss in compensating the loss interval synthesized voice is shown. At this time, the OLA is made in the form of a triangular window as shown in FIG. 3.

도 4 는 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 있어서 손실구간 합성음성의 크기조절에 대한 일예시도이다.4 is an exemplary view illustrating the control of the size of the loss interval synthesized voice in a packet loss concealment method using before and after loss packet information according to the present invention.

도 4에서는 상기한 것처럼 손실구간이 긴 경우에는 부자연스러워질 수 있으므로 크기를 조절하게 된다. 도 4에서 보여지는 방식은 손실 전/후가 다른 음소일 경우이며, 동일 음소일 경우에는 상기한 것처럼 전/후 음성정보의 피크점을 고려해 보상음성신호의 크기를 선형적으로 조정하게 된다.In FIG. 4, since the loss interval is long as described above, the size may be unnatural. The method shown in FIG. 4 is a case where different phonemes are before and after loss, and when the same phonemes are used, the compensation voice signal is linearly adjusted in consideration of peak points of the voice information before and after.

도 5 는 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 대한 일실시예 설명도이다.5 is a diagram illustrating an embodiment of a packet loss concealment method using before and after loss packet information according to the present invention.

검출된 음성 패킷과 음성 패킷 사이에 패킷손실구간이 발생하면 피치검출을 수행하고 고속푸리에변환(FFT : Fast Fourier Transform)을 통한 스펙트럼 거리 계산 결과를 기본적인 이웃한 패킷간의 스펙트럼거리와 비교하여 손실구간을 보상한 다. 또한, 손실구간의 길이에 맞게 음성파형의 크기를 조정한다. If a packet loss interval occurs between the detected speech packet and the speech packet, pitch detection is performed and the loss interval is measured by comparing the spectral distance calculation result through Fast Fourier Transform (FFT) with the spectral distance between basic neighboring packets. Compensate. Also, adjust the size of the speech waveform to fit the length of the loss section.

도 6a 및 도 6b 는 본 발명에 따른 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법에 따른 일실시예 흐름도이다.6A and 6B are flowcharts illustrating an embodiment of a packet loss concealment method using before and after loss packet information according to the present invention.

VoIP 전송 상에서 패킷 손실이 발생하였음을 수신측에서 확인한다(601). The receiver confirms that packet loss has occurred on the VoIP transmission (601).

패킷 손실을 은닉하기 위해서 수신측에서 우선 손실이전 패킷과 손실이후 패킷에서 피치검출을 실시한다(602). 피치검출 결과, 피치가 검출되면 유성음 그렇지 않으면 무성음으로 판별한다.To conceal packet loss, the receiving side first performs pitch detection on the packet before loss and the packet after loss (602). As a result of pitch detection, if a pitch is detected, it is discriminated as a voiced sound or an unvoiced sound.

다음으로, 손실 전/후의 패킷이 모두 유성음이나 무성음으로 같은지를 확인한다(603). 확인 결과, 손실 전/후의 패킷이 모두 유성음 또는 무성음으로 같은 경우에는 두 패킷의 음성신호간의 스펙트럼 거리를 계산하여 파악한다(604). 그리고, 파악된 스펙트럼 거리가 이웃한 패킷간의 스펙트럼 거리와 비교하여 차이가 많이 나는지를 점검한다(605).Next, it is checked whether the packets before and after the loss are the same with voiced or unvoiced sounds (603). As a result, if the packets before and after the loss are the same as the voiced or unvoiced sound, the spectral distance between the voice signals of the two packets is calculated and identified (604). In operation 605, it is checked whether the identified spectral distance is different from the spectral distance between neighboring packets.

점검 결과, 차이가 많이 나지 않으면, 동일한 음소로 판단하고(606), 손실 전 패킷으로 패킷 손실구간 전부를 보상한다(607).As a result of the check, if there is not much difference, it is determined as the same phoneme (606), and the entire packet loss section is compensated with the packet before loss (607).

점검 결과, 상대적으로 차이가 많이 나면 손실 전/후 패킷이 서로 상이한 음소로 판단한다(608). 또한, 손실 전/후의 패킷이 모두 유성음이나 무성음으로 같은가를 확인한 결과, 하나는 유성음, 다른 하나는 무성음으로 다른 경우에도 서로 상이한 음소로 판단한다(608).As a result of the check, if the differences are relatively large, the packets before and after the loss are determined to be different phonemes (608). In addition, as a result of confirming whether the packets before and after the loss are the same as the voiced sound or the unvoiced sound, one is voiced sound and the other is unvoiced sound.

손실 전/후의 패킷이 서로 상이한 음소로 판단된 경우에는, 판단 후에 손실구간의 2/3를 손실 전 패킷의 음소로 하고 나머지 1/3을 손실 후 패킷의 음소로 하 여 보상을 한다(609).If the packets before and after the loss are judged to be different phonemes, two thirds of the loss intervals are determined to be phonemes before the loss, and the third third is the phonemes after the loss. .

손실구간의 패킷의 보상에 있어서 음소가 유성음인 경우에는 도 1처럼 피치구간 음성정보를 반복해주고 무성음인 경우에는 패킷의 음성정보를 전부 사용한다.When the phoneme is voiced in the compensation of the lost section, the pitch section voice information is repeated as shown in FIG. 1, and in the case of the unvoiced sound, all voice information of the packet is used.

다음으로, 손실구간 보상에 따라 불연속적인 부분이 발생하였는지를 조사한다(610). 조사 결과, 불연속적인 면이 발생하였으면 해당하는 중복구간(도 3의 D)만큼을 추가적으로 보상음성신호를 만들어 삼각 창을 이용한 OLA를 적용하여 불연속성을 줄여준다(611). 즉, 손실구간 전/후가 서로 상이한 음소라 여겨지면 전/후의 음성정보로 보상한 중간부분에서 불연속면이 발생할 수 있으며, 손실구간 전/후가 동일하다고 여겨지는 경우에는 손실 전 패킷정보를 이용하여 손실구간을 보상함으로 손실구간 끝 부분에 불연속면이 발생할 수 있으며, 이렇게 불연속면이 발생할 때 OLA를 적용하게 된다. Next, it is examined whether discontinuous portions have occurred according to the loss interval compensation (610). As a result, if a discontinuous surface is generated, an additional compensating voice signal is made for the corresponding overlapping section (D of FIG. 3), and the discontinuity is reduced by applying an OLA using a triangular window (611). In other words, if the phoneme before and after the loss section is considered to be different phonemes, discontinuities may occur in the middle part compensated by the voice information before and after the loss section. By compensating for the loss section, discontinuities can occur at the end of the loss section, and OLA is applied when such discontinuities occur.

손실구간 보상에 따른 불연속적인 면이 발생하지 않았거나 불연속적인 면이 발생한 부분에 대해 OLA를 적용한 후에, 손실구간이 기준값보다 긴가를 검사한다(612). 손실구간이 길어지면 질수록 동이한 음성신호를 길게 반복하게 되므로 재생되는 합성음이 부자연스러워지게 된다. 따라서, 손실구간이 주어진 기준값보다 긴지를 검사하여, 주어진 기준값보다 손실구간이 길면 보상되는 손실구간의 음성신호에 대해 크기를 선형적으로 조정한다(613). 즉, 손실구간 전/후가 서로 상이한 음소인 경우에는 손실구간 2/3 구간의 음성신호 크기를 10msec당 20% 씩 감소하도록 조절하고 나머지 1/3 부분을 뒤프레임 음성신호의 크기와 맞도록 다시 서서히 증가시키며, 서로 동일한 음소로 판단된 겨우에는 전/후 음성정보의 피크점을 고려해 보상음성신호의 크기를 선형적으로 조절한다. After applying the OLA to the portion where the discontinuous face does not occur or the discontinuous face caused by the loss interval compensation, it is checked whether the loss interval is longer than the reference value (612). The longer the loss interval is, the longer the repeated audio signal is, so that the synthesized sound is unnatural. Therefore, by checking whether the loss section is longer than the given reference value, if the loss section is longer than the given reference value, the amplitude is linearly adjusted for the speech signal of the loss section to be compensated (613). That is, if the phoneme before and after the loss section is different from each other, adjust the audio signal size of 2/3 section of the loss section by 20% per 10msec, and adjust the remaining 1/3 to match the size of the back frame audio signal. If it is determined that the phonemes are gradually increased, the magnitude of the compensation voice signal is linearly adjusted in consideration of the peak points of the front and rear voice information.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.The method of the present invention as described above may be implemented as a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.).

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and various substitutions, modifications, and changes are possible in the art without departing from the technical spirit of the present invention. It will be clear to those of ordinary knowledge.

상기한 바와 같은 본 발명은, VoIP상에서의 패킷손실을 손실 전/후의 피치정보와 스펙트럼 거리를 이용하여 양쪽의 음소를 비교하여 손실구간을 앞/뒤의 음소정보로 보상하여 줌으로써 단일 패킷손실 뿐만 아니라 연속적인 패킷손실에 의한 상대적으로 긴 손실구간에 대해서 보다 자연스러운 합성 음성신호로 보상해 줄 수 있는 효과가 있다.As described above, the present invention compares the two phonemes using the pitch information before and after the loss and the spectral distance, and compensates the loss section with the phoneme information before and after the loss. There is an effect that the natural speech signal can be compensated for a relatively long loss period due to continuous packet loss.

Claims (8)

오디오 전송 시스템에 적용되는 패킷손실 은닉 방법에 있어서,In the packet loss concealment method applied to an audio transmission system, 수신된 음성 패킷의 손실을 확인하고 상기 손실 전/후의 패킷을 비교하여 상기 손실 전/후의 패킷이 서로 상이한 음소인지를 판단하는 제 1 단계;Confirming a loss of a received voice packet and comparing the packets before and after the loss to determine whether the packets before and after the loss are different phonemes; 상기 제 1 단계의 판단 결과, 상기 손실 전/후의 패킷이 서로 동일한 음소라고 판단되면, 상기 손실 전 패킷의 음성정보를 이용하여 손실구간을 보상함으로써 수신된 상기 음성 패킷의 손실을 은닉하는 제 2 단계; 및A second step of concealing the loss of the received voice packet by compensating for the loss interval by using the voice information of the pre-loss packet as a result of the determination of the first step as the same phoneme before and after the loss; ; And 상기 제 1 단계의 판단 결과, 상기 손실 전/후의 패킷이 서로 상이한 음소라고 판단되면, 상기 손실 전 패킷의 음성정보 및 상기 손실 후 패킷의 음성정보를 이용하여 상기 손실구간을 보상함으로써 수신된 상기 음성 패킷의 손실을 은닉하는 제 3 단계를 포함하는, 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법.As a result of the determination in the first step, when it is determined that the packets before and after the loss are different phonemes, the voice received by compensating the loss section using the voice information of the pre-loss packet and the voice information of the post-loss packet. And a third step of concealing the loss of the packet. 제 1 항에 있어서,The method of claim 1, 상기 손실구간의 보상으로 상기 손실구간에서 발생하는 불연속적인 부분에 대해 오버랩 가산(OLA: OverLap Add)을 적용하여 불연속성을 감소시키는 제 4 단계를 더 포함하는, 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법.And a fourth step of reducing discontinuity by applying an overlap addition (OLA: OverLap Add) to the discontinuity generated in the loss section as compensation for the loss section. Concealment method. 제 1 항에 있어서,The method of claim 1, 상기 제 1 단계는,The first step is, 상기 오디오 전송 시스템이 수신된 상기 음성 패킷에 대해 패킷손실을 확인하는 제 5 단계;A fifth step of the audio transmission system confirming a packet loss with respect to the received voice packet; 상기 손실 전/후 패킷에 대해 피치 검출 여부를 통해 상기 손실 전/후의 패킷이 서로 상이한 음소인지를 판단하는 제 6 단계; 및A sixth step of determining whether packets before and after the loss are phonemes different from each other based on whether a pitch is detected for the packets before and after the loss; And 상기 피치 검출 여부의 결과가 동일한 경우에 대해 상기 손실 전/후 패킷의 음성신호간의 스펙트럼 거리를 구하여 이웃한 패킷간의 스펙트럼 거리와 차이가 있는지를 통해 상기 손실 전/후의 패킷이 서로 상이한 음소인지를 판단하는 제 7 단계를 포함하는, 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법.In the case where the result of the pitch detection is the same, the spectral distance between the voice signals of the packets before and after the loss is obtained, and whether the packets before and after the loss are different phonemes is determined by whether there is a difference between the spectral distances between neighboring packets. And a seventh step, wherein the packet loss concealment method using pre / post loss packet information. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 손실구간이 기설정된 기준값보다 긴 경우, 보상된 상기 손실구간의 음성신호의 크기를 선형적으로 조정하는 제 8 단계를 더 포함하는, 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법.And an eighth step of linearly adjusting a magnitude of a speech signal compensated for the loss interval when the loss interval is longer than a predetermined reference value. 제 4 항에 있어서,The method of claim 4, wherein 상기 제 8 단계는,The eighth step, 상기 제2단계에서 상기 손실구간을 보상한 경우, 상기 손실 전/후 패킷의 음성정보의 피크점을 고려하여, 보상된 상기 손실구간의 음성신호의 크기를 선형적으로 조절하는 제 9 단계; 및A ninth step of linearly adjusting a magnitude of a speech signal of the compensated loss section in consideration of the peak point of the speech information of the before and after loss packet when the loss section is compensated in the second step; And 상기 제3단계에서 상기 손실구간을 보상한 경우, 상기 손실 전 패킷의 음성정보를 이용하여 보상된 구간의 음성신호의 크기는 선형적으로 감소하도록 조절하고, 상기 손실 후 패킷의 음성정보를 이용하여 보상된 구간의 음성신호의 크기는 상기 손실 후 패킷의 음성신호의 크기까지 선형적으로 증가하도록 조절하는 제 10 단계를 포함하는, 손실 전/후 패킷정보를 이용한 패킷손실 은닉 방법.When the loss period is compensated in the third step, the size of the voice signal of the compensated period is linearly reduced by using the voice information of the pre-loss packet, and the voice information of the packet after the loss is adjusted. And a tenth step of adjusting the size of the compensated audio signal to linearly increase the size of the audio signal of the packet after the loss. 삭제delete 삭제delete 삭제delete
KR1020030024438A 2003-04-17 2003-04-17 Method for concealing Packet Loss using Information of Packets before and after Packet Loss KR100954668B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030024438A KR100954668B1 (en) 2003-04-17 2003-04-17 Method for concealing Packet Loss using Information of Packets before and after Packet Loss

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030024438A KR100954668B1 (en) 2003-04-17 2003-04-17 Method for concealing Packet Loss using Information of Packets before and after Packet Loss

Publications (2)

Publication Number Publication Date
KR20040090567A KR20040090567A (en) 2004-10-26
KR100954668B1 true KR100954668B1 (en) 2010-04-27

Family

ID=37371598

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030024438A KR100954668B1 (en) 2003-04-17 2003-04-17 Method for concealing Packet Loss using Information of Packets before and after Packet Loss

Country Status (1)

Country Link
KR (1) KR100954668B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100723409B1 (en) 2005-07-27 2007-05-30 삼성전자주식회사 Apparatus and method for concealing frame erasure, and apparatus and method using the same
KR100745683B1 (en) * 2005-11-28 2007-08-02 한국전자통신연구원 Method for packet error concealment using speech characteristic
KR100792209B1 (en) * 2005-12-07 2008-01-08 한국전자통신연구원 Method and apparatus for restoring digital audio packet loss
CN101437009B (en) * 2007-11-15 2011-02-02 华为技术有限公司 Method for hiding loss package and system thereof
FR3001593A1 (en) * 2013-01-31 2014-08-01 France Telecom IMPROVED FRAME LOSS CORRECTION AT SIGNAL DECODING.

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329626A (en) * 1995-03-24 1996-12-13 Sony Corp Device for interpolating digital data, reproducing device, recorder and method of interpolation
KR19990053837A (en) * 1997-12-24 1999-07-15 윤종용 Method and apparatus for error concealment of audio signal
KR20000059416A (en) * 1999-03-03 2000-10-05 구자홍 Apparatus for error correction of audio data
KR20040050810A (en) * 2002-12-09 2004-06-17 한국전자통신연구원 Method for restoring packet loss by using additional speech data and transmitter and receiver using the method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329626A (en) * 1995-03-24 1996-12-13 Sony Corp Device for interpolating digital data, reproducing device, recorder and method of interpolation
KR19990053837A (en) * 1997-12-24 1999-07-15 윤종용 Method and apparatus for error concealment of audio signal
KR20000059416A (en) * 1999-03-03 2000-10-05 구자홍 Apparatus for error correction of audio data
KR20040050810A (en) * 2002-12-09 2004-06-17 한국전자통신연구원 Method for restoring packet loss by using additional speech data and transmitter and receiver using the method

Also Published As

Publication number Publication date
KR20040090567A (en) 2004-10-26

Similar Documents

Publication Publication Date Title
US6810377B1 (en) Lost frame recovery techniques for parametric, LPC-based speech coding systems
EP0764940B1 (en) am improved RCELP coder
EP1281174B1 (en) Forward error correction in speech coding
US8185388B2 (en) Apparatus for improving packet loss, frame erasure, or jitter concealment
US8255207B2 (en) Method and device for efficient frame erasure concealment in speech codecs
US9336783B2 (en) Method and apparatus for performing packet loss or frame erasure concealment
KR100615344B1 (en) Method and apparatus for performing packet loss or frame erasure concealment
KR101406742B1 (en) Synthesis of lost blocks of a digital audio signal, with pitch period correction
US8321216B2 (en) Time-warping of audio signals for packet loss concealment avoiding audible artifacts
US20040181405A1 (en) Recovering an erased voice frame with time warping
EP1199709A1 (en) Error Concealment in relation to decoding of encoded acoustic signals
JP5792710B2 (en) Sinusoidal coding
US6873954B1 (en) Method and apparatus in a telecommunications system
JP2004519738A (en) Time scale correction of signals applying techniques specific to the determined signal type
KR20090051760A (en) Packet based echo cancellation and suppression
US20030179757A1 (en) Transmission system for transmitting a multimedia signal
US5864795A (en) System and method for error correction in a correlation-based pitch estimator
US7302385B2 (en) Speech restoration system and method for concealing packet losses
KR100954668B1 (en) Method for concealing Packet Loss using Information of Packets before and after Packet Loss
Morinaga et al. The forward-backward recovery sub-codec (FB-RSC) method: A robust form of packet-loss concealment for use in broadband IP networks
JPH05224698A (en) Method and apparatus for smoothing pitch cycle waveform
Kadaba Artificial Speech Synthesis Using LPC
Ho et al. Improved lost frame recovery techniques for ITU-T G. 723.1 speech coding system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130403

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140404

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160406

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170405

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180403

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 10