KR100902112B1 - Insertion method and transmission method of vector information for voice data estimating in key re-synchronization, and voice data estimating method in key re-synchronization using vector information - Google Patents

Insertion method and transmission method of vector information for voice data estimating in key re-synchronization, and voice data estimating method in key re-synchronization using vector information Download PDF

Info

Publication number
KR100902112B1
KR100902112B1 KR1020070025571A KR20070025571A KR100902112B1 KR 100902112 B1 KR100902112 B1 KR 100902112B1 KR 1020070025571 A KR1020070025571 A KR 1020070025571A KR 20070025571 A KR20070025571 A KR 20070025571A KR 100902112 B1 KR100902112 B1 KR 100902112B1
Authority
KR
South Korea
Prior art keywords
voice data
voice
vector information
key resynchronization
frame
Prior art date
Application number
KR1020070025571A
Other languages
Korean (ko)
Other versions
KR20080043198A (en
Inventor
남택준
안병호
김기홍
정용익
이상이
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to EP07107414A priority Critical patent/EP1921608A1/en
Priority to US11/745,402 priority patent/US20080112565A1/en
Priority to CN2007101039371A priority patent/CN101183528B/en
Priority to JP2007137067A priority patent/JP4564985B2/en
Publication of KR20080043198A publication Critical patent/KR20080043198A/en
Application granted granted Critical
Publication of KR100902112B1 publication Critical patent/KR100902112B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 발명은 단방향 무선 통신 환경에서 암호화된 디지털 음성을 전송할 때 키 재동기 과정에서 발생하는 묵음구간에 대응하는 음성 데이터 값을 예측할 수 있는 벡터 정보를 삽입, 전송하는 방법 및 벡터 정보를 이용한 키 재동기 구간의 음성 데이터 예측 방법에 관한 것으로, 송신측에서는 재동기를 위한 키 재동기 프레임을 만들 때, 사인파를 그리는 음성 특징을 이용해 전송된 이전 프레임의 음성 변화 방향에 대한 누적정보(벡터 정보)를 키 재동기 프레임에 삽입하여 전송하고, 수신측에서는 키 재동기 구간의 음성 데이터 값을 음성 변화 방향에 대한 누적정보(벡터 정보)와 기 수신한 음성 데이터들의 기울기를 이용하여 예측함으로써 원음과의 차이를 최소화하는 효과가 있다.The present invention provides a method for inserting and transmitting vector information for predicting a voice data value corresponding to a silent section generated in a key resynchronization process when transmitting encrypted digital voice in a unidirectional wireless communication environment, and key resynchronization using vector information. The present invention relates to a method for predicting speech data of a section, and when a transmitting side generates a key resynchronization frame for resynchronization, key information is obtained by accumulating the cumulative information (vector information) on the direction of change of speech of a previous frame transmitted by using a sine wave speech feature. Inserted into a sync frame and transmitted, the receiving side predicts the voice data value of the key resynchronization section by using the cumulative information (vector information) for the direction of the voice change and the slope of the received voice data to minimize the difference from the original sound. It works.

단방향 통신, 음성 통신, 암호화, 키 재동기, 늦은 참여, 사인파 음성 특징, 벡터 정보 One-way communication, voice communication, encryption, key resynchronization, late participation, sine wave voice feature, vector information

Description

키 재동기 구간의 음성 데이터를 예측하기 위한 벡터 정보 삽입 방법, 전송 방법 및 벡터 정보를 이용한 키 재동기 구간의 음성 데이터 예측 방법{Insertion method and transmission method of vector information for voice data estimating in key re-synchronization, and voice data estimating method in key re-synchronization using vector information}Insertion method, transmission method for predicting speech data in key resynchronization section, and voice data prediction method in key resynchronization section using vector information {Insertion method and transmission method of vector information for voice data estimating in key re-synchronization , and voice data estimating method in key re-synchronization using vector information}

도 1은 본 발명에 따른 벡터 정보를 이용해 키 재동기 구간의 음성 데이터를 예측하기 위한 장치의 전체 구성을 나타낸 도,1 is a diagram showing the overall configuration of an apparatus for predicting voice data of a key resynchronization interval using vector information according to the present invention;

도 2는 본 발명에 따른 송신측에서의 키 재동기 구간의 음성 데이터를 예측할 수 있도록 벡터 정보를 삽입하여 전송하는 과정을 개략적으로 도시한 흐름도,2 is a flowchart schematically illustrating a process of inserting and transmitting vector information to predict voice data of a key resynchronization section at a transmitting side according to the present invention;

도 3은 본 발명에 따른 수신측에서의 벡터 정보를 추출하여 키 재동기 구간의 음성 데이터를 예측하는 과정을 개략적으로 도시한 흐름도,3 is a flowchart schematically illustrating a process of predicting voice data of a key resynchronization interval by extracting vector information at a receiving side according to the present invention;

도 4는 본 발명에 따른 키 재동기 구간의 음성 데이터를 예측하기 위한 장치에서 키 재동기 구간의 묵음 구간에서의 음성 데이터 값을 벡터 정보를 이용해 예측하는 과정을 개략적으로 도시한 도로서, (a)는 송신측에서 벡터 정보를 구성하여 삽입하는 것을, (b)는 수신측에서 벡터 정보를 추출하여 키 재동기 구간의 묵음 구간에서의 음성 데이터 값을 예측하는 과정을 나타낸 도이다.FIG. 4 is a diagram schematically illustrating a process of predicting a speech data value in a silent section of a key resynchronization section using vector information in the apparatus for predicting speech data of a key resynchronization section according to the present invention. ) Denotes a process of estimating the speech data value in the silent section of the key resynchronization section by extracting the vector information from the transmitting side.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawings>

10. 송신측 11. 입력부10. Sending side 11. Input section

12. 보코더 13. 프레임 구성부12. Vocoder 13. Frame Structure

14. 프레임 전송부14. Frame Transmitter

100. 수신측 101. 프레임 수신부100. Receiving side 101. Frame receiving unit

102. 프레임 분석부 103. 디코더102. Frame analyzer 103. Decoder

104. 출력부104. Output section

본 발명은 단방향 무선 통신 환경에서 암호화된 디지털 음성을 전송할 때 키 재동기 과정에서 발생하는 묵음 구간에 해당하는 음성 데이터를 예측하기 위해 벡터 정보를 삽입 및 전송하는 방법, 벡터 정보를 이용한 키 재동기 구간의 음성 데이터를 예측하는 방법에 관한 것으로, 더욱 상세하게는 급격하게 변하지 않는 사인파를 그리는 음성 특징으로부터 음성 변화 방향 정보를 추출하여 벡터 정보를 구성하고, 이를 키 재동기 프레임에 삽입 및 전송하는 방법, 그리고 벡터 정보를 이용하여 키 재동기 과정에서 발생하는 묵음 구간의 음성 데이터를 예측할 수 있는 방법에 관한 것이다. The present invention provides a method for inserting and transmitting vector information to predict voice data corresponding to a silent section generated during a key resynchronization process when transmitting an encrypted digital voice in a unidirectional wireless communication environment, and a key resynchronizing section using vector information. The present invention relates to a method of predicting speech data, and more particularly, a method of extracting speech change direction information from a speech feature that draws a sine wave that does not change rapidly, constructing vector information, and inserting and transmitting the information into a key resynchronization frame. The present invention relates to a method for predicting speech data of a silent section generated during a key resynchronization process using vector information.

종래의 통신에서는 키 재동기 과정에서 키 데이터를 그대로 음성 데이터로 처리하거나 이전 음성 데이터를 재사용하는 방식으로 키 재동기 구간을 처리하였다. 이러한 방식은 원음과 많은 차이가 발생하여 청자로 하여금 키 재동기 구간에서의 음질 손실 현상을 명확히 인식하게 한다. In the conventional communication, the key resynchronization section is processed by processing the key data as voice data or reusing previous voice data in the key resynchronization process. This method is very different from the original sound so that the listener can clearly recognize the sound quality loss in the key resynchronization period.

특히, 단방향 무선 환경에서는 데이터가 한 방향으로만 전송되기 때문에 데이터의 정상 수신 유무를 확인할 수 없다. 따라서 이러한 환경에서 암호화된 데이터를 전송할 경우, 수신측에서 초기 키 정보를 수신하지 못하면 그 세션 동안의 모든 데이터가 복호화되지 못한다. In particular, in a unidirectional wireless environment, since data is transmitted in only one direction, it is impossible to confirm whether data is normally received. Therefore, when transmitting encrypted data in such an environment, if the receiving side does not receive the initial key information, all data during the session cannot be decrypted.

이러한 늦은 참여문제를 해결하기 위해서 단방향 무선 환경에서의 암호 통신은 주기적으로 키 정보를 전송하는 키 재동기 방식을 사용한다. 이때 키 재동기 방식을 사용하면, 암호 통신에서 주고받는 데이터가 디지털화된 음성일 경우, 재동기 구간만큼 묵음 구간이 발생한다. 이 묵음 구간은 주기적으로 발생하기 때문에 수신측의 통화품질을 저하시킨다. In order to solve this late participation problem, cryptographic communication in a unidirectional wireless environment uses a key resynchronization method that periodically transmits key information. In this case, when the key resynchronization method is used, when the data transmitted and received in the cipher communication is digitized voice, a silent period is generated as much as the resynchronization period. Since this silent section occurs periodically, the call quality of the receiver is degraded.

따라서 본 발명은 단방향 무선 암호 통신에서 키 재동기 구간의 묵음 구간에서의 음성 데이터 값을 예측하는 기술에 관한 것으로, 손실 프레임을 보정하는 기술분야와 관련이 있다. Accordingly, the present invention relates to a technique for predicting a voice data value in a silent section of a key resynchronization section in unidirectional wireless crypto communication, and is related to a technical field of correcting a lost frame.

즉, 햄(HAM)과 같은 단방향 무선 통신에서 음성 데이터 전송시 발생하는 프레임 분실을 처리하는 방법으로 Splicing, Silence Substitution, Noise Substitution, Repetition등을 사용할 수 있다. That is, Splicing, Silence Substitution, Noise Substitution, Repetition, etc. may be used as a method of processing frame loss generated during voice data transmission in unidirectional wireless communication such as HAM.

이 기술들은 단방향 무선통신에서 손실된 음성 프레임의 값을 예측하는 기술들이다. Splicing은 인접한 두 프레임을 중첩시켜서 사용하는 방식으로 손실에 의한 공백은 발생하지 않지만 스트림의 타이밍이 붕괴된다. Silence Substitution은 손실된 구간에 묵음을 첨가시키는 것으로 손실 패킷의 크기가 증가할 경우에 성능이 저하된다. These techniques are techniques for predicting the value of lost speech frames in unidirectional wireless communication. Splicing overlaps two adjacent frames so that no loss of space occurs, but the timing of the stream is disrupted. Silence Substitution adds silence to the lost intervals and degrades performance as the size of the lost packet increases.

Noise Substitution은 음성 신호의 누락된 부문에 잡음이 첨가되면 이를 주변의 신호를 이용해서 복원하려는 인간의 음소 복원 능력을 이용하는 것으로 개인차가 심하다. Repetition은 반복에 의한 방법으로 분실된 구간에 가장 최근에 수신한 음성 신호를 삽입하는 것으로 프레임이 길어지면 음이 늘어지는 현상이 발생한다. Noise Substitution uses the human phoneme restoring ability to reconstruct the missing part of the speech signal when it is added to the surrounding signal. Repetition is a repetition method that inserts the most recently received voice signal into a lost section. As the frame gets longer, the sound is dropped.

이외에 음성 압축 코덱의 상태 정보를 이용해서 분실 구간의 묵음을 복원하는 기술도 존재하지만 코덱마다 서로 다른 상태 정보를 이용하기 때문에 코덱에 전적으로 의존하며 계산량이 많이 증가하는 단점을 가진다.In addition, there is a technique of restoring silence of a lost section using state information of a voice compression codec. However, since different state information is used for each codec, it is completely dependent on the codec and has a disadvantage in that a large amount of calculation is increased.

본 발명의 목적은 단방향 무선 통신 환경에서 키 재동기 구간의 음성 데이터를 예측하기 위해 사인파 음성 특징을 이용하여 벡터 정보를 구성하고, 이를 키 재동기 구간에 삽입하는 방법과 이를 전송하는 방법을 제공하는 것이다.Disclosure of Invention An object of the present invention is to construct a vector information using a sinusoidal speech feature to predict speech data of a key resynchronization section in a unidirectional wireless communication environment, and to provide a method for transmitting the same to the key resynchronization section and transmitting the same. will be.

또한 본 발명의 다른 목적은 단방향 무선 통신 환경에서 음성 변화 방향 정보인 벡터 정보를 이용해 주기적으로 발생하는 키 재동기 구간에서의 묵음 구간에 해당하는 음성 데이터 값을 예측할 수 있는 방법을 제공하는 것이다.Another object of the present invention is to provide a method for predicting a voice data value corresponding to a silent section in a key resynchronization section periodically generated using vector information, which is voice change direction information, in a unidirectional wireless communication environment.

상기와 같은 목적을 이루기 위한 본 발명의 키 재동기 구간의 음성 데이터 예측을 위한 벡터 정보 삽입 방법은, 단방향 무선환경을 이용한 암호화된 디지털 음성 통신의 송신측에서 키 재동기 구간의 음성 손실을 보정하기 위한 벡터 정보를 삽입하는 방법에 있어서, 전송할 프레임이 키 재동기 시점이면, 키 재동기 구간의 음성 데이터를 삭제하는 단계와, 현재 프레임의 음성 데이터에 포함된 기울기와 이전 프레임의 음성 데이터에 포함된 기울기의 차를 구하고, 그 결과인 (+), (-) 정보로 벡터 정보를 구성하는 단계와, 상기 벡터 정보를 상기 음성 데이터를 삭제한 키 재동기 구간에 삽입하는 단계를 포함하여 구성되는 것을 특징으로 한다.The vector information insertion method for the voice data prediction of the key resynchronization section of the present invention for achieving the above object, to correct the voice loss of the key resynchronization section at the transmitting side of the encrypted digital voice communication using a one-way wireless environment In the method of inserting the vector information for the method, if the frame to be transmitted is a key re-synchronization time, deleting the voice data of the key re-synchronization interval, the slope included in the voice data of the current frame and the voice data of the previous frame And calculating the difference of the slope, and constructing the vector information with the resulting (+) and (-) information, and inserting the vector information into the key resynchronization section from which the voice data is deleted. It features.

또한 상기와 같은 목적을 이루기 위한 본 발명의 키 재동기 구간의 음성 데이터 예측을 위한 벡터 정보 전송 방법은, 단방향 무선환경을 이용한 암호화된 디 지털 음성 통신의 송신측에서 키 재동기 구간의 음성 손실을 보정하기 위한 벡터 정보를 전송하는 방법에 있어서, 입력받은 음성을 보코딩(vocoding)하여 음성 데이터로 부호화하는 단계와, 상기 부호화된 음성 데이터가 키 재동기 시점인지 판단하는 단계와, 상기 판단 결과에 따라 음성 변화 방향 정보로 구성된 벡터 정보를 삽입하여 키 재동기 프레임을 생성하고, 음성 데이터로 음성 프레임을 생성하는 단계와, 상기 생성한 키 재동기 프레임과 음성 프레임을 전송하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In addition, the vector information transmission method for the voice data prediction of the key resynchronization interval of the present invention for achieving the above object, the voice loss of the key resynchronization interval at the transmitting side of the encrypted digital voice communication using a one-way wireless environment A method of transmitting vector information for correction, comprising the steps of: vocoding the received speech and encoding the received speech into speech data; determining whether the encoded speech data is a key resynchronization time; And generating a key resynchronization frame by inserting vector information including voice change direction information, generating a voice resynchronization frame using voice data, and transmitting the generated key resynchronization frame and voice frame. It features.

또한 상기와 같은 목적을 이루기 위한 본 발명의 벡터 정보를 이용한 키 재동기 구간의 음성 데이터 예측 방법은, 단방향 무선환경을 이용한 암호화된 디지털 음성 통신의 수신측에서 벡터 정보를 이용한 키 재동기 구간의 음성 데이터를 예측하는 방법에 있어서, 수신되는 프레임의 헤더를 분석하여 상기 프레임의 종류를 분석하는 단계와, 상기 분석 결과, 키 재동기 프레임 구간이면, 전송되는 상기 키 재동기 프레임으로부터 키 재동기 정보와 벡터 정보를 추출하는 단계와, 상기 추출된 키 재동기 정보를 이용해서 키 재동기를 수행하고, 상기 벡터 정보와 기 수신된 프레임의 음성 데이터의 기울기를 구하여 비교하는 단계와, 상기 벡터 정보로부터 분석한 음성 변화 방향 정보와 상기 기울기가 같은 방향이면 상기 기울기 선상에서 음성 데이터 값을 추출하고, 그렇지 않으면 상기 기울기와 대칭이 되는 선상에서 음성 데이터 값을 추출하는 단계와, 상기 추출된 음성 데이터 값으로 상기 키 재동기 구간의 음성 데이터를 예측한 후 디코딩을 통해 음성화하는 단계를 포함하여 이 루어지는 것을 특징으로 한다.In addition, the voice data prediction method of the key resynchronization section using the vector information of the present invention for achieving the above object, the voice of the key resynchronization section using the vector information at the receiving side of the encrypted digital voice communication using a unidirectional wireless environment A method of predicting data, the method comprising: analyzing a header of a received frame to analyze the type of the frame; and if the analysis result indicates that a key resynchronization frame is performed, key resynchronization information is transmitted from the transmitted key resynchronization frame. Extracting vector information, performing key resynchronization by using the extracted key resynchronization information, obtaining and comparing a slope of the speech information of the received frame with the vector information, and analyzing the information from the vector information; If the voice change direction information and the slope are in the same direction, the voice data value is changed on the slope line. Extracting a speech data value on a line that is otherwise symmetrical with the slope, and predicting the speech data of the key resynchronization interval using the extracted speech data value, and then speeching through decoding. It is characterized by that.

이하, 본 발명에 따른 벡터 정보를 이용한 키 재동기 구간의 음성 데이터 예측 장치에 대하여 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, an apparatus for predicting voice data of a key resynchronization section using vector information according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 벡터 정보를 이용한 키 재동기 구간의 음성 데이터 예측 장치의 전체 구성도로서, 본 발명에 따른 키 재동기 구간의 음성 데이터 예측 장치는 송신측(10)과 수신측(100)으로 구성된다.1 is an overall configuration diagram of an apparatus for predicting voice data of a key resynchronization section using vector information according to the present invention. The apparatus for predicting speech data of a key resynchronization section according to the present invention includes a transmitting side 10 and a receiving side 100. It is composed of

송신측(10)은 마이크와 같이 음성을 입력받는 입력부(11), 입력된 음성을 보코딩하여 부호화하는 보코더(12), 부호화된 음성 데이터에 대해 키 재동기 구간을 판단하여 키 재동기 프레임 및 음성 프레임을 구성하는 프레임 구성부(13) 및 구성된 프레임을 전송하는 프레임 전송부(14)를 포함하여 구성된다.The transmitter 10 determines the key resynchronization frame by determining the key resynchronization interval with respect to the input unit 11 receiving a voice, such as a microphone, a vocoder 12 for vocoding and encoding the input voice, and the encoded voice data. And a frame transmitter 13 for constituting the voice frame and a frame transmitter 14 for transmitting the configured frame.

프레임 구성부(13)는 현재 음성 데이터에 포함된 기울기와 이전 음성 데이터에 포함된 기울기의 차를 구해서 그 결과인 음성 변화 방향(+, -) 정보를 계속 누적하여 저장한다. The frame configuration unit 13 obtains the difference between the slope included in the current voice data and the slope included in the previous voice data, and continuously accumulates and stores the resulting voice change direction (+,-) information.

그리고 키 재동기 정보를 전송하기 위한 키 재동기 프레임을 생성할 때, 키재동기 구간의 음성 데이터를 삭제하고, 누적된 음성 변화 방향(+, -) 정보로 벡터 정보를 구성한 후, 키 재동기 정보와 함께 키 재동기 구간에 삽입한다. 그런 다음, 생성된 키 재동기 프레임을 수신측(100)에 전송한다. 또한, 음성 프레임을 전송할 때도 벡터 정보를 삽입하여 전송한다.When generating the key resynchronization frame for transmitting the key resynchronization information, the voice data of the key resynchronization section is deleted, the vector information is composed of accumulated voice change direction (+,-) information, and then the key resynchronization information is generated. And insert it into the key resynchronization section. Then, the generated key resynchronization frame is transmitted to the receiving side (100). Also, when transmitting a voice frame, vector information is inserted and transmitted.

즉, 프레임 구성부(13)는 음성 데이터의 음성 변화 방향(+, -) 정보를 누적하여 저장하고 있다가 음성 프레임을 전송하게 되면, 전송할 음성 데이터에 대해 키 재동기 시점인지를 판단하고, 키 재동기 시점이면 저장된 음성 변화 방향(+, -) 정보로 벡터 정보를 구성한 후 키 재동기 구간에 삽입하여 키 재동기 프레임을 생성한다. 여기서, 벡터 정보를 키 재동기 구간에 삽입한다는 것은, 미리 정의된 프레임 구조에서 키 재동기 구간이 배치되는 위치의 일정 영역에 벡터 정보를 배치시키는 것을 의미한다.That is, when the frame configuration unit 13 accumulates and stores the voice change direction (+,-) information of the voice data and transmits the voice frame, the frame configuration unit 13 determines whether the key is resynchronized with respect to the voice data to be transmitted, At the time of resynchronization, the vector information is composed of the stored voice change direction (+,-) information and inserted into the key resynchronization section to generate a key resynchronization frame. Here, inserting the vector information into the key resynchronization section means distributing the vector information in a predetermined region at a position where the key resynchronization section is arranged in the predefined frame structure.

그러나 키 재동기 시점이 아니면, 전송할 음성 데이터에 대해 음성 프레임을 구성하고, 벡터 정보를 삽입한다.However, if the key is not resynchronized, a voice frame is formed for the voice data to be transmitted, and vector information is inserted.

여기서, 벡터 정보는 (+)와 (-)의 방향만을 구별하여 구성되면 된다. 예를 들면, (+)는 1, (-)는 0으로 맵핑하여 구성하는 것도 가능하다. 그러므로 본 발명의 벡터 구성은 (+), (-)을 구별하기 위한 여러 방법이 이용될 수 있다. Here, the vector information may be configured to distinguish only the directions of (+) and (-). For example, (+) can be configured by mapping to 1 and (-) to 0. Therefore, in the vector construction of the present invention, various methods for distinguishing (+) and (-) may be used.

한편, 수신측(100)은 송신측(10)에서 전송되는 프레임들을 수신하는 수신부(101), 수신한 프레임의 키 재동기 정보의 유무를 판단하여 프레임의 종류를 분석하고, 분석결과, 키 재동기 프레임이면, 벡터 정보를 추출하여 키 재동기 구간의 묵음 구간에 해당하는 음성 데이터 값을 예측하는 프레임 분석부(102), 음성 데이 터를 디코딩하여 음성화하는 디코더(103) 및 음성화된 음성을 출력하는 출력부(104)를 포함하여 구성된다.Meanwhile, the receiver 100 analyzes the type of the frame by determining whether the receiver 101 receiving the frames transmitted from the transmitter 10 receives key resynchronization information of the received frame, and analyzes the type of the frame. If it is a synchronous frame, the frame analyzer 102 for extracting vector information to predict a speech data value corresponding to the silent section of the key resynchronization section, the decoder 103 for decoding the speech data, and outputting the speeched speech. It is configured to include an output unit 104.

프레임 분석부(102)는 수신한 프레임의 헤더를 분석하여 키 재동기 정보의 유무를 판단한다. 헤더에 키 재동기 정보가 있으면 키 재동기 프레임으로 판단하고, 삽입된 벡터 정보를 추출한다. The frame analyzer 102 analyzes the header of the received frame to determine the presence of key resynchronization information. If there is key resynchronization information in the header, it is determined as a key resynchronization frame, and the inserted vector information is extracted.

그런 다음, 프레임 분석부(102)는 최근에 수신한 이전 프레임으로부터 음성 데이터들의 기울기를 구하고, 구한 음성데이터들의 기울기와 추출한 음성 데이터의 벡터 정보를 이용하여 키 재동기 구간에서의 음성 데이터 값을 계산한다.Then, the frame analyzer 102 obtains the slope of the voice data from the recently received previous frame, and calculates the voice data value in the key resynchronization section by using the obtained slope and the vector information of the extracted voice data. do.

즉, 추출한 음성 데이터의 벡터 정보가 (+)이면 구한 음성 데이터의 기울기에서 키 재동기 구간의 음성 데이터 값을 취하고, (-)이면 구한 음성 데이터의 기울기와 대칭이 되는 기울기를 구하고, 이 대칭이 되는 기울기 선상에서 키 재동기 구간의 음성 데이터 값을 취한다. That is, if the extracted vector information of the voice data is (+), the voice data value of the key resynchronization section is taken from the obtained slope of the voice data, and if (-), the slope that is symmetrical with the slope of the obtained voice data is obtained. The voice data value of the key resynchronization section is taken on the slope line.

도 2는 본 발명에 따른 송신측(10)에서의 키 재동기 구간의 묵음 구간에 해당하는 음성 데이터를 예측할 수 있도록 벡터 정보를 삽입하여 전송하는 과정을 개략적으로 도시한 흐름도이다. FIG. 2 is a flowchart schematically illustrating a process of inserting and transmitting vector information to predict voice data corresponding to a silent section of a key resynchronization section in the transmitter 10 according to the present invention.

마이크와 같은 입력부(11)를 통해서 입력받은 음성(200)을 보코딩하여 음성 데이터로 부호화한다(210). The voice 200 received through the input unit 11 such as a microphone is vocoded and encoded into voice data (210).

전송할 음성 데이터의 프레임이 키 재동기 시점인지 판단하고(220), 판단 결과, 전송할 프레임이 키 재동기 시점이면(Y), 해당하는 현재 프레임의 음성 데이터를 제거한다(230). 그런 다음, 이전 프레임의 음성 데이터에 포함된 기울기와 현재 프레임의 음성 데이터에 포함된 기울기의 차로부터 음성 변화 방향(+, -) 정보를 구한다(231). If it is determined that the frame of the voice data to be transmitted is the key resynchronization time (220), and if the frame to be transmitted is the key resynchronization time (Y), the voice data of the corresponding current frame is removed (230). Then, the voice change direction (+,-) information is obtained from the difference between the slope included in the voice data of the previous frame and the slope included in the voice data of the current frame (231).

음성 변화 방향(+, -) 정보는 음성 데이터 값이 증가하는 방향일 경우 계속 증가해 나가고, 감소하는 방향일 경우는 계속 감소해 나가는 급격한 변화가 없이 완만하게 변하는 사인파 음성 파형의 특징을 이용한 것으로, 현재 음성 데이터에 포함된 기울기와 이전 음성 데이터에 포함된 기울기의 차를 구해서 그 결과가 (+)이면 증가하는 방향, (-)이면 감소하는 방향으로 정의한다. The voice change direction (+,-) information uses a characteristic of a sine wave voice waveform that changes slowly without sudden change in the direction of increasing the voice data value, and decreases in the direction of decreasing the data. The difference between the slope included in the current voice data and the slope included in the previous voice data is calculated and defined as the increasing direction if the result is positive, and the decreasing direction if the result is negative.

추출한 음성 데이터의 음성 변화 방향(+, -) 정보로 벡터 정보를 구성하고(232), 이를 키 재동기 정보와 함께 음성 데이터를 삭제한 구간에 삽입하여 키 재동기 프레임을 구성하고(233), 구성된 키 재동기 프레임을 전송한다(234). The vector information is composed of the voice change direction (+,-) information of the extracted voice data (232), and the key resynchronization frame is inserted by inserting it into the section where the voice data is deleted together with the key resynchronization information (233). The configured key resynchronization frame is transmitted (234).

키 재동기 시점이 아니면(N), 음성 데이터를 이용해 음성 프레임을 구성하고(240), 이전 프레임과 현재 프레임의 음성 데이터를 분석하여(241) 벡터 정보를 구성하여 송신측 내부 메모리(미도시)에 저장한다(242). 그리고 구성된 음성 프레임을 전송한다(243). If the key is not at the time of resynchronization (N), the voice frame is constructed using the voice data (240), the voice data of the previous frame and the current frame is analyzed (241), and the vector information is constructed to configure the sender internal memory (not shown). Store in step 242. The configured voice frame is transmitted (243).

도 3은 본 발명에 따른 수신측(100)에서 벡터 정보를 추출하여 키 재동기 구간의 음성 데이터를 예측하는 과정을 개략적으로 도시한 흐름도이다. 3 is a flowchart schematically illustrating a process of predicting voice data of a key resynchronization interval by extracting vector information from the receiving side 100 according to the present invention.

수신측(100)에서는 전송되는 프레임을 수신하고(300), 수신된 프레임의 헤더를 분석(301)하여 프레임의 종류를 분석한다(320). The receiving side 100 receives the transmitted frame (300), analyzes the header of the received frame (301) and analyzes the type of the frame (320).

분석 결과, 수신한 프레임이 키 재동기 프레임이면(Y), 수신한 프레임으로부터 키 재동기 정보와 음성 변화 방향(+, -) 정보로 구성된 벡터 정보를 추출한다(330). As a result of the analysis, if the received frame is a key resynchronization frame (Y), vector information including key resynchronization information and voice change direction (+,-) information is extracted from the received frame (330).

추출된 키 재동기 정보를 이용해서 키 재동기를 수행하고(331), 기 수신된 프레임의 음성 데이터들로부터 구한 기울기 정보와 벡터 정보를 비교하여 기울기와 벡터 정보의 음성 변화 방향이 같은 방향인지 판단한다(332). Key resynchronization is performed using the extracted key resynchronization information (331), and the gradient information obtained from the voice data of the previously received frame and the vector information are compared to determine whether the slope and the voice change direction of the vector information are in the same direction. (332).

판단 결과, 수신측 내부 메모리(미도시)에 저장되어 있는 기 수신된 프레임의 음성 데이터들로부터 구한 기울기와 벡터 정보의 음성 변화 방향이 같은 방향이면(Y), 수신측 내부 메모리(미도시)에 저장되어 있는 기 수신된 프레임의 음성 데 이터들로부터 구한 기울기 선상에서 묵음 구간의 음성 데이터 값을 추출한다(333).As a result of the determination, when the slope obtained from the voice data of the previously received frame stored in the internal memory (not shown) and the voice change direction of the vector information are the same direction (Y), the internal memory (not shown) is received. In operation 333, the silent data value of the silent section is extracted on the gradient line obtained from the stored voice data of the received frame.

판단 결과(332), 그렇지 않으면(N), 기 수신된 프레임의 음성 데이터들로부터 구한 기울기와 대칭이 되는 기울기를 구하고, 대칭이 되는 기울기 선상에서 묵음 구간의 음성 데이터 값을 추출한다(334). 추출된 음성 데이터 값은 키 재동기 구간의 묵음 구간의 음성 데이터로 예측하여 디코딩(335)을 통해서 음성으로 출력한다(336). As a result of the determination (332), otherwise (N), a slope that is symmetrical with a slope obtained from the voice data of the previously received frame is obtained, and the voice data value of the silent section is extracted on the symmetric slope line (334). The extracted speech data value is predicted as speech data of the silent section of the key resynchronization section and output as speech through decoding (335).

그런데, 분석 결과(320), 수신한 프레임이 키 재동기 프레임이 아니면(N) 디코딩을 통해서 수신한 음성 데이터를 음성화한다(340). 그리고 이전 프레임과 현재 프레임을 이용하여 현재 음성 데이터의 기울기를 계산하여 저장하고(341), 현재 프레임을 다음에 사용하기 위해서 수신측 내부 메모리(미도시)에 저장한다(342). 그리고 음성화된 수신 데이터를 실제 음성으로 출력한다(343).If the received frame is not a key resynchronization frame (N), the received voice data is voiced through decoding (340). The slope of the current voice data is calculated and stored using the previous frame and the current frame (341), and the current frame is stored in an internal memory (not shown) of the receiving side for later use (342). The received voiced data is output as actual voice (343).

따라서 수신측(100)에서는 기 수신된 음성 프레임들의 음성 데이터 값의 변화비율, 즉 기울기와, 추출한 음성 데이터의 벡터 정보의 음성 변화 방향 정보를 이용함으로써 단반향 무선 통신 환경에서 키 재동기 시에 발생하는 묵음 구간의 음성 데이터 값을 원음에 가깝게 예측한다.Therefore, the receiving side 100 generates the key at the time of resynchronization in the unidirectional wireless communication environment by using the rate of change of the voice data values of the received voice frames, that is, the slope and the voice change direction information of the extracted vector data. The speech data value of the silent section is predicted to be close to the original sound.

도 4는 본 발명에 따른 키 재동기 구간의 음성 데이터를 예측하기 위한 장치 에 있어서 키 재동기 구간의 묵음 구간에서의 음성 데이터 값을 예측하는 과정을 개략적으로 도시한 개요도로서, (a)는 송신측에서 벡터 정보를 구성하여 삽입한 후 전송하는 것을, (b)는 수신측에서 벡터 정보를 추출하여 키 재동기 구간의 묵음 구간에서의 음성 데이터 값을 예측하는 과정을 예를 들어 설명하기 위한 예시도이다. FIG. 4 is a schematic diagram schematically illustrating a process of predicting a voice data value in a silent section of a key resynchronization section in the apparatus for predicting speech data of a key resynchronization section according to the present invention. (B) is an example for explaining a process of estimating a speech data value in a silent section of a key resynchronization section by extracting the vector information at the receiving side. It is also.

우선, 5번 및 8번이 키 재동기 시점에 해당되는 것으로 가정한다. 송신측(10)에서는 사인파 음성 파형을 부호화하는 과정에서(200) 키 재동기 시점이 되면, 키 재동기 시점에 해당하는 구간인 5번, 8번의 음성 데이터는 삭제되고, 키 재동기 정보로 치환된다. First, it is assumed that 5 and 8 correspond to the key resynchronization time points. When the transmitting side 10 reaches the key resynchronization time in the process of encoding the sine wave speech waveform (200), the voice data of Nos. 5 and 8, which is a section corresponding to the key resynchronization time, is deleted and replaced with the key resynchronization information. do.

즉, 5번 음성 데이터에 포함된 기울기와 4번 음성 데이터에 포함된 기울기의 차를 이용해서 구한 음성의 변화 방향(+)과, 키 재동기 정보 X로 치환된다. 8번 음성 데이터에 포함된 기울기와 7번 음성 데이터에 포함된 기울기의 차를 이용해서 구한 음성의 변화 방향(-)과, 키 재동기 정보 Y로 치환된다. 이렇게 재구성된 데이터가 수신측(100)으로 전달된다. That is, the voice change direction (+) obtained by using the difference between the slope included in the voice data 5 and the slope included in the voice data 4 and the key resynchronization information X are replaced. The change direction (-) of the voice obtained using the difference between the slope included in the voice data 8 and the slope included in the voice data 7 and the key resynchronization information Y are substituted. The reconstructed data is transmitted to the receiving side 100.

수신측(100)에서는 5번에 해당하는 키 재동기 데이터가 도착하면 3번, 4번 음성 데이터를 이용해서 구한 기울기 값(+)과 수신한 프레임 내의 음성 방향(+) 정보가 동일하므로 A 선상에 위치하는 음성 데이터 값으로 예측한다. On the receiving side 100, when the key resynchronization data corresponding to No. 5 arrives, the inclination value (+) obtained by using No. 3 and No. 4 voice data and the voice direction (+) information in the received frame are the same. Predicted by the voice data value located in.

8번에 해당하는 키 재동기 데이터가 도착하면 6번, 7번 음성 데이터를 이용 해서 구한 기울기 값(+)과 수신한 프레임 내의 음성 방향(-) 정보를 비교하여 다르므로 대칭되는 C 선상에 위치하는 음성 데이터 값으로 예측한다. When the key resynchronization data corresponding to No. 8 arrives, it is located on the symmetric C line because it is different from the inclination value (+) obtained by using No. 6 and No. 7 voice data and the voice direction (-) information in the received frame is different. Predicted by the voice data value.

구체적으로, 8번 같은 경우는 이전 프레임 6번, 7번의 음성 데이터로부터 계산된 기울기 값(+)과 8번의 음성 방향(-) 정보가 다르기 때문에 B선과 대칭이 되는 C선을 계산한 후 이 C 선상에서 음성 데이터 값을 예측한다.Specifically, in case of 8, since the inclination value (+) calculated from the voice data of the previous frame 6 and 7 and the voice direction (-) information of the 8 are different, the C line that is symmetric with the B line is calculated and then this C Predict speech data values on board.

이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.Although the present invention has been described in more detail with reference to some embodiments, the present invention is not necessarily limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention.

이상에서와 같이, 본 발명에 따르면 완만한 변화를 보이는 음성 데이터 값의 특징을 이용하여 방향 무선환경에서 주기적인 키 재동기에 의한 묵음구간의 음성 데이터 값을 유사하게 예측하여 수신단에서의 통화품질을 향상시킬 수 있다. 또한, 본 발명은 음성을 보정하기 위한 추가적인 정보가 많지 않고, 기존 방식에 비해 적은 계산량을 요구하므로 시스템에 추가의 부하를 주지 않는다.As described above, according to the present invention, by using the characteristics of the voice data value exhibiting a gentle change, similarly predicts the voice data value of the silent section by periodic key resynchronization in the direction wireless environment, the call quality at the receiving end is similarly determined. Can be improved. In addition, the present invention does not have a lot of additional information for correcting the voice, and requires a small amount of calculation compared to the conventional method, and thus does not place additional load on the system.

Claims (9)

단방향 무선환경을 이용한 암호화된 디지털 음성 통신의 송신측에서 키 재동기 구간의 음성 데이터를 예측하기 위한 벡터 정보를 삽입하는 방법에 있어서,A method of inserting vector information for predicting voice data of a key resynchronization interval at a transmitting side of an encrypted digital voice communication using a unidirectional radio environment, 전송할 프레임이 키 재동기 시점이면, 키 재동기 구간의 음성 데이터를 삭제하는 단계;If the frame to be transmitted is a key resynchronization time, deleting voice data of the key resynchronization interval; 현재 프레임의 음성 데이터에 포함된 기울기와 이전 프레임의 음성 데이터에 포함된 기울기의 차를 구하고, 그 결과인 (+), (-) 정보로 벡터 정보를 구성하는 단계; 및Obtaining a difference between the slope included in the speech data of the current frame and the slope included in the speech data of the previous frame, and constructing vector information from the resulting (+) and (-) information; And 상기 벡터 정보를 상기 음성 데이터를 삭제한 키 재동기 구간에 삽입하는 단계Inserting the vector information into a key resynchronization section from which the voice data is deleted; 를 포함하여 구성되는 것을 특징으로 하는 키 재동기 구간의 음성 데이터를 예측하기 위한 벡터 정보 삽입 방법.The vector information insertion method for predicting the speech data of the key resynchronization interval, characterized in that it comprises a. 제1항에 있어서,The method of claim 1, 상기 (+), (-) 정보는 사인파를 그리는 음성 특징을 이용해 (+)이면 계속 증가하는 방향, (-)이면 계속 감소하는 방향을 나타내는 음성 변화 방향 정보로 이용되는 것을 특징으로 하는 키 재동기 구간의 음성 데이터를 예측하기 위한 벡터 정보 삽입 방법.The (+) and (-) information is used as voice change direction information indicating a direction of continuous increase in the case of (+) and a direction of decrease in the case of (-) by using the voice feature of drawing a sine wave. A vector information insertion method for predicting speech data of a section. 단방향 무선환경을 이용한 암호화된 디지털 음성 통신의 송신측에서 키 재동 기 구간의 음성 데이터를 예측하기 위한 벡터 정보를 전송하는 방법에 있어서,A method for transmitting vector information for predicting voice data of a key resynchronization interval at a transmitting side of an encrypted digital voice communication using a unidirectional radio environment, 입력받은 음성을 보코딩(vocoding)하여 음성 데이터로 부호화하는 단계;Vocoding the received voice and encoding the received voice into voice data; 상기 부호화된 음성 데이터가 키 재동기 시점인지 판단하는 단계;Determining whether the encoded speech data is a key resynchronization time; 상기 판단 결과에 따라 음성 변화 방향 정보로 구성된 벡터 정보를 삽입하여 키 재동기 프레임을 생성하고, 음성 데이터로 음성 프레임을 생성하는 단계; 및Generating a key resynchronization frame by inserting vector information including voice change direction information according to the determination result and generating a voice frame using voice data; And 상기 생성한 키 재동기 프레임과 음성 프레임을 전송하는 단계Transmitting the generated key resynchronization frame and voice frame 를 포함하여 이루어지는 것을 특징으로 하는 키 재동기 구간의 음성 데이터를 예측하기 위한 벡터 정보 전송 방법.The vector information transmission method for predicting the voice data of the key resynchronization section comprising a. 제3항에 있어서,The method of claim 3, 상기 판단 결과, 키 재동기 시점이면, 상기 키 재동기 구간의 음성 데이터를 제거하고, 상기 음성 변화 방향 정보로 구성된 벡터 정보를 키 재동기 정보와 함께 상기 키 재동기 구간에 삽입하여 키 재동기 프레임을 생성하는 것을 특징으로 하는 키 재동기 구간의 음성 데이터를 예측하기 위한 벡터 정보 전송 방법.As a result of the determination, if the key resynchronization time point, the voice data of the key resynchronization section is removed, and the vector reconstruction frame is inserted into the key resynchronization section together with the key resynchronization information. The vector information transmission method for predicting the voice data of the key resynchronization interval, characterized in that for generating. 제3항에 있어서,The method of claim 3, 상기 판단 결과, 키 재동기 시점이 아니면, 음성 데이터를 포함하는 음성 프레임을 생성하는 것을 특징으로 하는 키 재동기 구간의 음성 데이터를 예측하기 위한 벡터 정보 전송 방법.And a voice frame including voice data is generated when the key resynchronization time is not determined. The vector information transmission method for predicting the voice data of the key resynchronization section. 제3항에 있어서,The method of claim 3, 상기 벡터 정보는 현재 프레임의 음성 데이터에 포함된 기울기와 이전 프레임의 음성 데이터에 포함된 기울기의 차로 구해지고, 사인파를 그리는 음성의 특징을 이용해 (+)이면 계속 증가해 나가는 방향, (-)이면 계속 감소해 나가는 방향으로 구성되는 것을 특징으로 하는 키 재동기 구간의 음성 데이터를 예측하기 위한 벡터 정보 전송 방법.The vector information is obtained by the difference between the slope included in the voice data of the current frame and the slope included in the voice data of the previous frame. A vector information transmission method for predicting voice data of a key resynchronization section, characterized in that the direction continues to decrease. 단방향 무선환경을 이용한 암호화된 디지털 음성 통신의 수신측에서 벡터 정보를 이용한 키 재동기 구간의 음성 데이터를 예측하는 방법에 있어서,A method of predicting voice data of a key resynchronization interval using vector information at a receiving side of an encrypted digital voice communication using a unidirectional wireless environment, 수신되는 프레임의 헤더를 분석하여 상기 프레임의 종류를 분석하는 단계;Analyzing the header of the received frame to analyze the type of the frame; 상기 분석 결과, 키 재동기 프레임 구간이면, 전송되는 상기 키 재동기 프레임으로부터 키 재동기 정보와 벡터 정보를 추출하는 단계;Extracting key resynchronization information and vector information from the transmitted key resynchronization frame if it is a key resynchronization frame section; 상기 추출된 키 재동기 정보를 이용해서 키 재동기를 수행하고, 상기 벡터 정보와 기 수신된 프레임의 음성 데이터의 기울기를 구하여 비교하는 단계;Performing key resynchronization by using the extracted key resynchronization information, and obtaining and comparing a slope of the speech information of the received frame with the vector information; 상기 벡터 정보로부터 분석한 음성 변화 방향 정보와 상기 기울기가 같은 방향이면 상기 기울기 선상에서 음성 데이터 값을 추출하고, 그렇지 않으면 상기 기울기와 대칭이 되는 선상에서 음성 데이터 값을 추출하는 단계; 및Extracting a voice data value on the slope line if the voice change direction information analyzed from the vector information and the slope are in the same direction, and extracting a voice data value on a line symmetric with the slope; And 상기 추출된 음성 데이터 값으로 상기 키 재동기 구간의 음성 데이터를 예측한 후 디코딩을 통해 음성화하는 단계Predicting the voice data of the key resynchronization interval using the extracted voice data value and then performing voice decoding through decoding 를 포함하여 이루어지는 것을 특징으로 하는 벡터 정보를 이용한 키 재동기 구간의 음성 데이터 예측 방법.Speech data prediction method of the key resynchronization interval using the vector information, characterized in that comprises a. 제7항에 있어서,The method of claim 7, wherein 상기 분석 결과, 키 재동기 프레임 구간이 아니면, 수신한 음성 데이터를 디코딩하여 음성화하고, 이전 프레임과 현재 프레임을 이용하여 현재 음성 데이터의 기울기를 계산하여 저장하는 것을 특징으로 하는 벡터 정보를 이용한 키 재동기 구간의 음성 데이터 예측 방법.As a result of the analysis, if it is not a key resynchronization frame section, the received voice data is decoded and voiced, and the slope of the current voice data is calculated and stored using the previous frame and the current frame. Speech data prediction method of synchronization section. 제7항에 있어서,The method of claim 7, wherein 상기 벡터 정보는 현재 프레임의 음성 데이터에 포함된 기울기와 이전 프레임의 음성 데이터에 포함된 기울기의 차로 구해지는 (+), (-)의 음성 변화 방향 정보로, 사인파를 그리는 음성의 특징을 이용해 (+)이면 계속 증가해 나가는 방향, (-)이면 계속 감소해 나가는 방향으로 구성되는 것을 특징으로 하는 벡터 정보를 이용한 키 재동기 구간의 음성 데이터 예측 방법.The vector information is voice change direction information of (+) and (-) obtained by the difference between the slope included in the voice data of the current frame and the slope included in the voice data of the previous frame. The method of predicting voice data of a key resynchronization section using vector information, characterized in that it is configured to continue to increase in the case of +) and continue to decrease in the case of (-).
KR1020070025571A 2006-11-13 2007-03-15 Insertion method and transmission method of vector information for voice data estimating in key re-synchronization, and voice data estimating method in key re-synchronization using vector information KR100902112B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP07107414A EP1921608A1 (en) 2006-11-13 2007-05-03 Method of inserting vector information for estimating voice data in key re-synchronization period, method of transmitting vector information, and method of estimating voice data in key re-synchronization using vector information
US11/745,402 US20080112565A1 (en) 2006-11-13 2007-05-07 Method of inserting vector information for estimating voice data in key re-synchronization period, method of transmitting vector information, and method of estimating voice data in key re-synchronization using vector information
CN2007101039371A CN101183528B (en) 2006-11-13 2007-05-15 Method of inserting vector information, method of transmitting vector information, and method of estimating voice data
JP2007137067A JP4564985B2 (en) 2006-11-13 2007-05-23 Vector information insertion method, vector information transmission method, and key resynchronization interval voice data estimation method using vector information for estimating key resynchronization interval speech data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020060111860 2006-11-13
KR20060111860 2006-11-13

Publications (2)

Publication Number Publication Date
KR20080043198A KR20080043198A (en) 2008-05-16
KR100902112B1 true KR100902112B1 (en) 2009-06-09

Family

ID=39448777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070025571A KR100902112B1 (en) 2006-11-13 2007-03-15 Insertion method and transmission method of vector information for voice data estimating in key re-synchronization, and voice data estimating method in key re-synchronization using vector information

Country Status (2)

Country Link
KR (1) KR100902112B1 (en)
CN (1) CN101183528B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109120371B (en) * 2018-10-17 2019-11-15 广州卫富科技开发有限公司 A kind of Jam-resistant Secure Communications method of simplex communication state Imitating vision signal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1987003127A1 (en) 1985-11-08 1987-05-21 John Marley System and method for sound recognition with feature selection synchronized to voice pitch
KR960706244A (en) * 1993-11-19 1996-11-08 카.엘러 · 에프.브레데 Method and apparatus for speech code and speech decoding in speech transmission
KR20020063665A (en) * 2001-01-30 2002-08-05 이태성 speech recognition method and system using every single pitch-period data analysis
US20050157705A1 (en) 2004-01-21 2005-07-21 Stefano Galetto Determination of speech latency across a telecommunication network element

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE464553B (en) * 1989-09-12 1991-05-06 Ericsson Telefon Ab L M METHOD OF SYNCHRONIZATION IN A MOBILE RADIO SYSTEM
CN1036885C (en) * 1992-09-25 1997-12-31 上海交通大学 Method and apparatus of inserting sound signal into synchronous and compressed data signal
US6757659B1 (en) * 1998-11-16 2004-06-29 Victor Company Of Japan, Ltd. Audio signal processing apparatus
US7319703B2 (en) * 2001-09-04 2008-01-15 Nokia Corporation Method and apparatus for reducing synchronization delay in packet-based voice terminals by resynchronizing during talk spurts
KR100884402B1 (en) * 2002-06-20 2009-02-17 삼성전자주식회사 Digital Broadcasting system for inserting pilot tone of the diferencial number according to data priority of data
CN100370545C (en) * 2004-06-10 2008-02-20 圆创科技股份有限公司 Coding and decoding method for video-audio information and recording medium for storing formatted video-audio information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1987003127A1 (en) 1985-11-08 1987-05-21 John Marley System and method for sound recognition with feature selection synchronized to voice pitch
KR960706244A (en) * 1993-11-19 1996-11-08 카.엘러 · 에프.브레데 Method and apparatus for speech code and speech decoding in speech transmission
KR20020063665A (en) * 2001-01-30 2002-08-05 이태성 speech recognition method and system using every single pitch-period data analysis
US20050157705A1 (en) 2004-01-21 2005-07-21 Stefano Galetto Determination of speech latency across a telecommunication network element

Also Published As

Publication number Publication date
CN101183528B (en) 2011-04-20
CN101183528A (en) 2008-05-21
KR20080043198A (en) 2008-05-16

Similar Documents

Publication Publication Date Title
CN101147190B (en) Frame erasure concealment in voice communications
JP5123516B2 (en) Decoding device, encoding device, decoding method, and encoding method
Khalifeh et al. Perceptual evaluation of audio quality under lossy networks
US8054969B2 (en) Transmission of a digital message interspersed throughout a compressed information signal
EP3229443B1 (en) Data processing device, data processing method, and program
WO2014051964A1 (en) Apparatus and method for audio frame loss recovery
US20040143675A1 (en) Resynchronizing drifted data streams with a minimum of noticeable artifacts
JP2016500453A (en) Add comfort noise to model background noise at low bit rates
KR100906766B1 (en) Apparatus and method for transmitting/receiving voice capable of estimating voice data of re-synchronization section
KR100792209B1 (en) Method and apparatus for restoring digital audio packet loss
KR100902112B1 (en) Insertion method and transmission method of vector information for voice data estimating in key re-synchronization, and voice data estimating method in key re-synchronization using vector information
CN1929355B (en) Restoring system and method for voice package losing
KR100872771B1 (en) Methods and apparatus for time information synchronization using key re-synchronization frame in encryption communications
JP4564985B2 (en) Vector information insertion method, vector information transmission method, and key resynchronization interval voice data estimation method using vector information for estimating key resynchronization interval speech data
KR100594599B1 (en) Apparatus and method for restoring packet loss based on receiving part
CN101247221A (en) Signal watermarking in the presence of encryption
WO2005024786A1 (en) Information flow transmission method whereby said flow is inserted into a speech data flow, and parametric codec used to implement same
JP4093174B2 (en) Receiving apparatus and method
RU2407175C2 (en) Methods of providing security in packet switched communication networks and device for realising said methods
JP2006279809A (en) Apparatus and method for voice reproducing
JPH10260700A (en) Encoding method and decoding method for oscillatory wave, and encoding device and decoding device for oscillatory wave
JP2006319685A (en) Audio coding selection control method, audio packet transmitter, audio packet receiver, program, and storage medium
JP2002099299A (en) Silent compressed voice coding and decoding device
Attie et al. Analysis of the tradeoff between compression ratio and security level in real-time voice communication
Bouhmadouche et al. AWERProcedia Information Technology & Computer Science

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130410

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140326

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee