KR20090020091A - Method for transmiting the data using the voice channel - Google Patents

Method for transmiting the data using the voice channel Download PDF

Info

Publication number
KR20090020091A
KR20090020091A KR1020070084530A KR20070084530A KR20090020091A KR 20090020091 A KR20090020091 A KR 20090020091A KR 1020070084530 A KR1020070084530 A KR 1020070084530A KR 20070084530 A KR20070084530 A KR 20070084530A KR 20090020091 A KR20090020091 A KR 20090020091A
Authority
KR
South Korea
Prior art keywords
voice
data
frame
channel
mobile terminal
Prior art date
Application number
KR1020070084530A
Other languages
Korean (ko)
Other versions
KR100962377B1 (en
Inventor
정태식
Original Assignee
(주)케이티에프테크놀로지스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)케이티에프테크놀로지스 filed Critical (주)케이티에프테크놀로지스
Priority to KR1020070084530A priority Critical patent/KR100962377B1/en
Publication of KR20090020091A publication Critical patent/KR20090020091A/en
Application granted granted Critical
Publication of KR100962377B1 publication Critical patent/KR100962377B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/0252Traffic management, e.g. flow control or congestion control per individual bearer or channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/0231Traffic management, e.g. flow control or congestion control based on communication conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/06Optimizing the usage of the radio link, e.g. header compression, information sizing, discarding information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Abstract

A data communications method and an apparatus thereof using a voice channel solving a problem that transfer efficiency at a section in which the voice activity is low falls down are provided to maximize the transmission efficiency of the voice channel. Data transfer apparatus using a voice channel produces a voice frame to a predetermined TTI(Transmission Time Interval). An apparatus determines whether to insert predetermined data stored in advance into the voice frame(S830). In case the insertion of data is possible, the apparatus reorganizes the voice frame(S840). The voice frame which is re-organized is transmitted from the apparatus through the voice channel(S850).

Description

음성 채널을 이용한 데이터 전송 방법 및 장치{Method for Transmiting the Data Using the Voice Channel} Method and device for transmitting data using voice channel {Method for Transmiting the Data Using the Voice Channel}

본 발명은 음성 채널을 이용한 데이터 전송 방법에 관한 것으로서, 좀 더 상세하게는, 음성 채널에 대해 가변 데이터율(Variable Data Rate)을 지원하는 이동 단말기에 있어서, 음성 활성도(Voice Activity) 및 무선 채널 환경에 따라 음성 채널에 데이터를 삽입하여 전송함으로써, 주파수 이용 효율을 극대화시키는 것이 가능한 음성 채널을 이용한 데이터 전송 방법에 관한 것이다.The present invention relates to a data transmission method using a voice channel, and more particularly, in a mobile terminal supporting a variable data rate for a voice channel, a voice activity and a wireless channel environment The present invention relates to a data transmission method using a voice channel capable of maximizing frequency utilization efficiency by inserting and transmitting data into a voice channel.

이동 통신망에서 음성 통신 서비스는 가장 일반적인 통신 서비스의 하나로서, 모든 이동 단말기에서 기본적으로 제공되는 기능이다.In a mobile communication network, a voice communication service is one of the most common communication services, and is basically a function provided in all mobile terminals.

특히, 아날로그 음성 신호를 디지털화하고 이를 소정의 코딩 방식으로 인코딩하여 전송하는 음성 코덱 방식은 이동 통신 시스템에 따라 다양하게 적용되고 있다.In particular, a voice codec method of digitizing an analog voice signal, encoding the same by using a predetermined coding method, and transmitting the same has been applied to various mobile communication systems.

가장 기본적인 음성 코덱은 일반 유선 전화망에서 사용되는 PCM(Pulse Code Modulation) 방식으로서, PCM에서는 각 샘플을 펄스의 열로 나타내게 된다. PC에서 WAV 파일을 만드는 경우 8KHz, 16비트 모노로 만들면 초당 데이터 크기는 16KB가 된다.The most basic voice codec is a PCM (Pulse Code Modulation) method used in a general wired telephone network. In PCM, each sample is represented by a string of pulses. If you create a WAV file on your PC, the 8KHz, 16-bit mono will produce 16KB of data per second.

하지만, 상기한 PCM 방식을 그대로 이동 통신망에 적용하는 것은 무선 통신 채널의 대역폭 사용 효율을 많이 떨어뜨리는 문제점이 있다.However, applying the PCM scheme to a mobile communication network as it is has a problem in that the bandwidth use efficiency of a wireless communication channel is greatly reduced.

현재, CDMA나 WCDMA와 같은 이동 통신 방식에서는 발신측에서 사람의 발성 구조를 모델링하고 이 모델링의 계수와 입력 신호를 동시에 수신측에 전송한다.Currently, in a mobile communication method such as CDMA or WCDMA, a caller's voice model is modeled at the calling party and the coefficients and input signals of the modeling are simultaneously transmitted to the receiving party.

수신측은 수신된 모델링 계수 및 입력 신호를 해당 음성 신호 모델에 적용한 후, 스피커를 통해 출력한다.The receiving side applies the received modeling coefficients and the input signal to the corresponding speech signal model and outputs the same through the speaker.

음성 신호의 모델링에는 LPC(Linear Predictive Coding)라는 방식을 사용된다. 여기서, LPC는 현재의 신호로 미래의 신호를 예측할 수 있다는 원리를 이용한다. Modeling of a speech signal uses a method called linear predictive coding (LPC). Here, LPC uses the principle that the current signal can predict the future signal.

음성 신호는 긴 시간 동안에는 변화가 많지만 작은 단위의 시간 -예를 들면, QCELP, EVRC, FR, EFR의 경우 20ms- 동안에는 거의 주기적인 모양을 띄고 있다. 즉, 음성 신호는 짧은 구간에서 과거의 신호와 비교할 때 많은 변화가 없는 특징이 있다. 상기한 같은 원리를 바탕으로 사람의 발성 구조를 통계적으로 모델링할 수 있다.Voice signals change over long periods of time, but they are nearly cyclical for small periods of time (eg, 20 ms for QCELP, EVRC, FR, and EFR). That is, the voice signal has a feature that does not change much compared to the past signal in a short interval. Based on the same principle as described above, a human speech structure can be statistically modeled.

발성 구조의 모델(vocal tract model)은 성도의 공명 신호의 특성을 필터로 나타낸 것으로, 해당 필터에 일정 입력 신호를 가하면 음성을 얻어낼 수 있다. The vocal tract model represents the characteristics of the resonance signal of the vocal tract as a filter. When a predetermined input signal is applied to the filter, speech can be obtained.

일반적으로, 유성음은 일정한 펄스 열로 모델링되며 무성음의 특성을 나타내 는 부분은 가우시안 잡음(gaussian noise)으로 모델링된다. 이와 같이, 음성 합성은 입력 신호를 구강 모델에 통과시켜서 입력 펄스 또는 입력 신호를 필터와 컨볼루션(convolution)해 스피커를 통해 출력된다. In general, the voiced sound is modeled as a constant pulse train, and the portions that characterize the unvoiced sound are modeled as Gaussian noise. As such, speech synthesis passes the input signal through the oral model to convolve the input pulse or input signal with a filter and output it through the speaker.

실제의 상용 보코더 구현에서는 모델을 통과해 나온 신호와 실제 신호의 차이를 다시 한번 코딩해 전송하는 방식이 사용되고 있다.In the actual commercial vocoder implementation, the method of coding and transmitting the difference between the signal passed through the model and the actual signal is used again.

CDMA에서 사용되는 대표적인 음성 코덱은 QCELP(QualComm Code Excited Linear Predictive Coding), EVRC(Enhanced Variable Rate Codec)가 있고 WCDMA에서 사용되는 대표적인 음성 코덱은 AMR 코덱이 있다.Typical voice codecs used in CDMA include QCELP (QualComm Code Excited Linear Predictive Coding) and Enhanced Variable Rate Codec (EVRC). A typical voice codec used in WCDMA is AMR codec.

QCELP는 퀄컴에서 개발한 CELP 방식의 보코더이다. 일반적으로, QCELP 8Kbps와 QCELP 13Kbps가 사용되고 있다. 여기서, QCELP 8Kbps는 음질이 떨어지므로 잘 사용되고 있지 않다.QCELP is a CELP vocoder developed by Qualcomm. In general, QCELP 8 Kbps and QCELP 13 Kbps are used. Here, QCELP 8Kbps is not used well because the sound quality is poor.

QCELP는 음성 활성도(Voice Activity)에 따라, Full rate, Half rate, Quarter rate, eighth bps의 네 가지 타입으로 가변 비트율(Variable Bit Rate)을 지원한다.QCELP supports Variable Bit Rate in four types: full rate, half rate, quarter rate, and eighth bps, depending on voice activity.

EVRC(Enhanced Variable Rate Codec)는 RCELP(Residual Code Excited Linear Predictive Coding)에 기초하고 있으며 비트율은 8Kbps이다. 특히, EVRC는 잡음 억제(Noise Suppression) 효과가 높아 QCELP 8K보다 음질이 우수하다.Enhanced Variable Rate Codec (EVRC) is based on Residual Code Excited Linear Predictive Coding (RCELP) and has a bit rate of 8 Kbps. In particular, EVRC has better noise suppression effect than the QCELP 8K.

EVRC 역시 음성 활성도(Voice Activity)에 따라, Full rate, Half rate, Quarter rate, eighth bps의 네 가지를 비트율을 통해 가변 비트율을 지원한다.EVRC also supports variable bit rates through four bit rates: full rate, half rate, quarter rate, and eighth bps, depending on voice activity.

AMR (Adaptive Multi-Rate) 음성 코덱(Codec)은 3GPP(3rd Generation Partnership Project)의 표준으로 채택된 음성 코덱 방식이다. AMR (Adaptive Multi-Rate) speech codec (Codec) is a speech codec scheme adopted as a standard of 3GPP (3 rd Generation Partnership Project) .

일반적으로, 디지털 이동 통신에서의 비트(Bit) 전송 오류는 통화 음질 저하의 가장 큰 원인이 되며, AMR은 이러한 문제를 해결하기 위한 효과적인 음성 코덱 방식중의 하나이다.In general, bit transmission error in digital mobile communication is the biggest cause of call quality degradation, and AMR is one of the effective voice codec methods to solve this problem.

즉, ARM은 입력된 비트 중에서 음성 압축을 위한 비트와 채널 코딩을 위한 비트를 현재의 비트 오류율 정도에 따라 가변적으로 조정하여 전체 음질을 향상시키는 방법을 사용한다. In other words, ARM uses a method of improving the overall sound quality by varying the bits for voice compression and the bits for channel coding among the input bits according to the current bit error rate.

예를 들면, AMR은 비트 오류가 많은 환경에서는 채널 코딩에 많은 비트를 할당함으로써 오류 정정 능력을 증가시키고, 비트 오류가 적은 채널 환경에서는 음성 압축기에 많은 비트를 할당하여 음성 압축 성능을 향상시킬 수 있다.For example, AMR can increase the error correction capability by allocating many bits to channel coding in high bit error environments, and improve speech compression performance by allocating many bits to the voice compressor in low bit error channel environments. .

또한, AMR은 현재의 무선 채널 환경 및 입력된 음성 신호의 음성활성도(Voice Activity)에 따라서, MR475(4.75kbps), MR515(515kbps), MR59(5.9kbps), MR67(6.7kbps), MR74(7.4kbps), MR795(7.95kbps), MR102(10.2kbps), MR122(12.2kbps)의 8개 모드가 지원되며, 이를 통해 가변적인 데이터 전송 속도를 지원할 수 있다.In addition, according to the current wireless channel environment and the voice activity of the inputted voice signal, the AMR is MR475 (4.75kbps), MR515 (515kbps), MR59 (5.9kbps), MR67 (6.7kbps), MR74 (7.4). kbps), MR795 (7.95kbps), MR102 (10.2kbps), and MR122 (12.2kbps) are supported in eight modes, which can support variable data rates.

최근에는 보다 나은 음성 품질을 제공하기 위해, 3GPP에서는 16KHz로 샘플링되는 WB-AMR(WideBand AMR) 방식을 표준에 추가하였다.Recently, in order to provide better voice quality, 3GPP has added a WideBand AMR (WB-AMR) method, which is sampled at 16KHz.

일반적으로, AMR 및 EVRC와 같이 가변 비트 레이트를 지원하는 음성 코덱은 음성활성도가 낮은 구간 즉 배경 잡음 구간에서 낮은 비트율로 전송하는 특징이 있다.In general, voice codecs that support variable bit rates, such as AMR and EVRC, have a feature of transmitting at a low bit rate in a low voice activity period, that is, in a background noise period.

하지만, CDMA나 WCDMA의 경우, 음성 서비스에 대해 고정된 SF(Spreading Factor)가 할당되므로, 음성활성도가 낮은 구간에서의 전송 효율이 떨어지는 문제점이 있었다.However, in the case of CDMA or WCDMA, since a fixed spreading factor (SF) is allocated to a voice service, transmission efficiency in a low voice activity range is inferior.

상기한 바와 같은 종래 기술의 문제점을 해결하기 위한 본 발명의 목적은 이동 단말기에서 음성 활성도가 낮은 구간에 데이터를 삽입하여 전송함으로써, 음성 채널의 전송 효율을 극대화시키는 것이 가능한 음성 채널을 이용한 데이터 전송 방법을 제공하는 것이다.An object of the present invention for solving the problems of the prior art as described above is a data transmission method using a voice channel capable of maximizing the transmission efficiency of the voice channel by inserting and transmitting data in a low voice activity interval in the mobile terminal To provide.

본 발명의 다른 목적은 이동 단말기에서 음성 채널에 데이터를 삽입하는 경우, 해당 전송 구간에 데이터가 전송되고 있음을 지시하는 소정의 데이터 식별 정보를 착신측에 송신함으로써, 착신측에서 데이터의 수신이 가능한 음성 채널을 이용한 데이터 전송 방법을 제공하는 것이다.Another object of the present invention is that when data is inserted into a voice channel in a mobile terminal, by receiving predetermined data identification information indicating that data is being transmitted in a corresponding transmission interval, the called party can receive data. It is to provide a data transmission method using a voice channel.

또한, 본 발명의 목적은 음성 채널상에 데이터 삽입 시 음성 프레임을 재구성하는 수단을 제공함으로써, 음성 통화 중 착신측에 데이터를 전송하는 것이 가능한 이동 단말기를 제공하는 것이다.It is also an object of the present invention to provide a mobile terminal capable of transmitting data to a called party during a voice call by providing a means for reconstructing a voice frame upon insertion of data on the voice channel.

또한, 본 발명에 따른 이동 단말기는 음성 채널을 통해 전송할 데이터를 지정하거나 예약하기 위한 소정의 사용자 인터페이스를 제공하는 것을 목적으로 한 다.It is also an object of the present invention to provide a predetermined user interface for designating or reserving data to be transmitted through a voice channel.

또한, 본 발명은 음성 활성도 뿐만 아니라 현재의 무선 채널 환경 정보를 고려함으로써, 음성 채널에 포함된 데이터가 전송 중에 오류가 발생되는 것을 최소화하는 것이 가능한 음성 채널을 이용한 데이터 전송 방법을 제공하는 것이다.In addition, the present invention provides a data transmission method using a voice channel capable of minimizing an error occurring during transmission of data included in the voice channel by considering not only voice activity but also current radio channel environment information.

본 발명의 다른 목적들은 이하의 실시예에 대한 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will be readily understood through the following description of the embodiments.

상기한 바와 같은 목적을 달성하기 위해, 본 발명의 일 측면에 따르면, 이동 단말기에서 음성 채널을 이용하여 데이터를 전송하는 방법이 개시된다.In order to achieve the above object, according to an aspect of the present invention, a method for transmitting data using a voice channel in a mobile terminal is disclosed.

본 발명에 따른 음성 채널을 이용한 데이터 전송 방법은 소정의 전송 시간 주기로 음성 프레임을 생성하는 제1 단계; 미리 저장된 소정의 데이터를 상기 음성 프레임에 삽입 가능한지 여부를 판단하는 제2 단계; 상기 판단 결과, 상기 데이터의 삽입이 가능한 경우, 상기 음성 프레임을 재구성하는 제3 단계; 및 상기 재구성된 음성 프레임을 상기 음성 채널을 통해 전송하는 제4 단계를 포함할 수 있다.A data transmission method using a voice channel according to the present invention includes a first step of generating a voice frame at a predetermined transmission time period; A second step of determining whether or not predetermined data stored in advance can be inserted into the voice frame; A third step of reconstructing the voice frame when the data can be inserted as a result of the determination; And transmitting the reconstructed speech frame through the speech channel.

본 발명의 일 측면에 따르면, 이동 단말기에서 음성 채널을 이용하여 데이터를 수신하는 방법이 개시된다.According to an aspect of the present invention, a method for receiving data using a voice channel in a mobile terminal is disclosed.

본 발명에 따른 음성 채널을 이용한 데이터 수신 방법은 상기 음성 채널을 통해 수신된 무선 신호를 복호하여 음성 프레임을 생성하는 제1 단계; 상기 음성 프레임에 데이터가 포함되었는지 여부를 확인하는 제2 단계; 및 상기 확인 결과에 따라 상기 음성 프레임으로부터 음성 정보 및 데이터 삽입 정보 중 적어도 하나를 추출하는 제3 단계를 포함할 수 있다.A data receiving method using a voice channel according to the present invention includes a first step of generating a voice frame by decoding a wireless signal received through the voice channel; A second step of confirming whether data is included in the voice frame; And extracting at least one of voice information and data insertion information from the voice frame according to the confirmation result.

이상에서는 이동 단말기에서 음성 채널을 이용한 데이터 전송 방법만을 기술하였지만, 상술한 방법들은 유형화된 명령어로 이루어진 프로그램으로 기록되며, 상기 프로그램은 전자 장치에서 판독할 수 있는 기록 매체로 제공될 수 있다.In the above description, only a data transmission method using a voice channel is described in the mobile terminal, but the above-described methods are recorded as a program consisting of typed instructions, and the program may be provided as a recording medium that can be read by the electronic device.

본 발명의 일 실시예에 따르면, 음성 채널을 이용한 데이터 전송 및 수신이 가능한 이동 단말기가 제공된다.According to an embodiment of the present invention, a mobile terminal capable of transmitting and receiving data using a voice channel is provided.

본 발명에 따른, 이동 단말기는 일정 시간 동안 입력된 음성 신호에 대한 음성 활성도를 산출하고, 상기 산출된 음성 활성도를 이용하여 프레임 타입을 결정하는 프레임 타입 결정부; 상기 결정된 프레임 타입에 따라 상기 음성 신호를 인코딩하여 음성 프레임을 생성하거나 인코딩된 음성 프레임을 복호하는 음성 코덱; 상기 음성 프레임에 소정의 데이터가 삽입 가능한지 여부를 판단하여 상기 음성 프레임을 기저대역처리부에 전송하거나, 상기 음성 프레임을 재구성하여 상기 기저대역처리부에 전송하는 재구성 스케줄러; 및 상기 기저대역처리부로부터 수신된 음성 프레임의 데이터 삽입 여부에 따라, 해당 음성 프레임으로부터 음성 정보 및 데이터 중 적어도 하나를 추출하는 음성 프레임 분석부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, a mobile terminal includes: a frame type determination unit calculating a voice activity of a voice signal input for a predetermined time and determining a frame type using the calculated voice activity; A speech codec that encodes the speech signal according to the determined frame type to generate a speech frame or to decode the encoded speech frame; A reconstruction scheduler which determines whether predetermined data can be inserted into the speech frame and transmits the speech frame to a baseband processor, or reconstructs the speech frame and transmits the speech frame to the baseband processor; And a voice frame analyzer extracting at least one of voice information and data from the voice frame according to whether the voice frame received from the baseband processor is inserted.

본 발명은 이동 단말기에서 음성활성도가 낮은 구간에 데이터를 삽입하여 전송함으로써, 음성 채널의 전송 효율을 극대화시키는 것이 가능한 음성 채널을 이용 한 데이터 전송 방법을 제공하는 장점이 있다.The present invention has an advantage of providing a data transmission method using a voice channel capable of maximizing the transmission efficiency of the voice channel by inserting and transmitting data in a low voice activity period in the mobile terminal.

또한, 본 발명은 이동 단말기에서 음성활성도에 따라 음성 채널에 데이터를 삽입하는 경우, 해당 구간에 데이터가 전송되고 있음을 지시하는 소정의 데이터 식별 정보를 착신측에 전송함으로써, 착신측에서 음성 채널을 통해 데이터를 수신하는 것이 가능한 음성 채널을 이용한 데이터 전송 방법을 제공하는 장점이 있다.In addition, when the mobile terminal inserts data into a voice channel according to voice activity, the present invention transmits predetermined voice identification information indicating that data is being transmitted in a corresponding section to the called party. It is an advantage to provide a data transmission method using a voice channel capable of receiving data through.

또한, 본 발명은 음성 채널상에 데이터 삽입 시 음성 프레임을 재구성하는 수단을 제공함으로써, 음성 통화 중 착신측에 데이터를 전송하는 것이 가능한 이동 단말기를 제공하는 장점이 있다.In addition, the present invention has an advantage of providing a mobile terminal capable of transmitting data to a called party during a voice call by providing a means for reconstructing a voice frame when inserting data on the voice channel.

또한, 본 발명은 음성 채널의 가용 구간에 데이터를 삽입하여 전송함으로써, 무선 통신 채널의 대역폭 효율을 극대화시킬 뿐만 아니라 데이터 통신 요금의 절감시키는 효과를 얻을 수 있다. In addition, the present invention inserts and transmits data in an available section of the voice channel, thereby maximizing bandwidth efficiency of the wireless communication channel and reducing data communication charges.

또한, 본 발명은 음성 채널을 통해 전송할 데이터를 실시간 지정하거나 예약하기 위한 소정의 사용자 인터페이스를 제공함으로써, 사용자 편의적인 이동 단말기를 제공하는 장점이 있다.In addition, the present invention has an advantage of providing a user-friendly mobile terminal by providing a predetermined user interface for real-time designation or reservation of data to be transmitted through a voice channel.

또한, 본 발명은 음성 채널에 포함된 데이터에 대한 순차 번호 및 오류 검출 코드를 이용하여, 오류가 발생된 데이터에 대한 재전송 절차를 제공하는 장점이 있다. In addition, the present invention has an advantage of providing a retransmission procedure for data in which an error occurs by using a sequence number and an error detection code for data included in a voice channel.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2, 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함하는" 또는 "탑재된" "장착된" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In this application, the terms "comprising" or "mounted" and "mounted" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, one Or other features or numbers, steps, operations, components, parts or combinations thereof in any way should not be excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

이하에서, 본 발명에 따른 음성 채널을 이용한 데이터 전송 방법 및 그 장치에 관한 바람직한 실시예를 관련 도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, a preferred embodiment of a data transmission method and an apparatus using a voice channel according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명이 개시한 음성 채널을 이용한 데이터 전송 방법을 설명하기에 앞서, 이동 통신의 대표적인 음성 코텍인 AMR에 대해 살펴보기로 한다.Before describing the data transmission method using the voice channel disclosed in the present invention, a representative voice codec of mobile communication will be described.

AMR은 ETSI(the European Telecommunications Standards Institute)에서 제정한 GSM 표준 보코더로서, ACELP(Algebraic Code Excited Linear Predictive Coding)를 기본으로 하고 있다. AMR is a GSM standard vocoder established by the European Telecommunications Standards Institute (ETSI) and is based on Algebraic Code Excited Linear Predictive Coding (ACELP).

기존에 사용되던 FR(Full Rate), EFR(Enhaced Full Rate) 등의 보코더들은 비트율이 고정되어 있었으나 AMR에서는 다양한 코덱 비트율이 채널 특성 및 음성 활성도에 따라서 선택적으로 사용하도록 되어 있다. Vocoders such as full rate (FR) and enhanced full rate (EFR), which have been used previously, have a fixed bit rate, but in AMR, various codec bit rates are selectively used according to channel characteristics and voice activity.

협대역 AMR에 사용되는 세부 코덱은 MR475(4.75kbps), MR515(515kbps), MR59(5.9kbps), MR67(6.7kbps), MR74(7.4kbps), MR795(7.95kbps), MR102(10.2kbps), MR122(12.2kbps)의 8개 모드가 있다.The detailed codecs used for narrowband AMR are MR475 (4.75 kbps), MR515 (515 kbps), MR59 (5.9 kbps), MR67 (6.7 kbps), MR74 (7.4 kbps), MR795 (7.95 kbps), MR102 (10.2 kbps), There are eight modes of MR122 (12.2 kbps).

즉, 3GPP 표준안에 정의된 협대역(Narrowband) AMR 코덱은 8KHz로 표본화(Sampling)되며 4.75kbit/s에서 12.2kbit/s까지의 범위에서 다양한 전송 속도를 제공하는 것이 가능한 가변 전송 속도 코덱(Variable Bit Rate Codec)이다.In other words, the narrowband AMR codec defined in the 3GPP standard is sampled at 8KHz and is a variable bit rate codec (Variable Bit) capable of providing various transmission rates in the range of 4.75 kbit / s to 12.2 kbit / s. Rate Codec).

또한, 3GPP에서는 고품질의 음성 통화 서비스를 제공하기 위해서 16KHz로 표본화되는 WB-AMR(WideBand AMR)을 정의하고 있다. In addition, 3GPP defines WideBand AMR (WB-AMR), which is sampled at 16KHz, to provide high quality voice call service.

도 1은 3GPP 표준안에 정의된 일반적인 AMR 코덱 프레임 구조이다.1 is a general AMR codec frame structure defined in the 3GPP standard.

도 1을 참조하면, AMR 코덱 프레임(100)은 크게 헤더(header, 110), 보조 정보(Auxiliary Information, 120), 코어 프레임(core frame, 130)으로 구분될 수 있다.Referring to FIG. 1, the AMR codec frame 100 may be largely classified into a header 110, auxiliary information 120, and a core frame 130.

AMR 헤더(110)는 프레임 타입(Frame Type, 112) 및 프레임 품질 지시자(Frame Quality Indicator, 114)로 구성된다.The AMR header 110 includes a frame type 112 and a frame quality indicator 114.

여기서, 프레임 타입(112)는 8개의 AMR 코덱 모드 중의 하나를 지시하기 위해 사용되는 필드로서, 4 비트의 길이를 갖는다.Here, the frame type 112 is a field used to indicate one of eight AMR codec modes and has a length of 4 bits.

프레임 품질 지시자(114)는 1 비트의 길이를 가지며, 해당 AMR 코덱 프레임에 포함된 데이터에 에러가 존재하는지 여부를 지시하기 위한 필드이다.The frame quality indicator 114 has a length of 1 bit and is a field for indicating whether an error exists in data included in a corresponding AMR codec frame.

예를 들면, 프레임 품질 지시자(114)의 값이 0이면 오류가 존재하는 프레임을 지시하고, 1이면 정상적인 프레임을 지시할 수 있다.For example, if the value of the frame quality indicator 114 is 0, it may indicate a frame in which an error exists, and if it is 1, it may indicate a normal frame.

보조 정보(120)는 모드 적응 및 오류 감지를 위한 목적으로 이용되는 정보로 서, 모드 지시자(Mode Indication, 122), 모드 요구(Mode Request, 124) 및 코덱 CRC(Codec Cyclic Redundancy Check, 126)로 구성된다.The auxiliary information 120 is information used for the purpose of mode adaptation and error detection. The auxiliary information 120 includes a mode indicator 122, a mode request 124, and a codec Cyclic Redundancy Check 126. It is composed.

코어 프레임(Core Frame, 120)은 인코딩된 음성 파라미터 비트(Speech Parameter Bits) 또는 컴포트 노이즈 프레임(Comfort Noise Frame)인 경우에는 컴포트 파라미터 비트(Comfort Parameter Bits)로 구성된다.The core frame 120 is composed of encoded speech parameter bits or comfort parameter frames in the case of encoded speech parameter bits.

여기서, 컴포트 노이즈 프레임의 경우에, 컴포트 파라미터 비트는 클래스 B(134) 및 클래스 C(136)가 생략된 동안 코어 프레임의 클래스 A(132)를 대체한다.Here, in the case of a comfort noise frame, the comfort parameter bits replace class A 132 of the core frame while class B 134 and class C 136 are omitted.

특히, 코어 프레임을 구성하는 각각의 클래스에 할당되는 비트 수는 프레임 타입에 따라 가변적임을 주의해야 한다.In particular, it should be noted that the number of bits allocated to each class constituting the core frame is variable according to the frame type.

도 2는 종래 기술에 따른 프레임 타입 별 코어 프레임 구조를 설명하기 위한 도면이다.2 is a view for explaining a core frame structure for each frame type according to the prior art.

도 2에 도시된 바와 같이, 3GPP TS 25.101 v6.00에 정의된 AMR 코어 프레임은 8개의 프레임 타입(210) 및 AMR 코덱 모드(220)로 구성된다.As shown in FIG. 2, an AMR core frame defined in 3GPP TS 25.101 v6.00 consists of eight frame types 210 and an AMR codec mode 220.

각각의 프레임 타입(220)은 해당 프레임 타입에 상응하는 AMR 코덱 모드(220), 총 비트 수(230), 클래스 A(240), 클래스 B(250) 및 클래스 C(260)가 정의된다.Each frame type 220 defines an AMR codec mode 220, a total number of bits 230, a class A 240, a class B 250, and a class C 260 corresponding to the frame type.

여기서, 총 비트 수(230)는 코어 프레임에 할당되는 음성 데이터의 비트 수로서, 클래스 A(240), 클래스 B(250) 및 클래스 C(260)의 합으로 계산된다.Here, the total number of bits 230 is the number of bits of voice data allocated to the core frame, and is calculated as the sum of the class A 240, the class B 250, and the class C 260.

특히, 프레임 타입 0 내지 프레임 타입 5의 클래스 C(260)에 할당된 비트의 수(270)는 모두 0인 것을 알 수 있다.In particular, it can be seen that the number of bits 270 allocated to class C 260 of frame type 0 to frame type 5 is all zero.

즉, 채널 환경 및 음성 활성도에 따라 결정된 저속의 AMR 코덱 모드(220)-여기서, 저속의 코덱 모드는 프레임 타입 0 내지 프레임 타입 5에 대응하는 코덱 모드임-의 경우에는 클래스 C(260)를 위한 데이터가 존재하지 않는 것을 알 수 있다.That is, in the case of a low speed AMR codec mode 220 determined according to channel environment and voice activity, wherein the low speed codec mode is a codec mode corresponding to frame type 0 to frame type 5, for class C 260. You can see that no data exists.

따라서, 본 발명은 AMR 코덱에서 해당 전송 주기에 대해 클래스 C(260)가 0bits인 프레임 타입이 선택된 경우, 해당 프레임에 사용자가 지정한 특정 데이터-여기서, 사용자가 지정한 특정 데이터는 단문 메시지, 멀티미디어 메시지, 음원 파일 등을 포함함-를 조합하여 전송하는 것이 가능한 음성 채널을 이용한 데이터 전송 방법을 제안하고자 한다.Therefore, in the present invention, when a frame type having a class C 260 of 0 bits is selected for a corresponding transmission period in the AMR codec, specific data designated by a user in the corresponding frame is included in the short message, multimedia message, The present invention proposes a data transmission method using a voice channel capable of transmitting a combination of a sound source file and the like.

도 3은 본 발명의 일 실시예에 따른 프레임 타입 별 코어 프레임 구조를 설명하기 위한 도면이다.3 is a diagram illustrating a core frame structure for each frame type according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명에 따른 코어 프레임 구조는 상기한 도 2에 도시된 코어 프레임 구조에 프레임 타입 8 내지 13을 더 포함하는 것을 알 수 있다.As shown in FIG. 3, it can be seen that the core frame structure according to the present invention further includes frame types 8 to 13 in the core frame structure shown in FIG. 2.

일반적으로, 음성 채널에 대한 전송 시간 간격(Transmission Time Interval : TTI)는 20ms이며, 협대역 AMR 코덱을 통해 제공 가능한 최대 데이터 전송 속도는 12.2Kbps이다. 따라서, 하나의 코어 프레임에 포함될 수 있는 최대 데이터 크기는 244bits(12.2Kbps/50frame=244bits/frame)가 된다. In general, the transmission time interval (TTI) for the voice channel is 20ms, and the maximum data rate that can be provided through the narrowband AMR codec is 12.2Kbps. Therefore, the maximum data size that can be included in one core frame is 244 bits (12.2 Kbps / 50frame = 244 bits / frame).

WCDMA의 경우, 채널 확산을 위한 부호화 코드로 OVSF(Orthogonal Variable Spreading Factor)가 사용되며, 음성 통화 서비스를 제공하기 위해서는 일반적으로 SF(Spreading Factor)=128인 직교 코드가 사용된다.In WCDMA, an Orthogonal Variable Spreading Factor (OVSF) is used as an encoding code for channel spreading, and an Orthogonal Code having Spreading Factor (128) is generally used to provide a voice call service.

하지만, AMR의 경우 음성 활성도에 따라 해당 TTI에서 전송되는 음성 데이터의 양이 가변적이므로 SF 128을 통해 전송할 수 있는 최대 전송 속도를 음성 통화 중에 계속적으로 사용하지 않는 특징이 있다.However, in case of AMR, since the amount of voice data transmitted from the corresponding TTI is variable according to voice activity, the maximum transmission rate that can be transmitted through SF 128 is not continuously used during a voice call.

본 발명의 일 실시예에 따른 코어 프레임 구조는 상기한 음성 채널 및 AMR 코덱의 특징을 고려하여 클래스 C에 할당된 비트가 0인 프레임에 대해 코어 프레임의 총 데이터 비트 수가 244bits가 되는 프레임 타입을 기존 코어 프레임 구조에 포함할 수 있다.The core frame structure according to an embodiment of the present invention is a frame type in which the total number of data bits of the core frame is 244 bits for a frame having 0 bits allocated to class C in consideration of the features of the voice channel and the AMR codec. It may be included in the core frame structure.

예를 들면, 프레임 타입 8은 기존 프레임 타입 0의 클래스 C(330)에 할당된 0bit 대신에 149bit를 할당하도록 정의할 수 있다. 이때, 프레임 타입 8의 총 비트 수는 244(42+53+149)bits가 된다.For example, frame type 8 may be defined to allocate 149 bits instead of 0 bits allocated to class C 330 of existing frame type 0. In this case, the total number of bits of frame type 8 is 244 (42 + 53 + 149) bits.

WCDMA의 경우, 코어 프레임에 포함되는 각 클래스는 별도의 전송 채널이 할당될 수 있으며-예를 들면, 클래스 A는 DCH1(Dedicated Channel #1), 클래스 B는 DCH2, 클래스 C는 DCH3로 할당될 수 있음-, 각 클래스에 대한 전송 포맷 정보는 호 설정 단계에서 이동 단말기 사이에 공유될 수 있다.In the case of WCDMA, each class included in the core frame may be allocated a separate transport channel, for example, class A may be allocated to DCH1 (Dedicated Channel # 1), class B to DCH2, and class C to DCH3. Yes-The transport format information for each class can be shared between mobile terminals in the call setup phase.

물론, 이동 단말기와 기지국 사이에서도 각 클래스에 대한 전송 포맷 정보가 공유되어야 함은 당업자에게 자명한 사실이다.Of course, it is obvious to those skilled in the art that transmission format information for each class should be shared between the mobile terminal and the base station.

이하의 설명에서는, WCDMA 망에서 기지국A에 접속된 제1 이동 단말기 및 제2 이동 단말기가 음성 통화를 하는 경우를 예를 들어, 제1 이동 단말기가 제2 이동 단말기에 코어 프레임의 프레임 타입 정보를 전달하는 과정을 간단히 설명하기로 한다In the following description, a case where a first mobile terminal and a second mobile terminal connected to base station A makes a voice call in a WCDMA network, for example, the first mobile terminal sends frame type information of the core frame to the second mobile terminal. I will briefly explain the process of delivery.

제1 이동 단말기는 매 전송 시간 주기 마다 결정된 프레임 타입에 상응하는 전송 포맷 조합 정보를 생성하며, 생성된 전송 포맷 조합 정보를 UL(Uplink) DPCCH(Dedicated Physical Control Channel)의 TFCI(Transport Format Combination Indicator) 필드를 통해 기지국A에 전송한다.The first mobile terminal generates transport format combination information corresponding to a frame type determined at every transmission time period, and the generated transport format combination information is transmitted to a transport format combination indicator (TFCI) of uplink (UL) dedicated physical control channel (DPCCH). Send to the base station A through the field.

기지국A는 UL DPCCH의 TFCI를 복호하여, 음성 프레임을 생성하며, 생성된 음성 프레임을 기지국 제어기에 송신한다.The base station A decodes the TFCI of the UL DPCCH, generates a voice frame, and transmits the generated voice frame to the base station controller.

기지국A가 기 송신한 음성 프레임을 기지국 제어기로부터 수신하는 경우, 해당 음성 프레임에 상응하는 TFCI를 생성한다.When the base station A receives the previously transmitted voice frame from the base station controller, the base station A generates a TFCI corresponding to the corresponding voice frame.

기지국A는 생성된 TFCI를 DL(Downlink) DPCCH에 매핑하여 제2 이동 단말기에 송신한다.Base station A maps the generated TFCI to DL (Downlink) DPCCH and transmits it to the second mobile terminal.

제2 이동 단말기는 수신된 DL DPCCH로부터 TFCI을 추출하고, 추출된 TFCI를 통해 해당 음성 프레임의 프레임 타입을 결정할 수 있다.The second mobile terminal may extract the TFCI from the received DL DPCCH and determine the frame type of the corresponding speech frame through the extracted TFCI.

만약, 프레임 타입이 데이터를 포함하는 프레임 타입-예를 들면, 도 3에 도시된 프레임 타입 8 내지 프레임 타입 13 중 어느 하나일 수 있음-인 경우, 해당 음성 프레임으로부터 삽입된 데이터를 추출할 수 있다.If the frame type is a frame type including data, for example, may be any one of frame type 8 to frame type 13 illustrated in FIG. 3, the inserted data may be extracted from the corresponding voice frame. .

도 4는 본 발명의 일 실시예에 따른 데이터 삽입 시 사용되는 클래스 C의 구조이다.4 is a structure of class C used for data insertion according to an embodiment of the present invention.

도 4를 참조하면, 클래스 C는 데이터 타입(410) 필드, 순차 번호(420) 필드, 데이터 길이(430) 필드, 데이터(440) 필드, 패딩(Padding, 450) 필드 및 오류 검출 코드(460)을 포함할 수 있다.Referring to FIG. 4, class C includes a data type 410 field, a sequence number 420 field, a data length 430 field, a data 440 field, a padding 450 field, and an error detection code 460. It may include.

이하의 설명에서, 음성 프레임에 데이터 삽입하는 경우, 클래스 C에 포함되는 정보를 '데이터 삽입 정보(Data Insert Information)'라 명하기로 한다.In the following description, when data is inserted into a voice frame, the information included in class C will be referred to as 'data insert information'.

여기서, 데이터 타입(410)은 데이터(440) 필드에 포함된 정보의 종류를 구분하기 위한 용도로 사용된다. 예를 들면, 데이터 타입은 단문 메시지 타입, 멀티미디어 메시지 타입, 음원 파일 타입 등을 포함할 수 있다.Here, the data type 410 is used to distinguish the type of information included in the data 440 field. For example, the data type may include a short message type, a multimedia message type, a sound source file type, and the like.

순차 번호(420)는 데이터가 하나의 클래스 C로 송신이 불가능한 경우, 분할(Segmentation)된 패킷에 할당되는 순차 번호이다.The sequence number 420 is a sequence number assigned to segmented packets when data cannot be transmitted in one class C.

수신측 이동 단말기는 수신된 순차 번호를 이용하여 패킷을 순차적으로 재조합할 수 있다.The receiving mobile terminal may sequentially reassemble the packets using the received sequence numbers.

데이터 길이(430) 필드는 클래스 C에 포함된 데이터(440)의 길이를 가리키기 위한 필드이다.The data length 430 field is a field for indicating the length of data 440 included in class C.

데이터(440) 필드 및 패딩(450) 필드는 미리 정의된 페이로드(payload) 영역 내에서 가변적인 길이를 갖는다. 여기서, 패딩(450)은 미리 설정된 특정 패턴-예를 들면, 모두 '0'-으로 채워질 수 있다.The data 440 field and the padding 450 field have variable lengths within a predefined payload region. Herein, the padding 450 may be filled with a predetermined specific pattern, for example, all zeros.

오류 검출 코드(460)는 클래스 C의 페이로드 영역에 오류가 존재하는지 여부를 판단하기 위한 오류 검출 코드로서, 소정의 길이를 갖는 CRC(Cyclic Redundancy Check) 코드일 수 있다.The error detection code 460 is an error detection code for determining whether an error exists in the payload region of the class C, and may be a cyclic redundancy check (CRC) code having a predetermined length.

수신측 이동 단말기는 CRC 코드 검출 시 오류가 감지된 경우, 해당 순차 번호에 상응하는 데이터의 재전송을 송신측 이동 단말기에 요청할 수 있다.When an error is detected when the CRC code is detected, the receiving mobile terminal may request the transmitting mobile terminal to retransmit data corresponding to the corresponding sequence number.

본 발명의 다른 일 실시예에 따르면, 데이터 삽입 시 사용되는 클래스 C는 재전송되는 데이터임을 지시하는 소정의 재전송 식별자를 더 포함할 수 있다.According to another embodiment of the present invention, the class C used for data insertion may further include a predetermined retransmission identifier indicating that the data is retransmitted data.

예를 들면, 재전송 식별자는 1bit의 길이를 가질 수 있으며, 0은 새로운 데이터, 1은 재전송 데이터임을 각각 지시할 수 있다.For example, the retransmission identifier may have a length of 1 bit, and may indicate that 0 is new data and 1 is retransmission data.

도 5는 종래 기술에 따른 가변 전송 레이트를 지원하는 음성 통화 채널의 특징을 설명하기 위한 도면이다.5 is a view for explaining the characteristics of the voice call channel supporting a variable transmission rate according to the prior art.

도 5에 도시된 바와 같이, 일반적인 음성 통화 채널은 전송 시간 주기(Transmission Time Interval) 마다 상이한 음성활성도(Voice Activity:VA)를 가질 수 있으며, 이에 따른 유휴 대역이 존재하는 것을 알 수 있다.As shown in FIG. 5, a general voice call channel may have different Voice Activity (VA) for each Transmission Time Interval, and thus, there is an idle band.

특히, 음성 통신의 경우, 초기 호 설정 시 할당된 자원은 해당 호가 종료될 때까지 변하지 않으며, 음성 활성도가 낮은 구간에서는 할당된 자원을 효과적으로 이용하지 못하는 문제점이 있다. 즉, 종래의 가변 전송 레이트를 지원하는 음성 통화 채널은 음성 활성도가 낮은 경우, 음성 사용 대역(530)에 비해 많은 유휴 대역(540)이 존재하는 문제점이 있었다. In particular, in the case of voice communication, the resources allocated during the initial call setup do not change until the call ends, and there is a problem in that the allocated resources cannot be effectively used in a section in which voice activity is low. That is, the conventional voice call channel supporting the variable transmission rate has a problem in that there are many idle bands 540 when the voice activity is low, compared to the voice use band 530.

도 5를 참조하면, 제1 전송구간(510)은 음성활성도가 0.8이므로 할당된 자원에 대한 이용 효율이 높다. 반면, 제3 전송구간(520)은 음성활성도가 0-예를 들면, 묵음 구간-이므로 할당된 자원의 이용 효율이 매우 낮은 특징이 있다.Referring to FIG. 5, since the voice activity is 0.8, the first transmission section 510 has a high utilization efficiency for allocated resources. On the other hand, the third transmission section 520 has a feature that the utilization efficiency of the allocated resources is very low since the voice activity is 0-for example, the silent section.

도 6는 본 발명의 일 실시예에 따른 가변 전송 레이트를 지원하는 음성 통화 채널의 특징을 설명하기 위한 도면이다.6 is a view for explaining a feature of a voice call channel supporting a variable transmission rate according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 본 발명은 음성 활성도에 따라 존재하는 유휴 대역(530)을 특정 데이터의 전송을 위해 사용하는 것을 특징으로 한다. 즉, 본 발명은 하나의 음성 통화 채널을 통해 음성 통신 서비스 및 데이터 통신 서비스를 동시에 제공할 수 있다.As shown in FIG. 6, the present invention is characterized by using the idle band 530 existing according to voice activity for transmission of specific data. That is, the present invention can simultaneously provide a voice communication service and a data communication service through one voice call channel.

따라서, 본 발명은 상기한 도 5에 도시된 유휴 대역(540)을 데이터 전송을 위해 사용함으로써, 음성 통화 채널에 할당된 자원의 이용 효율을 극대화시킬 수 있는 장점이 있다.Therefore, the present invention has an advantage of maximizing the utilization efficiency of resources allocated to the voice call channel by using the idle band 540 shown in FIG. 5 for data transmission.

이하의 설명에서는 음성 통화에 할당된 대역 중 데이터 전송을 위해 사용되는 대역을 데이터 전송 대역(620)이라 명하기로 한다.In the following description, a band used for data transmission among the bands allocated to the voice call will be referred to as a data transmission band 620.

도 7은 본 발명의 일 실시예에 따른 음성 채널을 이용한 단문 메시지 전송 절차를 설명하기 위한 도면이다.7 is a diagram illustrating a short message transmission procedure using a voice channel according to an embodiment of the present invention.

좀 더 상세하게는, 도 7은 제1 이동 단말기(710)과 제2 이동 단말기(720) 사이의 음성 통화 채널이 설정된 경우, 제1 이동 단말기(710)가 설정된 음성 통화 채널을 통해 단문 메시지를 제2 이동 단말기(720)에 전송하는 절차를 도시한 도면이다.More specifically, FIG. 7 illustrates that when a voice call channel is established between the first mobile terminal 710 and the second mobile terminal 720, the first mobile terminal 710 transmits a short message through the established voice call channel. FIG. 2 is a diagram illustrating a procedure for transmitting to the second mobile terminal 720. Referring to FIG.

WCDMA의 경우, 음성 통화 채널은 이동 통신 시스템과의 제어 메시지 송수신 을 위한 시그널링 무선 베어러(Signaling Radio Bearer, 이하, 'SRB'이라 함)와 실제적인 음성 정보를 전달하기 위한 무선 베어러(Radio Bearer, 이하, 'RB'이라 함)로 구성될 수 있다.In the case of WCDMA, a voice call channel includes a signaling radio bearer (hereinafter referred to as SRB) for transmitting and receiving a control message with a mobile communication system and a radio bearer (hereinafter referred to as a radio bearer) for transmitting actual voice information. , RB).

특히, 본 발명은 단문 메시지를 음성 통화 채널에 상응하여 할당된 SRB가 아닌 RB를 통해 전송함을 주의해야 한다.In particular, it should be noted that the present invention transmits the short message through the RB rather than the SRB assigned to the voice call channel.

도 8은 본 발명의 일 실시예에 따른 음성 채널을 이용한 단문 메시지 송신 절차를 도시한 순서도이다.8 is a flowchart illustrating a short message transmission procedure using a voice channel according to an embodiment of the present invention.

좀 더 상세하게는, 도 8은 제1 이동 단말기에서 제2 이동 단말기에 음성 채널을 통해 단문 메시지를 송신하는 절차를 설명하기 위한 순서도이다.In more detail, FIG. 8 is a flowchart illustrating a procedure of transmitting a short message through a voice channel from a first mobile terminal to a second mobile terminal.

제1 이동 단말기는 제2 이동 단말기와 소정의 호 처리 절차를 통해 음성 통화 채널을 설정한다(S810).The first mobile terminal establishes a voice call channel through a predetermined call processing procedure with the second mobile terminal (S810).

여기서, 제1 이동 단말기는 음성 통화 채널이 설정된 경우, 마이크를 통해 입력되는 음성 신호를 주기적으로 AMR 인코딩하여 AMR 코덱 프레임을 생성한다.Here, when the voice call channel is set, the first mobile terminal periodically generates AMR codec frames by AMR encoding the voice signal input through the microphone.

제1 이동 단말기는 소정의 단문 메시지 전송 요청 신호를 수신하는 경우(S820), 현재 음성 활성도 및 무선 채널 환경에 따라 전송 요청된 단문 메시지를 현재 음성 프레임-예를 들면, AMR 코덱 프레임-에 삽입 가능한지 여부를 판단한다(S830).When the first mobile terminal receives a predetermined short message transmission request signal (S820), whether the first mobile terminal can insert the short message requested to be transmitted into the current voice frame (eg, an AMR codec frame) according to the current voice activity and the wireless channel environment. It is determined whether or not (S830).

판단 결과, 단문 메시지의 삽입이 가능한 것으로 판단된 경우, 제1 이동 단말기는 해당 음성 프레임에 단문 메시지를 삽입하는 음성 프레임 재구성 절차를 수 행한다(S840).If it is determined that the short message can be inserted, the first mobile terminal performs a voice frame reconstruction procedure for inserting the short message into the corresponding voice frame (S840).

제1 이동 단말기는 재구성된 음성 프레임을 상기한 810 단계에서 설정된 음성 통화 채널을 통해 제2 이동 단말기에 전송한다(S850).The first mobile terminal transmits the reconstructed voice frame to the second mobile terminal through the voice call channel set up in step 810 (S850).

상기한 830 단계의 판단 결과, 단문 메시지의 삽입이 불가능한 것으로 판단된 경우, 제1 이동 단말기는 생성된 AMR 코덱 프레임을 소정의 기저 대역 처리를 거쳐 제2 이동 단말기에 전송한다. If it is determined in step 830 that it is impossible to insert the short message, the first mobile terminal transmits the generated AMR codec frame to the second mobile terminal through predetermined baseband processing.

도 9는 본 발명의 일 실시예에 따른 음성 채널을 이용한 단문 메시지 수신 절차를 도시한 순서도이다.9 is a flowchart illustrating a procedure of receiving a short message using a voice channel according to an embodiment of the present invention.

좀 더 상세하게는, 도 9는 제1 이동 단말기가 음성 통화 채널을 통해 단문 메시지를 제2 이동 단말기에 전송하는 경우, 제2 이동 단말기가 해당 음성 통화 채널에 포함된 단문 메시지를 추출하는 방법을 설명하기 위한 도면이다. More specifically, FIG. 9 illustrates a method in which the second mobile terminal extracts the short message included in the voice call channel when the first mobile terminal transmits the short message to the second mobile terminal through the voice call channel. It is a figure for demonstrating.

제2 이동 단말기는 소정의 호 처리 절차를 통해 제1 이동 단말기와의 음성 통화 채널을 설정한다(S910).The second mobile terminal establishes a voice call channel with the first mobile terminal through a predetermined call processing procedure (S910).

제2 이동 단말기는 수신된 음성 프레임에 단문 메시지가 포함되었는지 여부를 판단한다(S920).The second mobile terminal determines whether a short message is included in the received voice frame (S920).

판단 결과, 해당 음성 프레임에 단문 메시지가 포함된 경우, 제2 이동 단말기는 해당 음성 프레임으로부터 AMR 코덱 프레임 및 단문 메시지를 추출한다(S930).As a result of the determination, when the short message is included in the corresponding speech frame, the second mobile terminal extracts the AMR codec frame and the short message from the corresponding speech frame (S930).

제2 이동 단말기는 추출된 단문 메시지를 소정의 메시지 수신함에 저장하고, 소정의 수신 통보 메시지를 출력할 수 있다(S940).The second mobile terminal may store the extracted short message in a predetermined message inbox and output a predetermined reception notification message (S940).

제2 이동 단말기는 상기한 930 단계에서 추출된 AMR 코덱 프레임의 복호를 통해 음성 신호를 생성하며, 생성된 음성 신호를 스피커를 통해 출력한다(S960).The second mobile terminal generates a voice signal through decoding of the AMR codec frame extracted in step 930, and outputs the generated voice signal through a speaker (S960).

상기한 920 단계에서, 만약 해당 음성 프레임에 단문 메시지가 포함되지 않는 경우, 제2 이동 단말기는 수신된 음성 프레임으로부터 AMR 코덱 프레임을 추출한 후(S950) 추출된 AMR 코덱 프레임의 복호를 통해 생성된 음성 신호를 스피커를 통해 출력한다(S960).In step 920, if the short message is not included in the corresponding speech frame, the second mobile terminal extracts an AMR codec frame from the received speech frame (S950) and then generates a speech generated by decoding the extracted AMR codec frame. The signal is output through the speaker (S960).

도 10은 본 발명의 일 실시예에 따른 음성 통화 채널을 이용한 단문 메시지 전송 절차를 도시한 흐름도이다.10 is a flowchart illustrating a short message transmission procedure using a voice call channel according to an embodiment of the present invention.

도 10을 참조하면, 제1 이동 단말기(1010)와 제2 이동 단말기(1020)는 음성 통화 채널이 설정된 경우, 설정된 음성 통화 채널을 통해 음성을 송수신한다(S1010).Referring to FIG. 10, when the voice call channel is set, the first mobile terminal 1010 and the second mobile terminal 1020 transmit and receive voice through the set voice call channel (S1010).

여기서, 음성 통화 채널은 RB(Radio Bearer) 및 SRB(Signaling Radio Bearer)로 구성될 수 있으며, 사용자 음성 신호는 RB를 통해 전송된다.Here, the voice call channel may be composed of a radio bearer (RB) and a signaling radio bearer (SRB), and a user voice signal is transmitted through the RB.

이때, 이동 단말기는 마이크를 통해 입력되는 음성 신호를 AMR 코딩하여 매 전송 시간 주기-예를 들면, WCMDA의 경우 20ms임-마다 소정의 음성 프레임을 생성한다. At this time, the mobile terminal AMR-codes the voice signal input through the microphone to generate a predetermined voice frame every transmission time period, for example, 20 ms in the case of WCMDA.

이동 단말기는 해당 전송 시간 주기 동안의 음성 활성도 및 무선 채널 환경에 따라 적절한 프레임 타입을 결정하며, 이동 단말기는 결정된 프레임 타입에 따 라 음성 프레임을 재구성한다.The mobile terminal determines an appropriate frame type according to the voice activity and the radio channel environment during the corresponding transmission time period, and the mobile terminal reconstructs the voice frame according to the determined frame type.

해당 음성 프레임은 소정의 기저 대역 처리 및 무선 주파수 처리를 거쳐 상대측 이동 단말기에 전송된다.The voice frame is transmitted to the counterpart mobile terminal through predetermined baseband processing and radio frequency processing.

만약, 제1 이동 단말기(1010)가 음성 통화 중에 사용자로부터 소정의 단문 메시지 전송 요청 신호를 수신하는 경우(S1020), 제1 이동 단말기(1010)는 최근 생성된 음성 프레임상에 전송 요청된 단문 메시지의 삽입이 가능한지 여부를 판단한다(S1040).If the first mobile terminal 1010 receives a predetermined short message transmission request signal from the user during a voice call (S1020), the first mobile terminal 1010 transmits the short message requested to be transmitted on the recently generated voice frame. It is determined whether the insertion is possible (S1040).

여기서, 단문 메시지의 삽입 가능 여부는 해당 음성 프레임에 상응하는 음성 활성도 및 현재의 무선 채널 환경을 고려하여 결정될 수 있다.Here, whether the short message can be inserted may be determined in consideration of voice activity corresponding to the corresponding voice frame and the current wireless channel environment.

예를 들면, 제1 이동 단말기(1010)는 음성 활성도가 낮더라도 무선 채널 환경이 나쁜 경우에는 해당 음성 프레임에 단문 메시지를 삽입하지 않을 수 있다.For example, even if the voice activity is low, the first mobile terminal 1010 may not insert a short message in a corresponding voice frame when the wireless channel environment is bad.

반면, 제1 이동 단말기(1010)는 음성 활성도가 낮고 무선 채널 환경이 좋은 경우 해당 음성 프레임에 단문 메시지를 삽입하여 제2 이동 단말기(1020)에 전송할 수 있다.On the other hand, when the voice activity is low and the wireless channel environment is good, the first mobile terminal 1010 may insert a short message into the corresponding voice frame and transmit the short message to the second mobile terminal 1020.

상기한 1040 단계에서, 만약, 단문 메시지의 삽입이 가능한 것으로 판단된 경우, 제1 이동 단말기(1010)는 해당 음성 프레임에 단문 메시지를 삽입하여 제2 이동단말기(1020)에 송신한다(S1070).In step 1040, if it is determined that the short message can be inserted, the first mobile terminal 1010 inserts the short message into the corresponding voice frame and transmits the short message to the second mobile terminal 1020 (S1070).

여기서, 제1 이동 단말기(1010)는 단문 메시지의 크기에 따라 적절한 프레임 타입을 선택해야 하며, 선택된 프레임 타입에 따라 해당 음성 프레임을 단문 메시지가 삽입된 음성 프레임으로 재구성한다.Here, the first mobile terminal 1010 needs to select an appropriate frame type according to the size of the short message, and reconfigures the corresponding voice frame into a voice frame into which the short message is inserted according to the selected frame type.

즉. 제1 이동 단말기(1010)는 상기한 음성 프레임의 재구성을 통해 사용자의 음성 정보 및 단문 메시지를 포함하는 새로운 음성 프레임을 생성할 수 있다.In other words. The first mobile terminal 1010 may generate a new voice frame including the user's voice information and a short message through the reconstruction of the voice frame.

상기한 1040 단계에서, 해당 음성 프레임에 전송 요청된 단문 메시지의 삽입이 불가능한 경우, 제1 이동 단말기(1010)는 해당 음성 프레임을 재구성하지 않고, 제2 이동 단말기(1020)에 송신한다(S1050). 이 후, 제1 이동 단말기(1010)는 다음으로 생성된 음성 프레임에 해당 단문 메시지의 삽입이 가능한지 여부를 판단할 수 있다.In step 1040, when it is impossible to insert the short message requested to be transmitted to the corresponding voice frame, the first mobile terminal 1010 transmits to the second mobile terminal 1020 without reconfiguring the corresponding voice frame (S1050). . Thereafter, the first mobile terminal 1010 may determine whether the short message can be inserted into the next generated voice frame.

제2 이동 단말기(1020)는 무선 주파수 처리 및 기저 대역 처리를 통해 매 전송 시간 주기마다 음성 프레임을 복호한다(S1080).The second mobile terminal 1020 decodes the voice frame at every transmission time period through radio frequency processing and baseband processing (S1080).

제2 이동 단말기(1020)는 복호된 음성 프레임에 단문 메시지가 포함되었는지 여부를 판단한다(S1082).The second mobile terminal 1020 determines whether a short message is included in the decoded voice frame (S1082).

WCDMA의 경우, 제2 이동 단말기(1020)는 단문 메시지의 포함 여부를 DL DPCCH을 통해 수신한 해당 음성 프레임에 상응하는 TFCI를 이용하여 판단할 수 있다. In the case of WCDMA, the second mobile terminal 1020 may determine whether the short message is included using the TFCI corresponding to the corresponding speech frame received through the DL DPCCH.

즉, 제2 이동 단말기(1020)는 TFCI를 통해 프레임 타입을 확인할 수 있으며, 프레임 타입에 따라 음성 프레임에 단문 메시지가 포함되었는지 여부를 확인할 수 있다.That is, the second mobile terminal 1020 may check the frame type through the TFCI, and may determine whether the short message is included in the voice frame according to the frame type.

판단 결과, 해당 음성 프레임에 단문 메시지가 포함된 경우, 제2 이동 단말기(1020)는 해당 음성 프레임으로부터 음성 정보-예를 들면, AMR 코덱 프레임일 수 있음- 및 단문 메시지를 추출하고, 추출된 단문 메시지를 소정의 기록 영역에 저장 할 수 있다(S1084). 이때, 추출된 음성 정보는 제2 이동 단말기(1020)에 구비된 음성 디코더를 통해 복호되어 스피커를 통해 재생될 수 있다(S1086).As a result of the determination, when the short message is included in the speech frame, the second mobile terminal 1020 extracts the speech information (for example, may be an AMR codec frame) and the short message from the speech frame, and extracts the short text. The message may be stored in a predetermined recording area (S1084). In this case, the extracted voice information may be decoded through a voice decoder provided in the second mobile terminal 1020 and reproduced through a speaker (S1086).

상기한 1082 단계에 있어서, 복호된 음성 프레임에 단문 메시지가 포함되지 않은 경우, 제2 이동 단말기(1020)는 복호된 음성 프레임을 AMR 디코더를 이용하여 재생한다.In step 1082, when the short message is not included in the decoded voice frame, the second mobile terminal 1020 reproduces the decoded voice frame using the AMR decoder.

도 11은 본 발명의 일 실시예에 따른 음성 통화 채널을 이용한 데이터 전송을 제공하는 이동 단말기의 블록도이다.11 is a block diagram of a mobile terminal providing data transmission using a voice call channel according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 본 발명에 따른 이동 단말기(1100)는 마이크(1102), 프레임 타입 결정부(1104), 음성 인코더(1106), 데이터 전송 스케줄러(1108), 음성 프레임 재구성부(1112), 기저대역처리부(1114), 무선주파수처리부(1116), 안테나(1118), 제어 메시지 처리부(1120), 음성 프레임 분석부(1122), 음성 디코더(1124), 스피커(1126), 음원 파일 재생부(1128), 데이터 처리부(1130) 및 표시부(1132)를 포함할 수 있다.As shown in FIG. 11, the mobile terminal 1100 according to the present invention includes a microphone 1102, a frame type determiner 1104, a voice encoder 1106, a data transmission scheduler 1108, and a voice frame reconstruction unit 1112. ), Baseband processor 1114, radio frequency processor 1116, antenna 1118, control message processor 1120, voice frame analyzer 1122, voice decoder 1124, speaker 1126, sound file playback The unit 1128, a data processor 1130, and a display unit 1132 may be included.

여기서, 음성 인코더(1106) 및 음성 디코더(1124)는 하나의 모듈-예를 들면, 음성 코덱-로 구성될 수도 있음을 주의해야 한다.Here, it should be noted that the speech encoder 1106 and speech decoder 1124 may be composed of one module, for example, a speech codec.

특히, 본 발명에 따른 음성 코덱은 적응적 가변 전송 레이트를 지원할 수 있다.In particular, the speech codec according to the present invention may support an adaptive variable transmission rate.

이하의 설명에서는 본 발명의 일 실시예에 따른 이동 단말기에서 음성 프레임의 생성 및 이를 송출하는 절차를 도 11을 참조하여 상세히 설명하기로 한다.In the following description, a procedure for generating and transmitting a voice frame in a mobile terminal according to an embodiment of the present invention will be described in detail with reference to FIG. 11.

도 11을 참조하면, 프레임 타입 결정부(1104)는 마이크(1102)를 통해 입력된 사용자 음성의 음성 활성도 산출하며, 산출된 음성 활성도 및 기저대역처리부(1114)로부터 측정된 무선 채널 환경 정보를 이용하여 음성 프레임의 프레임 타입을 결정한다.Referring to FIG. 11, the frame type determiner 1104 also calculates voice activity of a user voice input through the microphone 1102, and uses the calculated voice activity and wireless channel environment information measured by the baseband processor 1114. Frame type of the audio frame is determined.

여기서, 프레임 타입은 음성 프레임의 매 전송 시간 주기(Transmission Time Interval : TTI) 마다 결정될 수 있으며, 결정된 프레임 타입은 데이터 전송 스케줄러(1108) 및 음성 인코더(1106)에 제공될 수 있다.Herein, the frame type may be determined for every transmission time interval (TTI) of the voice frame, and the determined frame type may be provided to the data transmission scheduler 1108 and the voice encoder 1106.

또한, 프레임 타입 결정부(1104)는 프레임 타입뿐만 아니라 음성 활성도 및 무선 채널 환경 정보를 데이터 전송 스케줄러(1108)에 제공할 수 있다.In addition, the frame type determiner 1104 may provide not only the frame type but also voice activity and radio channel environment information to the data transmission scheduler 1108.

음성 인코더(1106)는 수신된 프레임 타입에 따라 음성 신호를 인터코딩하여 음성 프레임을 생성한다.The voice encoder 1106 generates a voice frame by intercoding the voice signal according to the received frame type.

특히, 본 발명에 따른 음성 인코더(1106)는 AMR과 같은 가변 전송 레이트(Variable Transmission Rate)를 지원한다.In particular, the voice encoder 1106 according to the present invention supports a variable transmission rate such as AMR.

데이터 전송 스케줄러(1108)는 프레임 타입 결정부(1104)로부터 수신된 프레임 타입, 음성 활성도, 무선 채널 환경 정보 중 적어도 하나를 이용하여 전송 요청된 데이터를 해당 음성 프레임에 삽입 가능한지 여부를 판단할 수 있다.The data transmission scheduler 1108 may determine whether data requested to be transmitted may be inserted into a corresponding voice frame using at least one of the frame type, voice activity, and wireless channel environment information received from the frame type determiner 1104. .

여기서, 데이터는 단문 메시지, 음원 파일, 멀티미디어 메시지 등을 포함할 수 있으며, 데이터 종류 별로 고유한 데이터 타입 식별자가 정의될 수 있다.Here, the data may include a short message, a sound source file, a multimedia message, and the like, and a unique data type identifier may be defined for each data type.

만약, 해당 음성 프레임에 특정 데이터의 삽입이 가능한 경우, 데이터 전송 스케줄러(1108)는 데이터 삽입에 따른 새로운 프레임 타입-이하, '재구성 프레임 타입'이라 함-을 결정할 수 있다.If specific data can be inserted into the corresponding speech frame, the data transmission scheduler 1108 may determine a new frame type according to the data insertion, hereinafter referred to as a 'reconstructed frame type'.

데이터 전송 스케줄러(1108)는 결정된 재구성 프레임 타입, 데이터 타입 식별자, 데이터 길이 식별자 및 데이터 시작 주소를 음성 프레임 재구성부(1112)에 제공할 수 있다.The data transmission scheduler 1108 may provide the voice frame reconstruction unit 1112 with the determined reconstruction frame type, data type identifier, data length identifier, and data start address.

이하의 설명에서는 상기한 재구성 프레임 타입, 데이터 타입 식별자, 데이터 길이 식별자 및 데이터 시작 주소를 간단히 '음성 프레임 재구성 정보'라 명하기로 한다.In the following description, the reconstruction frame type, data type identifier, data length identifier, and data start address will be simply referred to as 'voice frame reconstruction information'.

여기서, 데이터 길이 식별자는 삽입할 데이터의 크기를 가리키며, 데이터 시작 주소는 해당 데이터가 저장된 기록 매체-여기서, 기록 매체는 데이터 저장부(1110)임-상에서의 상대적인 주소 정보를 가리킨다.Here, the data length identifier indicates the size of the data to be inserted, and the data start address indicates relative address information on the recording medium in which the data is stored, where the recording medium is the data storage unit 1110.

반면, 해당 음성 프레임에 특정 데이터의 삽입이 불가능한 경우, 데이터 전송 스케줄러(1108)는 해당 전송 시간 구간에 재구성할 데이터가 존재하지 않음을 지시하는 소정의 제어 신호를 음성 프레임 재구성부(1112)에 제공할 수 있다.On the other hand, when it is impossible to insert specific data into the corresponding speech frame, the data transmission scheduler 1108 provides a predetermined control signal to the speech frame reconstruction unit 1112 indicating that there is no data to be reconstructed in the corresponding transmission time interval. can do.

본 발명의 다른 일 실시예에 따르면, 음성 프레임 재구성부(1112)는 데이터 전송 스케줄러(1108)로부터 일정 시간 동안 음성 프레임 재구성 정보를 수신하지 못한 경우, 해당 전송 시간 주기에 상응하는 음성 프레임은 재구성되지 않는 것으로 판단할 수 있다.According to another embodiment of the present invention, when the speech frame reconstruction unit 1112 does not receive the speech frame reconstruction information from the data transmission scheduler 1108 for a predetermined time, the speech frame corresponding to the corresponding transmission time period is not reconstructed. You can judge that you do not.

음성 프레임 재구성부(1112)는 데이터 전송 스케줄러(1108)로부터 수신된 음성 프레임 재구성 정보 및 음성 인코더(1106)으로부터 수신된 음성 프레임을 이용하여 음성 프레임을 재구성할 수 있다.The speech frame reconstruction unit 1112 may reconstruct the speech frame using the speech frame reconstruction information received from the data transmission scheduler 1108 and the speech frame received from the speech encoder 1106.

음성 프레임 재구성부(1112)가 재구성된 음성 프레임 정보를 기저대역처리부(1114)에 송신하며, 기저대역처리부(1114)는 수신된 음성 프레임에 대한 소정의 기저 대역 처리된 신호를 무선 주파수 처리부(1116)에 전송할 수 있다.The speech frame reconstruction unit 1112 transmits the reconstructed speech frame information to the baseband processor 1114, and the baseband processor 1114 transmits a predetermined baseband processed signal for the received speech frame to the radio frequency processor 1116. ) Can be sent.

본 발명의 다른 일 실시예에 따르면, 데이터 전송 스케줄러(1108) 및 음성 프레임 재구성부(1112)는 하나의 모듈로 구성될 수 있으며, 이하의 설명에서는 이를 '재구성 스케줄러'라 명하기로 한다.According to another embodiment of the present invention, the data transmission scheduler 1108 and the voice frame reconstruction unit 1112 may be configured as a single module, which will be referred to as a reconstruction scheduler in the following description.

즉, 재구성 스케줄러는 음성 프레임에 데이터가 삽입 가능한지 여부를 판단하는 수단, 데이터가 삽입 가능한 경우 음성 프레임 재구성 정보를 생성하는 수단, 생성된 음성 프레임 재구성 정보 및 음성 인코더(1106)에 의해 생성된 음성 프레임을 이용하여 재구성 음성 프레임을 생성하는 수단, 생성된 재구성 음성 프레임을 기저대역처리부(1114)에 전송하는 수단 등을 포함할 수 있다.In other words, the reconstruction scheduler includes means for determining whether data can be inserted into the speech frame, means for generating speech frame reconstruction information if the data can be inserted, speech frame reconstruction information generated and the speech frame generated by the speech encoder 1106. Means for generating a reconstructed speech frame using the means, means for transmitting the generated reconstructed speech frame to the baseband processor 1114, and the like.

또한, 재구성 스케줄러는 기저대역처리부(1114)로부터 기 전송한 데이터에 오류가 발생했음을 알리는 소정의 재전송 제어 메시지를 수신하는 경우, 해당 데이터를 재전송하는 수단을 제공할 수 있다.In addition, when the reconfiguration scheduler receives a predetermined retransmission control message indicating that an error has occurred in the data previously transmitted from the baseband processor 1114, the reconfiguration scheduler may provide a means for retransmitting the corresponding data.

본 발명의 일 실시예에 따른 WCDMA 방식을 지원하는 기저 대역 처리부는 3GPP 표준에 정의된 오류 감지 코드 삽입(CRC attachment), 채널 코딩(Channel Coding), 인터리빙(Interleaving), 전송 채널 다중화(Transport Channel Multiplexing), 레이트 매칭(Rate Matching), 물리 채널 매핑(Physical Channel Mapping), 확산(Spreading), 스크램블링(Scrambling), 변조(Modulation) 등의 다양한 기능을 수행할 수 있다.The baseband processor supporting the WCDMA scheme according to an embodiment of the present invention includes error detection code insertion (CRC attachment), channel coding, interleaving, and transport channel multiplexing defined in the 3GPP standard. ), Rate matching, physical channel mapping, spreading, scrambling, modulation, and the like.

특히, 기저 대역 처리부(1114)는 재구성된 음성 프레임의 코어 프레임 포맷 정보를 소정의 물리 제어 채널을 통해 수신측 이동 단말기에 송신할 수 있다.In particular, the baseband processor 1114 may transmit the core frame format information of the reconstructed speech frame to the receiving mobile terminal through a predetermined physical control channel.

예를 들면, WCDMA의 경우, 상기한 물리 제어 채널은 UL DPCCH일 수 있으며, 기저 대역 처리부(1114)는 UL DPCCH에 정의된 TFCI 필드를 이용해서 데이터가 삽입된 음성 프레임의 코어 프레임 포맷 정보를 수신측 이동 단말기에 송신할 수 있다.For example, in the case of WCDMA, the physical control channel may be a UL DPCCH, and the baseband processor 1114 receives the core frame format information of the voice frame into which data is inserted using the TFCI field defined in the UL DPCCH. It can transmit to the side mobile terminal.

수신측 이동 단말기는 기지국을 통해 수신되는 DL DPCCH의 TFCI를 복호하여 해당 음성 프레임의 코어 프레임 포맷 정보-즉, 음성 프레임의 프레임 타입-를 획득할 수 있으며, 이를 통해 해당 음성 프레임에 데이터가 삽입되었는지 여부를 확인할 수 있다.The receiving mobile terminal can obtain the core frame format information of the corresponding speech frame (that is, the frame type of the speech frame) by decoding the TFCI of the DL DPCCH received through the base station. You can check whether or not.

무선 주파수 처리부(116)는 수신된 기저 대역 신호를 미리 정의된 무선 주파수 대역으로 상향 주파수 변환하여 안테나(118)에 제공할 수 있다.The radio frequency processor 116 may up-convert the received baseband signal to a predefined radio frequency band and provide the received baseband signal to the antenna 118.

이하의 설명에서는 본 발명의 일 실시예에 따른 이동 단말기가 안테나(118)에 인입된 무선 신호를 복호하여 음성 프레임에 포함된 데이터를 추출하는 과정을 도 11을 참조하여 상세히 설명하기로 한다. In the following description, a process of extracting data included in a voice frame by decoding a wireless signal introduced into an antenna 118 by a mobile terminal according to an embodiment of the present invention will be described in detail with reference to FIG. 11.

도 11을 참조하면, 무선 주파수 처리부(1116)는 안테나(1118)로부터 수신된 무선 신호를 하향 주파수 변환하여 기저 대역 신호를 생성한다.Referring to FIG. 11, the radio frequency processor 1116 down-converts a radio signal received from the antenna 1118 to generate a baseband signal.

기저 대역 처리부(1114)는 무선 주파수 처리부(1116)로부터 수신된 기저 대역 신호를 기저 대역 처리하여 음성 프레임을 획득하며, 획득된 음성 프레임을 음성 프레임 분석부(1122)에 전송한다.The baseband processor 1114 may baseband process the baseband signal received from the radio frequency processor 1116 to obtain a voice frame, and transmit the acquired voice frame to the voice frame analyzer 1122.

음성 프레임 분석부(1122)는 수신된 음성 프레임에 데이터가 포함되어 있는 지 여부를 확인할 수 있다.The voice frame analyzer 1122 may check whether data is included in the received voice frame.

만약, 수신된 음성 프레임에 데이터가 포함된 경우, 음성 프레임 분석부(1122)는 해당 음성 프레임으로부터 음성 정보 및 데이터 정보를 추출할 수 있다.If data is included in the received voice frame, the voice frame analyzer 1122 may extract voice information and data information from the voice frame.

음성 프레임 분석부(1122)는 추출된 음성 정보 및 데이터 정보를 각각 음성 디코더(1124) 및 데이터 처리부(1130)에 전송할 수 있다.The voice frame analyzer 1122 may transmit the extracted voice information and the data information to the voice decoder 1124 and the data processor 1130, respectively.

데이터 처리부(1130)는 수신된 데이터 정보를 표시부(1132)에 표시할 수 있으며, 데이터 정보에 포함된 실제 데이터를 추출하여 데이터 저장부(110)의 소정의 기록 영역에 저장할 수 있다.The data processor 1130 may display the received data information on the display unit 1132, and extract actual data included in the data information and store the data in a predetermined recording area of the data storage unit 110.

여기서, 데이터 정보는 상기한 도 4에 도시된 데이터 타입(410), 순차 번호(420), 데이터 길이(430), 데이터(440), 오류 검출 코드(460) 중 적어도 하나를 포함할 수 있다.Here, the data information may include at least one of the data type 410, the sequence number 420, the data length 430, the data 440, and the error detection code 460 illustrated in FIG. 4.

또한, 데이터 처리부(1130)는 수신된 오류 검출 코드(460)를 이용하여 데이터(440)의 오류 여부를 판단할 수 있다.In addition, the data processor 1130 may determine whether the data 440 is an error by using the received error detection code 460.

만약, 특정 데이터에 오류가 발생된 경우, 데이터 처리부(1130)는 오류가 발생된 데이터에 대응하는 순차 번호(420)를 포함하는 소정의 재전송 요구 신호를 데이터 전송 스케줄러(1108)에 송신할 수 있다.If an error occurs in the specific data, the data processor 1130 may transmit a predetermined retransmission request signal including the sequence number 420 corresponding to the data in which the error occurs to the data transfer scheduler 1108. .

이때, 데이터 전송 스케줄러(1108)는 재전송 요구 신호를 수신하는 경우, 수신된 순차 번호에 상응하는 데이터의 재전송을 요구하는 재전송 요구 메시지를 생성하여 제어 메시지 처리부(1120)에 전송할 수 있다. In this case, when receiving the retransmission request signal, the data transmission scheduler 1108 may generate a retransmission request message requesting retransmission of data corresponding to the received sequence number and transmit the retransmission request message to the control message processor 1120.

제어 메시지 처리부(1120)는 재전송 요구 메시지를 수신하면, 미리 정의된 전송 채널-여기서, 전송 채널은 SRB를 위해 할당된 전송 채널일 수 있음-에 매핑하여 기저 대역 처리부(1114)에 전송할 수 있다. When the control message processor 1120 receives the retransmission request message, the control message processor 1120 may transmit a mapping to the baseband processor 1114 by mapping to a predefined transport channel, where the transport channel may be a transport channel allocated for the SRB.

기저 대역 처리부(114)는 해당 전송 채널을 통해 수신된 재전송 요구 메시지를 물리 채널에 매핑하여 상대 이동 단말기에 전송할 수 있다.The baseband processor 114 may map the retransmission request message received through the corresponding transport channel to the physical channel and transmit the mapped retransmission request message to the counterpart mobile terminal.

음성 디코더는(1124)는 수신된 음성 정보를 디코딩하여 음성 신호를 생성하며, 생성된 음성 신호를 스피커(1126)를 통해 출력될 수 있다.The voice decoder 1124 may decode the received voice information to generate a voice signal, and output the generated voice signal through the speaker 1126.

음원 파일 재생부(1128)는 재생 요청된 음원 파일을 데이터 저장부(1110)로부터 독출하여 재생하는 기능을 수행하며, 재생된 신호는 스피커(1126)를 통해 출력될 수 있다.The sound source file reproducing unit 1128 reads and reproduces the requested sound source file from the data storage unit 1110, and the reproduced signal may be output through the speaker 1126.

예를 들면, 음원 파일 재생부(1128)는 음성 통화 중에 배경 음악의 재생이 요청된 경우, 해당 배경 음악을 데이터 저장부(1110)로부터 독출하여 재생할 수 있다.For example, if a music file playback unit 1128 is requested to play background music during a voice call, the sound source file playback unit 1128 may read out the background music from the data storage unit 1110 and play it back.

이때, 재생된 배경 음악은 음성 신호와 혼합되어 마이크(1102)에 입력될 수 있으며, 상대 이동 단말기 사용자는 음성 신호에 포함된 배경 음악을 청취할 수 있다.In this case, the reproduced background music may be mixed with the voice signal and input to the microphone 1102, and the counterpart mobile terminal user may listen to the background music included in the voice signal.

상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구 범위에 속하는 것으로 보아야 할 것이다. Preferred embodiments of the present invention described above are disclosed for purposes of illustration, and those skilled in the art will be able to make various modifications, changes, and additions within the spirit and scope of the present invention. Additions should be considered to be within the scope of the following claims.

도 1은 3GPP 표준안에 정의된 일반적인 AMR 코덱 프레임 구조.1 is a generic AMR codec frame structure as defined in the 3GPP standard.

도 2는 3GPP 표준안에 정의된 프레임 타입 별 코어 프레임 구조를 설명하기 위한 도면.FIG. 2 is a diagram for explaining a core frame structure for each frame type defined in the 3GPP standard. FIG.

도 3은 본 발명의 일 실시예에 따른 프레임 타입 별 코어 프레임 구조를 설명하기 위한 도면.3 is a view for explaining a core frame structure for each frame type according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 데이터 삽입 시 사용되는 클래스 C의 구조.4 is a structure of class C used for data insertion according to an embodiment of the present invention.

도 5는 일반적인 가변 전송 레이트를 지원하는 음성 통화 채널의 특징을 설명하기 위한 도면.5 is a diagram for explaining characteristics of a voice call channel supporting a general variable transmission rate.

도 6은 본 발명의 일 실시예에 따른 가변 전송 레이트를 지원하는 음성 통화 채널의 특징을 설명하기 위한 도면.6 is a diagram for explaining characteristics of a voice call channel supporting a variable transmission rate according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 음성 채널을 이용한 단문 메시지 전송 절차를 설명하기 위한 도면.7 is a diagram illustrating a short message transmission procedure using a voice channel according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 음성 채널을 이용한 단문 메시지 송신 절차를 도시한 순서도.8 is a flowchart illustrating a short message transmission procedure using a voice channel according to an embodiment of the present invention.

도 9는 본 발명의 일 실시예에 따른 음성 채널을 이용한 단문 메시지 수신 절차를 도시한 순서도.9 is a flowchart illustrating a procedure of receiving a short message using a voice channel according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따른 음성 통화 채널을 이용한 단문 메시지 전송 절차를 도시한 흐름도.10 is a flowchart illustrating a short message transmission procedure using a voice call channel according to an embodiment of the present invention.

도 11은 본 발명의 일 실시예에 따른 음성 통화 채널을 이용한 데이터 전송을 제공하는 이동 단말기의 블록도.11 is a block diagram of a mobile terminal providing data transmission using a voice call channel according to an embodiment of the present invention.

*주요 도면 부호* Key Drawing

112 : 프레임 타입(Frame Type)112: frame type

130 : 코어 프레임(Core Frame)130: core frame

136 : 클래스 C136: class C

410: 데이터 타입(Data Type)410: data type

420: 순차 번호(Sequence Number)420: Sequence Number

460 : 오류 검출 코드460: error detection code

540 : 유휴 대역540: idle band

620 : 데이터 전송 대역620: data transmission band

1104 : 프레임 타입 결정부 1104: frame type determination unit

1106 : 데이터 전송 스케줄러1106: Data Transfer Scheduler

1112 : 음성 프레임 재구성부1112: voice frame reconstruction unit

1122 : 음성 프레임 분석부1122: voice frame analysis unit

1130 : 데이터 처리부1130: data processing unit

Claims (17)

이동 단말기에서 음성 채널을 이용하여 데이터를 전송하는 방법에 있어서,In the method for transmitting data using a voice channel in a mobile terminal, 소정의 전송 시간 주기로 음성 프레임을 생성하는 제1 단계;Generating a voice frame at a predetermined transmission time period; 미리 저장된 소정의 데이터를 상기 음성 프레임에 삽입 가능한지 여부를 판단하는 제2 단계;A second step of determining whether or not predetermined data stored in advance can be inserted into the voice frame; 상기 판단 결과, 상기 데이터의 삽입이 가능한 경우, 상기 음성 프레임을 재구성하는 제3 단계; 및A third step of reconstructing the voice frame when the data can be inserted as a result of the determination; And 상기 재구성된 음성 프레임을 상기 음성 채널을 통해 전송하는 제4 단계A fourth step of transmitting the reconstructed speech frame through the speech channel 를 포함하는 이동 단말기에서의 음성 채널을 이용한 데이터 전송 방법.Data transmission method using a voice channel in a mobile terminal comprising a. 제1항에 있어서,The method of claim 1, 상기 제1 단계는The first step is 입력된 음성 신호에 대한 음성 활성도를 측정하는 단계;Measuring voice activity on an input voice signal; 상기 측정된 음성 활성도에 따라 미리 정의된 복수의 프레임 타입 중 어느 하나를 선택하는 단계; 및Selecting any one of a plurality of predefined frame types according to the measured voice activity; And 상기 선택된 프레임 타입에 대응하는 음성 프레임을 생성하는 단계Generating a voice frame corresponding to the selected frame type 를 포함하는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 전송 방법.Data transmission method using a voice channel in a mobile terminal comprising a. 제2항에 있어서,The method of claim 2, 상기 제1 단계는 The first step is 무선 채널 환경 정보를 획득하는 단계를 더 포함하되, 상기 프레임 타입은 상기 음성 활성도 및 상기 무선 채널 환경 정보를 이용하여 선택되는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 전송 방법.And acquiring radio channel environment information, wherein the frame type is selected using the voice activity and the radio channel environment information. 제1항에 있어서,The method of claim 1, 상기 음성 프레임은 가변 전송 레이트(variable transmission rate)를 지원하는 코어 프레임을 포함하는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 전송 방법.The voice frame is a data transmission method using a voice channel in a mobile terminal, characterized in that it comprises a core frame supporting a variable transmission rate (variable transmission rate). 제4항에 있어서,The method of claim 4, wherein 상기 코어 프레임은 복수의 클래스로 구성되며, 상기 제2 단계에서 상기 클래스 중 음성 정보를 포함하지 않는 클래스가 존재하는 경우, 상기 데이터를 상기 음성 프레임에 삽입 가능한 것으로 판단하는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 전송 방법.The core frame includes a plurality of classes, and in the second step, when there is a class that does not include voice information among the classes, it is determined that the data can be inserted into the voice frame. Data transmission method using the voice channel of the. 제5항에 있어서,The method of claim 5, 상기 클래스 중 음성 정보를 포함하지 않는 클래스가 존재하는 경우, 현재의 무선 채널 환경이 상기 데이터가 삽입된 음성 프레임을 송신하는데 적합한지 여부를 판단하는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 전송 방법.If there is a class that does not include voice information among the classes, determining whether the current wireless channel environment is suitable for transmitting the voice frame into which the data is inserted. Data transmission method using voice channel. 제1항에 있어서,The method of claim 1, 상기 제3 단계는The third step is 상기 음성 프레임에 삽입 가능한 비트 수를 산출하는 단계;Calculating a number of bits insertable into the speech frame; 상기 산출된 비트 수를 고려한 재구성 프레임 타입을 선택하는 단계; 및Selecting a reconstructed frame type in consideration of the calculated number of bits; And 상기 선택된 재구성 프레임 타입에 따라 상기 데이터에 상응하는 데이터 삽입 정보를 상기 음성 프레임에 삽입하는 단계;Inserting data insertion information corresponding to the data into the voice frame according to the selected reconstruction frame type; 를 포함하는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 전송 방법.Data transmission method using a voice channel in a mobile terminal comprising a. 제7항에 있어서,The method of claim 7, wherein 상기 데이터 삽입 정보는The data insertion information is 데이터 타입을 식별하기 위한 데이터 타입 필드;A data type field for identifying a data type; 분할된 데이터의 순차 정보를 제공하기 위한 순차 번호 필드;A sequence number field for providing sequence information of the divided data; 삽입되는 데이터의 길이를 지시하는 데이터 길이 필드;A data length field indicating a length of data to be inserted; 실제 데이터를 전송하기 위한 데이터 필드; 및A data field for transmitting actual data; And 데이터의 무결성을 체크하기 위한 오류 검출 코드 필드Error detection code field to check data integrity 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 전송 방법.A data transmission method using a voice channel in a mobile terminal, characterized in that it comprises at least one of. 제1항에 있어서,The method of claim 1, 상기 제4 단계에서, 상기 재구성된 음성 프레임의 코어 프레임 포맷 정보를 상기 음성 채널과 관계된 소정의 물리 제어 채널을 통해 전송하는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 전송 방법.The method of claim 4, wherein the core frame format information of the reconstructed speech frame is transmitted through a predetermined physical control channel associated with the speech channel. 제1항에 있어서,The method of claim 1, 상기 코어 프레임 포맷 정보는 3GPP 표준에 정의된 상향 전용물리제어채널(Uplink Dedicated Physical Control Channel)의 전송포맷조합지시자(Transport Format Combination Indicator)에 매핑되어 전송되는 것을 특징으로 하는 이동 단 말기에서의 음성 채널을 이용한 데이터 전송 방법.The core frame format information is transmitted by being mapped to a transport format combination indicator of an uplink dedicated physical control channel defined in the 3GPP standard. Data transmission method using 이동 단말기에서 음성 채널을 이용하여 데이터를 수신하는 방법에 있어서,In the method for receiving data using a voice channel in a mobile terminal, 상기 음성 채널을 통해 수신된 무선 신호를 복호하여 음성 프레임을 생성하는 제1 단계;Generating a voice frame by decoding the wireless signal received through the voice channel; 상기 음성 프레임에 데이터가 포함되었는지 여부를 확인하는 제2 단계; 및A second step of confirming whether data is included in the voice frame; And 상기 확인 결과에 따라 상기 음성 프레임으로부터 음성 정보 및 데이터 삽입 정보 중 적어도 하나를 추출하는 제3 단계A third step of extracting at least one of voice information and data insertion information from the voice frame according to the confirmation result; 를 포함하는 하는 이동 단말기에서의 음성 채널을 이용한 데이터 수신 방법.Data receiving method using a voice channel in a mobile terminal comprising a. 제11항에 있어서,The method of claim 11, 상기 제1 단계는The first step is 상기 음성 채널의 물리제어채널을 복호하여 전송포맷조합 지시자(Transport Format Combination Indicator)를 복호하는 단계; 및Decoding a transport format combination indicator by decoding the physical control channel of the voice channel; And 상기 복호된 전송포맷조합지시자에 매핑되는 프레임 타입을 이용하여 상기 음성 프레임을 생성하는 단계Generating the speech frame using a frame type mapped to the decoded transmission format combination indicator; 를 포함하는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 수신 방법.Data receiving method using a voice channel in a mobile terminal comprising a. 제12항에 있어서,The method of claim 12, 상기 제2 단계에서, 상기 데이터의 포함 여부는 상기 프레임 타입을 통해 확인되는 것을 특징으로 하는 이동 단말기에서의 음성 채널을 이용한 데이터 수신 방법.In the second step, it is determined whether the data is included through the frame type, the data receiving method using a voice channel in a mobile terminal. 제 1항 내지 제 13항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 1 to 13 on a computer. 일정 시간 동안 입력된 음성 신호에 대한 음성 활성도를 산출하고, 상기 산출된 음성 활성도를 이용하여 프레임 타입을 결정하는 프레임 타입 결정부;A frame type determiner which calculates a voice activity of a voice signal input for a predetermined time and determines a frame type using the calculated voice activity; 상기 결정된 프레임 타입에 따라 상기 음성 신호를 인코딩하여 음성 프레임을 생성하거나 인코딩된 음성 프레임을 복호하는 음성 코덱;A speech codec that encodes the speech signal according to the determined frame type to generate a speech frame or to decode the encoded speech frame; 상기 음성 프레임에 소정의 데이터가 삽입 가능한지 여부를 판단하여 상기 음성 프레임을 기저대역처리부에 전송하거나, 상기 음성 프레임을 재구성하여 상기 기저대역처리부에 전송하는 재구성 스케줄러; 및A reconstruction scheduler which determines whether predetermined data can be inserted into the speech frame and transmits the speech frame to a baseband processor, or reconstructs the speech frame and transmits the speech frame to the baseband processor; And 상기 기저대역처리부로부터 수신된 음성 프레임의 데이터 삽입 여부에 따라, 해당 음성 프레임으로부터 음성 정보 및 데이터 중 적어도 하나를 추출하는 음성 프레임 분석부The voice frame analyzer extracts at least one of voice information and data from the voice frame according to whether the voice frame received from the baseband processor is inserted. 를 포함하는 이동 단말기.Mobile terminal comprising a. 제15항에 있어서,The method of claim 15, 상기 재구성 스케줄러는 상기 음성 활성도 및 무선 채널 환경 정보를 이용하여 상기 데이터의 삽입 가능 여부를 판단하는 것을 특징으로 하는 이동 단말기.The reconfiguration scheduler determines whether the data can be inserted using the voice activity and radio channel environment information. 제15항에 있어서,The method of claim 15, 상기 재구성 스케줄러는 기 전송한 데이터에 오류가 있음을 지시하는 소정의 재전송 제어 신호를 수신하는 경우, 해당 데이터를 재전송하는 것을 특징으로 하는 이동 단말기.The reconfiguration scheduler retransmits the data when receiving a predetermined retransmission control signal indicating that there is an error in the previously transmitted data.
KR1020070084530A 2007-08-22 2007-08-22 Method for Transmiting the Data Using the Voice Channel KR100962377B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070084530A KR100962377B1 (en) 2007-08-22 2007-08-22 Method for Transmiting the Data Using the Voice Channel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070084530A KR100962377B1 (en) 2007-08-22 2007-08-22 Method for Transmiting the Data Using the Voice Channel

Publications (2)

Publication Number Publication Date
KR20090020091A true KR20090020091A (en) 2009-02-26
KR100962377B1 KR100962377B1 (en) 2010-06-11

Family

ID=40687605

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070084530A KR100962377B1 (en) 2007-08-22 2007-08-22 Method for Transmiting the Data Using the Voice Channel

Country Status (1)

Country Link
KR (1) KR100962377B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1596613A1 (en) 2004-05-10 2005-11-16 Dialog Semiconductor GmbH Data and voice transmission within the same mobile phone call

Also Published As

Publication number Publication date
KR100962377B1 (en) 2010-06-11

Similar Documents

Publication Publication Date Title
Gibson Speech coding methods, standards, and applications
Hardman et al. Reliable audio for use over the Internet
US9053702B2 (en) Systems, methods, apparatus, and computer-readable media for bit allocation for redundant transmission
JP4071631B2 (en) Method and apparatus for interoperability between voice transmission systems during voice inactivity
KR20200050940A (en) Method and apparatus for frame erasure concealment for a multi-rate speech and audio codec
RU2434333C2 (en) Apparatus and method of transmitting sequence of data packets and decoder and apparatus for recognising sequence of data packets
RU2366093C2 (en) Reformatting variable-rate vocoder frames for intersystem transmission
JP4860890B2 (en) Method and apparatus for using an asymmetric voice coder to generate an asymmetric link in a wireless communication system
CN100588143C (en) Method and apparatus for improving detection of rate errors in variable rate receivers
CN103098127B (en) Decoding and decoding transient frame
KR101235494B1 (en) Audio signal encoding apparatus and method for encoding at least one audio signal parameter associated with a signal source, and communication device
JP2006510063A (en) Subsampled excitation waveform codebook
CN105814629A (en) Bandwidth extension mode selection
US6240299B1 (en) Cellular radiotelephone having answering machine/voice memo capability with parameter-based speech compression and decompression
TWI326447B (en) Method and information processing system for quantizing class information and pitch information of audio, and method in distributed speech recognition system
KR100962377B1 (en) Method for Transmiting the Data Using the Voice Channel
KR100834155B1 (en) Method and apparatus for transmitting the sound source data using the voice channel
US20030065512A1 (en) Communication device and a method for transmitting and receiving of natural speech
Ulseth et al. VoIP speech quality-Better than PSTN?
TW508956B (en) Method and apparatus for supporting adaptive multi-rate (AMR) data in a CDMA communication system
CN116388930A (en) Coding and decoding control method and device of self-organizing network and electronic equipment
Westerlund Media-specific Forward Error Correction in a CELP Speech Codec Applied to IP Networks

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130603

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140602

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150601

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160901

Year of fee payment: 7