KR100349329B1 - Method of processing of MPEG-2 AAC algorithm - Google Patents

Method of processing of MPEG-2 AAC algorithm Download PDF

Info

Publication number
KR100349329B1
KR100349329B1 KR1019990023665A KR19990023665A KR100349329B1 KR 100349329 B1 KR100349329 B1 KR 100349329B1 KR 1019990023665 A KR1019990023665 A KR 1019990023665A KR 19990023665 A KR19990023665 A KR 19990023665A KR 100349329 B1 KR100349329 B1 KR 100349329B1
Authority
KR
South Korea
Prior art keywords
executing
signal
module
audio
encoding
Prior art date
Application number
KR1019990023665A
Other languages
Korean (ko)
Other versions
KR20010003385A (en
Inventor
김성한
장대영
홍진우
김진웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1019990023665A priority Critical patent/KR100349329B1/en
Publication of KR20010003385A publication Critical patent/KR20010003385A/en
Application granted granted Critical
Publication of KR100349329B1 publication Critical patent/KR100349329B1/en

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/65Purpose and implementation aspects
    • H03M13/6569Implementation on processors, e.g. DSPs, or software implementations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/061MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • G11B2020/00014Time or data compression or expansion the compressed signal being an audio signal
    • G11B2020/00028Advanced audio coding [AAC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • G11B2020/00014Time or data compression or expansion the compressed signal being an audio signal
    • G11B2020/00057MPEG-1 or MPEG-2 audio layer III [MP3]

Abstract

본 발명은 신호 코딩 기술에서의 오디오 신호 압축 기술에 관한 것으로, 신호가 입력되는 펄스 부호 변조 데이터 입력 모듈을 실행시키는 단계와, 인간의 청각 현상을 모델링하여 부호화를 수행하는 심리음향 모델링 모듈을 실행시키는 단계와, 시간영역의 신호를 주파수 영역의 신호로 변환하는 시간/주파수 변환 모듈을 실행시키는 단계와, 변환된 신호를 전송하는 데이터 전달부를 실행시키는 단계를 수행하는 제 1 단계와; 프로그램 대기된 신호와 상기 제 1 단계로부터 전달된 신호를 입력받는 데이터 입력부를 실행시키는 단계와, 주파수 영역의 다채널 오디오 신호를 압축 부호화를 수행하는 데이터 압축 부호화 모듈을 실행시키는 단계와, 압축된 오디오 신호를 실제 양자화하는 양자화 모듈을 실행시키는 단계와, 비트스트림을 형성하는 비트스트림 형성 모듈을 실행시키는 단계를 수행한 후, 상기 제 1 단계로 전송하는 동작을 수행하는 제 2 단계를 포함하여 이루어지며, MPEG-2 AAC 오디오 프로그램이 스테레오 오디오 처리 뿐만 아니라 멀티채널 오디오에서 실시간으로 동작시킬 수 있는 엠펙-2 고품질 오디오 처리 알고리즘의 병렬 처리 방법을 개시한다.The present invention relates to an audio signal compression technique in a signal coding technique, comprising: executing a pulse code modulation data input module to which a signal is input; and executing a psychoacoustic modeling module that performs encoding by modeling a human auditory phenomenon. Executing a time / frequency conversion module for converting a signal in a time domain into a signal in a frequency domain, and executing a data transfer unit for transmitting the converted signal; Executing a data input unit for receiving a program-waited signal and a signal transmitted from the first step; executing a data compression encoding module for compressing and encoding a multi-channel audio signal in a frequency domain; and compressed audio Performing a step of executing a quantization module that actually quantizes a signal; and executing a bitstream forming module that forms a bitstream, and then transmitting to the first step. In addition, the present invention discloses a parallel processing method of MPEG-2 high quality audio processing algorithm that MPEG-2 AAC audio program can operate not only stereo audio processing but also multi-channel audio in real time.

Description

엠펙-2 고품질 오디오 처리 알고리즘의 병렬 처리 방법{Method of processing of MPEG-2 AAC algorithm}Method of processing of MPEG-2 AAC algorithm

본 발명은 신호 코딩 기술에서의 오디오 신호 압축 기술에 관한 것으로서, 특히, 병렬 디지털 신호 처리기(DSP ; Digital Signal Processor : TMSC320C6701)상에서 실시간 처리를 위한 엠펙-2(MPEG-2) 고품질 오디오 처리(AAC; Advanced audio coding) 알고리즘의 병렬 처리 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to audio signal compression techniques in signal coding techniques, and in particular, to MPEG-2 high quality audio processing (AAC) for real time processing on a parallel digital signal processor (DSP; Digital Signal Processor (TMSC320C6701)). Advanced audio coding) algorithm is a parallel processing method.

종래의 오디오 압축 기술은 표준화가 계속적으로 발전하는 단계이며, MPEG-1 같은 2채널 오디오 신호 처리 방식은 완료된 상태이다. MPEG-1의 레이어 III 오디오 방식 같은 경우는 인터넷 오디오 서비스 및 재생장치를 이용한 플레이어가 이미 상용화 단계에 있다.Conventional audio compression technology is a stage in which standardization continues to develop, and two-channel audio signal processing schemes such as MPEG-1 are completed. In the case of the MPEG-1 Layer III audio system, a player using an Internet audio service and a playback device has already been commercialized.

종래의 오디오 처리 방식에서는 주로 스테레오 오디오 방식에 한정되어 압축 또는 복원 처리를 수행하였다. 스테레오 오디오 방식은 알고리즘 적으로 처리가 간단 하기 때문에 프로그램 구조를 병렬 구조로 변경 시키는 기술이 요구 되지 않는다.In the conventional audio processing method, the compression or decompression process is mainly limited to the stereo audio method. Since stereo audio is easy to process algorithmically, it is not necessary to change the program structure to parallel structure.

그러나, MPEG-2 AAC 오디오 압축 처리 방식은 심리음향 모델 및 양자화 모듈 등 프로그램의 처리도가 복잡하고, 반복적인 계산량이 많은 모듈로 구성된 것이 특징이다. 각 모듈에 대해서는 음질을 열화 시키지 않는 범위에서 알고리즘을 최적화 시키며, 또한 수행 시간을 고려하여 두개의 구조로 적절히 분배하는 것이 필요하다. 이에 따라, MPEG-2 AAC 오디오 방식의 경우는 멀티채널 오디오에 대한 처리를 하기 때문에 수행 시간이 오래 걸리므로, 실시간으로 압축 또는 복원 처리를 위해서는 소프트웨어 적으로의 처리가 요구되었다.However, the MPEG-2 AAC audio compression processing method is characterized by being composed of modules that have a high processing complexity of a program such as a psychoacoustic model and a quantization module and have a large amount of repetitive calculations. For each module, it is necessary to optimize the algorithm in a range that does not degrade the sound quality, and to properly distribute the two structures in consideration of the execution time. As a result, the MPEG-2 AAC audio method takes a long time since the multi-channel audio processing is performed. Therefore, a software processing is required for the real time compression or decompression processing.

따라서, 본 발명의 목적은 종래의 순차적인 구조에서 수행 시간을 단축시키는 방법 대신에 병렬처리 구조의 하드웨어를 기본으로 하여 실 시간적인 처리를 수행할 수 있는 엠펙-2 고품질 오디오 처리 알고리즘의 병렬 처리 방법을 제공하는데있다.Accordingly, an object of the present invention is a parallel processing method of MPEG-2 high quality audio processing algorithm capable of performing real time processing based on hardware having a parallel processing structure instead of a method of reducing execution time in a conventional sequential structure. To provide.

상기한 목적을 달성하기 위한 본 발명은 신호가 입력되는 펄스 부호 변조 데이터 입력 모듈을 실행시키는 단계와, 인간의 청각 현상을 모델링하여 부호화를 수행하는 심리음향 모델링 모듈을 실행시키는 단계와, 시간영역의 신호를 주파수 영역의 신호로 변환하는 시간/주파수 변환 모듈을 실행시키는 단계와, 변환된 신호를 전송하는 데이터 전달부를 실행시키는 단계를 수행하는 제 1 단계와; 프로그램 대기된 신호와 상기 제 1 단계로부터 전달된 신호를 입력받는 데이터 입력부를 실행시키는 단계와, 주파수 영역의 다채널 오디오 신호를 압축 부호화를 수행하는 데이터 압축 부호화 모듈을 실행시키는 단계와, 압축된 오디오 신호를 실제 양자화하는 양자화 모듈을 실행시키는 단계와, 비트스트림을 형성하는 비트스트림 형성 모듈을 실행시키는 단계를 수행한 후, 상기 제 1 단계로 전송하는 동작을 수행하는 제 2 단계를 포함하여 이루어진 것을 특징으로 한다.According to an aspect of the present invention, there is provided a pulse code modulation data input module to which a signal is input, a psychoacoustic modeling module that performs encoding by modeling human auditory phenomena; A first step of executing a time / frequency conversion module for converting a signal into a signal in a frequency domain, and executing a data transfer unit for transmitting the converted signal; Executing a data input unit for receiving a program-waited signal and a signal transmitted from the first step; executing a data compression encoding module for compressing and encoding a multi-channel audio signal in a frequency domain; and compressed audio Performing a step of executing a quantization module that actually quantizes a signal; and executing a bitstream forming module that forms a bitstream, and then transmitting to the first step. It features.

또한, 본 발명은 신호가 입력되는 펄스 부호 변조 데이터 입력 모듈을 실행시키는 단계와, 인간의 청각 현상을 모델링하여 부호화를 수행하는 심리음향 모델링 모듈을 실행시키는 단계와, 시간영역의 신호를 주파수 영역의 신호로 변환하는 시간/주파수 변환 모듈을 실행시키는 단계와, 변환된 신호를 전송하는 데이터 전달부를 실행시키는 단계를 수행하는 제 1 단계와; 프로그램 대기된 신호와 상기 제 1 단계로부터 전달된 신호를 입력받는 데이터 입력부를 실행시키는 단계와, 주파수 영역의 다채널 오디오 신호를 압축 부호화를 수행하는 데이터 압축 부호화 모듈을 실행시키는 단계와, 압축된 오디오 신호를 실제 양자화하는 양자화 모듈을 실행시키는 단계와, 비트스트림을 형성하는 비트스트림 형성 모듈을 실행시키는 단계를 수행한 후, 상기 제 1 단계로 전송하는 동작을 수행하는 제 2 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체인 것을 특징으로 한다.The present invention also provides a method of performing pulse code modulation data input module to which a signal is input, executing a psychoacoustic modeling module that performs encoding by modeling a human auditory phenomenon, and converts a signal in a time domain into a frequency domain. A first step of executing a time / frequency conversion module for converting into a signal and executing a data transfer unit for transmitting the converted signal; Executing a data input unit for receiving a program-waited signal and a signal transmitted from the first step; executing a data compression encoding module for compressing and encoding a multi-channel audio signal in a frequency domain; and compressed audio A program for executing a second step of performing an operation for transmitting to the first step after executing a quantization module that actually quantizes a signal; and executing a bitstream forming module that forms a bitstream. Characterized in that the recording medium that can be read by a computer recorded.

도 1(a) 및 도 1(b)는 본 발명이 적용되는 하드웨어의 기본구성도.1 (a) and 1 (b) are basic diagrams of hardware to which the present invention is applied.

도 2는 종래 병렬처리 소프트웨어 구조도를 나타낸 흐름도.2 is a flowchart showing a conventional parallel processing software structure diagram.

도 3은 본 발명에 따른 병렬처리 소프트웨어 구조도를 나타낸 흐름도.3 is a flow diagram illustrating a parallel processing software architecture in accordance with the present invention.

〈도면의 주요 부분에 대한 부호 설명〉<Description of Signs of Major Parts of Drawings>

11 : 신호입력 장치 12 : 신호처리 장치11: signal input device 12: signal processing device

13 : 신호출력 장치13: signal output device

병렬 처리 구조의 소프트웨어는 2개의 DSP 프로세서를 이용하는 구조이다. 2개의 DSP를 상호 연결하는 방식은 직접 메모리 액세스(DMA; Direct Memory Access) 방식을 사용하여 고속 전송이 가능하게 하였다. 첫번째 프로그램에서는 데이터를 받는 조건은 다음과 같다. 최대 8개 오디오 신호를 신호를 받을 수 있다. 두번째 프로그램에서 처리하는 내용은 첫번째 프로그램으로부터 필요한 데이터를 받는 구조이며, 최종 결과는 다시 첫번째 프로그램에 보내어 처리를 완료하는 구조이다. MPEG-2 AAC 프로그램 구조는 여러가지 모듈로 구성될 수 있으며, 시간/주파수 변환 부호화와 지각 부호화의 방식을 적절히 사용하는 방식이다. 인간의 청각 현상을 부호화에 이용하기 위한 심리음향모델링 모듈, 시간영역의 신호를 주파수 영역으로 변환하여 부호화의 효율을 높이는 시간/주파수 변환 모듈, 주파수 영역의 다채널 오디오 신호를 압축 부호화하기 위한 오디오 데이터 압축 부호화 모듈, 압축된 오디오 데이터를 실제 양자화하여 비트스트림을 구성하는 양자화 모듈 및 비트스트림 형성 모듈로 구성할 수 있다.The software of the parallel processing architecture uses two DSP processors. The interconnection of the two DSPs allows for high-speed transmission using direct memory access (DMA). In the first program, the conditions for receiving data are as follows. Up to eight audio signals can be received. The content processed by the second program is a structure to receive the necessary data from the first program, and the final result is a structure to complete the process by sending it back to the first program. The MPEG-2 AAC program structure may be composed of various modules, and a method of appropriately using time / frequency transform encoding and perceptual encoding. Psychoacoustic modeling module for encoding human auditory phenomena, Time / frequency conversion module for improving coding efficiency by converting signals in time domain to frequency domain, Audio data for compression coding multi-channel audio signals in frequency domain A compression encoding module, a quantization module constituting a bitstream by actually quantizing compressed audio data, and a bitstream forming module may be configured.

이하, 첨부된 도면을 참고하여 본 발명의 구성을 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the configuration of the present invention.

도 1(a) 및 도 1(b)는 본 발명이 적용되는 하드웨어 구성도로써, 데이터를 받는 입력 장치(11), 받은 데이터를 처리하는 2개의 장치(12-1, 12-2)로 구성된 신호처리 장치(12) 및 처리된 결과를 출력하는 장치(13)로 구성되어 있다.1 (a) and 1 (b) are hardware diagrams to which the present invention is applied, and include an input device 11 receiving data and two devices 12-1 and 12-2 processing the received data. It consists of the signal processing apparatus 12 and the apparatus 13 which outputs the processed result.

도 2는 종래의 MPEG-2 AAC 순차적인 처리 방법의 구조도를 나타낸 흐름도이고, 도 3은 본 발명에 따른 병렬 처리 방법의 구조도를 나타낸 흐름도이다.2 is a flowchart illustrating a structure of a conventional MPEG-2 AAC sequential processing method, and FIG. 3 is a flowchart illustrating a structure of a parallel processing method according to the present invention.

병렬 처리 프로그램 구조는 두개의 독립적인 처리 단위로 분리된다. 첫번째 프로그램에는 펄스 부호 변조(PCM; Pulse Code Moldulation) 데이터 입력 모듈(21), 심리음향 모델링 모듈(22) 및 시간/주파수 변환을 모듈(23)을 주로 처리한다. 두번째 프로그램에서는 데이터 압축 부호화 모듈(24), 양자화 모듈(25) 및 비트스트림 형성 모듈(26)을 처리한다. 각 모듈에 대한 세부적인 내용은 아래와 같다.The parallel processing program structure is divided into two independent processing units. The first program mainly handles Pulse Code Molding (PCM) data input module 21, psychoacoustic modeling module 22, and time / frequency conversion module 23. In the second program, the data compression encoding module 24, the quantization module 25, and the bitstream forming module 26 are processed. Details about each module are as follows.

첫 번째 프로그램에서 PCM 데이터 입력 모듈(21)은 최대 8개의 채널을 입력으로 받을 수 있다. 심리음향모델링 모듈(22)에서는 다채널 오디오의 지각 부호화를 위해 인간의 청각 특성을 모델링하기 위한 기능으로서, 입력 오디오의 특성을 추출하며, 대역별로 인간의 청각에 의해 감지되지 않는 양자화 잡음의 정도를 계산하여 부호화에 필요한 비트의 할당 시 반영하여 최적의 부호화를 달성하도록 한다. 심리음향모델링은 이외에도 오디오의 부호화를 위하여 필요로 하는 청각 모델링 파라미터들을 계산하고 출력한다. 이러한 파라미터로서는 시간/주파수 변환부의 변환 길이의 결정을 위한 파라미터 등이 될 수 있으며, 부호화 전반에 사용될 수 있는 청각 특성의 분석이 모두 포함될 수 있다.In the first program, the PCM data input module 21 may receive up to eight channels as input. The psychoacoustic modeling module 22 is a function for modeling human auditory characteristics for perceptual encoding of multi-channel audio. The psychoacoustic modeling module 22 extracts the characteristics of input audio and determines the degree of quantization noise that is not detected by the human auditory for each band. It calculates and reflects when allocating bits necessary for encoding to achieve optimal encoding. In addition, psychoacoustic modeling calculates and outputs auditory modeling parameters required for audio encoding. Such a parameter may be a parameter for determining a transform length of a time / frequency transform unit, and may include all analysis of auditory characteristics that can be used throughout encoding.

시간/주파수 변환 모듈(23)에서는 일반적으로 시간영역의 신호보다 주파수 영역의 신호를 부호화 하기 용이한 특성을 이용하기 위하여, 시간영역의 오디오 신호를 주파수 영역의 오디오 신호로 변환하는 부분이다. 이때, 변환 창의 길이는 주파수 해상도와 밀접한 관련이 있으므로 적절히 선택되어야 하며, 심리음향모델링의 결과 시간 신호의 포락선이 보다 중요한 구간에서는 창의 길이를 짧게 변경하여 시간영역의 해상도를 높이는 필요성이 있다. 시간/주파수 변환 방식으로는 FFT(Fast Fourier Transform), MDCT(Modified Discrete Cosine Transform) 등이 있으며, 압축 도구들에 적절한 방법을 선택하여 사용한다. 시간/주파수 변환의 출력으로서는 변환된 주파수 스펙트럼이 된다.The time / frequency conversion module 23 generally converts an audio signal of a time domain into an audio signal of a frequency domain in order to use a characteristic that is easier to encode a signal of a frequency domain than a signal of a time domain. In this case, the length of the conversion window is closely related to the frequency resolution and should be appropriately selected. As a result of psychoacoustic modeling, it is necessary to shorten the window length to increase the resolution of the time domain in a section in which the envelope of the time signal is more important. The time / frequency conversion methods include the fast fourier transform (FFT) and the modified disc cosine transform (MDCT), and select a method suitable for compression tools. The output of the time / frequency conversion is the converted frequency spectrum.

첫번째 프로그램에서 시간/주파수 변환 모듈까지 처리가 완료되면, 두번째 프로그램으로 수행 결과를 전달하는 데이터 전달부(23-1) 모듈이 있다.When the processing from the first program to the time / frequency conversion module is completed, there is a data transfer unit 23-1 module that delivers the execution result to the second program.

두번째 프로그램에서는 프로그램 대기 모듈(24-1), 첫번째 프로그램으로부터 데이터를 받는 데이터 입력부(24-2), 데이터 압축 부호화(24), 양자화(25) 및 비트스트림 형성 모듈(26)을 수행한다.In the second program, the program waiting module 24-1, the data input unit 24-2 receiving data from the first program, the data compression encoding 24, the quantization 25, and the bitstream forming module 26 are performed.

데이터 압축 부호화 모듈(24)은 오디오의 데이터 압축 부호화를 위해 시간/주파수 변환부에서 출력되는 주파수 스펙트럼의 진폭을 줄이거나 예측할 수 있는 방법들이 필요하다. 이러한 기능들은 포락선을 이용하기도 하며, 채널 간의 관계에 착안하기도 하고, 시간적인 신호의 변화를 이용하기도 한다. 시간영역에서의 데이터 압축 방법으로서는 이전 프레임의 스펙트럼으로부터 현재 프레임의 스펙트럼을 예측하는 프레임간 예측이 있을 수 있는데, 예측 파라미터와 예측 오차 만을 전송함으로서 전송 데이터의 양을 감소 시킬 수 있다. 채널 간의 관계에 의한 데이터의 압축 방법으로는 좌, 우 채널로서 구분되는 각 채널 쌍에 대해서 하나의 채널에 대해서 다른 채널의 레벨 차이 만을 전송 함으로서 실제 전송되는 데이터의 양을 줄이는 세기(intensity)/결합(joint) 부호화, 좌, 우 채널의 신호를 M/S(Middle/ Side) 채널로서 변환하여 데이터를 줄이는 M/S 변환을 사용할 수 있다. 포락선을 이용하는 방법으로서는 포락선을 생성할 수 있는 LPC(Linear Prediction Coeffici- ent)에 의해 포락선이 제거된 신호를 생성 함으로서 데이터의 변화 폭을 줄여 신호 대 잡음 비를 향상시킬 수 있는 포락선 제거 필터를 사용할 수 있다.The data compression encoding module 24 needs methods for reducing or predicting the amplitude of the frequency spectrum output from the time / frequency converter for data compression encoding of audio. These functions use envelopes, pay attention to channel-to-channel relationships, and use temporal signal changes. As a data compression method in the time domain, there may be inter-frame prediction that predicts the spectrum of the current frame from the spectrum of the previous frame. By transmitting only the prediction parameter and the prediction error, the amount of transmission data can be reduced. Compression method of data by the relationship between channels is intensity / combination which reduces the amount of data actually transmitted by transmitting only the level difference of the other channel for one channel for each channel pair divided into left and right channels. (joint) Coding, M / S conversion can be used to reduce the data by converting the signals of the left and right channels as M / S (Middle / Side) channel. As a method of using an envelope, an envelope elimination filter can be used to generate a signal in which the envelope is removed by an LPC (Linear Prediction Coefficient) capable of generating an envelope, thereby reducing the variation of the data and improving the signal-to-noise ratio. have.

양자화 모듈(25)에서는 데이터 압축 부호화에 의해 압축된 주파수 스펙트럼을 심리음향 모델링을 이용하여 주어진 비트 율에 대해서 최적의 양자화 레벨을 할당하는 방법을 사용한다. 이때, 동일한 양자화 레벨을 사용하는 일정 구간의 스펙트럼에 대해 최대값으로 정규화 하는 처리를 하면 효과적이다. 양자화된 주파수 스펙트럼들은 할당된 비트에 의해 표현이 되는 값들로 구성이 되는데, 이들을 보다 적은 비트로 표현하기 위해 디코더에서 원래의 값들을 복원 할 수 있는 상태로 부호화하는 방법이 있을 수 있으며, 예를 들면 허프만 부호화를 사용하여 보다 감소된 비트 수로 부호화할 수도 있을 것이다.The quantization module 25 uses a method of allocating an optimal quantization level for a given bit rate using psychoacoustic modeling of the frequency spectrum compressed by data compression coding. At this time, it is effective to perform normalization to the maximum value for a spectrum of a certain section using the same quantization level. The quantized frequency spectrums are composed of values represented by assigned bits, and there may be a method of encoding the original values at a decoder so that the decoders can recover the original values to represent them with fewer bits, for example, Huffman. Coding may also be used to code with a reduced number of bits.

비트스트림 형성부 모듈(26)은 비트스트림의 헤더정보, 스펙트럼 데이터 및 스케일팩터 데이터 등의 부가정보를 주어진 비트로 양자화 하여 비트스트림 버퍼에 나열하는 기능을 수행한다. 이때, 외부 제어 혹은 사용자 제어에 의해 오디오 ES(Element Stream)를 패킷화 된 비트스트림인 PES(Packetized Element Stream)로변환해야 할 필요성이 있을 수도 있다.The bitstream forming unit module 26 performs a function of quantizing additional information such as header information, spectrum data, and scale factor data of the bitstream into a given bit and arranging them in a bitstream buffer. At this time, it may be necessary to convert the audio ES (Element Stream) into a packetized element stream (PES), which is a packetized bit stream, by external control or user control.

오디오 신호를 입력 받아 순차적으로 처리하는 경우에는 실시간적으로 처리하기에는 어려운 점이 많다. 스테레오 채널인 경우에 비해 멀티 채널인 경우는 처리 해야되는 채널 데이터 수가 많기 때문에 처리 시간이 실시간적으로 수행 하는 경우는 문제가 있다. 이 경우 하드웨어 구조 뿐만 아니라 소프트웨어 대해서도 구조적인 변경이 요구된다. 본 발명은 이런 실시간적인 오디오 신호 처리를 위해 소프트웨어의 구조 변경 방법에 대해 고안되었다.When receiving audio signals sequentially and processing them, it is difficult to process them in real time. Compared to the stereo channel, the multi-channel has a problem in that the processing time is performed in real time because the number of channel data to be processed is large. In this case, structural changes are required not only to the hardware structure but also to the software. The present invention has been devised for a method for changing the structure of software for processing such a real time audio signal.

이상에서 설명한 본 발명은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited.

상술한 바와 같이, 본 발명은 멀티 채널 압축 알고리즘을 실 시간적으로 처리 할 수 있는 소프트웨어 구조를 제공하며, 다른 응용분야에서도 이와 유사한 구조의 프로그램등에는 적용해서 효과를 볼 수 있는 방법이다.As described above, the present invention provides a software structure that can process a multi-channel compression algorithm in real time, and can be applied to programs having a similar structure in other applications.

Claims (6)

신호가 입력되는 펄스 부호 변조 데이터 입력 모듈을 실행시키는 단계와, 인간의 청각 현상을 모델링하여 부호화를 수행하는 심리음향 모델링 모듈을 실행시키는 단계와, 시간영역의 신호를 주파수 영역의 신호로 변환하는 시간/주파수 변환 모듈을 실행시키는 단계와, 변환된 신호를 전송하는 데이터 전달부를 실행시키는 단계를 수행하는 제 1 단계와;Executing a pulse code modulation data input module to which a signal is input; executing a psychoacoustic modeling module that performs encoding by modeling human auditory phenomena; and converting a signal in a time domain into a signal in a frequency domain A first step of performing a step of executing a / frequency conversion module and executing a data transfer unit for transmitting the converted signal; 프로그램 대기된 신호와 상기 제 1 단계로부터 전달된 신호를 입력받는 데이터 입력부를 실행시키는 단계와, 주파수 영역의 다채널 오디오 신호를 압축 부호화를 수행하는 데이터 압축 부호화 모듈을 실행시키는 단계와, 압축된 오디오 신호를 실제 양자화하는 양자화 모듈을 실행시키는 단계와, 비트스트림을 형성하는 비트스트림 형성 모듈을 실행시키는 단계를 수행한 후, 상기 제 1 단계로 전송하는 동작을 수행하는 제 2 단계를 포함하여 이루어진 것을 특징으로 하는 엠펙-2 고품질 오디오 처리 알고리즘의 병렬 처리 방법.Executing a data input unit for receiving a program-waited signal and a signal transmitted from the first step; executing a data compression encoding module for compressing and encoding a multi-channel audio signal in a frequency domain; and compressed audio Performing a step of executing a quantization module that actually quantizes a signal; and executing a bitstream forming module that forms a bitstream, and then transmitting to the first step. A parallel processing method of an MPEG-2 high quality audio processing algorithm. 제 1 항에 있어서,The method of claim 1, 상기 심리음향 모델링 모듈을 실행시키는 단계는 입력 오디오의 특성을 추출하며, 대역별로 인간의 청각에 의해 감지되지 않는 양자화 잡음의 정도를 계산하여 부호화에 필요한 비트의 할당 시 반영하여 최적의 부호화를 달성하도록 하고, 이외에도 오디오의 부호화를 위하여 필요로 하는 청각 모델링 파라미터들을 계산하고 출력하는 동작을 수행하는 것을 특징으로 하는 엠펙-2 고품질 오디오 처리 알고리즘의 병렬 처리 방법.The step of executing the psychoacoustic modeling module extracts the characteristics of the input audio, calculates the degree of quantization noise that is not detected by human hearing for each band, and reflects it when allocating bits necessary for encoding to achieve optimal encoding. And calculating and outputting auditory modeling parameters required for encoding of audio, in addition to the MPEG-2 high quality audio processing algorithm. 제 1 항에 있어서,The method of claim 1, 상기 데이터 압축 부호화 모듈을 실행시키는 단계는 오디오의 데이터 압축 부호화를 위해 시간/주파수 변환부에서 출력되는 주파수 스펙트럼의 진폭을 줄이거나 예측할 수 있는 방법으로서, 포락선을 이용하거나 채널 간의 관계에 착안하기도 하고, 시간적인 신호의 변화를 이용하는 것을 특징으로 하는 엠펙-2 고품질 오디오 처리 알고리즘의 병렬 처리 방법.The step of executing the data compression encoding module is a method of reducing or predicting the amplitude of the frequency spectrum output from the time / frequency converter for data compression encoding of audio, using an envelope or paying attention to the relationship between channels. A parallel processing method of MPEG-2 high quality audio processing algorithm, characterized by using a change in temporal signal. 제 1 항에 있어서,The method of claim 1, 상기 양자화 모듈을 실행시키는 단계는 데이터 압축 부호화에 의해 압축된 주파수 스펙트럼을 심리음향 모델링을 이용하여 주어진 비트 율에 대해서 최적의 양자화 레벨을 할당하는 방법을 사용하는 것을 특징으로 하는 엠펙-2 고품질 오디오 처리 알고리즘의 병렬 처리 방법.The step of executing the quantization module uses a method of allocating an optimal quantization level for a given bit rate using psychoacoustic modeling of the frequency spectrum compressed by data compression coding. How the algorithm works parallel. 제 1 항에 있어서,The method of claim 1, 상기 비트스트림 형성부 모듈을 실행시키는 단계는 비트스트림의 헤더정보, 스펙트럼 데이터 및 스케일팩터 데이터 등의 부가정보를 주어진 비트로 양자화 하여 비트스트림 버퍼에 나열하는 기능을 수행하는 것을 특징으로 하는 엠펙-2 고품질 오디오 처리 알고리즘의 병렬 처리 방법.The step of executing the bitstream forming unit module quantizes additional information such as header information, spectral data, and scale factor data of a bitstream into a bitstream, and performs the function of quantizing the additional information such as MPEG-2. Parallel processing method of audio processing algorithm. 신호가 입력되는 펄스 부호 변조 데이터 입력 모듈을 실행시키는 단계와, 인간의 청각 현상을 모델링하여 부호화를 수행하는 심리음향 모델링 모듈을 실행시키는 단계와, 시간영역의 신호를 주파수 영역의 신호로 변환하는 시간/주파수 변환 모듈을 실행시키는 단계와, 변환된 신호를 전송하는 데이터 전달부를 실행시키는 단계를 수행하는 제 1 단계와;Executing a pulse code modulation data input module to which a signal is input; executing a psychoacoustic modeling module that performs encoding by modeling human auditory phenomena; and converting a signal in a time domain into a signal in a frequency domain A first step of performing a step of executing a / frequency conversion module and executing a data transfer unit for transmitting the converted signal; 프로그램 대기된 신호와 상기 제 1 단계로부터 전달된 신호를 입력받는 데이터 입력부를 실행시키는 단계와, 주파수 영역의 다채널 오디오 신호를 압축 부호화를 수행하는 데이터 압축 부호화 모듈을 실행시키는 단계와, 압축된 오디오 신호를 실제 양자화하는 양자화 모듈을 실행시키는 단계와, 비트스트림을 형성하는 비트스트림 형성 모듈을 실행시키는 단계를 수행한 후, 상기 제 1 단계로 전송하는 동작을 수행하는 제 2 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.Executing a data input unit for receiving a program-waited signal and a signal transmitted from the first step; executing a data compression encoding module for compressing and encoding a multi-channel audio signal in a frequency domain; and compressed audio A program for executing a second step of performing an operation for transmitting to the first step after executing a quantization module that actually quantizes a signal; and executing a bitstream forming module that forms a bitstream. A computer-readable recording medium that records the data.
KR1019990023665A 1999-06-23 1999-06-23 Method of processing of MPEG-2 AAC algorithm KR100349329B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990023665A KR100349329B1 (en) 1999-06-23 1999-06-23 Method of processing of MPEG-2 AAC algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990023665A KR100349329B1 (en) 1999-06-23 1999-06-23 Method of processing of MPEG-2 AAC algorithm

Publications (2)

Publication Number Publication Date
KR20010003385A KR20010003385A (en) 2001-01-15
KR100349329B1 true KR100349329B1 (en) 2002-08-21

Family

ID=19594471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990023665A KR100349329B1 (en) 1999-06-23 1999-06-23 Method of processing of MPEG-2 AAC algorithm

Country Status (1)

Country Link
KR (1) KR100349329B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10102159C2 (en) * 2001-01-18 2002-12-12 Fraunhofer Ges Forschung Method and device for generating or decoding a scalable data stream taking into account a bit savings bank, encoder and scalable encoder
KR100760976B1 (en) * 2005-08-01 2007-09-21 (주)펄서스 테크놀러지 Computing circuits and method for running an mpeg-2 aac or mpeg-4 aac audio decoding algorithm on programmable processors
KR101685062B1 (en) 2016-01-28 2016-12-09 주식회사 웰바스 A artificial intelligent wall outlet for automatic quiescent power cut-off and recovery function

Also Published As

Publication number Publication date
KR20010003385A (en) 2001-01-15

Similar Documents

Publication Publication Date Title
TWI515720B (en) Method of compressing a digitized audio signal, method of decoding an encoded compressed digitized audio signal, and machine readable storage medium
RU2387023C2 (en) Lossless multichannel audio codec
RU2422987C2 (en) Complex-transform channel coding with extended-band frequency coding
KR101428487B1 (en) Method and apparatus for encoding and decoding multi-channel
JP4925671B2 (en) Digital signal encoding / decoding method and apparatus, and recording medium
US20090204397A1 (en) Linear predictive coding of an audio signal
JPH10282999A (en) Method and device for coding audio signal, and method and device decoding for coded audio signal
JP2006011456A (en) Method and device for coding/decoding low-bit rate and computer-readable medium
JPH0856163A (en) Adaptive digital audio encoing system
JP2001053617A (en) Device and method for digital sound single encoding and medium where digital sound signal encoding program is recorded
JP2005534947A (en) Scale-factor feedforward prediction based on acceptable distortion of noise formed when compressing on a psychoacoustic basis
KR20100089772A (en) Method of coding/decoding audio signal and apparatus for enabling the method
JPH1084284A (en) Signal reproducing method and device
KR20070020012A (en) Lossless multi-channel audio codec
JP5587599B2 (en) Quantization method, encoding method, quantization device, encoding device, inverse quantization method, decoding method, inverse quantization device, decoding device, processing device
JP2003523535A (en) Method and apparatus for converting an audio signal between a plurality of data compression formats
JP2009512895A (en) Signal coding and decoding based on spectral dynamics
KR100477701B1 (en) An MPEG audio encoding method and an MPEG audio encoding device
KR100707173B1 (en) Low bitrate encoding/decoding method and apparatus
KR100682915B1 (en) Method and apparatus for encoding and decoding multi-channel signals
JP2004184975A (en) Audio decoding method and apparatus for reconstructing high-frequency component with less computation
KR100349329B1 (en) Method of processing of MPEG-2 AAC algorithm
JP2002132295A (en) Stereoaudio signal high-performance encoder system
WO1999044291A1 (en) Coding device and coding method, decoding device and decoding method, program recording medium, and data recording medium
JP2004246038A (en) Speech or musical sound signal encoding method, decoding method, encoding device, decoding device, encoding program, and decoding program

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130610

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20130905

Year of fee payment: 17

EXPY Expiration of term