KR19990041758A - Digital audio encoding device - Google Patents

Digital audio encoding device Download PDF

Info

Publication number
KR19990041758A
KR19990041758A KR1019970062412A KR19970062412A KR19990041758A KR 19990041758 A KR19990041758 A KR 19990041758A KR 1019970062412 A KR1019970062412 A KR 1019970062412A KR 19970062412 A KR19970062412 A KR 19970062412A KR 19990041758 A KR19990041758 A KR 19990041758A
Authority
KR
South Korea
Prior art keywords
slave
block
signal
master
bit
Prior art date
Application number
KR1019970062412A
Other languages
Korean (ko)
Inventor
배성근
강현우
Original Assignee
김영환
현대전자산업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영환, 현대전자산업 주식회사 filed Critical 김영환
Priority to KR1019970062412A priority Critical patent/KR19990041758A/en
Publication of KR19990041758A publication Critical patent/KR19990041758A/en

Links

Abstract

디지탈 오디오 부호화장치에 관한 것이며, 각 채널에서 입력되는 아날로그 신호를 디지탈 신호로 변환하는 다수의 A/D변환부와; 다수의 A/D변환부에서 입력되는 신호에 대한 서브밴드분석과 심리음향 모델링을 수행하는 다수의 슬레이브 블록과; 다수의 슬레이브 블록에서 출력되는 처리결과를 각각 입력받아 최종적인 비트열을 만들어 전송하는 마스터블록과; 마스터블록을 돕는 비트 슬레이브 블록과;A digital audio encoding apparatus comprising: a plurality of A / D conversion units for converting an analog signal input from each channel into a digital signal; A plurality of slave blocks for performing subband analysis and psychoacoustic modeling on signals input from the plurality of A / D converters; A master block receiving a processing result output from a plurality of slave blocks and generating and transmitting a final bit string; A bit slave block for assisting the master block;

AES/EBU 디지탈 오디오 규격을 만족시키는 디지탈 입력부로 구성되어 실시간에 적합하도록 설계되어 있으며,부호화기의 실제크기를 고려해서 최적화된 크기로 제작하기 위하여 중복되는 블록을 삭제하고 필요한 최소의 단위로 설계된다. 각 채널을 슬레이브 블록으로 처리하고 그 처리결과로 마스터 블록에서 취합하여 비트열을 생성함으로써 디지탈 부호화를 수행한다. 슬레이브 블록내에서 처리된 데이터는 듀얼 포트램에 저장되어 처리되며 그 처리가 끝난 후에 듀얼 포트램에 저장 및 처리된다. 처리되는 데이터는 방송용 오디오 신호에 적합하도록 AES/EBU 규격에 만족하도록 수신기 칩을 사용하여 규격에 만족하도록 되어 있으며 이것을 받아 다시 PCM 신호로 만들어 입력신호를 사용하기 때문에 방송용 장비와 호환을 가진다.AES / EBU digital audio format. It is designed to fit in real time. In order to make the optimized size considering the actual size of the encoder, the redundant blocks are deleted and designed in the minimum unit required. Each channel is processed as a slave block, and as a result of the processing, a bit stream is generated by collecting in the master block, thereby performing digital encoding. The data processed in the slave block is stored and processed in the dual port RAM and is stored and processed in the dual port RAM after the processing. The data to be processed is compliant with the AES / EBU standard so as to comply with AES / EBU standards and is compatible with broadcasting equipment because it uses it as a PCM signal and uses an input signal.

Description

디지탈 오디오 부호화장치Digital audio encoding device

본 발명은 고해상도 텔레비젼에 관한 것으로, 특히 디지탈 신호의 높은 압축율, 빠른 데이터 처리시간가 가능한 디지탈 오디오 부호화 장치에 관한 것이다.The present invention relates to a high-definition television, and more particularly to a digital audio encoding apparatus capable of high compression rate and fast data processing time of a digital signal.

디지탈 오디오가 통신, 컴퓨터, 가전등 여러 분야로 이용범위가 확대되면서 많은 양의 데이터를 저장 및 전송하는 문제가 등장하게 되었다. 이러한 문제를 해결하기 위해서 국제표준화기구 산하의 MPEG-1(the Motion Picture Experts Group: 이하 MPEG이라 함)표준안을 91년에 확정하였고, 이것을 다채널로 확장하여 94년 11월에 MPEG-2의 국제표준안이 완성된 상태이다.As digital audio is used in various fields such as communication, computers, and home appliances, there has been a problem of storing and transmitting a large amount of data. In order to solve this problem, the Motion Picture Experts Group (MPEG) standard of the International Organization for Standardization (MPEG-1) was established in 1991 and expanded to multiple channels. In November 1994, The standard has been completed.

MPEG에서는 오디오 부호화방식의 표준안으로 약 128kbit/s에서 CD(Compact Disc) 수준의 음질을 얻을 수 있는 MUSICAM(MUSICAM)방식을 채택하였다. MUSICAM 방식은 청각특성을 이용한 서브밴드(Sub-band:이하 서브 밴드라 함)부호화 방식으로서 각 서브-밴드에서 지각적인 잡음을 최소화하도록 음을 부호화하여 96∼128kbit/s에서 주관적으로 원음과 동일한 복원음을 얻을 수 있는 방식으로 MPEG 의 계층 2방식으로 선정되었다.MPEG adopts MUSICAM (MUSICAM) method which can obtain sound quality of CD (Compact Disc) level at about 128kbit / s as a standard of audio coding method. The MUSICAM scheme is a sub-band (sub-band) coding scheme using auditory characteristics. The MUSICAM scheme codes the sound so as to minimize perceptual noise in each sub-band. The MUSICAM scheme performs a subjective restoration from 96 to 128 kbit / It was selected as a layer 2 method of MPEG in such a way that the sound can be obtained.

도 5에 일반적인 MPEG 오디오 부호화 장치의 구성을 보이는 블록도가 도시된다. A/D변환부(51)는 아날로그 형태의 오디오 신호를 입력받아 48KHz로 샘플링하여 디지탈 신호로 변환한다. 필터뱅크부(52)는 상기 A/D변환부(51)에서 입력되는 48KHz의 디지탈 신호를 32개의 서브밴드로 나누어 출력한다. 최대값 검출부(53)는 상기 필터 뱅크부(52)에서 출력되는 32개의 서브밴드로 나누어진 디지탈신호에서 각 서브밴드마다 최대값을 검출하여 출력한다. 스케일팩터 검출부(54)는 상기 필터 뱅크부(52)에서 출력되는 32개의 서브밴드로 나누어진 디지탈신호에서 각 서브밴드의 스케일 팩터를 검출하여 그 인덱스를 출력한다. 계층 및 패턴 검출부(55)는 상기 스케일 팩터 검출부(54)에서 스케일팩터의 인덱스를 입력받아 계층별로 나누고 그 패턴을 검출한다.고속 푸리에 변환부(56)는 상기 A/D변환부(51)에서 입력되는 48KHz의 디지탈 신호를 푸리에 변환하여 그 스펙트럼을 출력한다. 절대 가청 마스킹부(57)는 상기 고속푸리에 변환부(56)에서 출력되는 스펙트럼들과 상기 필터뱅크(52)에서 출력되는 32개의 서브밴드로 나누어진 디지탈신호의 데시벨(dB)을 비교하여 최대 스펙트럼을 선택하여 출력한다. 비트 할당부(58)는 상기 절대 가청 마스킹부(57)에서 출력되는 최대스펙트럼에 비트를 할당한다. 부호화부(59)는 상기 계층 및 패턴 검출부(55)와 상기 비트할당부(58)에서 출력되는 신호를 프레임으로 변환하여 출력한다.FIG. 5 is a block diagram showing a configuration of a general MPEG audio encoding apparatus. The A / D converter 51 receives the analog audio signal, samples it at 48 KHz, and converts it into a digital signal. The filter bank unit 52 divides the 48 KHz digital signal input from the A / D conversion unit 51 into 32 subbands and outputs the 32 subbands. The maximum value detector 53 detects a maximum value for each subband in a digital signal divided into 32 subbands output from the filter bank unit 52 and outputs the maximum value. The scale factor detector 54 detects a scale factor of each subband in a digital signal divided into 32 subbands output from the filter bank unit 52 and outputs the index. The layer and pattern detector 55 receives the index of the scale factor from the scale factor detector 54 and divides the index into hierarchies and detects the pattern. The A / D converter 51 performs fast Fourier transform The input 48 KHz digital signal is Fourier-transformed and the spectrum is output. The absolute audio masking unit 57 compares the spectrums output from the fast Fourier transform unit 56 with the decibel (dB) of the digital signal divided into 32 subbands output from the filter bank 52, And outputs it. The bit allocation unit 58 allocates a bit to the maximum spectrum output from the absolute audible masking unit 57. The encoding unit 59 converts the signals output from the layer and pattern detection unit 55 and the bit allocation unit 58 into frames and outputs the frames.

MPEG 오디오 표준압축방식은 부호화의 응용목적에 따라 일반적으로 MPEG-1 및 MPEG-2로 나뉘어지고 다시 비트율에 따라 계층1, 계층2, 계층3으로 나누어진다. MPEG-1 오디오 부호화방식과 MPEG-2 오디오 부호화 방식의 기본적인 알고리즘은 동일하나 MPEG-1 오디오 부호화 방식의 경우 최대 두 채널(좌,우)의 스테레오 신호만을 부호화하므로 음상정위(Sound Image Localize)가 불안정하여 현장감을 충실히 재현하지 못하는 단점이 있었다.The MPEG audio standard compression method is generally divided into MPEG-1 and MPEG-2 according to the application purpose of the encoding, and is divided into the layer 1, layer 2, and layer 3 according to the bit rate. Although the basic algorithms of the MPEG-1 audio coding method and the MPEG-2 audio coding method are the same, in the case of the MPEG-1 audio coding method, only the stereo signals of up to two channels (left and right) are coded, so that the sound image localization is unstable So that there is a disadvantage that the realism can not be faithfully reproduced.

따라서, MPEG-2에서는 이러한 현장감을 살리기 위하여 좌(이하 L이라 함),우(이하 R이라 함) 두채널의 기본 스테레오 신호에 중앙채널(이하 C라 함), 서라운드 채널(이하 LS 및 RS라 함) 및 저주파 효과채널(이하 LFE(low frequency effect)라 함)을 첨가하여 SMPTE, ITU등의 권고안으로 채택된 3/2+1로 구성된 5.1채널(L,R,C,LS,RS,LFE)부호화 알고리즘으로 표준화한다.Therefore, in MPEG-2, a central channel (hereinafter referred to as C), a surround channel (hereinafter referred to as LS and RS) are assigned to the left (hereinafter referred to as L) (L, R, C, LS, RS, LFE), which is a 3/2 + 1 adopted as a recommendation of SMPTE and ITU by adding a low frequency effect channel ) Encoding algorithm.

MPEG-1과 MPEG-2의 기본 알고리즘은 통계학적인 중복성을 제거하기 위하여 입력신호를 32개의 가중중첩 가산(weighted overlap-add:이하 "가중중첩 가산"이라고 함)방식 등간격 필터 뱅크에 통과시켜 서브밴드 샘플로 변환한다. 동시에 FFT(Fast Fourier Trandform)를 사용하는 심리음향(psychoacoustic) 모델에서는 지각적인 중복성을 제거한 후 마스크(Mask) 임계값을 얻어 양자화에 쓰이는 비트할당 정보를 준다. 즉, 필터뱅크의 출력값과 마스킹 임계값을 가지고 신호대 잡음이 신호에 의해 마스킹할 수 있도록 비트할당을 한다. 잡음을 완전히 마스킹 시킬 수 없을 때는 주관적인 잡음을 최소화하도록 각 서브-밴드에 비트를 할당하고 양자화된 서브-밴드 샘플과 부가정보를 가지고 비트열을 만든다.The basic algorithms of MPEG-1 and MPEG-2 pass the input signal through 32 weighted overlap-add equal spaced filter banks in order to eliminate statistical redundancy. Band sample. At the same time, the psychoacoustic model using FFT (Fast Fourier Trandform) removes the perceptual redundancy, obtains a mask threshold value, and gives bit allocation information used for quantization. That is, bit allocation is performed so that the signal-to-noise can be masked by the signal with the output value of the filter bank and the masking threshold value. When the noise can not be completely masked, bits are allocated to each sub-band to minimize subjective noise and bit strings are created with quantized sub-band samples and side information.

MPEG의 계층1,2에서는 32개의 동일 크기를 갖는 가중중첩 가산방법의 SSB 필터뱅크를 사용한다. 서브-밴드 분석에 사용되는 필터는 512-탭 저역통과 필터가 기본이되며 행렬연산에 의해서 주파수 천이되어 32개의 동일 크기를 갖는 서브-밴드가 된다.In layer 1 and 2 of MPEG, we use 32 SSB filter banks of the same weighted overlap-add method. The filter used for the sub-band analysis is based on a 512-tap low-pass filter and is frequency shifted by matrix operation to become 32 sub-bands of equal size.

서브-밴드 분석과 함께 심리음향모델을 사용하면 각 서브밴드에서 마스킹되어 들을 수 없는 최대의 잡음레벨을 결정할 수 있으며 이를 사용하여 각 서브밴드의 실제 양자화기를 결정하는 비트를 할당할 수 있다. MPEG에서는 두가지의 심리음향모델을 제공하는데 두 모델을 적절한 응용분야에 적용해서 사용할 수 있다.Using a psychoacoustic model with sub-band analysis, it is possible to determine the maximum noise level that can be masked in each subband and use it to allocate bits that determine the actual quantizer of each subband. MPEG provides two psychoacoustic models, which can be applied to appropriate applications.

첫 번째 방법은 FFT 스펙트럼을 순음과 잡음 성분으로 나누어 각 성분에 의한 마스킹 임계값을 구한후 절대 가청한계를 고려하여 마스킹 임계값을 구하는 방법이다. 계층2에서는 일반적으로 심리음향모델1을 이용하여 마스킹 임계값을 구하며 낮은 압축률이 요구될 때 사용한다. 두 번째 방법은 FFT 스펙트럼을 청신경의 여기모델인 스프레딩 함수와 컨벌루션하여 마스킹 임계값을 구하는 것으로 많은 계산량이 필요로 하지만 마스킹 특성을 보다 정확히 모델링 할 수 있으므로 높은 압축율을 필요로 하는 응용분야에 이용된다. 앞서 설명한 바와같이, MPEG-1 및 MPEG-2의 알고리즘은 매우 복잡하고 많은 계산량을 필요로 하기 때문에 이것을 하드웨어로 구현하기에는 많은 계산시간과 복잡한 구조의 하드웨어를 필요로 한다.The first method is to divide the FFT spectrum by the pure tone and the noise component, to obtain the masking threshold value by each component, and then to obtain the masking threshold value by considering the absolute audible limit. In layer 2, psychoacoustic model 1 is generally used to obtain the masking threshold value, which is used when a low compression ratio is required. The second method is to calculate the masking threshold value by convolving the FFT spectrum with the spreading function of the auditory neuron model, which requires a large amount of computation. However, since the masking characteristic can be more accurately modeled, it is used in applications requiring a high compression ratio . As described above, since the algorithms of MPEG-1 and MPEG-2 are very complicated and require a large amount of computation, it takes a lot of computation time and complicated structure hardware to implement it.

본 발명은 상기와 같은 문제점을 해결하기 위해서 제안된 것으로서,SUMMARY OF THE INVENTION The present invention has been proposed in order to solve the above problems,

본 발명의 목적은 MPEG-1 및 MPEG-2의 알고리즘을 하드웨어로 구현하여 디지탈 오디오 신호의 높은 압축률과 실시간 처리가 가능한 디지탈 오디오 부호화장치를 제공하는 것이다.An object of the present invention is to provide a digital audio encoding apparatus capable of realizing high compression rate and real-time processing of a digital audio signal by implementing algorithms of MPEG-1 and MPEG-2 in hardware.

본 발명의 다른 목적은 디지탈 오디오를 이용하여 많은 량의 데이터를 저장 및 전송할 수 있는 디지탈 오디오 부호화장치를 제공하는 것이다.It is another object of the present invention to provide a digital audio encoding apparatus capable of storing and transmitting a large amount of data using digital audio.

상기 목적을 달성하기 위하여 본 발명에 의한 장치는 각 채널에 대한 서브밴드분석과 심리음향 모델링을 수행하는 다수의 슬레이브 블록과; 상기 다수의 슬레이브 블록에서 출력되는 처리결과를 각각 입력받아 최종적인 비트열을 만들어 전송하는 마스터블록과; 상기 마스터블록을 돕는 비트 슬레이브 블록과; AES/EBU 디지탈 오디오 규격을 만족시키는 디지탈 입력부로 구성된다.According to an aspect of the present invention, there is provided an apparatus comprising: a plurality of slave blocks for performing subband analysis and psychoacoustic modeling for each channel; A master block receiving the processing results output from the plurality of slave blocks and generating and transmitting a final bit string; A bit slave block for assisting the master block; AES / EBU digital audio format.

도 1은 본 발명에 의한 디지탈 오디오 부호화 장치의 구성을 보이는 블록도이다.1 is a block diagram showing a configuration of a digital audio encoding apparatus according to the present invention.

도 2는 본 발명에 의한 슬레이브 블록이 수행하는 서브밴드 분석과정을 보이는 플로우차트이다.2 is a flowchart illustrating a subband analysis process performed by the slave block according to the present invention.

도 3은 본 발명에 의한 슬레이브 블록이 수행하는 심리음향모델 1의 방법을 수행하는 플로우 차트이다.3 is a flowchart illustrating a method of psychoacoustic model 1 performed by a slave block according to the present invention.

도 4는 본 발명에 의한 마스터블록이 수행하는 비트할당과정을 보이는 플로우차트이다.4 is a flowchart illustrating a bit allocation process performed by the master block according to the present invention.

도 5는 일반적인 MPEG 오디오 부호화 장치의 구성을 보이는 블록도이다.5 is a block diagram showing a configuration of a general MPEG audio encoding apparatus.

<도면의 주요 부분에 대한 부호의 설명>Description of the Related Art

10....마스터 제어부 11....제1국부 메모리10 .... Master control unit 11 .... First local memory

12....프로그래머블 로직부 13....프로그램 메모리12 .... Programmable logic part 13 .... Program memory

14....리셋트 스위치부 15....표시부14 .... Reset switch part 15 .... Display part

16....클록부 21....슬레이브 제어부16 .... clock section 21 .... slave control section

22....제2국부 메모리 23,24....듀얼 포트메모리22 .... second local memory 23,24 .... dual port memory

25....어드레스디코더 100....마스터 블록25 .... Address decoder 100 .... Master block

201-206.... 슬레이브 블록 207....비트 슬레이브블록201-206 .... Slave block 207 .... Bit slave block

이하, 본 발명의 기술적 사상에 따른 실시예를 들어 그 동작 및 작용효과를 상세히 설명한다.Hereinafter, the operation and effect of the embodiment according to the technical idea of the present invention will be described in detail.

도1에 본 발명에 의한 MPEG 오디오 부호화장치의 구성을 보이는 블록도가 도시된다.1 is a block diagram showing a configuration of an MPEG audio coding apparatus according to the present invention.

본 발명에 의한 MPEG 오디오 부호화장치는 각 채널에서 입력되는 아날로그 신호를 디지탈 신호로 변환하는 다수의 A/D변환부(31-37)와; 상기 다수의 A/D변환부(31-37)에서 입력되는 신호에 대한 서브밴드분석과 심리음향 모델링을 수행하는 다수의 슬레이브 블록(201-206)과; 상기 다수의 슬레이브 블록(201-206)에서 출력되는 처리결과를 각각 입력받아 최종적인 비트열을 만들어 전송하는 마스터블록(100)과; 상기 마스터블록을 돕는 비트 슬레이브 블록(207)과; AES/EBU 디지탈 오디오 규격을 만족시키는 디지탈 입력부(300)로 구성된다.The MPEG audio encoding apparatus according to the present invention includes a plurality of A / D conversion units 31-37 for converting an analog signal input from each channel into a digital signal; A plurality of slave blocks 201-206 for performing subband analysis and psychoacoustic modeling on signals input from the plurality of A / D converters 31-37; A master block 100 receiving a processing result output from the plurality of slave blocks 201-206 and generating and transmitting a final bit string; A bit slave block 207 for assisting the master block; And a digital input unit 300 that satisfies the AES / EBU digital audio standard.

또한, 마스터 블록(100)은 디지탈 신호처리와 각부를 제어하여 MPEG 알고리즘을 구현하는 주제어부(10)와; 서브밴드 분석 버퍼와 FFT 버퍼로 사용되는 제1국부 메모리부(11)와; 마스터 블록(100)과 슬레이브 블록(201-206)에 필요한 프로그램 코드 및 여러 데이터가 기록되는 제1국부 메모리부(11)와; 마스터 블록(100)과 슬레이브 블록(201)간의 정보 교환에 필요한 듀얼포트 메모리부(24)의 제어신호와 제1국부 메모리부(11) 및 프로그램 메모리부(13)의 제어신호를 생성하는 프로그래머블 로직부(12)와; MPEG 알고리즘을 구현하는 소프트웨어 프로그램을 저장하는 프로그램 메모리부(13)와; 전원이 인가된 후 리셋트 신호를 발생시켜 마스터 블록(100), 슬레이브블록(201-206) 및 비트 슬레이브블록(207)을 리셋트시키는 리셋트 스위치부(14)와; 전원이 인가된 것을 표시하는 전원표시부(15)와; 메인 클록을 상기 마스터 블록(100), 슬레이브블록(201-206) 및 비트 슬레이브블록(207)에 공급하여 동기를 맞추는 클록부(16)로 구성된다.The master block 100 includes a main control unit 10 for implementing digital signal processing and each part to implement an MPEG algorithm; A first local memory unit 11 used as a subband analysis buffer and an FFT buffer; A first local memory unit 11 for storing program codes and various data necessary for the master block 100 and the slave blocks 201-206; The control signal of the dual port memory unit 24 required for information exchange between the master block 100 and the slave block 201 and the control signal of the programmable logic unit for generating the control signals of the first local memory unit 11 and the program memory unit 13 (12); A program memory unit 13 for storing a software program implementing an MPEG algorithm; A reset switch unit 14 for resetting the master block 100, the slave blocks 201-206 and the bit slave blocks 207 by generating a reset signal after power is applied; A power indicator 15 for indicating that power is applied; And a clock section 16 for supplying a main clock to the master block 100, the slave blocks 201-206 and the bit slave block 207 and synchronizing them.

슬레이브 블록(201)은 상기 A/D변환부(31-35)에서 입력되는 디지탈 신호에 대한 서브밴드분석과 심리음향 모델링을 수행하는 슬레이브 제어부(21)와; 마스터 블록(100)과 슬레이브 블록(201)간에 필요한 프로그램 코드 및 여러 데이터가 기록되는 제2 국부 메모리부(22)와; 상기 슬레이브 제어부(21)에서 처리된 결과를 저장하는 마스터 블록(100)과 슬레이브 블록(201) 간에 순차적으로 처리결과를 전달하는 한쌍의 듀얼포트 메모리부(23,24)와; 제어신호를 디코딩하는 어드레스 디코더부(25)로 구성된다. 슬레이브 블록은 앞서 설명한 바와 같이 구성된 여섯 개의 슬레이브 블록으로 구성되며, 5채널(L,R,C,LS,RS)에서 입력되는 신호를 처리하는 다섯 개의 서브블록(201-205)과 0.1채널(LFE)에서 입력되는 신호를 처리하는 비트슬레이브 블록(206)으로 구성된다.The slave block 201 includes a slave controller 21 for performing subband analysis and psychoacoustic modeling on the digital signal input from the A / D converter 31-35; A second local memory unit 22 for storing necessary program codes and various data between the master block 100 and the slave block 201; A pair of dual port memory units (23, 24) for sequentially transmitting a processing result between a master block (100) and a slave block (201) storing results processed by the slave controller (21); And an address decoder unit 25 for decoding the control signal. The slave block is composed of six slave blocks configured as described above, and includes five sub-blocks 201-205 for processing signals input from five channels (L, R, C, LS, RS) And a bit slave block 206 for processing a signal input from the bit slave block 206. [

이하 본 발명의 작용,효과를 설명한다.The operation and effect of the present invention will be described below.

슬레이브 블록(201)의 슬레이브 제어부(21)는 마스터블록(100)의 프로그램 메모리(13)에서 소프트웨어를 읽어들여 서브밴드 분석과정을 수행한다.The slave control unit 21 of the slave block 201 reads the software from the program memory 13 of the master block 100 and performs a subband analysis process.

도2에 본 발명에 의한 슬레이브 블록이 수행하는 서브밴드 분석과정을 보이는 플로우차트가 도시된다. 슬레이브 제어부(21)는 다음의 서브밴드 분석 과정을 마스터블록(100)의 프로그램 메모리(13)로부터 읽어들여 수행한다.FIG. 2 is a flowchart illustrating a subband analysis process performed by the slave block according to the present invention. The slave controller 21 reads the next subband analysis process from the program memory 13 of the master block 100 and performs the subband analysis process.

단계 S21에서 슬레이브 제어부(21)은 A/D변환부(31)로부터 32개씩 새로운 오디오 샘플을 입력받아 내부버퍼에 저장한다. 단계S22에서 상기 내부버퍼에 저장된 오디오샘플을 이용하여 512개의 입력샘플을 갖는 벡터를 만든다. 입력받은 샘플은 31에서부터 0까지 놓이게 되는데 가장 최근 샘플이 0에 놓이게 되며 가장 오래된 32 샘플이 버려진다. 단계 S23에서 상기 단계 S22에서 생성된 입력벡터에 분석윈도우(Window)를 곱한다. 단계 S24에서 512 샘플을 8개의 64샘플블럭으로 나눈 후 각 블록을 더하여 새로운 벡터를 구성한다. 단계 S25에서 다음 식(1)의 분석행렬에 의해 32 서브-밴드 샘플을 만들어 제2국부 메모리(22)에 저장한다.In step S21, the slave control unit 21 receives 32 new audio samples from the A / D conversion unit 31 and stores them in the internal buffer. In step S22, a vector having 512 input samples is generated using the audio samples stored in the internal buffer. The input sample is placed from 31 to 0, the most recent sample is placed at 0, and the oldest 32 samples are discarded. In step S23, the input vector generated in step S22 is multiplied by an analysis window (Window). In step S24, 512 samples are divided into 8 64 sample blocks, and each block is added to construct a new vector. In step S25, 32 sub-band samples are generated by the analysis matrix of the following equation (1) and stored in the second local memory 22.

......(1) ......(One)

서브-밴드 분석과 함께 심리음향모델을 사용하면 각 서브밴드에서 마스킹되어 들을 수 없는 최대의 잡음레벨을 결정할 수 있으며 이를 사용하여 각 서브밴드의 실제 양자화기를 결정하는 비트를 할당할 수 있다.Using a psychoacoustic model with sub-band analysis, it is possible to determine the maximum noise level that can be masked in each subband and use it to allocate bits that determine the actual quantizer of each subband.

MPEG에서는 두가지의 심리음향모델을 제공하는데 두 모델을 적절한 응용분야에 적용해서 사용할 수 있다. 첫 번째 방법은 FFT 스펙트럼을 순음과 잡음성분으로 나누어 각 성분에 의한 마스킹 값을 구한 후 절대가청 한계를 고려하여 마스킹 임계값을 구하는 방법이다.계층2에서는 일반적으로 심리음향모델1을 이용하여 마스킹 임계값을 구하며 낮은 압축률이 요구될 때 사용한다.MPEG provides two psychoacoustic models, which can be applied to appropriate applications. The first method is to divide the FFT spectrum into pure tone and noise components and obtain the masking value by each component and then obtain the masking threshold value by considering the absolute audible limit. In layer 2, generally, the psychoacoustic model 1 is used to determine the masking threshold Value and is used when a low compression ratio is required.

두 번째 방법은 FFT 스펙트럼을 청신경의 여기모델인 스프레딩 함수와 컨벌루션하여 마스킹 임계값을 구하는 것으로 많은 계산량이 필요로 하지만 마스킹 특성을 보다정확히 모델링 할 수 있으므로 높은 압축율을 필요로 하는 응용분야에 이용된다.The second method is to calculate the masking threshold value by convolving the FFT spectrum with the spreading function of the auditory neuron model, which requires a large amount of computation. However, since the masking characteristic can be more accurately modeled, it is used in applications requiring a high compression ratio .

도3에 본 발명에 의한 슬레이브 블록이 수행하는 심리음향모델 1의 방법을 수행하는 플로우 차트가 도시된다.3 is a flowchart illustrating a method of psychoacoustic model 1 performed by a slave block according to the present invention.

단계 S31에서 계층 2에서는 입력된 1152 샘플중 처음 64샘플과 맨끝 64샘플을 제외한 1024샘플입력신호에 다음에 표기되는 식2에 주어진 해닝(Hanning)윈도우를 씌운 후 FFT를 계산하여 식3에 의해 주파수 스펙트럼을 구한다. 이 스펙트럼을 가지고 1152샘플에 대해서 새로운 비트를 할당한다.In step S31, the Hanning window given in Equation 2 shown below is applied to 1024 sample input signals except for the first 64 samples and the last 64 samples among the 1152 samples inputted in the step S31, and the FFT is calculated, Obtain the spectrum. With this spectrum, a new bit is allocated for 1152 samples.

.....(2) .....(2)

.....(3) ..... (3)

단계 S32에서 각 서브밴드에서의 음압레벨을 식4에 의해서 계산한다.In step S32, the sound pressure level in each subband is calculated by Equation (4).

, n:subband index ....(4) , n: subband index .... (4)

위식에서 X(k)는 각 서브 밴드 영역에서의 스펙트럼 계수이고 scfmax(n)는 한 서브-밴드당 세 개의 스케일 팩터 중 최대값을 의미한다. 단계S33에서 심리음향실험을 통하여 얻어진 데이터를 사용하여 절대가청 한계를 고려한다. 96kbit/s 이상에서는 -12dB의 오프셋(offset)을 주고 96kbit/s 이상에서는 그대로 사용한다.In the hypothesis, X (k) is the spectral coefficient in each subband region and scfmax (n) means the maximum of the three scale factors per sub-band. The absolute audible limit is taken into consideration by using the data obtained through psychoacoustic experiments in step S33. An offset of -12dB is given for more than 96kbit / s, and it is used at 96kbit / s or more.

단계 S34에서 스펙트럼 정보에서 순음(tonal) 성분과 잡음(non-tonal) 성분을 찾는다. 먼저, 순음성분을 찾아낸 후 순음성분을 제외한 나머지 스펙트럼으로부터 하나의 임계 대역내에서 하나의 잡음성분을 구한다. 순음을 구하는 방법은 먼저 앞 뒤 신호보다 크면 부분 최대값(local maxima)으로 간주하고 아래에 주어진 주파수 영역에서 주위신호보다 7dB 이상이 크면 순음으로 간주한다. 저주파 영역에서는 좁은 영역에 대하여 찾고, 고주파 성분에서는 넓은 영역에 대해서 찾는다. 각각의 주파수 영역은 다음과 같다.In step S34, a tonal component and a non-tonal component are found in the spectrum information. First, a pure tone component is found, and then one noise component is found in one critical band from the remaining spectrum excluding the pure tone component. The method for obtaining the pure tone is regarded as the local maxima if it is larger than the front and back signals, and it is regarded as the pure tone if it is 7dB or more higher than the surrounding signal in the frequency region given below. It searches for a narrow region in the low frequency region and searches for a wide region in the high frequency component. Each frequency domain is as follows.

....(5) .... (5)

이렇게 찾아낸 순음의 음압레벨은 Xtm=X(k-1)+X(k)+X(k+1)를 계산하여 얻어진다. 잡음성분은 임계 대역내에서 순음성분을 제외한 성분들의 합으로 얻어진다. 즉, 임계대역 내의 에너지 합이 잡음에 의한 마스킹 성분이 된다.The sound pressure level of the pure tone thus obtained is obtained by calculating X tm = X (k-1) + X (k) + X (k + 1). The noise component is obtained as the sum of the components excluding the pure tone component in the critical band. That is, the energy sum in the critical band becomes a masking component due to noise.

심리음향에서 임계대역내의 에너지 합이 같을 경우 어떤 형태를 갖든 같은 음압 레벨로 들리는 것을 이용해서 그임계 대역내의 기하 중심이 되는 위치에 잡음 성분이 집중되어 있다고 가정하고 마스킹 곡선을 얻는다. 임계대역은 표본화 주파수에 따라 23개에서 26개로 나누어진다. 임계대역의 크기는 저주파 영역에서는 대략 0.1KHz 정도이고 고주파 영역에서는 4KHz 까지로 달라진다.When the sum of energy in the critical band is the same in psychoacoustic, it is assumed that the noise component is concentrated at the position which is the center of the geometric center in the critical band by using the same sound pressure level at any sound level, and a masking curve is obtained. The critical band is divided into 23 to 26 according to the sampling frequency. The critical band size is about 0.1 KHz in the low frequency range and up to 4 KHz in the high frequency range.

단계 S35에서 전체 마스킹 임계값을 계산할 때, 마스킹 성분의 수를 줄여 계산을 간단하게 한다. 순음 마스킹 성분과 잡음 마스킹 성분의 음압레벨이 절대 가청 한계보다 작을 경우에는 고려하지 않는다.When calculating the total masking threshold value at step S35, the number of masking components is reduced to simplify the calculation. It is not considered when the sound pressure level of the pure tone masking component and the noise masking component is smaller than the absolute audible limit.

단계 S36에서, 계산량을 줄이기 위하여 각 FFT계수 k에 대해서 전부 임계값을 구하지않고 서브-샘플링(sub-sampling)을 행한 후에 마스킹 임계값을 구한다.계층2에서는 처음 세 개의 서브-밴드에 대해서는 서브-샘플링을 하지 않고 다음 세 개의 서브-밴드에서는 하나씩 건너서, 다음 여섯 밴드에서는 4개중 1개를 선택해서 그리고 나머지 밴드(표본화 주파수가 1KHz 또는 48KHz에 대해서는 20KHz까지, 32 KHz일 때는 15KHz까지)에서는 8개중 1개만 임계값을 구한다. 모든 순음 마스킹 성분과 잡음 성분은 FFT 계수 k와 가장 가까운 서브 샘플링된 계수로 변환한다. 그리고 순음과 잡음에 의한 마스킹 임계값은 다음식에 의해서 계산되어진다.In step S36, the masking threshold value is obtained after performing sub-sampling without obtaining a threshold value for each FFT coefficient k in order to reduce the amount of calculation. In the layer 2, the sub- Without sampling, skip one of the four subbands in the next three subbands, and select one out of the four bands in the next three subbands, and in the remaining bands (sampling frequencies up to 20KHz for 1KHz or 48KHz and up to 15KHz for 32KHz) Only one threshold value is obtained. All pure tone masking components and noise components are transformed into the sub-sampled coefficients closest to the FFT coefficients k. The masking threshold by pure tone and noise is calculated by the following equation.

....(6) (6)

윗식에서 avtm,avnm,vf는 각각 순음과 잡음의 마스킹 인덱스, 그리고 마스킹 함수이며 다음과 같이 계산된다.In the above equation, av tm , av nm , and vf are masking indices of pure tone and noise, respectively, and masking function, and are calculated as follows.

.......(7) ... (7)

-3≤dz≤-1 Bark,dB-3? Dz? -1 Bark, dB

-1≤dz≤0 Bark,dB-1? Dz? 0 Bark, dB

0≤dz≤1 Bark,dB0? Dz? 1 Bark, dB

1≤dz≤8 Bark,dB .....(8)1? Dz? 8 Bark, dB (8)

마스킹 함수는 bark단위의 거리(dz=z(i)-z(j))에 따르는 마스킹 곡선의 기울기를 결정해 준다. 여기서 X[z(j)]는 j번째 마스킹 요소의 음압 레벨(dB)이다. 만약-3Bark 보다 8Bark 이상일 때 마스킹은 더 이상 고려하지 않는다.The masking function determines the slope of the masking curve according to the distance of the bark unit (dz = z (i) -z (j)). Where X [z (j)] is the sound pressure level (dB) of the jth masking element. If it is more than 8Bark than -3Bark, masking is no longer considered.

단계 S37에서, 전체 마스킹 임계값은 개별 마스킹 임계값과 가청 한계의 합으로 구해진다. 순음 마스킹 성분이 m개, 잡음 마스킹 성분이 n개로 주어지면 다음식에 의해 전체 마스킹 임계값이 구해진다. 위의 방법으로 구한 전체 마스킹 임계값을 가지고 각 서브밴드에서의 최소 마스킹 임계값을 다음식에 의해 결정한다.In step S37, the total masking threshold is determined as the sum of the individual masking threshold and the audible limit. When the number of pure tone masking components is m and the number of noise masking components is n, the total masking threshold value is obtained by the following equation. The minimum masking threshold value for each subband is determined by the following equation with the total masking threshold value obtained by the above method.

.....(9) ..... (9)

그리고 다음의 식10에 의해 각 서브 밴드에서의 신호대 마스크비(SMR:Signal to Masking Ratio)를 계산한다.Then, the Signal to Masking Ratio (SMR) in each subband is calculated by the following Expression (10).

..............(10) ... (10)

이식에서 알수 있듯이 신호대 마스크비는 각 밴드의 음압레벨에서 최소 마스킹 임계값을 빼주면 된다. 결국 신호대 마스크비가 작다면 신호의 음압레벨이 작거나 마스킹이 많이 되는 것이므로 SMR이 작을수록 적은 비트를 사용하여 효과적인 양자화를 할 수 있다.As you can see from the transplant, the signal mask ratio can be obtained by subtracting the minimum masking threshold from the sound pressure level of each band. As a result, if the signal mask ratio is small, the sound pressure level of the signal is small or the masking is large. Therefore, the smaller the SMR, the more efficient quantization can be performed using fewer bits.

각 서브밴드의 샘플값을 정규화시키기 위한 스케일팩터를 찾기 위해서는 먼저 12샘플의 정규화된 절대값중 최대값을 찾아야 한다. 이값과 MPEG에서 제안한 63개의 스케일 팩터를 비교하여 정규화된 최대값보다 바로 다음으로 큰 스케일 팩터를 그 프레임의 스케일 팩터로 한다. 이렇게 찾은 스케일 팩터느 그자체가 부호화되는 것이 아니라 그 값에 해당하는 스케일 팩터의 인덱스가 부호화된다. 물론 복호화 단에서는 이미 인덱스의 코드북을 가지고 있으므로 64개의 인덱스를 부호화하는데 필요한 6비트만 전송받으면 부호화기에서 보내준 스케일 팩터를 찾아낼 수 있다.In order to find the scale factor for normalizing the sample value of each subband, the maximum value of 12 normalized absolute values must first be found. This value is compared with the 63 scale factors proposed by MPEG, and the scale factor immediately next to the normalized maximum value is set as the scale factor of the frame. The scale factor found in this way is not encoded, but the index of the scale factor corresponding to the value is encoded. Of course, since the decoding stage already has the codebook of the index, if only six bits required to encode 64 indexes are transmitted, the scale factor sent from the encoder can be found.

계층2에서는 각 서브밴드마다 한꺼번에 36샘플(3프레임)을 분석하여 일률적으로 비트를 할당해주기 때문에 3개의 스케일 팩터가 전송되어야 한다. 이 스케일 팩터를 부호화할 때, 스케일 팩터가 전송되어야 한다. 이스케일 팩터를 부호화할 때, 스케일 팩터정보(SCFSI:Scale Factor Select Information)를 이용하여 사용되는 비트 수를 줄이는 과정을 거친다.In layer 2, 36 samples (3 frames) are analyzed for each subband at a time, and three scale factors must be transmitted since the bits are uniformly allocated. When encoding this scale factor, a scale factor must be transmitted. When encoding an escalation factor, the number of bits used is reduced by using scale factor information (SCFSI).

스케일팩터 정보는 세프레임의 스케일 팩터가 얼마나 비슷한가에 따라 다섯가지 클래스로 나누어 구해진다. 클래스를 분류하기 위하여 dscf1과 dscf2라는 변수를 식 11과 같이 정의하고 각각의 dscf에는 그 값에 따라 클래스값이 주어진다. 여기서, scf1,scf2,scf3는 각각 첫 번째, 두 번째, 세 번째 프레임의 스케일 팩터를 의미한다.The scale factor information is divided into five classes according to how similar the scale factors of three frames are. To classify classes, we define dscf1 and dscf2 variables as shown in Equation 11, and each dscf is given a class value according to its value. Here, scf1, scf2, and scf3 denote the scale factors of the first, second, and third frames, respectively.

................(11) ... (11)

dscf1과 dscf2에 할당된 클래스 값 즉, 클래스1과 클래스2는 인덱스가 되어 스케일 팩터 선택 정보(SCFSI)를 찾는데 이용된다. 전송패턴에 나타난 세기의 숫자는 각각 첫 번째, 두 번째, 세 번째 프레임에 실제로 사용되는 스케일 팩터를 의미한다. 그리고 숫자 "1","2","3"은 각각 첫 번째, 두 번째, 세 번째 프레임의 스케일 팩터를 나타내며, "4"는 세기의 스케일 팩터 중 가장 큰값을 표시한다.Class values assigned to dscf1 and dscf2, that is, Class 1 and Class 2, are indexed and used to find scale factor selection information (SCFSI). The number of intensities in the transmission pattern refers to the scale factor actually used in the first, second, and third frames, respectively. The numbers "1", "2" and "3" represent the scale factors of the first, second and third frames, respectively, and "4" represents the largest scale factor of the intensity.

단계 S38에서, 클래스와 스케일 팩터 선택정보를 사용하여 비슷한 크기의 스케일 팩터에 대해서 독립적으로 전송하지 않고 대표값만 한 개 또는 두 개를 보냄으로써 스케일 팩터를 부호화한다. 스케일 팩터를 이런 방법으로 부호화하는 것은 계층1과 계층2의 차이점 중 하나이다.In step S38, the scale factor is encoded by sending only one or two representative values, instead of independently transmitting the scale factors of similar size using the class and scale factor selection information. Encoding the scale factor in this way is one of the differences between layer 1 and layer 2.

샘플과 스케일 팩터를 부호화하는데 사용가능한 비트수(adb)는 전체비트수(cb)에서 헤더정보(header)에 필요한 비트(bhdr), 에러정정을 위한 에러정정비트(bcrc) 비트할당 정보에 필요한 비트(bbal)와 보조데이타를 위한 비트(banc)를 빼주면 되므로 다음식에 의해 산출된다.The number of bits (adb) usable for encoding the sample and the scale factor is determined by the bits (bhdr) necessary for the header information (header) in the total number of bits cb and the error correction bits (bcrc) (bbal) for the auxiliary data and the bits (banc) for the auxiliary data are subtracted.

................(12) ... (12)

윗식으로 얻어진 비트 수를 사용하여 샘플과 스케일 팩터를 부호화할 수 있다. 비트 할당에서 사용되는 기본법칙은 한 프레임에 사용가능한 비트수를 넘지 않으면서 그 프레임 전체의 잡음 대 마스크(NMR:Noise to Mask Ratio)를 최소화시키는 것이다. 한 샘플당 사용가능한 비트 수는 0에서 16비트이며 1비트는 신호대 잡음비의 증가가 없으므로 사용하지 않는다.The sample and scale factor can be encoded using the number of bits obtained by the above equation. The basic rule used in bit allocation is to minimize the noise to mask ratio (NMR) of the entire frame without exceeding the number of bits available in a frame. The number of usable bits per sample is 0 to 16 bits, and 1 bit is not used because there is no increase in signal-to-noise ratio.

계층1에서와는 달리 계층2에서는 고주파 대역의 비트할당정보에 사용되는 비트수를 줄이는 과정을 거친다. 통계적 특성을 이용하여 고주파 대역에 할당되는 비트수를 알아보면 저주파 대역에 할당되는 비트수보다 작음을 알수 있다. 따라서 계층2에서는 주어진 비트할당표를 이용하여 저주파 대역에서는 4비트 그리고 고주파 대역으로 갈수록 3비트,2비트 할당정보에 사용하는 비트수를 줄여나가며, 30번째와 31번째 서브밴드에서는 한 비트도 사용하지 않는다. 각 서브밴드에 대해서 MNR은 SNR에서 SMR을 빼서 얻어진다. 처음에는 0비트가 모든 밴드에 할당된다. 샘플에대한 비트(bspl)와 스케일팩터에 대한 비트(bscf)가 놓여진 후 다음과정을 반복한다.Unlike at layer 1, at layer 2, the number of bits used for bit allocation information in the high-frequency band is reduced. The number of bits allocated to the high frequency band using the statistical characteristic is found to be smaller than the number of bits allocated to the low frequency band. Therefore, in the layer 2, the number of bits used for the 3-bit and 2-bit allocation information is reduced from 4 bits in the low-frequency band to the high-frequency band using a given bit allocation table. In the 30th and 31st subbands, Do not. For each subband, the MNR is obtained by subtracting the SMR from the SNR. Initially, 0 bits are assigned to all bands. After the bit (bspl) for the sample and the bit (bscf) for the scale factor are placed, the following procedure is repeated.

도4에 본 발명에 의한 마스터블록이 수행하는 비트할당과정을 보이는 플로우차트가 도시된다. 마스터 블록(100)은 슬레이브 블록(201-206)의 국부메모리(22)에 저장된 서브밴드 분석결과와 심리음향모델 결과를 듀얼포트 메모리(23,24)를 통해 읽어들여 제1국부 메모리(11)에 저장하여 다음의 비트할당과정을 수행한다.FIG. 4 is a flowchart illustrating a bit allocation process performed by the master block according to the present invention. The master block 100 reads the subband analysis result and the psychoacoustic model result stored in the local memory 22 of the slave blocks 201-206 through the dual port memories 23 and 24 and outputs them to the first local memory 11, And performs the next bit allocation process.

단계 S41에서, 모든 채널의 서브밴드 중에서 최소 잡음대 마스크비(MNR)를 갖는 서브밴드를 결정한다. 단계 S42에서 최소 잡음대 마스크비(MNR)를 갖는 서브밴드에 정해진 비트할당에 따라 스텝을 증가시켜 신호대 노이즈비(SNR)를 향상시킨다. 단계 S43에서 최소 잡음대 마스크비(MNR)을 갖는 서브밴드의 새로운 잡음대 마스크비(MNR)를 산출한다. 단계 S44에서, 다음식에 의하여 사용가능 비트수를 산출한다.In step S41, a subband having a minimum noise-to-mask ratio (MNR) among the subbands of all channels is determined. In step S42, the step is increased in accordance with the bit allocation assigned to the subband having the minimum noise-to-mask ratio (MNR) to improve the signal-to-noise ratio (SNR). In step S43, a new noise-to-mask ratio (MNR) of the subband with the minimum noise-to-mask ratio (MNR) is calculated. In step S44, the number of usable bits is calculated by the following equation.

..........(13) ... (13)

단계 S45에서 사용가능 비트수(adb)가 샘플비트수(bspl)와 스케일 팩터 비트수(bscf)의 합보다 작은지를 판단하여 작지않고 크면 상기 단계 S41에서 단계 S44까지 반복하고, 작은 경우, 본 비트할당과정을 종료한다.It is determined in step S45 whether the number of usable bits adb is smaller than the sum of the number of sample bits bspl and the number of scale factor bits bscf. And ends the assignment process.

서브밴드샘플을 양자화하기 위해서 0근처의 작은값에 대한 오차를 출일수 있는 즉, 0 근처에서 대칭을 이루는 선형 양자화기(mid-tread)가 사용되었다. 서브밴드샘플은 스케일팩터에 의해 나누어져 다음의 정규화 과정을 거쳐 양자화되어진다.In order to quantize the subband samples, a mid-tread is used which is symmetric about zero, that is to say an error with respect to a small value near zero. The subband samples are divided by a scale factor and quantized through the following normalization process.

■ AX+B 계산■ AX + B calculation

■ N 개의 MSB(Most Significant Bit)만을 취한다.■ Only N MSBs (Most Significant Bits) are taken.

■MSB를 반전시킨다.■ Invert the MSB.

여기서 N은 할당된 비트의 수이다.Where N is the number of bits allocated.

먼저 AX+B를 계산하면 -1∼+1 사이의 값이 1∼(1-2N+1) 범위로 변환이 되므로 2N-1의 레벨로 양자화하기가 간단해진다. MSB를 반전시키는 이유는 동기신호가 12개의 "1"부호를 사용하기 때문이다.First, when AX + B is calculated, the value between -1 and +1 is converted into the range of 1 to (1-2 N + 1 ), so that it becomes easy to quantize to the level of 2 N-1 . The reason for reversing the MSB is that the synchronization signal uses twelve " 1 "

할당된 비트에 따라 3개의 연속된 샘플을 묶어서 부호화하므로 사용비트를 줄일수 있다. 3개의 연속된 샘플을 묶어서 부호화할 경우에 생기는 이득은 다음과 같다. 만약 3개의 스텝으로 부호화할 경우 각각 부호화했을 경우에 6비트가 필요하지만 묶어서 부호화하면 27(=33)스텝이면 되므로 5비트(32스텝)만 있어도 충분하다. 그룹을 짓는 경우 스텝이 3,5,9일 경우만 해당된다. 세 개의 연속된 샘플을 묶어서 부호화할 경우에는 다음관계식에 의해서 연속된 샘플x,y,z을 하나의 부호화 값 vm으로 만들어 준다.Since three consecutive samples are coded according to the allocated bits, the use bits can be reduced. The gain that occurs when three consecutive samples are coded together is as follows. If three steps are coded, six bits are required for each encoding, but only five bits (32 steps) are sufficient because the encoding requires only 27 (= 3 3 ) steps. If you are building a group, you only need 3, 5, or 9 steps. When three consecutive samples are coded together, the continuous samples x, y, and z are made into one encoded value v m by the following relation.

, v3은 0....26 , v 3 is 0 .... 26

, v5은 0....124 , v 5 is 0 .... 124

, v9은 0....728 , v 9 is 0 .... 728

이상 설명한 바와같이 본 발명에 의하면 MPEG-1 및 MPEG-2의 알고리즘을 하드웨어로 구현하여 디지탈 오디오 신호의 높은 압축률을 달성하고 실시간 처리가 가능하고, 디지탈 오디오를 이용하여 많은 량의 데이터를 저장 및 전송할 수 있어 실시간처리에 적합하고 복잡한 계산량의 부호화를 수행할 수 있다.As described above, according to the present invention, by implementing the algorithms of MPEG-1 and MPEG-2 in hardware, a high compression rate of a digital audio signal can be achieved, real time processing can be performed, and a large amount of data can be stored and transmitted using digital audio It is possible to perform encoding of a complicated calculation amount suitable for real-time processing.

Claims (4)

디지탈 오디오 부호화장치에 있어서,A digital audio encoding apparatus comprising: 각 채널에서 입력되는 아날로그 신호를 디지탈 신호로 변환하는 다수의 A/D변환부와;A plurality of A / D conversion units for converting an analog signal input from each channel into a digital signal; 상기 다수의 A/D변환부에서 입력되는 신호에 대한 서브밴드분석과 심리음향 모델링을 수행하는 다수의 슬레이브 블록과;A plurality of slave blocks for performing subband analysis and psychoacoustic modeling on signals input from the plurality of A / D converters; 상기 다수의 슬레이브 블록에서 출력되는 처리결과를 각각 입력받아 최종적인 비트열을 만들어 전송하는 마스터블록과;A master block receiving the processing results output from the plurality of slave blocks and generating and transmitting a final bit string; 상기 마스터블록을 돕는 비트 슬레이브 블록과;A bit slave block for assisting the master block; AES/EBU 디지탈 오디오 규격을 만족시키는 디지탈 입력부로 구성되는 것을 특징으로 하는 디지탈 오디오 부호화장치.And a digital input unit that satisfies the AES / EBU digital audio standard. 제1항에 있어서, 상기 마스터 블록은,2. The method of claim 1, 디지탈 신호처리와 각부를 제어하여 MPEG 알고리즘을 구현하는 주제어부와;A main control unit for implementing digital signal processing and each part to implement an MPEG algorithm; 상기 마스터 블록과 슬레이브 블록에 필요한 프로그램 코드 및 여러 데이터가 기록되는 제1국부 메모리부와;A first local memory unit for storing program codes and various data necessary for the master block and the slave block; 상기 마스터 블록과 슬레이브 블록간의 정보 교환에 필요한 각 메모리부의 제어신호를 생성하는 프로그래머블 로직부와;A programmable logic unit for generating a control signal for each memory unit necessary for information exchange between the master block and the slave block; MPEG 알고리즘을 구현하는 소프트웨어 프로그램을 저장하는 프로그램 메모리부와;A program memory unit for storing a software program implementing an MPEG algorithm; 전원이 인가된 후 리셋트 신호를 발생시켜 상기 마스터 블록, 슬레이브블록 및 비트 슬레이브블록을 리셋트시키는 리셋트 스위치부와;A reset switch unit for generating a reset signal after power is applied to reset the master block, the slave block and the bit slave block; 메인 클록을 상기 마스터 블록, 슬레이브블록 및 비트 슬레이브블록에 공급하여 동기를 맞추는 클록부를 구비하는 것을 특징으로 하는 디지탈 오디오 부호화장치.And a clock unit for supplying a main clock to the master block, the slave block, and the bit slave block and synchronizing them. 제1항에 있어서, 상기 슬레이브 블록은2. The apparatus of claim 1, wherein the slave block 상기 A/D변환부에서 입력되는 디지탈 신호에 대한 서브밴드분석과 심리음향 모델링을 수행하는 슬레이브 제어부와;A slave controller for performing subband analysis and psychoacoustic modeling on the digital signal input from the A / D converter; 상기 마스터 블록과 슬레이브 블록간에 필요한 프로그램 코드 및 여러 데이터가 기록되는 제2 국부 메모리부와;A second local memory unit for storing necessary program codes and various data between the master block and the slave block; 상기 슬레이브 제어부에서 처리된 결과를 저장하는 상기 마스터 블록과 슬레이브 블록 간에 순차적으로 처리결과를 전달하는 한쌍의 듀얼포트 메모리부와;A pair of dual port memory units for sequentially transmitting a processing result between the master block and the slave block storing a result processed by the slave controller; 제어신호를 디코딩하는 어드레스 디코더부를 구비하는 것을 특징으로 하는 디지탈 오디오 부호화장치.And an address decoder for decoding the control signal. 제1항에 있어서, 상기 슬레이브 블록은 5채널에서 입력되는 신호와 0.1채널에서 입력되는 신호를 처리하는 다섯 개의 슬레이브 블록으로 구성되는 것을 특징으로 하는 디지탈 오디오 부호화장치.The digital audio encoding apparatus of claim 1, wherein the slave block comprises five slave blocks for processing a signal input in five channels and a signal input in a channel of 0.1.
KR1019970062412A 1997-11-24 1997-11-24 Digital audio encoding device KR19990041758A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970062412A KR19990041758A (en) 1997-11-24 1997-11-24 Digital audio encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970062412A KR19990041758A (en) 1997-11-24 1997-11-24 Digital audio encoding device

Publications (1)

Publication Number Publication Date
KR19990041758A true KR19990041758A (en) 1999-06-15

Family

ID=66093256

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970062412A KR19990041758A (en) 1997-11-24 1997-11-24 Digital audio encoding device

Country Status (1)

Country Link
KR (1) KR19990041758A (en)

Similar Documents

Publication Publication Date Title
JP5539203B2 (en) Improved transform coding of speech and audio signals
US6104996A (en) Audio coding with low-order adaptive prediction of transients
JP3134455B2 (en) High efficiency coding apparatus and method
JP4506039B2 (en) Encoding apparatus and method, decoding apparatus and method, and encoding program and decoding program
JP3278900B2 (en) Data encoding apparatus and method
JP3153933B2 (en) Data encoding device and method and data decoding device and method
JP3186292B2 (en) High efficiency coding method and apparatus
JP2774203B2 (en) Audio signal processing method
WO2005004113A1 (en) Audio encoding device
JPH0851366A (en) Adaptive encoding system
JPH10282999A (en) Method and device for coding audio signal, and method and device decoding for coded audio signal
WO1994028633A1 (en) Apparatus and method for coding or decoding signals, and recording medium
JPH0675590A (en) Method and apparatus for coding audio signal based on perception model
JP3297240B2 (en) Adaptive coding system
JPH0555925A (en) Digital signal coder and decoder
KR100695125B1 (en) Digital signal encoding/decoding method and apparatus
JPH0846518A (en) Information coding and decoding method, information coder and decoder and information recording medium
JP3189401B2 (en) Audio data encoding method and audio data encoding device
KR100952065B1 (en) Coding method, apparatus, decoding method, and apparatus
JP3395001B2 (en) Adaptive encoding method of digital audio signal
KR19990041758A (en) Digital audio encoding device
JP4618823B2 (en) Signal encoding apparatus and method
KR100241689B1 (en) Audio encoder using MPEG-2
JP3465698B2 (en) Signal decoding method and apparatus
KR100590340B1 (en) Digital audio encoding method and device thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
SUBM Submission of document of abandonment before or after decision of registration