KR20070070728A - Automatic equalizing system of audio and method thereof - Google Patents

Automatic equalizing system of audio and method thereof Download PDF

Info

Publication number
KR20070070728A
KR20070070728A KR1020050133557A KR20050133557A KR20070070728A KR 20070070728 A KR20070070728 A KR 20070070728A KR 1020050133557 A KR1020050133557 A KR 1020050133557A KR 20050133557 A KR20050133557 A KR 20050133557A KR 20070070728 A KR20070070728 A KR 20070070728A
Authority
KR
South Korea
Prior art keywords
audio signal
genre
audio
feature vector
equalizer
Prior art date
Application number
KR1020050133557A
Other languages
Korean (ko)
Inventor
박규식
Original Assignee
박규식
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박규식 filed Critical 박규식
Priority to KR1020050133557A priority Critical patent/KR20070070728A/en
Publication of KR20070070728A publication Critical patent/KR20070070728A/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • G11B20/10046Improvement or modification of read or write signals filtering or equalising, e.g. setting the tap weights of an FIR filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • G11B20/10305Improvement or modification of read or write signals signal quality assessment
    • G11B20/10398Improvement or modification of read or write signals signal quality assessment jitter, timing deviations or phase and frequency errors
    • G11B20/10444Improvement or modification of read or write signals signal quality assessment jitter, timing deviations or phase and frequency errors by verifying the timing of zero crossings

Abstract

An automatic equalizing system of audio and a method thereof are provided to perceive characteristics of audio reproduced through an audio player so as to reproduce the audio by using equalizer setup preset according to the corresponding audio. An equalizer(100) inputs an audio signal, and controls gains of each frequency band according to a preset state of each pitch extent, and outputs the audio signal. A genre classifier(300) decides on a genre of the inputted audio signal, and controls the gains of each frequency band of the equalizer(100) by estimating the gains of each frequency band preset according to each genre.

Description

오디오의 자동 이퀄라이징 시스템 및 그 방법{Automatic Equalizing System of Audio And Method Thereof}Automatic Equalizing System of Audio and Method Thereof

도 1은 본 발명에 따른 오디오의 자동 이퀄라이징 시스템을 설명하기 위한 블록도.1 is a block diagram illustrating an automatic equalization system of audio according to the present invention.

도 2는 본 발명에서 특징 벡터의 추출 과정을 설명하기 위한 설명도.2 is an explanatory diagram for explaining a process of extracting feature vectors in the present invention.

도 3은 본 발명에서 MFC 알고리즘을 이용하여 데이터베이스를 구축하는 과정을 설명하기 위한 설명도.3 is an explanatory diagram for explaining a process of building a database using the MFC algorithm in the present invention.

도 4는 본 발명에 따른 오디오의 자동 이퀄라이징 방법을 설명하기 위한 순서도.4 is a flowchart illustrating an automatic equalization method of audio according to the present invention.

도 5는 본 발명에서 이퀄라이저의 버퍼 오버랩을 설명하기 위한 설명도.5 is an explanatory diagram for explaining a buffer overlap of an equalizer in the present invention;

도 6은 본 발명에서 이퀄라이저의 필터링 과정을 설명하기 위한 설명도.6 is an explanatory diagram for explaining a filtering process of an equalizer in the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100 : 이퀄라이저100: equalizer

300 : 장르 분류부300: genre classification

본 발명은 오디오의 자동 이퀄라이징 시스템 및 그 방법에 관한 것으로, 특히 오디오 시스템에서 재생되는 오디오 파일을 장르에 적합한 음색으로 변환하여 출력해 주는 오디오의 자동 이퀄라이징 시스템 및 그 방법에 관한 것이다.The present invention relates to an audio equalizing system and method thereof, and more particularly, to an audio equalizing system and method for converting an audio file played in an audio system into a tone suitable for a genre and outputting the same.

일반적으로, 오디오에서 사용되는 이퀄라이저(Equalizer)는 오디오 재생 장치를 통해 음악을 재생할 때에 다수의 주파수 대역 중 일부 또는 다수의 대역을 선별하여 출력을 조절함으로써 사용자가 선호하는 음색으로 변환시켜 주기 위한 것이다.In general, an equalizer used in audio is for converting a part of a plurality of frequency bands or a plurality of bands and adjusting the output to convert a tone to a user's favorite tone when playing music through an audio reproducing apparatus.

특히, 디지털 오디오 시스템의 경우에 이퀄라이저의 구현이 간편하기 때문에, 대부분의 디지털 오디오 기기(예를 들어, MP3 플레이어, CD 오디오, 카오디오 등)에는 이퀄라이저 기능이 탑재되어 있다.In particular, since it is easy to implement an equalizer in the case of a digital audio system, most digital audio devices (for example, MP3 players, CD audio, car audio, etc.) are equipped with an equalizer function.

다시 말하면, 오디오 이퀄라이저는 각 주파수 밴드 별로 나누어진 음악 신호의 이득(gain) 값을 증폭 또는 감쇠함으로써, 주파수 밴드별로 음색의 특징을 조절하는 일반적이다.In other words, the audio equalizer generally adjusts the characteristics of tones by frequency band by amplifying or attenuating gain values of music signals divided by frequency bands.

예를 들어, 3밴드 이퀄라이저의 경우에 저주파 대역인 100Hz를 저음(Bass)이라고 부르며, 이 밴드를 강조하면 음악이 힘있게 들리며 웅장한 느낌을 준다. 중간 주파수 대역인 1kHz를 중음(Mid)이라고 부르며, 이 밴드는 사람의 귀에 가장 민감한 주파수 대역이어서 증폭하면 음이 명확하게 들린다. 그리고, 고주파 대역인 10kHz를 고음(Treble)이라고 부르며, 이 밴드를 증폭하면 음이 맑은 느낌을 준다.For example, in the case of a three-band equalizer, the low frequency band, 100 Hz, is called bass. Emphasizing the band gives the music a powerful and grand feeling. The mid-frequency band, 1 kHz, is called mid, which is the most sensitive frequency band in the human ear, so when amplified, the sound is clearly heard. The high frequency band 10 kHz is called treble, and amplifying the band gives a clear sound.

한편, 음악을 듣는 사람마다 선호하는 음색이 다르며, 음악 장르에 따라서도 사용되는 악기 또는 보컬리스트의 음역이 다르기 때문에 각 장르에 맞는 음색을 설 정하여 청취하는 것이 일반적이다.On the other hand, each person who listens to music has a different tone, and since the range of instruments or vocalists used is different according to the genre of music, it is common to set and listen to a tone suitable for each genre.

그러나, 기존의 이퀄라이저를 이용하여 원하는 음색을 만들기 위해서는 적게는 3개에서 많게는 20개가 넘는 버튼을 조작해야 하며, 이러한 조작은 일반 사용자의 입장에서 매우 복잡하기 때문에 불편한 문제점이 있다.However, in order to make a desired tone using an existing equalizer, at least three to as many as twenty or more buttons must be operated, and such an operation is inconvenient because it is very complicated from a general user's point of view.

그리고, 오디오를 재생할 때에 음악적 특성이 조합된 다양하고 개성 있는 음색을 낼 수 있음에도 불구하고, 이퀄라이저 설정의 불편함으로 인하여 재생되는 오디오의 장르와 무관하게 설정되어 있는 이퀄라이저 설정에 따라 청취를 해야 하기 때문에 제대로 된 오디오 감상을 할 수 없는 문제점이 있다.In addition, despite the fact that it is possible to produce a variety of distinctive tones with a combination of musical characteristics when playing audio, due to the inconvenience of the equalizer setting, it is necessary to listen according to the equalizer setting that is set regardless of the genre of audio being played. There is a problem that can not enjoy the audio.

본 발명의 목적은 상기와 같은 종래기술의 문제점을 해결하기 위한 것으로, 오디오 재생 장치를 통하여 재생되는 오디오의 특성을 파악하여, 해당 오디오에 맞게 미리 설정되어 있는 이퀄라이저 설정을 이용하여 오디오를 재생시켜 주는 오디오의 자동 이퀄라이징 시스템 및 그 방법을 제공하는 데 있다.An object of the present invention is to solve the problems of the prior art as described above, to grasp the characteristics of the audio to be reproduced through the audio reproducing apparatus, and to reproduce the audio using the equalizer settings preset for the corresponding audio An automatic equalization system of audio and a method thereof are provided.

그리고, 본 발명의 다른 목적은 오디오 장치를 통하여 재생되는 오디오의 종류에 맞는 이퀄라이저 설정을 자동으로 적용시킴으로써 오디오 감상을 간편하게 해 주는 오디오의 자동 이퀄라이징 시스템 및 그 방법을 제공하는 데 있다.Another object of the present invention is to provide an audio equalizing system and method for simplifying audio listening by automatically applying an equalizer setting suitable for the type of audio reproduced through an audio device.

또한, 본 발명의 또 다른 목적은 재생되는 오디오의 종류에 따른 이퀄라이저 설정을 적용하는 과정에서 갑작스런 음색 변화를 방지함으로써 오디오 감상에 따른 청각적인 불편함으로 해소시켜 주는 오디오의 자동 이퀄라이징 시스템 및 그 방법을 제공하는 데 있다.In addition, another object of the present invention is to provide an automatic equalization system and method for audio that eliminates the audible inconvenience caused by listening to audio by preventing a sudden tone change in the process of applying equalizer settings according to the type of audio being played. There is.

본 발명은 상기한 목적을 달성하기 위하여, 오디오 신호를 입력받아 미리 설정된 음역별 설정 상태에 따라 각 주파수 대역의 게인을 조절하여 출력하는 이퀄라이저; 입력되는 오디오 신호의 장르를 판별하여, 각 장르별로 미리 설정된 각 주파수 대역별 게인을 산정하여 상기 이퀄라이저의 각 주파수 대역별 게인을 조정해 주는 장르 분류부로 구성되는 것을 특징으로 하는 오디오의 자동 이퀄라이징 시스템을 제공한다.In order to achieve the above object, the present invention comprises: an equalizer which receives an audio signal and adjusts the gain of each frequency band according to a preset sound region setting state; And a genre classification unit configured to determine a genre of the input audio signal, calculate a gain for each preset frequency band for each genre, and adjust a gain for each frequency band of the equalizer. to provide.

상기 이퀄라이저는 입력되는 오디오 신호를 버퍼링시켜 주는 입력 버퍼와, 상기 장르 분류부의 장르 분류 결과에 따라 각 주파수 대역별로 설정된 게인을 이용하여 상기 입력버퍼로부터 입력되는 오디오 신호를 필터링하여 출력하는 필터링부와, 상기 필터링부에서 출력되는 오디오 신호를 버퍼링해 주는 출력버퍼로 구성된다.The equalizer includes: an input buffer for buffering an input audio signal, a filtering unit for filtering and outputting an audio signal input from the input buffer using gains set for each frequency band according to a genre classification result of the genre classification unit; It is composed of an output buffer for buffering the audio signal output from the filtering unit.

상기 장르 분류부는 상기 이퀄라이저를 통해 전달되는 오디오 신호를 분석하여 장르 분류에 이용되는 특징 벡터를 추출해 내는 특징 벡터 추출부와, 상기 특징 벡터 추출부를 통해 입력되는 오디오 신호의 특징 벡터를 분석하여 상기 오디오 신호의 장르를 판별하는 판별부와, 상기 판별부에 의한 오디오 신호의 장르 판별을 위해 각 장르별 특징 벡터 데이터가 저장된 데이터베이스와, 상기 판별부에 의하여 상기 오디오 신호의 장르가 판별되면 각 주파수 대역별로 미리 설정된 주파수 게인으로 상기 이퀄라이저의 주파수 대역별 게인을 설정해 주는 설정부로 구성된다.The genre classification unit analyzes the audio signal transmitted through the equalizer to extract a feature vector used for genre classification, and analyzes the feature vector of the audio signal input through the feature vector extractor to analyze the audio signal. A discriminator for determining the genre of the genre; a database in which feature vector data for each genre is stored for discriminating the genre of the audio signal by the discriminator; and when the genre of the audio signal is determined by the discriminator, the frequency unit is preset for each frequency band. It is composed of a setting unit for setting the gain for each frequency band of the equalizer as the frequency gain.

그리고, 상기 장르 분류부는 상기 이퀄라이저를 통해 전달되는 오디오 신호 를 낮은 주파수로 다운샘플링하여 상기 특징 벡터 추출부로 출력하는 다운 샘플링부를 더 포함하여 구성된다.The genre classification unit may further include a down sampling unit configured to downsample the audio signal transmitted through the equalizer to a low frequency to output the feature signal to the feature vector extractor.

상기 특징 벡터 추출부는 각 장르별로 해당되는 오디오 신호를 분석하여 특징 벡터를 추출하여 장르별로 구분하여 상기 데이터베이스에 장르별 특징 벡터 데이터로 저장하는 기능을 더 포함하여 이루어지며, 상기 특징 벡터 추출부는 제 1차적으로 미리 설정된 시간 동안 입력되는 오디오 신호를 분석하여 적어도 2개의 장르로 구분하고, 제 2차적으로 미리 설정된 시간 동안 입력되는 오디오 신호를 분석하여 적어도 4개의 장르로 구분한다.The feature vector extracting unit may further include a function of extracting a feature vector by analyzing audio signals corresponding to each genre, dividing the feature vector into genres, and storing the feature vector data in the database as a genre. An audio signal input for a preset time is analyzed and divided into at least two genres, and a second audio signal input for a preset time is analyzed and divided into at least four genres.

또한, 본 발명은 (a) 재생되는 음악 파일의 오디오 신호를 입력받는 단계; (b) 상기 오디오의 미리 설정된 제 1의 시간 동안 음악 장르를 적어도 2종류로 구분하여 미리 설정된 주파수 대역별로 이퀄라이징하는 단계; 및 (c) 상기 오디오의 미리 설정된 제 2의 시간 동안 음악 장르를 적어도 4종류로 구분하여 미리 설정된 주파수 대역별로 이퀄라이징하는 단계를 포함하는 것을 특징으로 하는 오디오의 자동 이퀄라이징 방법을 제공한다.In addition, the present invention comprises the steps of (a) receiving an audio signal of the music file to be played; (b) dividing the music genres into at least two types during the first predetermined time period of the audio and equalizing each of the preset frequency bands; And (c) dividing the music genres into at least four kinds of music genres during the second predetermined time of the audio and equalizing them according to preset frequency bands.

상기 (a)단계는 재생되는 음악의 장르 구분을 위하여, 음악 장르별로 선택된 다수의 오디오 신호로부터 장르를 구분하게 해 주는 특징 벡터를 추출하여 데이터베이스화하는 단계를 더 포함하여 이루어진다.The step (a) further includes extracting a database of feature vectors for distinguishing genres from a plurality of audio signals selected for each music genre in order to distinguish genres of music to be reproduced.

(실시예)(Example)

본 발명에 따른 오디오의 자동 이퀄라이징 시스템 및 그 방법을 첨부한 도면 을 참조하여 상세하게 설명한다.With reference to the accompanying drawings, an automatic equalization system and method for audio according to the present invention will be described in detail.

본 발명의 오디오의 자동 이퀄라이징 시스템은 도 1에 나타낸 바와 같이, 오디오 신호를 입력받아 음역별 설정 상태에 따라 각 주파수 대역의 게인을 조절하여 출력하는 이퀄라이저(100)와, 입력되는 오디오 신호의 장르를 판별하여 각 주파수 대역별로 주파수 게인을 설정하여 상기 이퀄라이저(100)의 각 주파수 대역별 게인을 조정해 주는 분류부(300)로 구성된다.As shown in FIG. 1, the automatic audio equalizing system of the present invention receives an audio signal and adjusts the equalizer 100 to adjust the gain of each frequency band according to a setting state for each region and outputs a genre of the input audio signal. It is composed of a classification unit 300 for determining and setting the frequency gain for each frequency band to adjust the gain for each frequency band of the equalizer 100.

상기 이퀄라이저(100)는 장르 분류 결과에 따라 음악의 장르를 구분해 주는 계수를 입력받아 해당 주파수 대역의 Gain(필터 계수) 값을 적용함으로써, 이퀄라이징을 하는 것으로, 입력되는 오디오 신호를 버퍼링시켜 주는 입력 버퍼(110)와, 상기 분류부(300)에 의하여 각 주파수 대역별로 설정된 게인으로 상기 입력버퍼(110)로부터 입력되는 오디오 신호를 필터링하여 출력하는 필터링부(130)와, 상기 필터링부(130)에서 출력되는 오디오 신호를 버퍼링해 주는 출력버퍼(150)로 이루어진다.The equalizer 100 receives a coefficient for classifying music genres according to a genre classification result and applies a gain (filter coefficient) value of a corresponding frequency band to equalize and buffer an input audio signal. A filtering unit 130 for filtering and outputting an audio signal input from the input buffer 110 with a gain set for each frequency band by the buffer 110 and the classification unit 300, and the filtering unit 130 It consists of an output buffer 150 for buffering the audio signal output from.

상기 이퀄라이저(100)는 EDMA 컨트롤러에 의해서 동작하며, 기본적으로 2048(좌, 우 포함 : STEREO)개의 데이터에 대해 하나의 프레임 단위로 해서 이퀄라이징을 수행한다.The equalizer 100 is operated by an EDMA controller, and basically equalizes 2048 pieces (STEREO) data in one frame unit.

그리고, 상기 입력버퍼(110; Ping 버퍼)와 출력버퍼(150; Pong 버퍼)는 각각 1024의 크기를 갖는데, 알고리즘 연산 과정에서 복소수를 표현하기 때문에 한 채널당 2048개의 배열로 구성되어, 도 5에 나타낸 바와 같이, 2채널을 하나의 프레임으로 하는 데이터(4096)에서 50%의 오버랩(Overlap)을 취하여 오디오 데이터의 연속 성이 보장되게 하였다.The input buffer 110 (Ping buffer) and the output buffer 150 (Pong buffer) each have a size of 1024. Since the complex numbers are represented in the algorithm calculation process, 2048 arrays are formed per channel. As described above, a 50% overlap is taken from the data 4096 having two channels as one frame to ensure the continuity of the audio data.

상기 분류부(300)는 상기 이퀄라이저(100)의 입력버퍼(110)를 통해 전달되는 오디오 신호를 낮은 주파수로 다운샘플링하여 출력하는 다운 샘플링부(310)와, 상기 다운샘플링부(310)에서 출력되는 오디오 신호를 버퍼링해 주는 버퍼(320)와, 상기 버퍼(320)를 통해 입력되는 오디오 신호를 분석하여 특징 벡터(feature vector)를 추출해 내는 특징 벡터 추출부(340)와, 상기 특징 벡터 추출부(340)를 통해 입력되는 오디오 신호의 특징 벡터를 분석하여 상기 오디오 신호의 장르를 판별하는 판별부(360)와, 상기 판별부(360)에 의한 오디오 신호의 장르 판별을 위해, 각 장르별 특징 벡터 데이터가 저장된 데이터베이스(380)와, 상기 판별부(360)에 의하여 상기 오디오 신호의 장르가 판별되면 각 주파수 대역별로 미리 설정된 주파수 게인으로 상기 이퀄라이저(100)의 상기 필터링부(130)를 설정해 주는 설정부(390)로 구성된다.The classifier 300 outputs the down sampler 310 to downsample and output an audio signal transmitted through the input buffer 110 of the equalizer 100 at a low frequency, and is output from the downsampler 310. A buffer 320 for buffering the audio signal, a feature vector extractor 340 for extracting a feature vector by analyzing the audio signal input through the buffer 320, and the feature vector extractor A discriminator 360 for determining the genre of the audio signal by analyzing the feature vector of the audio signal input through 340 and a feature vector for each genre for discriminating the genre of the audio signal by the determiner 360. When the genre of the audio signal is determined by the database 380 and the determination unit 360 in which data is stored, the filtering of the equalizer 100 is performed at a preset frequency gain for each frequency band. It consists of a setting unit 390 to set the 130.

여기서, 상기 분류부(300)는 상기 오디오 신호에 대한 장르 분석을 하여 상기 이퀄라이저(100)에 적용하기 전에 상기 데이터베이스(380)에 장르별 특징 벡터 데이터를 구축하기 위하여, 사전에 각 장르별 특징 벡터 데이터를 분석하여 저장하는 기능을 더 포함한다.Here, the classification unit 300 analyzes the genre of the audio signal before constructing the genre feature vector data in the database 380 before applying the equalizer 100 to the equalizer 100. It further includes a function for analyzing and storing.

즉, 상기 분류부(300)는 각 장르별 특징 벡터의 패턴을 분석하여 상기 데이터베이스(380)에 저장하는 훈련 과정과, 상기 훈련 과정에 의하여 분석된 데이터를 이용하여 실제 오디오 신호에 적용하여 시험하는 시험 과정, 그리고 실제로 재생되는 오디오 신호의 장르를 분류하여 이퀄라이저(100)에 적용하는 기능을 가지고 있 다.That is, the classification unit 300 analyzes the pattern of the feature vector for each genre and stores the data in the database 380 in the training process and the test using the data analyzed by the training process and applying the test to the actual audio signal. Process, and classifies the genre of the audio signal that is actually reproduced and has a function of applying to the equalizer (100).

다시 말하면, 훈련 과정에서는 장르별 특징 벡터를 생성하기 위한 패턴 학습(Training)을 한다.In other words, in the training process, pattern learning is performed to generate a feature vector for each genre.

상기 패턴 학습은 음악 장르 즉, 서양고전음악(Classic), 재즈(Jazz), 힙합(Hiphop), 록(Rock)에 해당하는 오디오 신호의 각 특성을 모델링하기 위해 많은 수의 음악 파일로부터 특징 벡터를 추출 및 분석하여 통계적 모델링을 하는데, 상기 분류부(300)에 오디오 신호가 입력되면, 상기 특징 벡터 추출부(340)는 세그멘테이션 및 해밍 창문함수화(Segmentation & Hamming Windowing) 과정을 거쳐, 오디오 신호로부터 특징 벡터를 추출하여 최적의 특징 벡터열을 선정하고, 오디오 신호의 전체 음악적 특성을 반영한 특징 벡터열로 만들기 위하여 MFC 알고리즘을 적용한 후, 모델 정합과 색인화 과정을 포함하는 학습 단계를 통하여 특징 벡터의 테이블을 생성하여 이를 상기 데이터베이스(380)에 저장하는 과정으로 이루어진다.The pattern learning uses feature vectors from a large number of music files to model each characteristic of an audio signal corresponding to a music genre, that is, classical music, jazz, hiphop, and rock. Statistical modeling by extracting and analyzing. When an audio signal is input to the classifier 300, the feature vector extractor 340 performs a segmentation and hamming windowing process to obtain a feature from the audio signal. After extracting the vector, we select the optimal feature vector sequence, apply the MFC algorithm to make the feature vector sequence reflecting the overall musical characteristics of the audio signal, and then build the table of feature vectors through the learning process including model matching and indexing. It generates a process of generating and storing it in the database (380).

상기 시험 과정은 사용자 입장에서의 시스템 동작 과정과 일치하는데, 사용자가 음악 파일을 재생시키면, 입력되는 오디오 신호로부터 WAV 파일이 추출되어 입력되면, 상기 특징 벡터 추출부(340)에 의해 세그멘테이션 및 해밍 창문함수화(Segmentation & Hamming Windowing) 과정이 이루어져 최적의 특징 벡터가 추출되고, 추출된 특징 벡터를 잉용하여 상기 판별부(360)는 상기 데이터베이스(380)에 이미 구축되어있는 특징 벡터 테이블을 참고하여 유사한 특징을 지니는 장르를 결정하여 각 장르에 맞게 상기 설정부(390)를 통해 상기 이퀄라이저(100)를 설정하여 음악 파일을 재생하는 과정이다.The test process is consistent with the system operation process from the user's point of view. When the user plays the music file, the WAV file is extracted from the input audio signal, and the segmentation and hamming window is extracted by the feature vector extractor 340. Segmentation & Hamming Windowing process is performed to extract an optimal feature vector, and by using the extracted feature vector, the determiner 360 refers to a feature vector table already constructed in the database 380 with similar features. It is a process of reproducing a music file by determining the genre having a value and setting the equalizer 100 through the setting unit 390 according to each genre.

상기와 같이 이루어지는 본 발명의 처리 과정을 시간에 따른 동작 순서로 설명하면 다음과 같다.Referring to the processing of the present invention made as described above in the order of operation over time as follows.

음악 재생이 시작되면, 처음 2초간의 오디오 신호를 이용하여 2개로 분류되는 코어스 레벨(Coarse level) 분류를 행하여 대략적인 음악 범주를 결정하며, 이에 맞게 상기 설정부(390)를 통해 상기 이퀄라이저(100)를 조정한다.When the music starts playing, a coarse level classification is classified into two using the audio signal for the first two seconds to determine an approximate music category, and accordingly, the equalizer 100 is set through the setting unit 390. ).

이후, 음악의 시작 지점부터 6초 분량의 데이터를 이용하여 4개로 분류되는 파인 레벨(Fine level)의 분류를 통하여, 정확한 음악 장르를 결정한 후 좀 더 세밀하게 상기 이퀄라이저(100)를 설정한다.Subsequently, the equalizer 100 is set in more detail after determining the exact genre of music by classifying four fine levels using six seconds of data from the beginning of music.

상기 이퀄라이저(100)에 대한 설정을 상기와 같이, 제 1차의 코어스 레벨과 제 2차의 파인 레벨로 2단계 분류하여 적용하는 것은 갑작스러운 음색 변화로 인하여 청취자의 거부감을 완화하기 위한 것이다.As described above, the setting of the equalizer 100 is classified into two levels into the first coarse level and the second fine level to alleviate the listener's rejection due to a sudden tone change.

상기와 같이 이루어진 본 발명의 특징적인 구성과 동작을 설명하면 다음과 같다.Referring to the characteristic configuration and operation of the present invention made as described above are as follows.

먼저, 상기 분류부(300)의 특징 벡터 추출부(340)에 의하여 이루어지는 특징 벡터 추출 과정에 대해 설명한다.First, a feature vector extraction process performed by the feature vector extractor 340 of the classifier 300 will be described.

상기 특징 벡터는 재생되는 음악의 오디오 신호의 시간 및 주파수 파형으로부터 추출되는데, 크게 음색 벡터(Timbral vector)와 계수 벡터(Coefficient vector)의 2가지로 분류할 수 있다.The feature vector is extracted from time and frequency waveforms of an audio signal of music to be reproduced. The feature vector can be classified into two types, a timbre vector and a coefficient vector.

재생되는 음악의 오디오 신호로부터 음색을 구별하기 위해, 스펙트럴 센트로 이드(spectral centroid), 스펙트럴 롤 오프(spectral roll off), 스펙트럴 플럭스(spectral flux), 제로 크로싱 레이트(zero crossing rates)의 4가지 특징 벡터를 사용하였고, 특징 계수를 추출하기 위해 13차 MFCC 및 Delta-MFCC 계수 그리고 LPC 12차 계수를 사용하였다. 사용되는 특징 벡터 및 특징 계수들에 대한 설명은 다음과 같다.To distinguish the timbre from the audio signal of the music being played, four of spectral centroid, spectral roll off, spectral flux, and zero crossing rates Branch feature vectors were used and 13th order MFCC and Delta-MFCC coefficients and LPC 12th order coefficients were used to extract the feature coefficients. A description of the feature vector and feature coefficients used is as follows.

스펙트럴 센트로이드(Spectral Centroid)는 단 구간 푸리에 트랜스폼(Short Time Fourier Transform)의 중심을 뜻한다. 센트로이드는 음의 음색(Timbre)을 질적으로 측정하는 방법으로 사용된다.Spectral Centroid is the center of the Short Time Fourier Transform. Centroid is used to measure the timbre of sound qualitatively.

스펙트럴 롤오프(Spectral Rolloff)는 스펙트럼 분포의 80%가 집중되어 있는 주파수를 나타낸다. 롤오프는 스펙트럼 형태와 낮은 주파수 영역에 신호 에너지가 얼마나 집중되어 있는지를 보여준다.Spectral Rolloff represents the frequency at which 80% of the spectral distribution is concentrated. Roll-off shows how concentrated the signal energy is in the spectral shape and the low frequency region.

스펙트럴 플럭스(Spectral Flux)는 연속된 스펙트럼 분포에서 정규화된 크기(magnitude)들 간의 차이를 제곱해서 구할 수 있다. 플럭스는 스펙트럼 변화의 양을 계산할 수 있다.Spectral Flux can be obtained by squaring the difference between normalized magnitudes in a continuous spectral distribution. Flux can calculate the amount of spectral change.

제로 크로싱 레이트(Zero Crossing Rate)는 오디오 신호 파형의 위상이 중심축을 통과하는 회수를 나타낸다. 주로 신호의 주파수 내용을 측정하는 가장 간단한 방법으로 음성인식에서 유성음, 무성음의 판별에 사용된다.Zero Crossing Rate represents the number of times the phase of the audio signal waveform passes through the central axis. It is the simplest way to measure the frequency content of a signal. It is used to discriminate voiced and unvoiced sound from speech recognition.

MFCC(Mel Frequency Cepstrum Coefficient)는 인간의 청각 특성을 모델링하는 방법으로 오디오 신호의 크기 스펙트럼 (magnitude spectrum)을 log 변환 후 FFT를 그룹화하여 Mel 주파수 단위로 변환 한 것이다.Mel Frequency Cepstrum Coefficient (MFCC) is a method of modeling human auditory characteristics and converts the magnitude spectrum of the audio signal to log and then converts the FFT into Mel frequency units.

LPC(Linear Predictive Coding)는 인간의 발성 모델에 입각해서 음성 신호를 부호화하는 방법으로 오디오 파형의 샘플 값에서 필터 계수를 구하여 성대에서 입, 코까지의 성도 특성을 8~12차의 전극형(All-pole) 필터에 근사 시키는 방법이다.Linear Predictive Coding (LPC) is a method of encoding a speech signal based on a human vocal model. -pole) to approximate the filter.

그리고, 재생되는 음악 파일의 오디오 신호로부터 특징 벡터를 추출하기 위한 과정은 도 2에 나타낸 바와 같이 2단계로 이루어진다.Then, the process for extracting the feature vector from the audio signal of the music file to be played is made in two steps as shown in FIG.

먼저, 23ms 단위의 분석창(Analysis window)으로부터 각각 54개의 특징 계수를 얻어내고(S 21), 총 15초 동안의 특징 계수 값을 추출하여 각 특징 계수의 평균 및 분산을 구하여 총 108개의 특징 벡터열로 조합한 후에 이를 데이터베이스(380)에 저장함으로써 재생되는 음악의 장르 분류에 사용한다(S 22).First, 54 feature coefficients are obtained from an analysis window in units of 23ms (S 21), and the feature coefficient values for a total of 15 seconds are extracted to obtain the mean and variance of each feature coefficient. After combining them into rows, they are stored in the database 380 to be used for genre classification of music to be reproduced (S 22).

여기서, 상기와 같이 추출된 특징 벡터의 최적화를 위한 과정은 다음과 같이 이루어진다.Here, the process for optimization of the extracted feature vector is performed as follows.

즉, 상기 특징 벡터는 입력받은 음악 데이터 즉, 오디오 신호의 장를 구분하기 위한 것인데, 이를 위해 오디오 신호로부터 추출된 특징 벡터를 각 음악 장르별로 상기 데이터베이스(380)에 구축한 후에, 추후 입력되는 오디오 신호의 장르 분류에 사용된다.That is, the feature vector is for distinguishing the input music data, that is, the chapter of the audio signal. To this end, the feature vector extracted from the audio signal is constructed in the database 380 for each music genre, and then the audio signal is input later. Used for genre classification.

본 발명에서 사용한 특징 벡터는 총 108개이므로, 각 음악 파일 당 108개의 계수가 생성되며, 이는 시스템의 계산 복잡도를 높이는 요인으로 작용하여 과부하를 유발시킨다. 이를 해결하기 위하여 본 발명에서는 SFS(Sequential Forward Selection) 알고리즘을 이용하여 특징벡터 간의 상관관계를 제거하고, 특징 벡터의 차수를 줄여 최적화된 특징 벡터열만을 사용하였다.Since there are 108 feature vectors used in the present invention, 108 coefficients are generated for each music file, which acts as a factor to increase the computational complexity of the system, causing overload. In order to solve this problem, the present invention removes the correlation between the feature vectors using a sequential forward selection (SFS) algorithm, and uses only the optimized feature vector sequence by reducing the order of the feature vectors.

다시 말하면, 상기 특징 벡터 추출부(340)는 MFC 알고리즘을 이용하여 특징 벡터를 추출하는데, 상기 MFC 알고리즘에 의한 특징 벡터 추출 과정은 다음과 같다.In other words, the feature vector extractor 340 extracts a feature vector using an MFC algorithm, and the feature vector extraction process by the MFC algorithm is as follows.

본 발명에서 특징 벡터는 음악의 전체적 특성을 반영하기 위하여 총 15초간의 분량을 추출하여 평균과 분산값을 구하고, SFS 알고리즘에 의해 최적화된다. 그러나, 질의(Query)로 입력된 음악 데이터가 음악 파일의 어느 부분에서 추출되어 들어오는지에 따라 장르 분류 성공률의 편차가 발생하며, 특히 음악의 첫 시작 부분에서는 비교적 음악의 특징이 잘 담겨 있지 않기 때문에 음악 장르 분류의 성공률을 낮아지게 하는 경향이 있다.In the present invention, the feature vector extracts the total amount of 15 seconds to reflect the overall characteristics of the music to obtain the mean and variance, and is optimized by the SFS algorithm. However, there is a variation in genre classification success rate depending on which part of the music file the music data inputted by the query is extracted from, and especially since the music is not well contained at the beginning of the music. There is a tendency to lower the success rate of genre classification.

본 발명에서는 이러한 성공률의 편차를 극복하고 안정적인 성능을 구현하도록, 도 3에 나타낸 바와 같이, MFC(Multi Feature Clustering) 알고리즘 기법을 도입하여 음악 질의의 위치에 상관없이 안정적인 성공률을 확보할 수 있게 하였다.In the present invention, as shown in FIG. 3, the MFC (Multi Feature Clustering) algorithm technique is introduced to overcome the deviation of the success rate and to implement stable performance, thereby ensuring a stable success rate regardless of the position of the music query.

즉, 본 발명에 적용되는 상기 MFC 알고리즘은 음악 파일의 시작부분부터 끝부분까지 순차적으로 특징 벡터를 추출한 후(S 31), K평균(K-Means) 클러스터링 알고리즘을 사용하여 최종적으로 1개의 음악 파일 당 4개의 특징 벡터열을 만들어(S 32), 음악 메타데이터 데이터베이스를 구축하며, 음악 장르 분류에 사용한다(S 33).That is, the MFC algorithm applied to the present invention sequentially extracts the feature vectors from the beginning to the end of the music file (S 31), and finally uses one K-means clustering algorithm to finally obtain one music file. Four feature vector sequences are created per step (S 32), a music metadata database is constructed, and used for music genre classification (S 33).

그리고, 본 발명의 상기 분류부(300)의 판별부(360)는 재생되는 음악의 장르 분류 성공률과 알고리즘 복잡도를 개선하기 위하여, SVM(Support Vector Machine)과 k-NN 분류기를 각각 제 1차 재생 단계인 상기 코어스 레벨과 제 2차 재생 단계 인 파인 레벨 분류에 사용한다.In order to improve the genre classification success rate and algorithm complexity of the music to be reproduced, the discriminating unit 360 of the classifying unit 300 of the present invention performs the first reproduction of the SVM (Support Vector Machine) and the k-NN classifier, respectively. It is used to classify the coarse level, which is a stage, and the fine level, which is a second reproduction stage.

상기 k-NN 분류기는 유클리디안 거리 함수(Euclidean distance function)를 이용하여 질의로 입력된 특징 벡터열과, 상기 데이터베이스(380)에 저장되어 있는 특징 벡터열들 간의 거리 값을 구하여 데이터의 유사도를 측정하는 방식이다. 상기 SVM은 상기 훈련 과정에서 상기 데이터베이스(380)에 구축되어 있는 데이터를 이용하여 고차원 선형방정식을 얻어내고, 이를 이용하여 2개의 장르를 구분한다.The k-NN classifier measures the similarity of data by obtaining a distance value between a feature vector sequence inputted by a query and a feature vector sequence stored in the database 380 using an Euclidean distance function. That's the way it is. The SVM obtains a high dimensional linear equation using data constructed in the database 380 during the training process, and uses the same to distinguish two genres.

따라서, 상기 SVM의 경우 기본적으로 2개의 장르만을 구분할 수 있으나, 본 발명에서는 여러 개의 SVM 분류기를 조합하여 다중 분류가 가능하게 하였다.Accordingly, in the case of the SVM, only two genres can be basically distinguished, but in the present invention, multiple classification is possible by combining several SVM classifiers.

상기와 같이 이루어진 본 발명에 따른 오디오의 자동 이퀄라이징 시스템의 구체적인 처리 과정을 설명한다.A detailed process of the automatic equalization system of audio according to the present invention made as described above will be described.

본 발명의 시험을 위해 사용된 음악은 MP3 파일, 음악 CD 그리고 라디오로부터 서양고전음악, 힙합, 재즈 그리고 록의 4개 음악 장르에 대해 각 장르별로 60곡을 선정하여 총 240곡을 선택하였다. 이때, 시험에 사용된 음악 파일은 각각 22,050Hz, 16bits, mono WAV 형식의 파일로 변환하여 사용하였다.The music used for the test of the present invention was selected from a total of 240 songs by selecting 60 songs from each of the four genres of Western classical music, hip hop, jazz and rock from MP3 files, music CDs, and radio. At this time, the music files used in the test were converted into files of 22,050Hz, 16bits, mono WAV format, respectively.

본 발명은 도 4에 나타낸 바와 같이, 제 1차 재생 단계에 적용되는 코어스 레벨(coarse level)과 제 2차 재생 단계에 적용되는 파인 레벨(fine level)의 분류 단계를 거쳐 질의 음악의 장르를 분류한다.As shown in FIG. 4, the genre of query music is classified through a classification step of coarse level applied to the first reproduction stage and a fine level applied to the second reproduction stage. do.

상기 코어스 레벨 분류 단계(도 4의 S 41 ~ S 46)에서는 처음부터 2초간 입력되는 오디오 신호로부터 음악의 4개 장르를 비교적 음색 특징이 유사한 두 개의 장르 즉, 서양고전음악과 재즈를 제 1분류로 하고, 힙합과 록을 제 2분류로 하여 질의 음악을 분류하였고, 상기 제 1분류 및 제 2분류를 이용하여 상기 이퀄라이저(100)에 게인 설정값을 적용함으로써 최종적으로 파인 레벨이 적용될 때까지 자연스러운 음색의 변화를 유도한다.In the coarse level classification step (S 41 to S 46 of FIG. 4), two genres of relatively similar sound characteristics, that is, Western classical music and jazz, are first classified into four genres of music from an audio signal input for two seconds from the beginning. The query music is classified using the hip hop and the rock as the second classification, and the gain setting value is applied to the equalizer 100 using the first classification and the second classification until a fine level is finally applied. Induce a change in timbre.

상기 파인 레벨 분류 단계(도 4의 S 47 ~ S 49, S 45, S 46)에서는 상기 코어스 레벨 분류보다 세분화하여 6초간 입력되는 오디오 신호를 분석하여 재생되는 음악을 4개의 장르 중에서 어느 하나로 분류된다.In the fine level classification step (S 47 to S 49, S 45, and S 46 of FIG. 4), music reproduced by analyzing audio signals inputted for 6 seconds by subdividing the coarse level classification is classified into one of four genres. .

상기와 같이 각 코어스 레벨과 파인 레벨 분류에 대한 시험 결과, 제 1단계인 코어스 레벨에서의 상기 SVM 분류기는 2초 길이의 오디오 신호에 대해 38차의 특징 벡터를 이용하여 약 79.2%에 이르는 성공률을 보여 주었으며, 제 2단계인 파인 레벨에서의 상기 k-NN 분류기는 6초 길이의 오디오 데이터에 대해 66차 특징 벡터를 이용하여 81.67%의 성공률을 보여 주었다.As a result of the test for each coarse level and fine level classification as described above, the SVM classifier at the coarse level, which is the first stage, achieves a success rate of about 79.2% using a 38th order feature vector for a 2-second audio signal. The k-NN classifier at the second level, Fine level, showed a success rate of 81.67% using the 66th order feature vector for 6 seconds long audio data.

즉, 상기 이퀄라이저(100)에서는 음악 파일이 23ms의 프레임 단위로 나뉘어져 이퀄라이징 설정값이 적용된 후, 오버랩 가산(overlap add) 방식으로 재조립되어 출력되는데, 상기 분류부(300)에 의해 음악 파일이 재생되기 시작한 시점부터 이후로 6초간의 음악 데이터를 버퍼(320)에 저장하고, 코어스 레벨과 파인 레벨의 장르 분류에 필요한 연산을 순차적으로 한 후, 분류 결과를 이용하여 상기 설정부(390)를 통해 상기 이퀄라이저(100)의 필터링부(130)를 조정한다.That is, in the equalizer 100, the music file is divided into frame units of 23ms, the equalization setting value is applied, and then reassembled and output in an overlap add method. The music file is reproduced by the classification unit 300. After the music data has been stored in the buffer 320 for 6 seconds from the time point at which it began to be processed, the operations necessary for classifying the coarse level and the fine level are sequentially performed, and then, through the setting unit 390 using the classification result. The filtering unit 130 of the equalizer 100 is adjusted.

이와 같은 과정을 통하여 코어스 레벨의 경우 분류 결과가 나오는데 평균적으로 약 0.7초가 걸렸고, 파인 레벨의 경우 약 1.1초의 시간이 걸렸는데, 최종적으로 2단계의 이퀄라이징이 처리되는데 소요된 시간은 2초 미만이었다.Through this process, it took about 0.7 seconds on average for the coarse level, and about 1.1 seconds for the fine level, but the time required for two-step equalization was less than 2 seconds.

그리고, 상기와 같이 오디오 시스템에서 음악이 재생되면, 각 장르에 알맞은 음색으로 출력하도록 상기 이퀄라이저(100)를 자동으로 설정하기 위해 4개의 음악 장르에 알맞은 이퀄라이저 설정을 정의해 주어야 하는데, 본 발명에서 사용한 음악 장르별 이퀄라이저 설정값은 윈엠프(WINAMP) 등과 같은 범용음악 재생 프로그램에서 설정한 값을 참고하여 표 1과 같이 설정하였다.In addition, when music is played in the audio system as described above, in order to automatically set the equalizer 100 to output a tone suitable for each genre, an equalizer setting suitable for four music genres should be defined. The equalizer setting value for each music genre was set as shown in Table 1 with reference to the value set in the general music playing program such as WINAMP.

표 1의 각 설정값들은 원본 음악 소스의 주파수 밴드별 진폭 크기에 곱해지는 이득(gain) 값들이다.Each of the settings in Table 1 is a gain value that is multiplied by the amplitude magnitude for each frequency band of the original music source.

여기서, 코어스 레벨의 경우 슬로우 비트(Slow Beat)와 패스트 비트(Fast Beat)로 장르를 구분하였으며, 이퀄라이저 설정값은 상기 슬로우 비트의 장르는 서양고전음악과 재즈의 평균값을 이용하였고, 상기 패스트 비트의 장르는 힙합과 록의 평균값을 이용하였다.Here, in the case of the coarse level, genres are divided into a slow beat and a fast beat, and an equalizer setting value is a slow beat genre using an average value of classical music and jazz. The genre uses the average of hip hop and rock.

3밴드 이퀄라이저의 주파수 대역별 게인값Frequency band gain of 3 band equalizer 음악 장르Music genre BASE (저역)BASE MID (중역)MID (Senior) TREBLE (고역)TREBLE (high range) 코어스 레벨Cos level 슬로우 비트Slow beat 1One 0.90.9 0.90.9 패스트 비트Fast beat 1.41.4 1One 1.21.2 파인 레벨Fine level 서양고전음악Western Classical Music 1One 1One 0.60.6 재즈jazz 1One 0.80.8 1.21.2 힙합Hip hop 1.51.5 1.31.3 1One rock 1.31.3 0.70.7 1.41.4

한편, 본 발명에 따른 오디오의 자동 이퀄라이징 시스템은 실시간 구현을 위하여, 텍사스 인스트루먼트(TI; Texas Instruments)사의 DSP(TMS320C6713)를 이용하여 구성하였다.On the other hand, the automatic equalization system of the audio according to the present invention was configured using a Texas Instruments (TI) DSP (TMS320C6713) for real-time implementation.

상기 DSP는 225Mhz의 내부 클럭 주파수에서 동작을 하며, 초당 1350 MFLOPS(Million Floating-point Operations per second)의 부동소수점 및 1800MIPS(Million instructions per second)의 정수연산 능력을 가지고 있다.The DSP operates at an internal clock frequency of 225 MHz and has a floating point of 1350 Million Floating-point Operations per second (MFLOPS) and an integer arithmetic capability of 1800 Million instructions per second (MIPS).

상기 DSP를 이용하여 구현된 본 발명의 오디오의 자동 이퀄라이징 시스템이 탑재된 보드가 동작하도록 호스트 PC를 이용하여 프로그램을 작성한 후에, 그 프로그램을 상기 보드에 저장하였다.After a program was created using a host PC to operate a board equipped with an audio equalizing system of the present invention implemented using the DSP, the program was stored in the board.

상기 보드에 프로그램을 저장한 후, 저장된 프로그램을 이용, 상기 보드를 동작시켜 외부 오디오 기기로부터 오디오 신호를 입력받고, 입력된 오디오 신호로부터 상기 특징 벡터 추출부(340)에 의해 특징 벡터가 추출되면, 상기 판별부(360)는 데이터베이스(380)에 구축되어 있는 특징 벡터 테이블을 참고하여 유사한 특성을 가진 장르로 분류하여, 상기 표 1과 같은 장르별 이득(Gain) 값을 상기 설정부(390)를 통해 상기 이퀄라이저(100)의 필터링부(130)에 적용시켜 재생하게 한다.After storing the program on the board, using the stored program to operate the board to receive an audio signal from an external audio device, and when the feature vector is extracted by the feature vector extraction unit 340 from the input audio signal, The determination unit 360 classifies the genre having similar characteristics by referring to the feature vector table constructed in the database 380, and obtains a gain value for each genre as shown in Table 1 through the setting unit 390. The filter is applied to the filtering unit 130 of the equalizer 100 to reproduce the same.

여기서, 상기 분류부(300)에 입력되는 오디오 신호가 44.1KHz인 경우에는 시스템의 과부하 방지와 효과적인 장르 분류를 위하여, 다운 샘플링부(310)를 이용하여, 필요한 최저의 샘플링주파수인 22.05KHz로 다운 샘플링 과정을 거쳐 입력하는 것이 바람직하다.Here, when the audio signal input to the classifier 300 is 44.1 KHz, the down sampler 310 is used to down to 22.05 KHz, which is the lowest sampling frequency required, for the purpose of preventing overload of the system and classifying genres effectively. Input through a sampling process is preferred.

다시 말하면, 상기 이퀄라이저(100)는 도 6에 나타낸 바와 같이, 상기 입력버퍼(110)를 통하여 오디오 신호(input(N))가 입력되면(S 61), 고속 푸리에 변환(FFT)을 적용하여(S 62), FFT 처리된 데이터(FFT_input(N))를 필터링부(130)에 입력한다.In other words, as illustrated in FIG. 6, when the audio signal input (N) is input through the input buffer 110 (S 61), the equalizer 100 applies fast Fourier transform (FFT) ( S 62), the FFT-processed data FFT_input (N) is input to the filtering unit 130.

이때, 상기 오디오 신호는 각 주파수 대역별로 FFT 변환되어 저역(LPF_FFT), 중역(BPF_FFT), 고역(HPF_FFT)별로 분류되고(S 631 ~ S 633), 상기 분류부(300)에 의하여 음악의 장르가 결정되어 상기 설정부(390)를 통하여 각 밴드별로 설정된 저역 게인값(a), 중역 게인값(b), 고역 게인값(c)을 입력받아(S 634 ~ S 636), 설정한 후에(S 637), 이를 이용하여 오버랩 가산(overlap add) 방식으로 재조립된 후에(S 64, S 65), 역 FFT 변환되어(S 66) 출력된다.In this case, the audio signal is FFT-converted for each frequency band and classified into a low band (LPF_FFT), a mid band (BPF_FFT), and a high band (HPF_FFT) (S 631 to S 633). The low pass gain (a), the midrange gain (b), and the high pass gain (c) are determined through the setting unit 390 and set for each band (S 634 to S 636), and then set (S). 637), after reassembly by using the overlap add method (S 64, S 65), the inverse FFT transform (S 66) is output.

상기와 같이 이루어진 본 발명은 SFS 기법을 사용하여 시스템의 계산 복잡도를 줄여줌으로써 분류 성공률을 높여주며, MFC 기법을 적용하여 오디오 신호의 특징 벡터 데이터베이스를 구축함으로써 음악 질의의 위치에 상관없이 안정적인 이퀄라이징 성공률을 제공한다.According to the present invention as described above, the classification success rate is improved by reducing the computational complexity of the system using the SFS technique, and stable equalization success rate is achieved regardless of the position of the music query by constructing the feature vector database of the audio signal by applying the MFC technique. to provide.

그리고, 2분류의 이퀄라이징을 한 후에 4분류의 이퀄라이징을 함으로써 자연스러운 음색 변화를 유도할 수 있다.Then, after performing two classes of equalization, four kinds of equalization can be performed to induce a natural tone change.

또한, DSP를 이용하여 시스템을 구축함으로써, 시스템의 반응속도를 극대화할 수 있다.In addition, by building a system using a DSP, the response speed of the system can be maximized.

Claims (8)

오디오 신호를 입력받아 미리 설정된 음역별 설정 상태에 따라 각 주파수 대역의 게인을 조절하여 출력하는 이퀄라이저;An equalizer which receives an audio signal and adjusts the gain of each frequency band according to a preset sound state setting state; 입력되는 오디오 신호의 장르를 판별하여, 각 장르별로 미리 설정된 각 주파수 대역별 게인을 산정하여 상기 이퀄라이저의 각 주파수 대역별 게인을 조정해 주는 장르 분류부로 구성되는 것을 특징으로 하는 오디오의 자동 이퀄라이징 시스템.And a genre classification unit configured to determine a genre of an input audio signal, calculate a gain for each preset frequency band for each genre, and adjust a gain for each frequency band of the equalizer. 제 1항에 있어서, 상기 이퀄라이저는 입력되는 오디오 신호를 버퍼링시켜 주는 입력 버퍼와, 상기 장르 분류부의 장르 분류 결과에 따라 각 주파수 대역별로 설정된 게인을 이용하여 상기 입력버퍼로부터 입력되는 오디오 신호를 필터링하여 출력하는 필터링부와, 상기 필터링부에서 출력되는 오디오 신호를 버퍼링해 주는 출력버퍼를 포함하는 것을 특징으로 하는 오디오의 자동 이퀄라이징 시스템.The method of claim 1, wherein the equalizer filters the audio signal input from the input buffer by using an input buffer for buffering an input audio signal and a gain set for each frequency band according to a genre classification result of the genre classification unit. And an output buffer configured to output an output buffer for buffering the audio signal output from the filtering unit. 제 1항에 있어서, 상기 장르 분류부는 상기 이퀄라이저를 통해 전달되는 오디오 신호를 분석하여 장르 분류에 이용되는 특징 벡터를 추출해 내는 특징 벡터 추출부와, 상기 특징 벡터 추출부를 통해 입력되는 오디오 신호의 특징 벡터를 분석하여 상기 오디오 신호의 장르를 판별하는 판별부와, 상기 판별부에 의한 오디오 신호의 장르 판별을 위해 각 장르별 특징 벡터 데이터가 저장된 데이터베이스와, 상기 판별부에 의하여 상기 오디오 신호의 장르가 판별되면 각 주파수 대역별로 미 리 설정된 주파수 게인으로 상기 이퀄라이저의 주파수 대역별 게인을 설정해 주는 설정부를 포함하는 것을 특징으로 하는 오디오의 자동 이퀄라이징 시스템.The feature vector extractor of claim 1, wherein the genre classifier extracts a feature vector used for genre classification by analyzing an audio signal transmitted through the equalizer, and a feature vector of an audio signal input through the feature vector extractor. A discriminator for determining the genre of the audio signal by analyzing a; a database storing feature vector data for each genre for discriminating the genre of the audio signal by the discriminator; and the genre of the audio signal is determined by the discriminator. And a setting unit for setting the gain for each frequency band of the equalizer with a preset frequency gain for each frequency band. 제 3항에 있어서, 상기 장르 분류부는 상기 이퀄라이저를 통해 전달되는 오디오 신호를 낮은 주파수로 다운샘플링하여 상기 특징 벡터 추출부로 출력하는 다운 샘플링부를 더 포함하는 것을 특징으로 하는 오디오의 자동 이퀄라이징 시스템.4. The automatic equalization system of claim 3, wherein the genre classification unit further comprises a down sampling unit which downsamples an audio signal transmitted through the equalizer to a low frequency and outputs the audio signal to the feature vector extractor. 제 3항에 있어서, 상기 특징 벡터 추출부는 각 장르별로 해당되는 오디오 신호를 분석하여 특징 벡터를 추출하여 장르별로 구분하여 상기 데이터베이스에 장르별 특징 벡터 데이터로 저장하는 기능을 더 포함하여 이루어지는 것을 특징으로 하는 오디오의 자동 이퀄라이징 시스템.The method of claim 3, wherein the feature vector extracting unit further comprises a function of analyzing the audio signal corresponding to each genre, extracting the feature vector, classifying the genre, and storing the feature vector data by genre in the database. Audio automatic equalization system. 제 3항에 있어서, 상기 특징 벡터 추출부는 제 1차적으로 미리 설정된 시간 동안 입력되는 오디오 신호를 분석하여 적어도 2개의 장르로 구분하고, 제 2차적으로 미리 설정된 시간 동안 입력되는 오디오 신호를 분석하여 적어도 4개의 장르로 구분하는 것을 특징으로 하는 오디오의 자동 이퀄라이징 시스템.The method of claim 3, wherein the feature vector extractor first analyzes an audio signal input for a first predetermined time and divides the audio signal into at least two genres, and analyzes an audio signal input for a second preset time for at least two genres. Automatic equalization system for audio, characterized by four genres. (a) 재생되는 음악 파일의 오디오 신호를 입력받는 단계;(a) receiving an audio signal of a music file to be played; (b) 상기 오디오의 미리 설정된 제 1의 시간 동안 음악 장르를 적어도 2종류로 구분하여 미리 설정된 주파수 대역별로 이퀄라이징하는 단계; 및(b) dividing the music genres into at least two types during the first predetermined time period of the audio and equalizing each of the preset frequency bands; And (c) 상기 오디오의 미리 설정된 제 2의 시간 동안 음악 장르를 적어도 4종류로 구분하여 미리 설정된 주파수 대역별로 이퀄라이징하는 단계;(c) dividing the music genres into at least four types during the second preset time of the audio and equalizing the preset music bands according to preset frequency bands; 를 포함하는 것을 특징으로 하는 오디오의 자동 이퀄라이징 방법.Auto equalization method of audio, characterized in that it comprises a. 제 7항에 있어서, 상기 (a)단계는 재생되는 음악의 장르 구분을 위하여, 음악 장르별로 선택된 다수의 오디오 신호로부터 장르를 구분하게 해 주는 특징 벡터를 추출하여 데이터베이스화하는 단계를 더 포함하는 것을 특징으로 하는 오디오의 자동 이퀄라이징 방법.The method of claim 7, wherein the step (a) further comprises extracting and databaseting a feature vector for distinguishing genres from a plurality of audio signals selected for each music genre in order to distinguish genres of music to be reproduced. Featuring automatic equalization of audio.
KR1020050133557A 2005-12-29 2005-12-29 Automatic equalizing system of audio and method thereof KR20070070728A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050133557A KR20070070728A (en) 2005-12-29 2005-12-29 Automatic equalizing system of audio and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050133557A KR20070070728A (en) 2005-12-29 2005-12-29 Automatic equalizing system of audio and method thereof

Publications (1)

Publication Number Publication Date
KR20070070728A true KR20070070728A (en) 2007-07-04

Family

ID=38505976

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050133557A KR20070070728A (en) 2005-12-29 2005-12-29 Automatic equalizing system of audio and method thereof

Country Status (1)

Country Link
KR (1) KR20070070728A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100902030B1 (en) * 2007-10-24 2009-06-15 주식회사 코원시스템 Audio replaying apparatus and controlling method thereof
WO2018034406A1 (en) * 2016-08-19 2018-02-22 엘지전자 주식회사 Mobile terminal and control method therefor
KR101863272B1 (en) 2018-01-31 2018-06-29 주식회사 이피이 Connecting joint coated with high elongation elastic paint with temperature sensitive color change
US10735119B2 (en) 2013-09-06 2020-08-04 Gracenote, Inc. Modifying playback of content using pre-processed profile information
KR102480265B1 (en) 2022-04-14 2022-12-23 주식회사 지브이코리아 Electronic apparatus for performing equalization according to genre of audio sound

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100902030B1 (en) * 2007-10-24 2009-06-15 주식회사 코원시스템 Audio replaying apparatus and controlling method thereof
US10735119B2 (en) 2013-09-06 2020-08-04 Gracenote, Inc. Modifying playback of content using pre-processed profile information
WO2018034406A1 (en) * 2016-08-19 2018-02-22 엘지전자 주식회사 Mobile terminal and control method therefor
KR101863272B1 (en) 2018-01-31 2018-06-29 주식회사 이피이 Connecting joint coated with high elongation elastic paint with temperature sensitive color change
KR102480265B1 (en) 2022-04-14 2022-12-23 주식회사 지브이코리아 Electronic apparatus for performing equalization according to genre of audio sound

Similar Documents

Publication Publication Date Title
KR100832360B1 (en) Method for controlling equalizer in digital media player and system thereof
KR101101384B1 (en) Parameterized temporal feature analysis
JP5174009B2 (en) System and method for automatically generating haptic events from digital audio signals
KR100472904B1 (en) Digital Recorder for Selectively Storing Only a Music Section Out of Radio Broadcasting Contents and Method thereof
CN1992513B (en) Effect adding method and effect adding apparatus
DE102012103553A1 (en) AUDIO SYSTEM AND METHOD FOR USING ADAPTIVE INTELLIGENCE TO DISTINCT THE INFORMATION CONTENT OF AUDIOSIGNALS IN CONSUMER AUDIO AND TO CONTROL A SIGNAL PROCESSING FUNCTION
KR20090130833A (en) System and method for automatically producing haptic events from a digital audio file
US7851688B2 (en) Portable sound processing device
WO2011100802A1 (en) Hearing apparatus and method of modifying or improving hearing
EP2133873A1 (en) Audio information processing apparatus, audio information processing method and associated computer program
JP2002215195A (en) Music signal processor
KR20070070728A (en) Automatic equalizing system of audio and method thereof
US6673995B2 (en) Musical signal processing apparatus
Buyens et al. A stereo music preprocessing scheme for cochlear implant users
KR101406398B1 (en) Apparatus, method and recording medium for evaluating user sound source
CN111415644A (en) Audio comfort degree prediction method and device, server and storage medium
Herbst et al. Guitar profiling technology in metal music production: public reception, capability, consequences and perspectives
US20210377662A1 (en) Techniques for audio track analysis to support audio personalization
JP2023539121A (en) Audio content identification
KR20110065972A (en) Apparatus and method of stereophonic sound reproduction adapting for multimedia contents
JPH04251294A (en) Sound image assigned position controller
Kim et al. Car audio equalizer system using music classification and loudness compensation
US20090228475A1 (en) Music search system, music search method, music search program and recording medium recording music search program
Schedin Target Spectrums For Mastering: A comparison of spectral stylistic conventions between rock and vocal-based electronic music
CN112185325A (en) Audio playing style adjusting method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application