KR20070070728A - Automatic equalizing system of audio and method thereof - Google Patents
Automatic equalizing system of audio and method thereof Download PDFInfo
- Publication number
- KR20070070728A KR20070070728A KR1020050133557A KR20050133557A KR20070070728A KR 20070070728 A KR20070070728 A KR 20070070728A KR 1020050133557 A KR1020050133557 A KR 1020050133557A KR 20050133557 A KR20050133557 A KR 20050133557A KR 20070070728 A KR20070070728 A KR 20070070728A
- Authority
- KR
- South Korea
- Prior art keywords
- audio signal
- genre
- audio
- feature vector
- equalizer
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10009—Improvement or modification of read or write signals
- G11B20/10046—Improvement or modification of read or write signals filtering or equalising, e.g. setting the tap weights of an FIR filter
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10009—Improvement or modification of read or write signals
- G11B20/10305—Improvement or modification of read or write signals signal quality assessment
- G11B20/10398—Improvement or modification of read or write signals signal quality assessment jitter, timing deviations or phase and frequency errors
- G11B20/10444—Improvement or modification of read or write signals signal quality assessment jitter, timing deviations or phase and frequency errors by verifying the timing of zero crossings
Abstract
Description
도 1은 본 발명에 따른 오디오의 자동 이퀄라이징 시스템을 설명하기 위한 블록도.1 is a block diagram illustrating an automatic equalization system of audio according to the present invention.
도 2는 본 발명에서 특징 벡터의 추출 과정을 설명하기 위한 설명도.2 is an explanatory diagram for explaining a process of extracting feature vectors in the present invention.
도 3은 본 발명에서 MFC 알고리즘을 이용하여 데이터베이스를 구축하는 과정을 설명하기 위한 설명도.3 is an explanatory diagram for explaining a process of building a database using the MFC algorithm in the present invention.
도 4는 본 발명에 따른 오디오의 자동 이퀄라이징 방법을 설명하기 위한 순서도.4 is a flowchart illustrating an automatic equalization method of audio according to the present invention.
도 5는 본 발명에서 이퀄라이저의 버퍼 오버랩을 설명하기 위한 설명도.5 is an explanatory diagram for explaining a buffer overlap of an equalizer in the present invention;
도 6은 본 발명에서 이퀄라이저의 필터링 과정을 설명하기 위한 설명도.6 is an explanatory diagram for explaining a filtering process of an equalizer in the present invention.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
100 : 이퀄라이저100: equalizer
300 : 장르 분류부300: genre classification
본 발명은 오디오의 자동 이퀄라이징 시스템 및 그 방법에 관한 것으로, 특히 오디오 시스템에서 재생되는 오디오 파일을 장르에 적합한 음색으로 변환하여 출력해 주는 오디오의 자동 이퀄라이징 시스템 및 그 방법에 관한 것이다.The present invention relates to an audio equalizing system and method thereof, and more particularly, to an audio equalizing system and method for converting an audio file played in an audio system into a tone suitable for a genre and outputting the same.
일반적으로, 오디오에서 사용되는 이퀄라이저(Equalizer)는 오디오 재생 장치를 통해 음악을 재생할 때에 다수의 주파수 대역 중 일부 또는 다수의 대역을 선별하여 출력을 조절함으로써 사용자가 선호하는 음색으로 변환시켜 주기 위한 것이다.In general, an equalizer used in audio is for converting a part of a plurality of frequency bands or a plurality of bands and adjusting the output to convert a tone to a user's favorite tone when playing music through an audio reproducing apparatus.
특히, 디지털 오디오 시스템의 경우에 이퀄라이저의 구현이 간편하기 때문에, 대부분의 디지털 오디오 기기(예를 들어, MP3 플레이어, CD 오디오, 카오디오 등)에는 이퀄라이저 기능이 탑재되어 있다.In particular, since it is easy to implement an equalizer in the case of a digital audio system, most digital audio devices (for example, MP3 players, CD audio, car audio, etc.) are equipped with an equalizer function.
다시 말하면, 오디오 이퀄라이저는 각 주파수 밴드 별로 나누어진 음악 신호의 이득(gain) 값을 증폭 또는 감쇠함으로써, 주파수 밴드별로 음색의 특징을 조절하는 일반적이다.In other words, the audio equalizer generally adjusts the characteristics of tones by frequency band by amplifying or attenuating gain values of music signals divided by frequency bands.
예를 들어, 3밴드 이퀄라이저의 경우에 저주파 대역인 100Hz를 저음(Bass)이라고 부르며, 이 밴드를 강조하면 음악이 힘있게 들리며 웅장한 느낌을 준다. 중간 주파수 대역인 1kHz를 중음(Mid)이라고 부르며, 이 밴드는 사람의 귀에 가장 민감한 주파수 대역이어서 증폭하면 음이 명확하게 들린다. 그리고, 고주파 대역인 10kHz를 고음(Treble)이라고 부르며, 이 밴드를 증폭하면 음이 맑은 느낌을 준다.For example, in the case of a three-band equalizer, the low frequency band, 100 Hz, is called bass. Emphasizing the band gives the music a powerful and grand feeling. The mid-frequency band, 1 kHz, is called mid, which is the most sensitive frequency band in the human ear, so when amplified, the sound is clearly heard. The high frequency band 10 kHz is called treble, and amplifying the band gives a clear sound.
한편, 음악을 듣는 사람마다 선호하는 음색이 다르며, 음악 장르에 따라서도 사용되는 악기 또는 보컬리스트의 음역이 다르기 때문에 각 장르에 맞는 음색을 설 정하여 청취하는 것이 일반적이다.On the other hand, each person who listens to music has a different tone, and since the range of instruments or vocalists used is different according to the genre of music, it is common to set and listen to a tone suitable for each genre.
그러나, 기존의 이퀄라이저를 이용하여 원하는 음색을 만들기 위해서는 적게는 3개에서 많게는 20개가 넘는 버튼을 조작해야 하며, 이러한 조작은 일반 사용자의 입장에서 매우 복잡하기 때문에 불편한 문제점이 있다.However, in order to make a desired tone using an existing equalizer, at least three to as many as twenty or more buttons must be operated, and such an operation is inconvenient because it is very complicated from a general user's point of view.
그리고, 오디오를 재생할 때에 음악적 특성이 조합된 다양하고 개성 있는 음색을 낼 수 있음에도 불구하고, 이퀄라이저 설정의 불편함으로 인하여 재생되는 오디오의 장르와 무관하게 설정되어 있는 이퀄라이저 설정에 따라 청취를 해야 하기 때문에 제대로 된 오디오 감상을 할 수 없는 문제점이 있다.In addition, despite the fact that it is possible to produce a variety of distinctive tones with a combination of musical characteristics when playing audio, due to the inconvenience of the equalizer setting, it is necessary to listen according to the equalizer setting that is set regardless of the genre of audio being played. There is a problem that can not enjoy the audio.
본 발명의 목적은 상기와 같은 종래기술의 문제점을 해결하기 위한 것으로, 오디오 재생 장치를 통하여 재생되는 오디오의 특성을 파악하여, 해당 오디오에 맞게 미리 설정되어 있는 이퀄라이저 설정을 이용하여 오디오를 재생시켜 주는 오디오의 자동 이퀄라이징 시스템 및 그 방법을 제공하는 데 있다.An object of the present invention is to solve the problems of the prior art as described above, to grasp the characteristics of the audio to be reproduced through the audio reproducing apparatus, and to reproduce the audio using the equalizer settings preset for the corresponding audio An automatic equalization system of audio and a method thereof are provided.
그리고, 본 발명의 다른 목적은 오디오 장치를 통하여 재생되는 오디오의 종류에 맞는 이퀄라이저 설정을 자동으로 적용시킴으로써 오디오 감상을 간편하게 해 주는 오디오의 자동 이퀄라이징 시스템 및 그 방법을 제공하는 데 있다.Another object of the present invention is to provide an audio equalizing system and method for simplifying audio listening by automatically applying an equalizer setting suitable for the type of audio reproduced through an audio device.
또한, 본 발명의 또 다른 목적은 재생되는 오디오의 종류에 따른 이퀄라이저 설정을 적용하는 과정에서 갑작스런 음색 변화를 방지함으로써 오디오 감상에 따른 청각적인 불편함으로 해소시켜 주는 오디오의 자동 이퀄라이징 시스템 및 그 방법을 제공하는 데 있다.In addition, another object of the present invention is to provide an automatic equalization system and method for audio that eliminates the audible inconvenience caused by listening to audio by preventing a sudden tone change in the process of applying equalizer settings according to the type of audio being played. There is.
본 발명은 상기한 목적을 달성하기 위하여, 오디오 신호를 입력받아 미리 설정된 음역별 설정 상태에 따라 각 주파수 대역의 게인을 조절하여 출력하는 이퀄라이저; 입력되는 오디오 신호의 장르를 판별하여, 각 장르별로 미리 설정된 각 주파수 대역별 게인을 산정하여 상기 이퀄라이저의 각 주파수 대역별 게인을 조정해 주는 장르 분류부로 구성되는 것을 특징으로 하는 오디오의 자동 이퀄라이징 시스템을 제공한다.In order to achieve the above object, the present invention comprises: an equalizer which receives an audio signal and adjusts the gain of each frequency band according to a preset sound region setting state; And a genre classification unit configured to determine a genre of the input audio signal, calculate a gain for each preset frequency band for each genre, and adjust a gain for each frequency band of the equalizer. to provide.
상기 이퀄라이저는 입력되는 오디오 신호를 버퍼링시켜 주는 입력 버퍼와, 상기 장르 분류부의 장르 분류 결과에 따라 각 주파수 대역별로 설정된 게인을 이용하여 상기 입력버퍼로부터 입력되는 오디오 신호를 필터링하여 출력하는 필터링부와, 상기 필터링부에서 출력되는 오디오 신호를 버퍼링해 주는 출력버퍼로 구성된다.The equalizer includes: an input buffer for buffering an input audio signal, a filtering unit for filtering and outputting an audio signal input from the input buffer using gains set for each frequency band according to a genre classification result of the genre classification unit; It is composed of an output buffer for buffering the audio signal output from the filtering unit.
상기 장르 분류부는 상기 이퀄라이저를 통해 전달되는 오디오 신호를 분석하여 장르 분류에 이용되는 특징 벡터를 추출해 내는 특징 벡터 추출부와, 상기 특징 벡터 추출부를 통해 입력되는 오디오 신호의 특징 벡터를 분석하여 상기 오디오 신호의 장르를 판별하는 판별부와, 상기 판별부에 의한 오디오 신호의 장르 판별을 위해 각 장르별 특징 벡터 데이터가 저장된 데이터베이스와, 상기 판별부에 의하여 상기 오디오 신호의 장르가 판별되면 각 주파수 대역별로 미리 설정된 주파수 게인으로 상기 이퀄라이저의 주파수 대역별 게인을 설정해 주는 설정부로 구성된다.The genre classification unit analyzes the audio signal transmitted through the equalizer to extract a feature vector used for genre classification, and analyzes the feature vector of the audio signal input through the feature vector extractor to analyze the audio signal. A discriminator for determining the genre of the genre; a database in which feature vector data for each genre is stored for discriminating the genre of the audio signal by the discriminator; and when the genre of the audio signal is determined by the discriminator, the frequency unit is preset for each frequency band. It is composed of a setting unit for setting the gain for each frequency band of the equalizer as the frequency gain.
그리고, 상기 장르 분류부는 상기 이퀄라이저를 통해 전달되는 오디오 신호 를 낮은 주파수로 다운샘플링하여 상기 특징 벡터 추출부로 출력하는 다운 샘플링부를 더 포함하여 구성된다.The genre classification unit may further include a down sampling unit configured to downsample the audio signal transmitted through the equalizer to a low frequency to output the feature signal to the feature vector extractor.
상기 특징 벡터 추출부는 각 장르별로 해당되는 오디오 신호를 분석하여 특징 벡터를 추출하여 장르별로 구분하여 상기 데이터베이스에 장르별 특징 벡터 데이터로 저장하는 기능을 더 포함하여 이루어지며, 상기 특징 벡터 추출부는 제 1차적으로 미리 설정된 시간 동안 입력되는 오디오 신호를 분석하여 적어도 2개의 장르로 구분하고, 제 2차적으로 미리 설정된 시간 동안 입력되는 오디오 신호를 분석하여 적어도 4개의 장르로 구분한다.The feature vector extracting unit may further include a function of extracting a feature vector by analyzing audio signals corresponding to each genre, dividing the feature vector into genres, and storing the feature vector data in the database as a genre. An audio signal input for a preset time is analyzed and divided into at least two genres, and a second audio signal input for a preset time is analyzed and divided into at least four genres.
또한, 본 발명은 (a) 재생되는 음악 파일의 오디오 신호를 입력받는 단계; (b) 상기 오디오의 미리 설정된 제 1의 시간 동안 음악 장르를 적어도 2종류로 구분하여 미리 설정된 주파수 대역별로 이퀄라이징하는 단계; 및 (c) 상기 오디오의 미리 설정된 제 2의 시간 동안 음악 장르를 적어도 4종류로 구분하여 미리 설정된 주파수 대역별로 이퀄라이징하는 단계를 포함하는 것을 특징으로 하는 오디오의 자동 이퀄라이징 방법을 제공한다.In addition, the present invention comprises the steps of (a) receiving an audio signal of the music file to be played; (b) dividing the music genres into at least two types during the first predetermined time period of the audio and equalizing each of the preset frequency bands; And (c) dividing the music genres into at least four kinds of music genres during the second predetermined time of the audio and equalizing them according to preset frequency bands.
상기 (a)단계는 재생되는 음악의 장르 구분을 위하여, 음악 장르별로 선택된 다수의 오디오 신호로부터 장르를 구분하게 해 주는 특징 벡터를 추출하여 데이터베이스화하는 단계를 더 포함하여 이루어진다.The step (a) further includes extracting a database of feature vectors for distinguishing genres from a plurality of audio signals selected for each music genre in order to distinguish genres of music to be reproduced.
(실시예)(Example)
본 발명에 따른 오디오의 자동 이퀄라이징 시스템 및 그 방법을 첨부한 도면 을 참조하여 상세하게 설명한다.With reference to the accompanying drawings, an automatic equalization system and method for audio according to the present invention will be described in detail.
본 발명의 오디오의 자동 이퀄라이징 시스템은 도 1에 나타낸 바와 같이, 오디오 신호를 입력받아 음역별 설정 상태에 따라 각 주파수 대역의 게인을 조절하여 출력하는 이퀄라이저(100)와, 입력되는 오디오 신호의 장르를 판별하여 각 주파수 대역별로 주파수 게인을 설정하여 상기 이퀄라이저(100)의 각 주파수 대역별 게인을 조정해 주는 분류부(300)로 구성된다.As shown in FIG. 1, the automatic audio equalizing system of the present invention receives an audio signal and adjusts the
상기 이퀄라이저(100)는 장르 분류 결과에 따라 음악의 장르를 구분해 주는 계수를 입력받아 해당 주파수 대역의 Gain(필터 계수) 값을 적용함으로써, 이퀄라이징을 하는 것으로, 입력되는 오디오 신호를 버퍼링시켜 주는 입력 버퍼(110)와, 상기 분류부(300)에 의하여 각 주파수 대역별로 설정된 게인으로 상기 입력버퍼(110)로부터 입력되는 오디오 신호를 필터링하여 출력하는 필터링부(130)와, 상기 필터링부(130)에서 출력되는 오디오 신호를 버퍼링해 주는 출력버퍼(150)로 이루어진다.The
상기 이퀄라이저(100)는 EDMA 컨트롤러에 의해서 동작하며, 기본적으로 2048(좌, 우 포함 : STEREO)개의 데이터에 대해 하나의 프레임 단위로 해서 이퀄라이징을 수행한다.The
그리고, 상기 입력버퍼(110; Ping 버퍼)와 출력버퍼(150; Pong 버퍼)는 각각 1024의 크기를 갖는데, 알고리즘 연산 과정에서 복소수를 표현하기 때문에 한 채널당 2048개의 배열로 구성되어, 도 5에 나타낸 바와 같이, 2채널을 하나의 프레임으로 하는 데이터(4096)에서 50%의 오버랩(Overlap)을 취하여 오디오 데이터의 연속 성이 보장되게 하였다.The input buffer 110 (Ping buffer) and the output buffer 150 (Pong buffer) each have a size of 1024. Since the complex numbers are represented in the algorithm calculation process, 2048 arrays are formed per channel. As described above, a 50% overlap is taken from the data 4096 having two channels as one frame to ensure the continuity of the audio data.
상기 분류부(300)는 상기 이퀄라이저(100)의 입력버퍼(110)를 통해 전달되는 오디오 신호를 낮은 주파수로 다운샘플링하여 출력하는 다운 샘플링부(310)와, 상기 다운샘플링부(310)에서 출력되는 오디오 신호를 버퍼링해 주는 버퍼(320)와, 상기 버퍼(320)를 통해 입력되는 오디오 신호를 분석하여 특징 벡터(feature vector)를 추출해 내는 특징 벡터 추출부(340)와, 상기 특징 벡터 추출부(340)를 통해 입력되는 오디오 신호의 특징 벡터를 분석하여 상기 오디오 신호의 장르를 판별하는 판별부(360)와, 상기 판별부(360)에 의한 오디오 신호의 장르 판별을 위해, 각 장르별 특징 벡터 데이터가 저장된 데이터베이스(380)와, 상기 판별부(360)에 의하여 상기 오디오 신호의 장르가 판별되면 각 주파수 대역별로 미리 설정된 주파수 게인으로 상기 이퀄라이저(100)의 상기 필터링부(130)를 설정해 주는 설정부(390)로 구성된다.The
여기서, 상기 분류부(300)는 상기 오디오 신호에 대한 장르 분석을 하여 상기 이퀄라이저(100)에 적용하기 전에 상기 데이터베이스(380)에 장르별 특징 벡터 데이터를 구축하기 위하여, 사전에 각 장르별 특징 벡터 데이터를 분석하여 저장하는 기능을 더 포함한다.Here, the
즉, 상기 분류부(300)는 각 장르별 특징 벡터의 패턴을 분석하여 상기 데이터베이스(380)에 저장하는 훈련 과정과, 상기 훈련 과정에 의하여 분석된 데이터를 이용하여 실제 오디오 신호에 적용하여 시험하는 시험 과정, 그리고 실제로 재생되는 오디오 신호의 장르를 분류하여 이퀄라이저(100)에 적용하는 기능을 가지고 있 다.That is, the
다시 말하면, 훈련 과정에서는 장르별 특징 벡터를 생성하기 위한 패턴 학습(Training)을 한다.In other words, in the training process, pattern learning is performed to generate a feature vector for each genre.
상기 패턴 학습은 음악 장르 즉, 서양고전음악(Classic), 재즈(Jazz), 힙합(Hiphop), 록(Rock)에 해당하는 오디오 신호의 각 특성을 모델링하기 위해 많은 수의 음악 파일로부터 특징 벡터를 추출 및 분석하여 통계적 모델링을 하는데, 상기 분류부(300)에 오디오 신호가 입력되면, 상기 특징 벡터 추출부(340)는 세그멘테이션 및 해밍 창문함수화(Segmentation & Hamming Windowing) 과정을 거쳐, 오디오 신호로부터 특징 벡터를 추출하여 최적의 특징 벡터열을 선정하고, 오디오 신호의 전체 음악적 특성을 반영한 특징 벡터열로 만들기 위하여 MFC 알고리즘을 적용한 후, 모델 정합과 색인화 과정을 포함하는 학습 단계를 통하여 특징 벡터의 테이블을 생성하여 이를 상기 데이터베이스(380)에 저장하는 과정으로 이루어진다.The pattern learning uses feature vectors from a large number of music files to model each characteristic of an audio signal corresponding to a music genre, that is, classical music, jazz, hiphop, and rock. Statistical modeling by extracting and analyzing. When an audio signal is input to the
상기 시험 과정은 사용자 입장에서의 시스템 동작 과정과 일치하는데, 사용자가 음악 파일을 재생시키면, 입력되는 오디오 신호로부터 WAV 파일이 추출되어 입력되면, 상기 특징 벡터 추출부(340)에 의해 세그멘테이션 및 해밍 창문함수화(Segmentation & Hamming Windowing) 과정이 이루어져 최적의 특징 벡터가 추출되고, 추출된 특징 벡터를 잉용하여 상기 판별부(360)는 상기 데이터베이스(380)에 이미 구축되어있는 특징 벡터 테이블을 참고하여 유사한 특징을 지니는 장르를 결정하여 각 장르에 맞게 상기 설정부(390)를 통해 상기 이퀄라이저(100)를 설정하여 음악 파일을 재생하는 과정이다.The test process is consistent with the system operation process from the user's point of view. When the user plays the music file, the WAV file is extracted from the input audio signal, and the segmentation and hamming window is extracted by the
상기와 같이 이루어지는 본 발명의 처리 과정을 시간에 따른 동작 순서로 설명하면 다음과 같다.Referring to the processing of the present invention made as described above in the order of operation over time as follows.
음악 재생이 시작되면, 처음 2초간의 오디오 신호를 이용하여 2개로 분류되는 코어스 레벨(Coarse level) 분류를 행하여 대략적인 음악 범주를 결정하며, 이에 맞게 상기 설정부(390)를 통해 상기 이퀄라이저(100)를 조정한다.When the music starts playing, a coarse level classification is classified into two using the audio signal for the first two seconds to determine an approximate music category, and accordingly, the
이후, 음악의 시작 지점부터 6초 분량의 데이터를 이용하여 4개로 분류되는 파인 레벨(Fine level)의 분류를 통하여, 정확한 음악 장르를 결정한 후 좀 더 세밀하게 상기 이퀄라이저(100)를 설정한다.Subsequently, the
상기 이퀄라이저(100)에 대한 설정을 상기와 같이, 제 1차의 코어스 레벨과 제 2차의 파인 레벨로 2단계 분류하여 적용하는 것은 갑작스러운 음색 변화로 인하여 청취자의 거부감을 완화하기 위한 것이다.As described above, the setting of the
상기와 같이 이루어진 본 발명의 특징적인 구성과 동작을 설명하면 다음과 같다.Referring to the characteristic configuration and operation of the present invention made as described above are as follows.
먼저, 상기 분류부(300)의 특징 벡터 추출부(340)에 의하여 이루어지는 특징 벡터 추출 과정에 대해 설명한다.First, a feature vector extraction process performed by the
상기 특징 벡터는 재생되는 음악의 오디오 신호의 시간 및 주파수 파형으로부터 추출되는데, 크게 음색 벡터(Timbral vector)와 계수 벡터(Coefficient vector)의 2가지로 분류할 수 있다.The feature vector is extracted from time and frequency waveforms of an audio signal of music to be reproduced. The feature vector can be classified into two types, a timbre vector and a coefficient vector.
재생되는 음악의 오디오 신호로부터 음색을 구별하기 위해, 스펙트럴 센트로 이드(spectral centroid), 스펙트럴 롤 오프(spectral roll off), 스펙트럴 플럭스(spectral flux), 제로 크로싱 레이트(zero crossing rates)의 4가지 특징 벡터를 사용하였고, 특징 계수를 추출하기 위해 13차 MFCC 및 Delta-MFCC 계수 그리고 LPC 12차 계수를 사용하였다. 사용되는 특징 벡터 및 특징 계수들에 대한 설명은 다음과 같다.To distinguish the timbre from the audio signal of the music being played, four of spectral centroid, spectral roll off, spectral flux, and zero crossing rates Branch feature vectors were used and 13th order MFCC and Delta-MFCC coefficients and LPC 12th order coefficients were used to extract the feature coefficients. A description of the feature vector and feature coefficients used is as follows.
스펙트럴 센트로이드(Spectral Centroid)는 단 구간 푸리에 트랜스폼(Short Time Fourier Transform)의 중심을 뜻한다. 센트로이드는 음의 음색(Timbre)을 질적으로 측정하는 방법으로 사용된다.Spectral Centroid is the center of the Short Time Fourier Transform. Centroid is used to measure the timbre of sound qualitatively.
스펙트럴 롤오프(Spectral Rolloff)는 스펙트럼 분포의 80%가 집중되어 있는 주파수를 나타낸다. 롤오프는 스펙트럼 형태와 낮은 주파수 영역에 신호 에너지가 얼마나 집중되어 있는지를 보여준다.Spectral Rolloff represents the frequency at which 80% of the spectral distribution is concentrated. Roll-off shows how concentrated the signal energy is in the spectral shape and the low frequency region.
스펙트럴 플럭스(Spectral Flux)는 연속된 스펙트럼 분포에서 정규화된 크기(magnitude)들 간의 차이를 제곱해서 구할 수 있다. 플럭스는 스펙트럼 변화의 양을 계산할 수 있다.Spectral Flux can be obtained by squaring the difference between normalized magnitudes in a continuous spectral distribution. Flux can calculate the amount of spectral change.
제로 크로싱 레이트(Zero Crossing Rate)는 오디오 신호 파형의 위상이 중심축을 통과하는 회수를 나타낸다. 주로 신호의 주파수 내용을 측정하는 가장 간단한 방법으로 음성인식에서 유성음, 무성음의 판별에 사용된다.Zero Crossing Rate represents the number of times the phase of the audio signal waveform passes through the central axis. It is the simplest way to measure the frequency content of a signal. It is used to discriminate voiced and unvoiced sound from speech recognition.
MFCC(Mel Frequency Cepstrum Coefficient)는 인간의 청각 특성을 모델링하는 방법으로 오디오 신호의 크기 스펙트럼 (magnitude spectrum)을 log 변환 후 FFT를 그룹화하여 Mel 주파수 단위로 변환 한 것이다.Mel Frequency Cepstrum Coefficient (MFCC) is a method of modeling human auditory characteristics and converts the magnitude spectrum of the audio signal to log and then converts the FFT into Mel frequency units.
LPC(Linear Predictive Coding)는 인간의 발성 모델에 입각해서 음성 신호를 부호화하는 방법으로 오디오 파형의 샘플 값에서 필터 계수를 구하여 성대에서 입, 코까지의 성도 특성을 8~12차의 전극형(All-pole) 필터에 근사 시키는 방법이다.Linear Predictive Coding (LPC) is a method of encoding a speech signal based on a human vocal model. -pole) to approximate the filter.
그리고, 재생되는 음악 파일의 오디오 신호로부터 특징 벡터를 추출하기 위한 과정은 도 2에 나타낸 바와 같이 2단계로 이루어진다.Then, the process for extracting the feature vector from the audio signal of the music file to be played is made in two steps as shown in FIG.
먼저, 23ms 단위의 분석창(Analysis window)으로부터 각각 54개의 특징 계수를 얻어내고(S 21), 총 15초 동안의 특징 계수 값을 추출하여 각 특징 계수의 평균 및 분산을 구하여 총 108개의 특징 벡터열로 조합한 후에 이를 데이터베이스(380)에 저장함으로써 재생되는 음악의 장르 분류에 사용한다(S 22).First, 54 feature coefficients are obtained from an analysis window in units of 23ms (S 21), and the feature coefficient values for a total of 15 seconds are extracted to obtain the mean and variance of each feature coefficient. After combining them into rows, they are stored in the
여기서, 상기와 같이 추출된 특징 벡터의 최적화를 위한 과정은 다음과 같이 이루어진다.Here, the process for optimization of the extracted feature vector is performed as follows.
즉, 상기 특징 벡터는 입력받은 음악 데이터 즉, 오디오 신호의 장를 구분하기 위한 것인데, 이를 위해 오디오 신호로부터 추출된 특징 벡터를 각 음악 장르별로 상기 데이터베이스(380)에 구축한 후에, 추후 입력되는 오디오 신호의 장르 분류에 사용된다.That is, the feature vector is for distinguishing the input music data, that is, the chapter of the audio signal. To this end, the feature vector extracted from the audio signal is constructed in the
본 발명에서 사용한 특징 벡터는 총 108개이므로, 각 음악 파일 당 108개의 계수가 생성되며, 이는 시스템의 계산 복잡도를 높이는 요인으로 작용하여 과부하를 유발시킨다. 이를 해결하기 위하여 본 발명에서는 SFS(Sequential Forward Selection) 알고리즘을 이용하여 특징벡터 간의 상관관계를 제거하고, 특징 벡터의 차수를 줄여 최적화된 특징 벡터열만을 사용하였다.Since there are 108 feature vectors used in the present invention, 108 coefficients are generated for each music file, which acts as a factor to increase the computational complexity of the system, causing overload. In order to solve this problem, the present invention removes the correlation between the feature vectors using a sequential forward selection (SFS) algorithm, and uses only the optimized feature vector sequence by reducing the order of the feature vectors.
다시 말하면, 상기 특징 벡터 추출부(340)는 MFC 알고리즘을 이용하여 특징 벡터를 추출하는데, 상기 MFC 알고리즘에 의한 특징 벡터 추출 과정은 다음과 같다.In other words, the
본 발명에서 특징 벡터는 음악의 전체적 특성을 반영하기 위하여 총 15초간의 분량을 추출하여 평균과 분산값을 구하고, SFS 알고리즘에 의해 최적화된다. 그러나, 질의(Query)로 입력된 음악 데이터가 음악 파일의 어느 부분에서 추출되어 들어오는지에 따라 장르 분류 성공률의 편차가 발생하며, 특히 음악의 첫 시작 부분에서는 비교적 음악의 특징이 잘 담겨 있지 않기 때문에 음악 장르 분류의 성공률을 낮아지게 하는 경향이 있다.In the present invention, the feature vector extracts the total amount of 15 seconds to reflect the overall characteristics of the music to obtain the mean and variance, and is optimized by the SFS algorithm. However, there is a variation in genre classification success rate depending on which part of the music file the music data inputted by the query is extracted from, and especially since the music is not well contained at the beginning of the music. There is a tendency to lower the success rate of genre classification.
본 발명에서는 이러한 성공률의 편차를 극복하고 안정적인 성능을 구현하도록, 도 3에 나타낸 바와 같이, MFC(Multi Feature Clustering) 알고리즘 기법을 도입하여 음악 질의의 위치에 상관없이 안정적인 성공률을 확보할 수 있게 하였다.In the present invention, as shown in FIG. 3, the MFC (Multi Feature Clustering) algorithm technique is introduced to overcome the deviation of the success rate and to implement stable performance, thereby ensuring a stable success rate regardless of the position of the music query.
즉, 본 발명에 적용되는 상기 MFC 알고리즘은 음악 파일의 시작부분부터 끝부분까지 순차적으로 특징 벡터를 추출한 후(S 31), K평균(K-Means) 클러스터링 알고리즘을 사용하여 최종적으로 1개의 음악 파일 당 4개의 특징 벡터열을 만들어(S 32), 음악 메타데이터 데이터베이스를 구축하며, 음악 장르 분류에 사용한다(S 33).That is, the MFC algorithm applied to the present invention sequentially extracts the feature vectors from the beginning to the end of the music file (S 31), and finally uses one K-means clustering algorithm to finally obtain one music file. Four feature vector sequences are created per step (S 32), a music metadata database is constructed, and used for music genre classification (S 33).
그리고, 본 발명의 상기 분류부(300)의 판별부(360)는 재생되는 음악의 장르 분류 성공률과 알고리즘 복잡도를 개선하기 위하여, SVM(Support Vector Machine)과 k-NN 분류기를 각각 제 1차 재생 단계인 상기 코어스 레벨과 제 2차 재생 단계 인 파인 레벨 분류에 사용한다.In order to improve the genre classification success rate and algorithm complexity of the music to be reproduced, the discriminating
상기 k-NN 분류기는 유클리디안 거리 함수(Euclidean distance function)를 이용하여 질의로 입력된 특징 벡터열과, 상기 데이터베이스(380)에 저장되어 있는 특징 벡터열들 간의 거리 값을 구하여 데이터의 유사도를 측정하는 방식이다. 상기 SVM은 상기 훈련 과정에서 상기 데이터베이스(380)에 구축되어 있는 데이터를 이용하여 고차원 선형방정식을 얻어내고, 이를 이용하여 2개의 장르를 구분한다.The k-NN classifier measures the similarity of data by obtaining a distance value between a feature vector sequence inputted by a query and a feature vector sequence stored in the
따라서, 상기 SVM의 경우 기본적으로 2개의 장르만을 구분할 수 있으나, 본 발명에서는 여러 개의 SVM 분류기를 조합하여 다중 분류가 가능하게 하였다.Accordingly, in the case of the SVM, only two genres can be basically distinguished, but in the present invention, multiple classification is possible by combining several SVM classifiers.
상기와 같이 이루어진 본 발명에 따른 오디오의 자동 이퀄라이징 시스템의 구체적인 처리 과정을 설명한다.A detailed process of the automatic equalization system of audio according to the present invention made as described above will be described.
본 발명의 시험을 위해 사용된 음악은 MP3 파일, 음악 CD 그리고 라디오로부터 서양고전음악, 힙합, 재즈 그리고 록의 4개 음악 장르에 대해 각 장르별로 60곡을 선정하여 총 240곡을 선택하였다. 이때, 시험에 사용된 음악 파일은 각각 22,050Hz, 16bits, mono WAV 형식의 파일로 변환하여 사용하였다.The music used for the test of the present invention was selected from a total of 240 songs by selecting 60 songs from each of the four genres of Western classical music, hip hop, jazz and rock from MP3 files, music CDs, and radio. At this time, the music files used in the test were converted into files of 22,050Hz, 16bits, mono WAV format, respectively.
본 발명은 도 4에 나타낸 바와 같이, 제 1차 재생 단계에 적용되는 코어스 레벨(coarse level)과 제 2차 재생 단계에 적용되는 파인 레벨(fine level)의 분류 단계를 거쳐 질의 음악의 장르를 분류한다.As shown in FIG. 4, the genre of query music is classified through a classification step of coarse level applied to the first reproduction stage and a fine level applied to the second reproduction stage. do.
상기 코어스 레벨 분류 단계(도 4의 S 41 ~ S 46)에서는 처음부터 2초간 입력되는 오디오 신호로부터 음악의 4개 장르를 비교적 음색 특징이 유사한 두 개의 장르 즉, 서양고전음악과 재즈를 제 1분류로 하고, 힙합과 록을 제 2분류로 하여 질의 음악을 분류하였고, 상기 제 1분류 및 제 2분류를 이용하여 상기 이퀄라이저(100)에 게인 설정값을 적용함으로써 최종적으로 파인 레벨이 적용될 때까지 자연스러운 음색의 변화를 유도한다.In the coarse level classification step (S 41 to S 46 of FIG. 4), two genres of relatively similar sound characteristics, that is, Western classical music and jazz, are first classified into four genres of music from an audio signal input for two seconds from the beginning. The query music is classified using the hip hop and the rock as the second classification, and the gain setting value is applied to the
상기 파인 레벨 분류 단계(도 4의 S 47 ~ S 49, S 45, S 46)에서는 상기 코어스 레벨 분류보다 세분화하여 6초간 입력되는 오디오 신호를 분석하여 재생되는 음악을 4개의 장르 중에서 어느 하나로 분류된다.In the fine level classification step (S 47 to S 49, S 45, and S 46 of FIG. 4), music reproduced by analyzing audio signals inputted for 6 seconds by subdividing the coarse level classification is classified into one of four genres. .
상기와 같이 각 코어스 레벨과 파인 레벨 분류에 대한 시험 결과, 제 1단계인 코어스 레벨에서의 상기 SVM 분류기는 2초 길이의 오디오 신호에 대해 38차의 특징 벡터를 이용하여 약 79.2%에 이르는 성공률을 보여 주었으며, 제 2단계인 파인 레벨에서의 상기 k-NN 분류기는 6초 길이의 오디오 데이터에 대해 66차 특징 벡터를 이용하여 81.67%의 성공률을 보여 주었다.As a result of the test for each coarse level and fine level classification as described above, the SVM classifier at the coarse level, which is the first stage, achieves a success rate of about 79.2% using a 38th order feature vector for a 2-second audio signal. The k-NN classifier at the second level, Fine level, showed a success rate of 81.67% using the 66th order feature vector for 6 seconds long audio data.
즉, 상기 이퀄라이저(100)에서는 음악 파일이 23ms의 프레임 단위로 나뉘어져 이퀄라이징 설정값이 적용된 후, 오버랩 가산(overlap add) 방식으로 재조립되어 출력되는데, 상기 분류부(300)에 의해 음악 파일이 재생되기 시작한 시점부터 이후로 6초간의 음악 데이터를 버퍼(320)에 저장하고, 코어스 레벨과 파인 레벨의 장르 분류에 필요한 연산을 순차적으로 한 후, 분류 결과를 이용하여 상기 설정부(390)를 통해 상기 이퀄라이저(100)의 필터링부(130)를 조정한다.That is, in the
이와 같은 과정을 통하여 코어스 레벨의 경우 분류 결과가 나오는데 평균적으로 약 0.7초가 걸렸고, 파인 레벨의 경우 약 1.1초의 시간이 걸렸는데, 최종적으로 2단계의 이퀄라이징이 처리되는데 소요된 시간은 2초 미만이었다.Through this process, it took about 0.7 seconds on average for the coarse level, and about 1.1 seconds for the fine level, but the time required for two-step equalization was less than 2 seconds.
그리고, 상기와 같이 오디오 시스템에서 음악이 재생되면, 각 장르에 알맞은 음색으로 출력하도록 상기 이퀄라이저(100)를 자동으로 설정하기 위해 4개의 음악 장르에 알맞은 이퀄라이저 설정을 정의해 주어야 하는데, 본 발명에서 사용한 음악 장르별 이퀄라이저 설정값은 윈엠프(WINAMP) 등과 같은 범용음악 재생 프로그램에서 설정한 값을 참고하여 표 1과 같이 설정하였다.In addition, when music is played in the audio system as described above, in order to automatically set the
표 1의 각 설정값들은 원본 음악 소스의 주파수 밴드별 진폭 크기에 곱해지는 이득(gain) 값들이다.Each of the settings in Table 1 is a gain value that is multiplied by the amplitude magnitude for each frequency band of the original music source.
여기서, 코어스 레벨의 경우 슬로우 비트(Slow Beat)와 패스트 비트(Fast Beat)로 장르를 구분하였으며, 이퀄라이저 설정값은 상기 슬로우 비트의 장르는 서양고전음악과 재즈의 평균값을 이용하였고, 상기 패스트 비트의 장르는 힙합과 록의 평균값을 이용하였다.Here, in the case of the coarse level, genres are divided into a slow beat and a fast beat, and an equalizer setting value is a slow beat genre using an average value of classical music and jazz. The genre uses the average of hip hop and rock.
한편, 본 발명에 따른 오디오의 자동 이퀄라이징 시스템은 실시간 구현을 위하여, 텍사스 인스트루먼트(TI; Texas Instruments)사의 DSP(TMS320C6713)를 이용하여 구성하였다.On the other hand, the automatic equalization system of the audio according to the present invention was configured using a Texas Instruments (TI) DSP (TMS320C6713) for real-time implementation.
상기 DSP는 225Mhz의 내부 클럭 주파수에서 동작을 하며, 초당 1350 MFLOPS(Million Floating-point Operations per second)의 부동소수점 및 1800MIPS(Million instructions per second)의 정수연산 능력을 가지고 있다.The DSP operates at an internal clock frequency of 225 MHz and has a floating point of 1350 Million Floating-point Operations per second (MFLOPS) and an integer arithmetic capability of 1800 Million instructions per second (MIPS).
상기 DSP를 이용하여 구현된 본 발명의 오디오의 자동 이퀄라이징 시스템이 탑재된 보드가 동작하도록 호스트 PC를 이용하여 프로그램을 작성한 후에, 그 프로그램을 상기 보드에 저장하였다.After a program was created using a host PC to operate a board equipped with an audio equalizing system of the present invention implemented using the DSP, the program was stored in the board.
상기 보드에 프로그램을 저장한 후, 저장된 프로그램을 이용, 상기 보드를 동작시켜 외부 오디오 기기로부터 오디오 신호를 입력받고, 입력된 오디오 신호로부터 상기 특징 벡터 추출부(340)에 의해 특징 벡터가 추출되면, 상기 판별부(360)는 데이터베이스(380)에 구축되어 있는 특징 벡터 테이블을 참고하여 유사한 특성을 가진 장르로 분류하여, 상기 표 1과 같은 장르별 이득(Gain) 값을 상기 설정부(390)를 통해 상기 이퀄라이저(100)의 필터링부(130)에 적용시켜 재생하게 한다.After storing the program on the board, using the stored program to operate the board to receive an audio signal from an external audio device, and when the feature vector is extracted by the feature
여기서, 상기 분류부(300)에 입력되는 오디오 신호가 44.1KHz인 경우에는 시스템의 과부하 방지와 효과적인 장르 분류를 위하여, 다운 샘플링부(310)를 이용하여, 필요한 최저의 샘플링주파수인 22.05KHz로 다운 샘플링 과정을 거쳐 입력하는 것이 바람직하다.Here, when the audio signal input to the
다시 말하면, 상기 이퀄라이저(100)는 도 6에 나타낸 바와 같이, 상기 입력버퍼(110)를 통하여 오디오 신호(input(N))가 입력되면(S 61), 고속 푸리에 변환(FFT)을 적용하여(S 62), FFT 처리된 데이터(FFT_input(N))를 필터링부(130)에 입력한다.In other words, as illustrated in FIG. 6, when the audio signal input (N) is input through the input buffer 110 (S 61), the
이때, 상기 오디오 신호는 각 주파수 대역별로 FFT 변환되어 저역(LPF_FFT), 중역(BPF_FFT), 고역(HPF_FFT)별로 분류되고(S 631 ~ S 633), 상기 분류부(300)에 의하여 음악의 장르가 결정되어 상기 설정부(390)를 통하여 각 밴드별로 설정된 저역 게인값(a), 중역 게인값(b), 고역 게인값(c)을 입력받아(S 634 ~ S 636), 설정한 후에(S 637), 이를 이용하여 오버랩 가산(overlap add) 방식으로 재조립된 후에(S 64, S 65), 역 FFT 변환되어(S 66) 출력된다.In this case, the audio signal is FFT-converted for each frequency band and classified into a low band (LPF_FFT), a mid band (BPF_FFT), and a high band (HPF_FFT) (S 631 to S 633). The low pass gain (a), the midrange gain (b), and the high pass gain (c) are determined through the
상기와 같이 이루어진 본 발명은 SFS 기법을 사용하여 시스템의 계산 복잡도를 줄여줌으로써 분류 성공률을 높여주며, MFC 기법을 적용하여 오디오 신호의 특징 벡터 데이터베이스를 구축함으로써 음악 질의의 위치에 상관없이 안정적인 이퀄라이징 성공률을 제공한다.According to the present invention as described above, the classification success rate is improved by reducing the computational complexity of the system using the SFS technique, and stable equalization success rate is achieved regardless of the position of the music query by constructing the feature vector database of the audio signal by applying the MFC technique. to provide.
그리고, 2분류의 이퀄라이징을 한 후에 4분류의 이퀄라이징을 함으로써 자연스러운 음색 변화를 유도할 수 있다.Then, after performing two classes of equalization, four kinds of equalization can be performed to induce a natural tone change.
또한, DSP를 이용하여 시스템을 구축함으로써, 시스템의 반응속도를 극대화할 수 있다.In addition, by building a system using a DSP, the response speed of the system can be maximized.
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050133557A KR20070070728A (en) | 2005-12-29 | 2005-12-29 | Automatic equalizing system of audio and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050133557A KR20070070728A (en) | 2005-12-29 | 2005-12-29 | Automatic equalizing system of audio and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20070070728A true KR20070070728A (en) | 2007-07-04 |
Family
ID=38505976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050133557A KR20070070728A (en) | 2005-12-29 | 2005-12-29 | Automatic equalizing system of audio and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20070070728A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100902030B1 (en) * | 2007-10-24 | 2009-06-15 | 주식회사 코원시스템 | Audio replaying apparatus and controlling method thereof |
WO2018034406A1 (en) * | 2016-08-19 | 2018-02-22 | 엘지전자 주식회사 | Mobile terminal and control method therefor |
KR101863272B1 (en) | 2018-01-31 | 2018-06-29 | 주식회사 이피이 | Connecting joint coated with high elongation elastic paint with temperature sensitive color change |
US10735119B2 (en) | 2013-09-06 | 2020-08-04 | Gracenote, Inc. | Modifying playback of content using pre-processed profile information |
KR102480265B1 (en) | 2022-04-14 | 2022-12-23 | 주식회사 지브이코리아 | Electronic apparatus for performing equalization according to genre of audio sound |
-
2005
- 2005-12-29 KR KR1020050133557A patent/KR20070070728A/en not_active Application Discontinuation
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100902030B1 (en) * | 2007-10-24 | 2009-06-15 | 주식회사 코원시스템 | Audio replaying apparatus and controlling method thereof |
US10735119B2 (en) | 2013-09-06 | 2020-08-04 | Gracenote, Inc. | Modifying playback of content using pre-processed profile information |
WO2018034406A1 (en) * | 2016-08-19 | 2018-02-22 | 엘지전자 주식회사 | Mobile terminal and control method therefor |
KR101863272B1 (en) | 2018-01-31 | 2018-06-29 | 주식회사 이피이 | Connecting joint coated with high elongation elastic paint with temperature sensitive color change |
KR102480265B1 (en) | 2022-04-14 | 2022-12-23 | 주식회사 지브이코리아 | Electronic apparatus for performing equalization according to genre of audio sound |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100832360B1 (en) | Method for controlling equalizer in digital media player and system thereof | |
KR101101384B1 (en) | Parameterized temporal feature analysis | |
JP5174009B2 (en) | System and method for automatically generating haptic events from digital audio signals | |
KR100472904B1 (en) | Digital Recorder for Selectively Storing Only a Music Section Out of Radio Broadcasting Contents and Method thereof | |
CN1992513B (en) | Effect adding method and effect adding apparatus | |
DE102012103553A1 (en) | AUDIO SYSTEM AND METHOD FOR USING ADAPTIVE INTELLIGENCE TO DISTINCT THE INFORMATION CONTENT OF AUDIOSIGNALS IN CONSUMER AUDIO AND TO CONTROL A SIGNAL PROCESSING FUNCTION | |
KR20090130833A (en) | System and method for automatically producing haptic events from a digital audio file | |
US7851688B2 (en) | Portable sound processing device | |
WO2011100802A1 (en) | Hearing apparatus and method of modifying or improving hearing | |
EP2133873A1 (en) | Audio information processing apparatus, audio information processing method and associated computer program | |
JP2002215195A (en) | Music signal processor | |
KR20070070728A (en) | Automatic equalizing system of audio and method thereof | |
US6673995B2 (en) | Musical signal processing apparatus | |
Buyens et al. | A stereo music preprocessing scheme for cochlear implant users | |
KR101406398B1 (en) | Apparatus, method and recording medium for evaluating user sound source | |
CN111415644A (en) | Audio comfort degree prediction method and device, server and storage medium | |
Herbst et al. | Guitar profiling technology in metal music production: public reception, capability, consequences and perspectives | |
US20210377662A1 (en) | Techniques for audio track analysis to support audio personalization | |
JP2023539121A (en) | Audio content identification | |
KR20110065972A (en) | Apparatus and method of stereophonic sound reproduction adapting for multimedia contents | |
JPH04251294A (en) | Sound image assigned position controller | |
Kim et al. | Car audio equalizer system using music classification and loudness compensation | |
US20090228475A1 (en) | Music search system, music search method, music search program and recording medium recording music search program | |
Schedin | Target Spectrums For Mastering: A comparison of spectral stylistic conventions between rock and vocal-based electronic music | |
CN112185325A (en) | Audio playing style adjusting method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |