KR100615522B1 - music contents classification method, and system and method for providing music contents using the classification method - Google Patents

music contents classification method, and system and method for providing music contents using the classification method Download PDF

Info

Publication number
KR100615522B1
KR100615522B1 KR1020050011668A KR20050011668A KR100615522B1 KR 100615522 B1 KR100615522 B1 KR 100615522B1 KR 1020050011668 A KR1020050011668 A KR 1020050011668A KR 20050011668 A KR20050011668 A KR 20050011668A KR 100615522 B1 KR100615522 B1 KR 100615522B1
Authority
KR
South Korea
Prior art keywords
music
feature vector
music content
content
audio
Prior art date
Application number
KR1020050011668A
Other languages
Korean (ko)
Other versions
KR20060091063A (en
Inventor
김회린
김성탁
강경옥
박철의
Original Assignee
한국정보통신대학교 산학협력단
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국정보통신대학교 산학협력단, 한국전자통신연구원 filed Critical 한국정보통신대학교 산학협력단
Priority to KR1020050011668A priority Critical patent/KR100615522B1/en
Publication of KR20060091063A publication Critical patent/KR20060091063A/en
Application granted granted Critical
Publication of KR100615522B1 publication Critical patent/KR100615522B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D25/00Details of other kinds or types of rigid or semi-rigid containers
    • B65D25/28Handles
    • B65D25/2882Integral handles
    • B65D25/2894Integral handles provided on the top or upper wall
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D21/00Nestable, stackable or joinable containers; Containers of variable capacity
    • B65D21/02Containers specially shaped, or provided with fittings or attachments, to facilitate nesting, stacking, or joining together
    • B65D21/0209Containers specially shaped, or provided with fittings or attachments, to facilitate nesting, stacking, or joining together stackable or joined together one-upon-the-other in the upright or upside-down position
    • B65D21/0224Auxiliary removable stacking elements other than covers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D1/00Containers having bodies formed in one piece, e.g. by casting metallic material, by moulding plastics, by blowing vitreous material, by throwing ceramic material, by moulding pulped fibrous material, by deep-drawing operations performed on sheet material
    • B65D1/02Bottles or similar containers with necks or like restricted apertures, designed for pouring contents
    • B65D1/0223Bottles or similar containers with necks or like restricted apertures, designed for pouring contents characterised by shape

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

본 발명은 음악 컨텐츠 분류 방법 그리고 이를 이용한 음악 컨텐츠 제공 시스템 및 그 방법에 관한 것이다. The present invention relates to a music content classification method, a music content providing system using the same, and a method thereof.

본 발명에서는 음악 컨텐츠들을 클래식, 팝, 블루스, 가곡 등 일반적인 음악적 카테고리에 따라 분류하는 것이 아니고, 음악 컨텐츠간의 유사도를 표현하는 보다 근본적인 방법으로 음악 컨텐츠를 음색(Timbre), 리듬(Rhythm), 무드(Mood) 등으로 분류한다. 그리고 이와 같이 분류된 음악 컨텐츠를 토대로 하여 사용자가 요청한 음악 컨텐츠뿐만 아니라 비슷한 음악적 특징을 가진 음악 컨텐츠들도 함께 제공한다. In the present invention, the music contents are not classified according to general musical categories such as classical, pop, blues, and songs, and the music contents are divided into timbre, rhythm, and mood in a more fundamental way to express the similarity between the music contents. Mood). In addition, based on the classified music contents, not only the music contents requested by the user, but also music contents having similar musical characteristics are provided together.

이러한 본 발명에 따르면 사용자에게 음악 컨텐츠를 다양하게 제공할 수 있으며, 또한 신뢰성을 가진 유사 음악 컨텐츠를 제공할 수 있다.  According to the present invention, it is possible to provide music contents to the user in various ways, and also to provide similar music contents with reliability.

음악컨텐츠, 내용기반 음악검색, 유사음악, 유사도, 특징벡터, 벡터양자화 Music Content, Content-based Music Search, Similar Music, Similarity, Feature Vector, Vector Quantization

Description

음악 컨텐츠 분류 방법 그리고 이를 이용한 음악 컨텐츠 제공 시스템 및 그 방법{music contents classification method, and system and method for providing music contents using the classification method}Music contents classification method, and system and method for providing music contents using the classification method}

도 1은 본 발명의 실시 예에 따른 음악 컨텐츠 제공 시스템의 전체 구조도이다. 1 is an overall structural diagram of a music content providing system according to an exemplary embodiment of the present invention.

도 2는 도 1에 도시된 사용자 단말기의 구조도이다. FIG. 2 is a structural diagram of the user terminal shown in FIG. 1.

도 3은 도 1에 도시된 각 서버의 상세 구조도이다. 3 is a detailed structural diagram of each server shown in FIG. 1.

도 4는 본 발명의 실시 예에 따른 음악 컨텐츠 분류 과정을 나타낸 흐름도이다. 4 is a flowchart illustrating a music content classification process according to an embodiment of the present invention.

도 5a 및 도 5b는 본 발명의 실시 예에 따른 음악 컨텐츠 제공 과정을 나타낸 흐름도이다. 5A and 5B are flowcharts illustrating a music content providing process according to an exemplary embodiment of the present invention.

본 발명은 음악 컨텐츠 제공 시스템에 관한 것으로 더욱 상세하게 말하자면, 음악 컨텐츠를 내용 기반으로 분류하고 그에 따라 네트워크를 통하여 접속하는 사용자들에게 음악 컨텐츠를 제공하는 시스템 및 그 방법에 관한 것이다. The present invention relates to a music content providing system. More specifically, the present invention relates to a system and a method for providing music content to users who classify the music content on a content-based basis and thereby access it through a network.

최근 데이터 압축기술, 인터넷, 그리고 방송기술의 발달로 개인이 접하고 보유할 수 있는 음악 컨텐츠의 양은 상상을 초월하고 있다. 하지만 사용자가 많은 양의 음악 컨텐츠들 중에서 원하는 곡을 텍스트 기반 검색방법을 이용하여 찾으려면 노래의 제목이나 가수를 미리 알고 있어야만 가능하다. 이에 대한 대안으로서 내용기반 검색 방법을 이용해서 원하는 곡을 제공하는 기술들이 꾸준히 연구되고 있다. 그러나 이러한 검색기술을 이용한 음악 컨텐츠 제공 서비스의 경우는 사용자가 찾고자 하는 음악과 동일한 음악 컨텐츠만을 제공한다. Recently, with the development of data compression technology, the Internet, and broadcasting technology, the amount of music content that individuals can access and possess is beyond imagination. However, in order to find a desired song from a large amount of music contents using a text-based search method, it is possible only if the user knows the title or singer of the song in advance. As an alternative, technologies for providing desired songs using content-based retrieval methods have been continuously studied. However, the music content providing service using the search technology provides only the same music content as the music that the user wants to find.

음악 컨텐츠들을 유사음악 컨텐츠들로 분류하는 방법은 크게 장르(Genre), 가수(Singer), 그리고 음악 자체의 특징으로 분류하는 방법이 있다.The method of classifying music contents into similar music contents is classified into genre, singer, and music itself.

음악을 장르별로 구별하는 방법은 음색(Timbre), 리듬(Rhythm), 피치(Pitch), 그리고 음성 인식 분야에서 많이 쓰이고 있는 MFCC(Mel-frequency cepstral coefficient)를 이용하고 있다. 하지만 음악 장르에 대한 명확한 정의가 불가능하여 음악을 장르별로 분류하여 사용자에게 서비스하기에 어려움이 있다. The method of distinguishing music by genre uses MFCC (Mel-frequency cepstral coefficient), which is widely used in the fields of timbre, rhythm, pitch, and speech recognition. However, since it is impossible to clearly define music genres, it is difficult to classify music by genres and provide services to users.

음악을 가수로 분류하는 방법으로는 주로 화자 인식에서 많이 사용하는 MFCC를 이용하고 GMM(Gaussian mixture model)을 사용하여 음악 컨텐츠를 가수별로 분류하는 연구가 되어 왔다. 이러한 방법들은 인식에 유용한 성분을 음성 신호로부터 뽑아내어 해당 음악의 특징으로 사용한다. 그러나 가수가 노래를 부를 때에 거의 항상 배경음악이 존재하기 때문에 배경음악과 가수의 음성 신호간의 간섭에 의하여 정확하게 특징을 추출하기 어려우며, 이에 따라 높은 성능을 기대하기 어려운 실정이다. As a method of classifying music into singers, a study has been conducted to classify music contents by singers using MFCC, which is mainly used for speaker recognition, and using GMM (Gaussian mixture model). These methods extract useful components from speech signals and use them as a feature of the music. However, since the background music is almost always present when the singer sings, it is difficult to accurately extract features due to the interference between the background music and the voice signal of the singer, and thus it is difficult to expect high performance.

마지막으로 음악 컨텐츠들을 장르나 가수로 분류하지 않고 음악 자체의 특성을 이용해서 분류하는 방법이 있다. 이 방법에서 사용되는 정보는 장르별로 분류할 때 사용되는 정보들뿐만 아니라 비트(Beat)나 템포(Temp)등의 정보들도 이용한다. 이러한 분류 방법들은 짧은 사용자 쿼리(query)를 이용해서 유사 음악들을 검색하는 경우, 사용자 쿼리로부터 해당 음악의 비트나 템포 등을 확인하기 용이하지 않으므로 음악 전체에 대한 유사성을 구하기가 어렵다. 따라서 신뢰성이 높은 유사 음악 제공 서비스를 하기가 어려우며, 또한 현재까지 짧은 사용자 쿼리를 이용해서 유사음악을 제공하는 서비스는 없었다.Finally, there is a method of classifying music contents using characteristics of the music itself rather than classifying them into genres or singers. The information used in this method uses not only information used when classifying by genre, but also information such as beat or tempo. These classification methods, when searching for similar songs using a short user query, it is difficult to determine the beat or tempo of the music from the user query, it is difficult to find the similarity for the entire music. Therefore, it is difficult to provide a similar music providing service with high reliability, and there has been no service providing similar music using a short user query.

그러므로, 본 발명이 이루고자 하는 기술적 과제는 음악 컨텐츠들을 소정 특징들을 토대로 유사성을 가지는 컨텐츠들로 분류하고자 하는데 있다. Therefore, a technical problem of the present invention is to classify music contents into contents having similarities based on certain characteristics.

또한 본 발명이 이루고자 하는 기술적 과제는 이와 같이 분류되는 음악 컨텐츠들을 토대로 사용자들에게 내용기반 음악 검색 방법과 연계하여 신뢰성이 높은 유사 음악 컨텐츠를 제공하고자 하는데 있다. In addition, the technical problem to be achieved by the present invention is to provide highly reliable similar music content to users in connection with the content-based music search method based on the music content classified as described above.

이러한 기술적 과제를 달성하기 위한 본 발명의 특징에 따른 음악 컨텐츠 분류 방법은 상기 음악 컨텐츠를 구성하는 오디오 데이터로부터 해당 음악 컨텐츠의 특징을 나타내는 특징 벡터를 추출하는 단계; 상기 특징 벡터를 양자화하는 단계; 및 상기 양자화된 값을 토대로 상기 음악 컨텐츠를 분류하는 단계를 포함하고, 상기 특징 벡터는 음색 특징 벡터, 리듬 특징 벡터, 무드 특징 벡터 중 적어도 하나 를 포함한다. According to another aspect of the present invention, there is provided a method for classifying music contents, comprising: extracting a feature vector representing a feature of a corresponding music content from audio data constituting the music content; Quantizing the feature vector; And classifying the music content based on the quantized value, wherein the feature vector includes at least one of a tone feature vector, a rhythm feature vector, and a mood feature vector.

본 발명의 다른 특징에 따른 음악 컨텐츠 제공 방법은 네트워크를 통하여 사용자 단말기로 음악 컨텐츠를 제공하는 시스템의 컨텐츠 제공 방법에 있어서, a) 상기 사용자 단말기로부터 오디오 쿼리가 전달되면, 상기 시스템이 오디오 쿼리를 구성하는 오디오 데이터로부터 특징 벡터를 추출하는 단계; b) 상기 시스템이 특징 벡터를 양자화하는 단계; c) 상기 양자화된 오디오 쿼리의 특징 벡터 관련 정보를 토대로 음악 컨텐츠가 특징 벡터를 토대로 하는 그룹별로 저장되어 있는 서비스 데이터베이스를 검색하여, 상기 오디오 쿼리에 해당하는 음악 컨텐츠, 상기 음악 컨텐츠와 관련된 유사 음악 컨텐츠를 검색하는 단계; 및 d) 상기 검색된 서버로부터 제공되는 오디오 쿼리에 해당하는 음악 컨텐츠, 유사 음악 컨텐츠 중 적어도 하나를 포함하는 검색 정보를 상기 사용자 단말기로 전달하는 단계를 포함한다. According to another aspect of the present invention, there is provided a content providing method of a system for providing music content to a user terminal through a network, the method comprising: a) if an audio query is transmitted from the user terminal, the system constructs an audio query. Extracting a feature vector from the audio data; b) the system quantizing a feature vector; c) searching a service database in which music contents are stored for each group based on the feature vector based on the feature vector related information of the quantized audio query, and the music content corresponding to the audio query and similar music content related to the music content Searching for; And d) transmitting search information including at least one of music content corresponding to an audio query provided from the searched server and similar music content to the user terminal.

또한 본 발명의 다른 특징에 따른 음악 컨텐츠 제공 시스템은 네트워크를 통하여 사용자 단말기로 음악 컨텐츠를 제공하는 시스템에서, 제공되는 음악 컨텐츠들이 특징 벡터를 토대로 하는 그룹별로 분류되어 저장되어 있는 서비스 데이터베이스; 음악 컨텐츠를 구성하는 오디오 데이터로부터 특징 벡터를 추출하고, 추출된 특징 벡터를 양자화하고 그 값에 따라 소정 그룹으로 분류하는 분류 처리 서버; 인가되는 오디오 쿼리의 특징 벡터 관련 정보를 토대로 상기 음악 서비스 데이터베이스를 검색하여, 상기 오디오 쿼리에 해당하는 음악 컨텐츠, 상기 음악 컨텐츠와 관련된 유사 음악 컨텐츠를 검색하는 검색 서버; 상기 사용자 단말기로부터 전달되는 오디오 쿼리를 상기 검색 서버로 전달하고, 상기 검색 서버로부터 제공되는 오디오 쿼리에 해당하는 음악 컨텐츠, 유사 음악 컨텐츠 중 적어도 하나를 포함하는 검색 정보를 상기 사용자 단말기로 전달하는 정보 제공 서버를 포함한다. In addition, the music content providing system according to another aspect of the present invention is a system for providing music content to a user terminal through a network, a service database in which provided music contents are classified and stored in groups based on a feature vector; A classification processing server for extracting feature vectors from audio data constituting music contents, quantizing the extracted feature vectors, and classifying the extracted feature vectors into predetermined groups according to their values; A search server that searches the music service database based on the feature vector related information of an applied audio query, and searches for music contents corresponding to the audio query and similar music contents related to the music contents; Providing information to deliver the search information including at least one of music content and similar music content corresponding to the audio query provided from the search server to the search server, the audio query transmitted from the user terminal to the search server; Include a server.

여기서 상기 사용자 단말기는 음악 컨텐츠가 저장되는 컨텐츠 저장부; 상기 음악 컨텐츠가 재생되는 재생부; 상기 음악 컨텐츠 관련 정보가 표시되는 인터페이스부; 상기 재생부에 의하여 재생되거나 상기 인터페이스부를 통하여 표시되는 음악 컨텐츠에 대한 오디오 쿼리를 생성하여 상기 시스템으로 전달하는 쿼리 처리부; 및 상기 시스템으로부터 전달되는 검색 정보에 포함된 음악 컨텐츠를 수신하여 상기 컨텐츠 저장부, 재생부, 인터페이스부 중 적어도 하나로 선택적으로 제공하는 컨텐츠 관리부를 포함할 수 있다. The user terminal may include a content storage unit for storing music contents; A playback unit for playing the music contents; An interface unit displaying the music content related information; A query processing unit for generating an audio query for music content reproduced by the playback unit or displayed through the interface unit and transmitting the generated audio query to the system; And a content management unit receiving music content included in search information transmitted from the system and selectively providing the music content to at least one of the content storage unit, the playback unit, and the interface unit.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 가장 바람직한 실시 예를 첨부된 도면을 참조로 하여 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.

본 발명의 실시 예에서는 음악 컨텐츠들을 클래식, 팝, 블루스, 가곡 등 일반적인 음악적 카테고리에 따라 분류하는 것이 아니고, 음악 컨텐츠를 직접 이용하여 음색(Timbre), 리듬(Rhythm), 무드(Mood) 등으로 음악 컨텐츠들을 분류한다. In an embodiment of the present invention, music contents are not classified according to general musical categories such as classical, pop, blues, and songs, but are directly divided into music using timbres, rhythms, moods, and the like. Classify the contents.

그리고 이와 같이 분류된 음악 컨텐츠들을 토대로 하여 사용자가 요청한 음악 컨텐츠뿐만 아니라 비슷한 음악적 특징을 가진 유사 음악 컨텐츠들을 함께 제공한다. In addition, based on the classified music contents, not only the music contents requested by the user but also similar music contents having similar musical characteristics are provided together.

도 1에 이러한 본 발명의 실시 예에 따른 음악 컨텐츠 제공 시스템의 개략도 가 도시되어 있으며, 도 2 및 도 3에 도 1에 도시된 사용자 단말기 및 각 서버의 구체적인 구조가 도시되어 있다. FIG. 1 is a schematic diagram of a music content providing system according to an exemplary embodiment of the present invention, and FIGS. 2 and 3 illustrate specific structures of the user terminal and each server shown in FIG. 1.

본 발명의 실시 예에 따른 음악 컨텐츠 제공 시스템(100)은 인터넷 등의 네트워크(200)를 통하여 사용자들에게 음악 컨텐츠를 제공하기 위한 것으로, 첨부한 도 1에 도시되어 있듯이, 네트워크(200, 전화망, 인터넷, 무선 통신망 등 다양한 형태의 모든 네트워크를 포함)를 통하여 다수의 사용자 단말기(310, 320,330..., 이하 편의를 위하여 "300"으로 총칭함)에 연결되어 있다. Music content providing system 100 according to an embodiment of the present invention for providing music content to users through a network 200, such as the Internet, as shown in Figure 1, the network 200, telephone network, And a plurality of user terminals 310, 320, 330..., Hereinafter referred to collectively as "300" for convenience.

사용자 단말기(300)는 네트워크(200)를 통하여 시스템(100)에 접속할 수 있는 통신 장치이며, 예를 들어, 유선 전화, 이동 통신 단말기, 컴퓨터, 인터넷 접속 가능한 TV 등의 다양한 통신 장치가 사용될 수 있다. 따라서 사용자는 PC 통신, 인터넷, 무선 인터넷, 전화망 등을 이용하여 편리하고 신속하게 시스템(100)에 접속할 수 있다. 사용자들은 단말기(300)를 통하여 시스템(100)으로 보거나 듣고 있는 음악 컨텐츠의 정보와 원곡을 요청할 수 있으며, 사용자에 의하여 입력되는 쿼리(오디오 쿼리)는 단말기(300)를 통하여 시스템(100)으로 전송된다. The user terminal 300 is a communication device that can be connected to the system 100 through the network 200. For example, various communication devices such as a wired telephone, a mobile communication terminal, a computer, and a TV with Internet access may be used. . Therefore, the user can conveniently and quickly access the system 100 using PC communication, the Internet, the wireless Internet, a telephone network, and the like. Users may request information and original music information of the music content being viewed or listened to by the system 100 through the terminal 300, and a query (audio query) input by the user is transmitted to the system 100 through the terminal 300. do.

이를 위하여 사용자 단말기(300)는 도 2에 도시되어 있듯이, 다수의 음악 컨텐츠가 저장되어 있는 컨텐츠 저장부(310), 음악 컨텐츠를 재생하는 재생부(320), 사용자와의 인터페이스부(330), 상기 인터페이스부(330)를 통하여 입력되는 사용자의 요청에 따라 재생되는 음악 컨텐츠 또는 사용자에 의하여 선택된 음악 컨텐츠에 해당하는 오디오 쿼리를 시스템(100)으로 전송하는 쿼리 처리부(340), 시스템(100)으로 전달되는 검색 정보를 컨텐츠 저장부(310)에 저장하는 컨텐츠 관리부(350)를 포함한다. 여기서 "오디오 쿼리"는 음악 컨텐츠를 구성하는 오디오 데이터일 수 있으며, 또는 음악 컨텐츠에 대한 관련 정보일 수도 있다. 예를 들어, 사용자가 시스템(100)으로부터 제공받은 소정 음악 컨텐츠에 대하여 상세 정보를 알고 싶은 경우에는 상기 단말기(300)가 음악 컨텐츠를 시스템(100)으로부터 전송받은 시간 정보, 또는 컨텐츠 식별 정보를 포함하는 오디오 쿼리를 구성하여 시스템(100)으로 전송한다. 또는 시스템(100)에서 제공받지 않은 음악 컨텐츠인 경우에는 상기 음악 컨텐츠의 오디오 데이터를 오디오 쿼리로 구성하여 시스템(100)으로 전송한다. 여기서 인터페이스부(330)는 LCD 등의 표시 장치, 키보드 등의 입력 장치, 스피커 등의 음악 컨텐츠 재생 장치, 마이크 등을 포함할 수 있다. To this end, as illustrated in FIG. 2, the user terminal 300 includes a content storage unit 310 storing a plurality of music contents, a playback unit 320 for playing music contents, an interface unit 330 with a user, To the query processing unit 340 and the system 100, which transmits an audio query corresponding to a music content played according to a user's request input through the interface unit 330 or a music content selected by the user to the system 100. And a content manager 350 that stores the delivered search information in the content storage 310. Here, the "audio query" may be audio data constituting music content or related information about music content. For example, when the user wants to know detailed information about predetermined music content provided from the system 100, the terminal 300 includes time information or content identification information when the music content is transmitted from the system 100. An audio query is constructed and transmitted to the system 100. Alternatively, when the music content is not provided by the system 100, audio data of the music content is configured as an audio query and transmitted to the system 100. The interface unit 330 may include a display device such as an LCD, an input device such as a keyboard, a music content playback device such as a speaker, a microphone, and the like.

이러한 사용자 단말기(300)에 연결되어 다수의 사용자들에게 음악 컨텐츠를 제공하는 시스템(100)은, 도 3에 도시되어 있듯이, 정보 제공 서버(10), 검색 서버(20), 분류 처리 서버(30), 및 데이터베이스 서버(40)를 포함한다. The system 100 connected to the user terminal 300 and providing music contents to a plurality of users is, as shown in FIG. 3, an information providing server 10, a search server 20, and a classification processing server 30. ), And a database server 40.

데이터베이스 서버(40)에는 음악 컨텐츠 제공을 위한 다수의 정보가 저장되어 있으며, 구체적으로, 시스템에서 제공 가능한 음악 컨텐츠들이 본 발명에 따른 분류 방법에 따라 분류되어 저장되어 있는 서비스 데이터베이스(41), 사용자별로 제공된 음악 컨텐츠에 대한 정보가 저장되어 있는 서비스 처리 데이터베이스(42)를 포함하며, 이외에도 사용자의 ID, 연락처 등의 정보가 저장되는 별도의 데이터베이스를 더 포함할 수도 있다. 한편 서비스 처리 데이터베이스(42)에는 시간대별로 사용자에게 제공된 음악 컨텐츠, 또는 사용자별로 제공된 음악 컨텐츠 등의 음악 컨텐츠 제공 서비스가 어떻게 처리되었는지에 관한 정보가 저장될 수 있다. The database server 40 stores a plurality of pieces of information for providing music contents. Specifically, the service database 41 for storing music contents that can be provided by the system is classified and stored according to the classification method according to the present invention, for each user. The service processing database 42 may store information on the provided music content, and may further include a separate database in which information such as a user's ID and contact information is stored. Meanwhile, the service processing database 42 may store information on how a music content providing service such as music content provided to the user for each time zone or music content provided for each user is processed.

정보 제공 서버(10)는 사용자 단말기(300)로부터 전송되는 오디오 쿼리를 검색 서버(20)로 전달하고, 이후 검색 서버(20)에 의하여 검색된 컨텐츠를 포함하는 검색 정보를 해당 사용자 단말기(300)로 전송한다. 검색 정보에는 사용자 요청한 음악 컨텐츠, 상기 요청한 음악 컨텐츠와 유사한 특징을 가지는 유사 음악 컨텐츠, 각 음악 컨텐츠에 대한 작곡자, 작사, 가수 등의 컨텐츠 관련 정보가 선택적으로 포함될 수 있다. The information providing server 10 transmits an audio query transmitted from the user terminal 300 to the search server 20, and thereafter, the search information including the content searched by the search server 20 is transmitted to the corresponding user terminal 300. send. The search information may selectively include content related information such as music contents requested by the user, similar music contents having characteristics similar to the requested music contents, composers, lyrics, and singers for each music contents.

검색 서버(20)는 정보 제공 서버로부터 전달되는 오디오 쿼리를 토대로 해당 음악 컨텐츠 및 관련 정보의 검색을 수행한다. 특히 검색 서버(20)는 오디오 쿼리가 오디오 데이터인 경우에는 해당 오디오 쿼리를 분류 처리 서버(30)로 전달하여 특징 벡터 추출 및 양자화 과정을 거치도록 하고, 이에 따라 분류 처리 서버(30)로부터 제공되는 특징 벡터 관련 정보를 토대로 하여 데이터베이스 서버(40)내에서 음악 컨텐츠들을 검색한다. 또는 상기 오디오 쿼리가 컨텐츠 관련 정보인 경우에는 상기 정보를 토대로 서비스 데이터베이스(41) 및 서비스 처리 데이터베이스(42)를 검색하여, 상기 정보에 해당하는 음악 컨텐츠를 찾고 상기 찾아진 음악 컨텐츠와 동일하게 분류된 유사 음악 컨텐츠를 검색한다. 이를 위하여 검색 서버(20)는 오디오 쿼리가 어떠한 종류인지를 판단하는 쿼리 판단부(21), 전달되는 검색값을 토대로 위에 기술된 바와 같이 검색을 수행하는 검색부(22)를 포함할 수 있다. 여기서 검색값은 오디오 쿼리에 포함된 컨텐츠 관련 정보일 수도 있고, 분류 처리 서버(30)로부터 전달되는 특징 벡터 관련 정보일 수도 있다. 그리고 특징 벡터 관련 정보는 각 특징 벡터가 양자화된 값, 상기 양자화값에 따라 분류된 그룹의 식별값 등일 수 있다. The search server 20 searches for the music content and related information based on the audio query transmitted from the information providing server. In particular, when the audio query is audio data, the search server 20 transmits the corresponding audio query to the classification processing server 30 to perform feature vector extraction and quantization, and thus is provided from the classification processing server 30. The music contents are searched in the database server 40 based on the feature vector related information. Alternatively, when the audio query is content related information, the service database 41 and the service processing database 42 are searched based on the information to find music content corresponding to the information, and classified into the same as the found music content. Search for similar music content. To this end, the search server 20 may include a query determination unit 21 for determining what kind of audio query is used, and a search unit 22 for performing a search as described above based on the transferred search value. The search value may be content related information included in an audio query or feature vector related information transmitted from the classification processing server 30. The feature vector related information may be a quantized value of each feature vector, an identification value of a group classified according to the quantization value, and the like.

분류 처리 서버(30)는 시스템(100)에서 제공 가능한 모든 음악 컨텐츠들을 분류하고, 분류된 음악 컨텐츠들을 데이터베이스 서버(40)에 저장하여 검색 서버(20)에 의한 컨텐츠 검색이 용이하게 이루어지도록 한다. 이를 위하여, 분류 처리 서버(30)는 음악 컨텐츠들을 음색(Timbre), 리듬(Rhythm), 그리고 무드(Mood)에 따라 분류하는 제1 분류부(31), 제2 분류부(32) 및 제3 분류부(33)를 각각 포함한다. The classification processing server 30 classifies all the music contents that can be provided by the system 100 and stores the classified music contents in the database server 40 so that content search by the search server 20 can be easily performed. To this end, the classification processing server 30 classifies the music contents according to the timbre, the rhythm, and the mood, the first classifying unit 31, the second classifying unit 32, and the third classifying unit 32. Each of the classification unit 33 is included.

각각의 분류부(31∼33)는 음악 컨텐츠로부터 해당하는 특징 벡터를 추출하고 이를 양자화한 후, 양자화된 값을 토대로 하여 음악 컨텐츠를 분류한다. 즉, 각각의 분류부(31∼33)는 음악 컨텐츠로부터 해당 특징 벡터(예: 음색 특징 벡터, 리듬 특징 벡터, 무드 특징 벡터)를 추출하는 추출 모듈(311,321,331), 추출 모듈로부터 추출된 특징 벡터를 양자화 하는 양자화 모듈(312,322,332), 양자화된 값을 이용하여 음악 컨텐츠를 분류하는 분류 모듈(313,323,333)을 포함한다. Each classifying unit 31 to 33 extracts a corresponding feature vector from the music content, quantizes it, and classifies the music content based on the quantized value. That is, each of the classification units 31 to 33 extracts the extraction modules 311, 321 and 331 for extracting a corresponding feature vector (eg, a tone feature vector, a rhythm feature vector, and a mood feature vector) from the music content, and the feature vectors extracted from the extraction module. A quantization module 312, 322, 332 for quantization, and a classification module 313, 323, 333 for classifying music contents using quantized values are included.

이와 같이 이루어지는 본 발명의 실시 예에 따른 음악 컨텐츠 제공 시스템에서, 각 서버(10∼40)들은 그 기능상 분류된 것으로 이에 한정되지 않으며, 다양한 변경이 가능하다. 또한, 각 서버의 구성 요소들은 필요에 따라 선택적으로 포함될 수 있으며, 각 구성 요소들도 각각 독립적인 서버로서 구현되어 해당 기능을 처리할 수도 있다. 예를 들어, 위에서는 검색 서버에 쿼리 판단부가 포함되는 것으로 구현되었지만, 상기 쿼리 판단부가 정보 제공 서버내에 구현될 수도 있다. 또한, 데이터베이스들도 위에 기술된 바와 같이 분류되는 것으로 한정되지 않는다. In the music content providing system according to the exemplary embodiment of the present invention, the servers 10 to 40 are classified in terms of their functions, and the present disclosure is not limited thereto. In addition, components of each server may be selectively included as needed, and each component may also be implemented as an independent server to process a corresponding function. For example, in the above, the query determining unit is implemented to be included in the search server, but the query determining unit may be implemented in the information providing server. In addition, databases are not limited to being classified as described above.

다음에는 위에 기술된 바와 같은 구조를 토대로 하여 본 발명이 실시 예에 따른 음악 컨텐츠 분류 및 제공 방법에 대하여 설명한다. Next, a music content classification and providing method according to an embodiment of the present invention will be described based on the structure as described above.

먼저, 음악 컨텐츠를 분류하는 방법에 대하여 설명한다. First, a method of classifying music contents will be described.

도 4에 본 발명의 실시 예에 따른 음악 컨텐츠 분류 과정이 도시되어 있다. 4 shows a music content classification process according to an embodiment of the present invention.

음악 컨텐츠 분류 과정은 분류 처리 서버(30)에서 이루어진다. 먼저, 도 4에 도시되어 있듯이, 분류 처리 서버(30)는 음악 컨텐츠를 각 분류부(31∼33)로 전달하여 특징 벡터 추출 및 양자화가 이루어지도록 하며, 각 분류부(31∼33)는 음악 컨텐츠의 오디오 데이터를 토대로 분류 과정을 수행한다(S100∼S110). The music content classification process is performed in the classification processing server 30. First, as shown in FIG. 4, the classification processing server 30 delivers the music contents to each of the classification units 31 to 33 to perform feature vector extraction and quantization, and each classification unit 31 to 33 provides music. A classification process is performed based on the audio data of the contents (S100 to S110).

구체적으로, 제1 분류부(31)의 추출 모듈(311)은 인가되는 오디오 데이터로부터 음색 특징 벡터를 추출한다. 음색 특징 벡터로는 스펙트럴 센트로이드(Spectral Centroid), 스펙트럴 롤오프(Spectral Rolloff), 스펙트럴 플럭스(Spectral Flux), 제로 크로싱 레이트(Zero Crossing Rate), 멜프리컨시 캡스트럴 계수(Mel-Frequency Cepstral Coefficients) 등이 포함된다(S120). 여기서 스펙트럴 센트로이드는 신호를 주파수 영역으로 표현하였을 때 주파수 성분들의 중심값을 나타내고, 스펙트럴 롤오프는 주파수 성분들의 85%를 포함하는 주파수 범위를 나타낸다. 그리고 스펙트럴 플럭스는 인접프레임의 주파수 성분들의 차를 제곱하여 합한 값을 나타내고, 제로크로싱 레이트는 신호의 값이 양수와 음수로 교차되는 정도를 나타내며, 멜프리컨시 캡스트럴 계수는 음성 인식에서 많이 사용되는 특징 벡터로써 소정의 과정을 거쳐 스펙트럼을 기반으로 인간의 청각 특성을 나타내는 특징 벡터이다. In detail, the extraction module 311 of the first classifying unit 31 extracts a tone feature vector from audio data to be applied. Tone feature vectors include: Spectral Centroid, Spectral Rolloff, Spectral Flux, Zero Crossing Rate, and Mel- plicity Captral Coefficient. Frequency Cepstral Coefficients) and the like are included (S120). Here, the spectral centroid represents the center value of the frequency components when the signal is expressed in the frequency domain, and the spectral rolloff represents a frequency range including 85% of the frequency components. The spectral flux represents the sum of squared differences between the frequency components of adjacent frames, the zero crossing rate represents the degree to which the signal values cross positive and negative, and the melprecipitation capsular coefficient is used for speech recognition. As a feature vector that is widely used, it is a feature vector representing human auditory characteristics based on a spectrum through a predetermined process.

추출 모듈(311)에 의하여 상기 음악 컨텐츠에 대한 음색 특징 벡터가 추출되 면, 양자화 모듈(312)은 추출된 각 음색 특징 벡터를 양자화한다(S130). 따라서 추출된 각 음색 특징 벡터별로 양자화에 따른 양자화값이 산출된다. 이후 분류 모듈(313)은 산출된 음색 특징 벡터의 양자화값을 토대로 해당 음악 컨텐츠가 어떠한 그룹에 해당하는지를 판단하여 상기 음악 컨텐츠를 소정 그룹으로 분류한다(S140). 상기 그룹들은 음색 특징 벡터의 양자화값에 따라 분류되는 것이다. When the tone feature vector for the music content is extracted by the extraction module 311, the quantization module 312 quantizes each extracted tone feature vector (S130). Accordingly, a quantization value according to quantization is calculated for each extracted tone feature vector. Thereafter, the classification module 313 determines which group the music content corresponds to based on the calculated quantization value of the tone feature vector and classifies the music content into a predetermined group (S140). The groups are classified according to quantization values of the tone feature vectors.

한편 제2 분류부(32)도 인가되는 오디오 데이터를 토대로 상기 음악 컨텐츠에 대한 분류 작업을 수행한다. 즉, 추출 모듈(321)에 의하여 상기 음악 컨텐츠에 대한 리듬 특징 벡터가 추출되며, 여기서 리듬 특징 벡터는 큰 에너지 신호가 가지는 각기 다른 주기를 히스토그램으로 표현한 비트 히스토그램(Beat Histogram)을 포함한다. 이후 양자화 모듈(322)이 추출된 리듬 특징 벡터를 양자화하고 분류 모듈(323)이 양자화값에 따라 상기 음악 컨텐츠를 소정 그룹으로 분류한다(S150∼S170). Meanwhile, the second classifier 32 also classifies the music content based on the applied audio data. That is, the rhythm feature vector for the music content is extracted by the extraction module 321, where the rhythm feature vector includes a beat histogram representing different periods of a large energy signal in histogram. Thereafter, the quantization module 322 quantizes the extracted rhythm feature vector, and the classification module 323 classifies the music content into a predetermined group according to the quantization value (S150 to S170).

또한 제3 분류부(33)도 인가되는 오디오 데이터를 토대로 상기 음악 컨텐츠에 대한 분류 작업을 수행한다. 즉, 추출 모듈(331)에 의하여 상기 음악 컨텐츠에 대한 무드 특징 벡터가 추출되며, 여기서 무드 특징 벡터는 일정 시간 동안 낮은 에너지를 가지는 신호의 비율을 나타내는 평균 묵음 비율(Average Silence Ratio)을 포함한다. 이후 양자화 모듈(332)이 추출된 무드 특징 벡터를 양자화하고 분류 모듈(333)이 양자화값에 따라 상기 음악 컨텐츠를 소정 그룹으로 분류한다(S180∼S200). In addition, the third classifying unit 33 also classifies the music content based on the applied audio data. That is, the mood feature vector for the music content is extracted by the extraction module 331, where the mood feature vector includes an average silence ratio representing a ratio of a signal having a low energy for a predetermined time. Thereafter, the quantization module 332 quantizes the extracted mood feature vector, and the classification module 333 classifies the music content into a predetermined group according to the quantization value (S180 to S200).

위에 기술된 바와 같이 하나의 음악 컨텐츠는 음색 특징 벡터, 리듬 특징 벡 터, 무드 특징 벡터를 토대로 하여 각기 다른 그룹으로 분류될 수 있으며, 이러한 방법에 따라 시스템에서 제공되는 모든 음악 컨텐츠들이 분류된다. As described above, one music content may be classified into different groups based on a tone feature vector, a rhythm feature vector, and a mood feature vector, and according to this method, all music contents provided by the system are classified.

이와 같이 분류되는 음악 컨텐츠들에 대한 정보는 서비스 데이터베이스(41)에 저장된다. 예를 들어 서비스 데이터베이스에 음색 특징 벡터를 토대로 한 그룹별로 컨텐츠 식별 번호에 대응하여 음악 컨텐츠, 해당 음색 특징 벡터의 양자화값 등이 각각 저장될 수 있다. 또한 리듬 특징 벡터를 토대로 한 그룹별로 컨텐츠 식별 번호에 대응하여 음악 컨텐츠, 음악 컨텐츠의 리듬 특징 벡터의 양자화값 등이 각각 저장될 수 있다. 또한 무드 특징 벡터를 토대로 한 그룹별로 컨텐츠 식별 번호에 대응하여 음악 컨텐츠, 음악 컨텐츠의 무드 특징 벡터의 양자화값 등이 각각 저장될 수 있다. 이 경우, 각 특징 벡터의 그룹별로 해당 그룹에 포함하는 각 벡터들의 양자화값 범위, 해당 그룹의 식별값 등이 함께 저장되어, 이후 사용자로부터 제공되는 오디오 쿼리의 특징 벡터 관련 정보가 상기 양자화값 범위에 포함되는지의 여부에 따라 또는 특징 벡터 관련 정보에 따른 그룹의 식별값과 동일한 그룹에 속하는지의 여부에 해당 음악 컨텐츠 및 유사 음악 컨텐츠 검색이 이루어질 수 있다. 그러나 위에 기술된 바와 같이 특징 벡터별로 분류 가능한 음악 컨텐츠가 서비스 데이터베이스(41)에 저장되는 구조는 이것에 한정되지 않는다. Information about the music contents classified as described above is stored in the service database 41. For example, music content, a quantization value of the corresponding tone feature vector, and the like may be stored in the service database corresponding to the content identification number for each group based on the tone feature vector. In addition, the music content and the quantization value of the rhythm feature vector of the music content may be stored in correspondence with the content identification number for each group based on the rhythm feature vector. In addition, the music content and the quantized value of the mood feature vector of the music content may be stored in correspondence with the content identification number for each group based on the mood feature vector. In this case, the quantization value range of each vector included in the corresponding group, the identification value of the corresponding group, etc. are stored together for each group of the feature vectors, and the feature vector related information of the audio query provided from the user is stored in the quantization value range. The music content and the similar music content search may be performed depending on whether it is included or whether it belongs to the same group as the identification value of the group according to the feature vector related information. However, as described above, the structure in which music contents that can be classified by feature vectors is stored in the service database 41 is not limited to this.

한편 위의 분류 과정에서, 각 특징 벡터별로 그룹화된 음악 컨텐츠에 대한 그룹화 리스트를 작성하고, 각 그룹화 리스트를 서비스 데이터베이스(41)에 저장한 후, 이후 검색시 상기 그룹화 리스트를 토대로 하여 사용자로부터 제공된 오디오 쿼리에 포함되는 음악 컨텐츠를 찾을 수도 있다. Meanwhile, in the above classification process, a grouping list for music contents grouped by each feature vector is created, and each grouping list is stored in the service database 41, and then audio is provided from the user based on the grouping list in a subsequent search. You can also find music content included in a query.

또한 본 발명에 따른 분류 처리 서버(30)는 새로이 추가되는 음악 컨텐츠의 수가 특정 기준을 초과하면, 서비스 정보 데이터베이스에 저장된 분류 정보를 업데이트 하여, 그 유사 음악 컨텐츠 분류 정보를 저장한다.In addition, when the number of newly added music contents exceeds a specific criterion, the classification processing server 30 according to the present invention updates the classification information stored in the service information database and stores the similar music content classification information.

본 발명의 실시 예에 따른 음악 컨텐츠 제공 시스템(100)은 위와 기술된 바와 같이 분류되는 음악 컨텐츠를 토대로 하여, 사용자들에게 소정의 음악 컨텐츠를 제공한다. The music content providing system 100 according to an exemplary embodiment of the present invention provides predetermined music contents to users based on the music contents classified as described above.

다음에는 본 발명의 실시 예에 따른 음악 컨텐츠 제공 방법에 대하여 설명한다. Next, a music content providing method according to an exemplary embodiment of the present invention will be described.

도 5a 및 도 5b는 본 발명의 실시 예에 따른 음악 컨텐츠 제공 과정을 나타낸 흐름도이다. 5A and 5B are flowcharts illustrating a music content providing process according to an exemplary embodiment of the present invention.

첨부한 도 5a에 도시되어 있듯이, 사용자는 자신의 단말기(300)에 저장되어 재생되는 음악 컨텐츠에 대한 원곡을 제공받고자 하거나 또는 상기 음악 컨텐츠 관련 정보를 제공받고자 하는 경우, 본 발명의 실시 예에 따른 시스템으로 접속한다. As shown in FIG. 5A, when a user wants to be provided with an original song for music content stored and reproduced in his terminal 300 or the music content related information, the user according to an embodiment of the present invention. Connect to the system.

즉, 단말기(300)의 컨텐츠의 저장부(310)에 저장된 음악 컨텐츠가 재생부(320)의 제어에 따라 인터페이스부(330)를 통하여 재생되고 있는 경우, 또는 상기 음악 컨텐츠에 대한 정보가 인터페이스부(330)를 통하여 표시되고 있는 경우, 사용자는 상기 재생 또는 표시된 음악 컨텐츠에 대한 정보를 요청할 수 있으며, 쿼리 처리부(340)는 인터페이스부(330)를 통한 상기 요청에 따라 상기 재생 또는 표시되는 음악 컨텐츠에 대한 오디오 쿼리를 생성하여 시스템(100)으로 전송한다(S300∼S310). 이 경우, 쿼리 처리부(340)는 상기 요청된 음악 컨텐츠가 상기 시스템(100) 으로부터 전송된 컨텐츠이면 상기 음악 컨텐츠에 대한 식별 정보 또는 시스템으로부터 컨텐츠를 제공받은 시간 정보를 포함하는 오디오 쿼리를 생성한다. 또한 상기 요청된 음악 컨텐츠가 시스템(100)으로부터 제공받은 것이 아니라 다른 경로를 통하여 제공받은 경우에는 상기 음악 컨텐츠의 오디오 데이터를 포함하는 오디오 쿼리를 생성한다. 그러나 본 발명은 이에 한정되지 않으며 상기 요청된 음악 컨텐츠가 시스템(100)으로부터 제공받은 것인지에 상관없이 오디오 데이터를 포함하는 오디오 쿼리를 생성할 수도 있다. That is, when the music content stored in the storage unit 310 of the content of the terminal 300 is being played through the interface unit 330 under the control of the playback unit 320, or the information about the music content is the interface unit. When being displayed through 330, the user may request information on the played or displayed music content, and the query processor 340 may play or display the music content according to the request through the interface unit 330. Generates an audio query for and transmits it to the system 100 (S300 to S310). In this case, if the requested music content is content transmitted from the system 100, the query processor 340 generates an audio query including identification information about the music content or time information provided from the system. In addition, when the requested music content is provided from another system rather than provided from the system 100, an audio query including audio data of the music content is generated. However, the present invention is not limited thereto and may generate an audio query including audio data regardless of whether the requested music content is provided from the system 100.

이와 같이 사용자 단말기(300)로부터 오디오 쿼리가 전송되면 정보 제공 서버(10)는 이를 검색 서버(20)로 전달하며(S320), 검색 서버(20)는 오디오 쿼리를 분류 처리 서버(30)로 선택적으로 전달한다. 즉, 상기 검색 서버(20)의 쿼리 판단부(21)는 오디오 쿼리가 오디오 데이터를 포함하는 경우에는 분류 처리 서버(30)로 전달하고(S340∼S350), 상기 오디오 쿼리가 컨텐츠 관련 정보를 포함하는 경우에는 검색부(22)로 전달한다. 여기서 오디오 쿼리가 오디오 데이터로만 이루어지도록 서비스가 수행되는 경우에는 상기 오디오 쿼리의 종류를 판별하는 단계(S340)는 삭제가능하다. When the audio query is transmitted from the user terminal 300 as described above, the information providing server 10 transmits it to the search server 20 (S320), and the search server 20 selectively transmits the audio query to the classification processing server 30. To pass. That is, when the audio query includes audio data, the query determining unit 21 of the search server 20 transmits the information to the classification processing server 30 (S340 to S350), and the audio query includes content related information. If so, the transfer to the search unit 22. If the service is performed such that the audio query is made of only audio data, the step of determining the type of the audio query (S340) may be deleted.

분류 처리 서버(30)는 검색 서버(20)로부터 오디오 쿼리가 전달되면, 상기 오디오 쿼리에 포함된 오디오 데이터로부터 특징 벡터를 추출하고 이를 양자화시킨다. 즉, 분류 처리 서버(30)의 각각의 제1 내지 제3 분류부(31∼33)가 전달된 오디오 데이터를 토대로 음색 특징 벡터, 리듬 특징 벡터, 무드 특징 벡터를 각각 추출하고, 추출된 각 벡터의 양자화값을 산출한다(S360∼S370). 이와 같이 산출된 양자 화값이 그대로 특징 벡터 관련 정보로 처리되어 검색 서버(20)로 전달되거나 또는 상기 양자화값에 따라 해당 오디오 데이터가 각 특징 벡터별로 어떠한 그룹에 속하는지가 판단된 다음, 판단된 그룹에 해당하는 식별값들이 특징 벡터 관련 정보로 처리되어 검색 서버(20)로 전달될 수 있다(S380). 이와 같이 특징 벡터 관련 정보는 사용자 단말기(300)로부터 전달된 오디오 쿼리가 어떠한 그룹에 속하는지를 알 수 있도록 하는 정보가 되며, 여기서는 특징 벡터 관련 정보로 양자화값을 이용한 것을 예로 들어 하기의 과정을 설명한다. When an audio query is transmitted from the search server 20, the classification processing server 30 extracts a feature vector from the audio data included in the audio query and quantizes it. That is, each of the first to third classification units 31 to 33 of the classification processing server 30 extracts a tone feature vector, a rhythm feature vector, and a mood feature vector, respectively, based on the transmitted audio data. The quantization value of is calculated (S360 to S370). The quantized value calculated as described above is processed as feature vector related information as it is and is transmitted to the search server 20 or according to the quantized value, it is determined which group the corresponding audio data belongs to for each feature vector, and then The corresponding identification values may be processed as feature vector related information and transmitted to the search server 20 (S380). As described above, the feature vector related information becomes information for identifying which group the audio query transmitted from the user terminal 300 belongs to. Here, the following process will be described by using a quantization value as the feature vector related information. .

검색 서버(20)는 분류 처리 서버(30)로부터 전달되는 오디오 쿼리에 대한 특징 벡터 관련 정보를 토대로 하여 서비스 데이터베이스(41)를 검색하여, 상기 오디오 쿼리에 해당하는 음악 컨텐츠 및/또는 유사 음악 컨텐츠를 찾는다(S390∼S400). 예를 들어, 상기 오디오 쿼리에 대한 특징 벡터 관련 정보가 각 특징 벡터별 양자화값인 경우, 상기 양자화값들을 토대로 서비스 데이터베이스(41)를 검색하여 각 특징 벡터별 양자화값이 동일한 음악 컨텐츠를 찾고, 또한 상기 특징 벡터별 양자화값이 포함되는 그룹에 속하는 유사 음악 컨텐츠들을 찾는다. 이 때 유사 음악 컨텐츠들을 찾을 경우 다수의 특징 벡터 중 적어도 하나 이상의 특징 벡터의 양자화값이 동일 그룹에 속하는 음악 컨텐츠를 유사 음악 컨텐츠로서 선택할 수 있다. The search server 20 searches the service database 41 based on the feature vector related information on the audio query transmitted from the classification processing server 30, and searches for music content and / or similar music content corresponding to the audio query. Search (S390-S400). For example, if the feature vector related information for the audio query is a quantization value for each feature vector, the service database 41 is searched based on the quantization values to find music content having the same quantization value for each feature vector. Similar music contents belonging to the group including the quantization value of each feature vector are searched for. In this case, when similar music contents are found, music content belonging to the same group in which the quantization value of at least one or more feature vectors among the plurality of feature vectors is the same, may be selected as the similar music content.

이와 같이 검색된 오디오 쿼리에 해당하는 음악 컨텐츠 및 유사 음악 컨텐츠는 정보 제공 서버(10)로 전달되며(S400), 정보 제공 서버(10)는 전달된 컨텐츠들을 검색 정보로 처리하여 사용자 단말기(300)로 전송한다(S410). 이에 따라 사용자 단말기(300)의 컨텐츠 관리부(350)는 전달된 검색 정보를 컨텐츠 저장부(310)에 저 장시키거나 인터페이스부(330)를 통하여 표시하거나 또는 검색 정보를 재생부(320)를 통하여 재생시킬 수도 있다(S420).The music content and similar music content corresponding to the searched audio query are transmitted to the information providing server 10 (S400), and the information providing server 10 processes the delivered contents as search information to the user terminal 300. Transmit (S410). Accordingly, the content management unit 350 of the user terminal 300 stores the transferred search information in the content storage unit 310 or displays it through the interface unit 330 or displays the search information through the playback unit 320. It may be reproduced (S420).

한편 단계(S340)에서, 사용자로부터 전달된 오디오 쿼리가 오디오 데이터가 아니라 컨텐츠 관련 정보인 경우에는, 도 5b에 도시되어 있듯이, 검색 서버(20)는 상기 컨텐츠 관련 정보를 토대로 서비스 데이터베이스(41)를 검색하여, 상기 컨텐츠 관련 정보를 가지는 음악 컨텐츠 또는/ 및 유사 음악 컨텐츠를 찾아서 정보 제공 서버(10)로 전달한다(S430∼S460). 예를 들어, 검색 서버(20)의 검색부(22)는 상기 컨텐츠 관련 정보가 컨텐츠 식별 번호인 경우, 해당 식별 번호를 가지는 음악 컨텐츠를 찾은 다음, 상기 음악 컨텐츠가 속한 그룹(각 특징 벡터별 그룹일 수 있음)에 포함되는 음악 컨텐츠들을 유사 음악 컨텐츠로 선택한다. 이 때, 음악 컨텐츠의 각 특징 벡터별 그룹에 속하는 유사 음악 컨텐츠들 중에서, 상기 음악 컨텐츠의 특징 벡터별 그룹과 상기 유사 음악 컨텐츠의 특징 벡터별 그룹이 모두 일치하는 컨텐츠만을 유사 음악 컨텐츠로 최종 선택할 수 있다. 이에 따라 상기 오디오 쿼리에 해당하는 음악 컨텐츠와 실제로 유사한 신뢰성 있는 음악 컨텐츠가 선택될 수 있다.On the other hand, in step S340, when the audio query transmitted from the user is content related information rather than audio data, as shown in FIG. 5B, the search server 20 may open the service database 41 based on the content related information. The searcher finds music content and / or similar music content having the content related information and transmits the same to the information providing server 10 (S430 to S460). For example, if the content related information is a content identification number, the search unit 22 of the search server 20 searches for music content having the corresponding identification number, and then includes a group (group for each feature vector). Music content included in the content may be selected as the similar music content. At this time, among similar music contents belonging to each feature vector group of the music content, only content in which both the feature vector group of the music content and the feature vector group of the similar music content match can be finally selected as the similar music content. have. Accordingly, reliable music content that is substantially similar to the music content corresponding to the audio query may be selected.

이와 같이 검색된 오디오 쿼리에 해당하는 음악 컨텐츠 및 유사 음악 컨텐츠는 위에 기술된 바와 같이 정보 제공 서버(10)를 통하여 사용자 단말기(300)로 전송되어, 단말기(300) 상에서 저장되거나 재생되거나 표시처리될 수 있다(S470∼S480). As described above, the music content and the similar music content corresponding to the retrieved audio query may be transmitted to the user terminal 300 through the information providing server 10 and stored, played or displayed on the terminal 300. (S470 to S480).

위에 기술된 음악 컨텐츠 분류 방법 및/또는 음악 컨텐츠 제공 방법은 컴퓨 터가 읽을 수 있는 기록 매체에 저장되는 프로그램 형태로 구현될 수 있다. 기록 매체로는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치가 포함될 수 있으며, 예를 들어, CD-ROM, 자기 테이프, 플로피 디스크 등이 있으며, 또한 캐리어 웨이브(예컨대 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다. The above-described music content classification method and / or music content providing method may be implemented in the form of a program stored in a computer-readable recording medium. The recording medium may include any kind of recording device that stores data that can be read by a computer. For example, a CD-ROM, a magnetic tape, a floppy disk, and the like may be used. Included is implemented in the form of).

비록, 본 발명이 가장 실제적이며 바람직한 실시 예를 참조하여 설명되었지만, 본 발명은 상기 개시된 실시 예에 한정되지 않으며, 후술되는 특허청구범위 내에 속하는 다양한 변형 및 등가물들도 포함한다. Although the present invention has been described with reference to the most practical and preferred embodiments, the present invention is not limited to the above disclosed embodiments, but also includes various modifications and equivalents within the scope of the following claims.

이상에서 설명한 바와 같이 본 발명의 실시 예에 따르면, 내용 기반 음악 검색 서비스와 더불어 사용자가 요청한 음악 컨텐츠와 유사한 음악 컨텐츠들을 동시에 제공함으로써 보다 다양한 서비스를 보장할 수 있다. As described above, according to an exemplary embodiment of the present invention, a variety of services can be guaranteed by simultaneously providing music contents similar to the music contents requested by the user in addition to the content-based music search service.

또한 음악 컨텐츠들을 그 특징에 따른 유사도를 토대로 하여 신뢰성 있게 분류할 수 있다. In addition, the music contents can be classified reliably based on the similarity according to their characteristics.

또한 이와 같이 미리 음악 컨텐츠들을 분류해 놓음으로써, 사용자로부터 제공되는 오디오 데이터를 토대로 하여 유사 음악 컨텐츠 검색이 용이하고 신뢰성 있게 이루어진다. 그러므로 단지 가수이름, 노래 제목 등의 짧은 사용자 쿼리를 이용해서 유사 음악을 제공하는 것보다 높은 신뢰성을 가지는 유사음악 서비스가 가능하다. In addition, by categorizing music contents in advance, retrieval of similar music contents on the basis of audio data provided from a user can be performed easily and reliably. Therefore, similar music service with higher reliability is possible than providing similar music using only short user queries such as singer name and song title.

또한 서비스 제공자가 보유한 방대한 양의 음악 데이터를 효과적으로 관리할 수 있다. It can also effectively manage the vast amount of music data held by service providers.

또한 본 발명에 따른 음악 컨텐츠 분류 방법은 사용자가 보유하고 있는 음악 데이터에도 동일하게 적용되어, 음악 컨텐츠들이 유사음악 컨텐츠별로 분류 및 정리될 수 있다. In addition, the music content classification method according to the present invention may be equally applied to music data owned by a user, and music contents may be classified and organized by similar music contents.

Claims (12)

음악 컨텐츠를 분류하는 방법에서,In the method of classifying music content, 상기 음악 컨텐츠를 구성하는 오디오 데이터로부터 해당 음악 컨텐츠의 특징을 나타내는 특징 벡터를 추출하는 단계;Extracting a feature vector representing a feature of the music content from the audio data constituting the music content; 상기 특징 벡터를 양자화하는 단계; 및Quantizing the feature vector; And 상기 양자화된 값을 토대로 상기 음악 컨텐츠를 분류하는 단계Classifying the music content based on the quantized value 를 포함하고,Including, 상기 특징 벡터는 음색 특징 벡터, 리듬 특징 벡터, 무드 특징 벡터 중 적어도 하나를 포함하는 음악 컨텐츠 분류 방법.And the feature vector comprises at least one of a tone feature vector, a rhythm feature vector, and a mood feature vector. 제1항에 있어서The method of claim 1 상기 음색 특징 벡터는 스펙트럴 센트로이드(Spectral Centroid), 스펙트럴 롤오프(Spectral Rolloff), 스펙트럴 플럭스(Spectral Flux), 제로 크로싱 레이트(Zero Crossing Rate), 멜프리컨시 캡스트럴 계수(Mel-Frequency Cepstral Coefficients) 중 적어도 하나를 포함하는 음악 컨텐츠 분류 방법.The tone feature vectors include Spectral Centroid, Spectral Rolloff, Spectral Flux, Zero Crossing Rate, and Mel-Fancy Capstral Coefficient. Frequency Cepstral Coefficients) music content classification method comprising at least one. 제1항 또는 제2항에 있어서The method according to claim 1 or 2 상기 리듬 특징 벡터는 비트 히스토그램(Beat Histogram)을 포함하는 악 컨텐츠 분류 방법.The rhythm feature vector includes a beat histogram. 제1항 또는 제2항에 있어서The method according to claim 1 or 2 상기 무드 특징 벡터는 평균 묵음 비율(Average Silence Ratio)을 포함하는 음악 컨텐츠 분류 방법.And the mood feature vector comprises an average silence ratio. 네트워크를 통하여 사용자 단말기로 음악 컨텐츠를 제공하는 시스템의 컨텐츠 제공 방법에 있어서,In the content providing method of the system for providing music content to the user terminal via a network, a) 상기 사용자 단말기로부터 오디오 쿼리가 전달되면, 상기 시스템이 오디오 쿼리를 구성하는 오디오 데이터로부터 특징 벡터를 추출하는 단계;a) if an audio query is delivered from the user terminal, the system extracting a feature vector from the audio data making up the audio query; b) 상기 시스템이 특징 벡터를 양자화하는 단계;b) the system quantizing a feature vector; c) 상기 양자화된 오디오 쿼리의 특징 벡터 관련 정보를 토대로 음악 컨텐츠가 특징 벡터를 토대로 하는 그룹별로 저장되어 있는 서비스 데이터베이스를 검색하여, 상기 오디오 쿼리에 해당하는 음악 컨텐츠, 상기 음악 컨텐츠와 관련된 유사 음악 컨텐츠를 검색하는 단계; 및c) searching a service database in which music contents are stored for each group based on the feature vector based on the feature vector related information of the quantized audio query, and the music content corresponding to the audio query and similar music content related to the music content Searching for; And d) 상기 검색된 서버로부터 제공되는 오디오 쿼리에 해당하는 음악 컨텐츠, 유사 음악 컨텐츠 중 적어도 하나를 포함하는 검색 정보를 상기 사용자 단말기로 전달하는 단계d) transmitting search information including at least one of music content corresponding to an audio query provided from the searched server and similar music content to the user terminal; 를 포함하는 음악 컨텐츠 제공 방법.Music content providing method comprising a. 제5항에 있어서The method of claim 5 상기 특징 벡터는 음색 특징 벡터, 리듬 특징 벡터, 무드 특징 벡터 중 적어도 하나인 음악 컨텐츠 제공 방법.And the feature vector is at least one of a tone feature vector, a rhythm feature vector, and a mood feature vector. 제5항 또는 제6항에 있어서The method according to claim 5 or 6 상기 검색을 위한 특징 벡터 관련 정보는 상기 양자화 값, 상기 양자화에 따라 분류될 수 있는 그룹의 식별값 중 적어도 하나인 음악 컨텐츠 제공 방법.And the feature vector related information for searching is at least one of the quantization value and an identification value of a group that may be classified according to the quantization. 제5항 또는 제6항에 있어서The method according to claim 5 or 6 상기 오디오 쿼리는 음악 컨텐츠를 구성하는 오디오 데이터, 음악 컨텐츠 관련 정보 중 적어도 하나인 음악 컨텐츠 제공 방법.And the audio query is at least one of audio data constituting music content and music content related information. 네트워크를 통하여 사용자 단말기로 음악 컨텐츠를 제공하는 시스템에서,In a system for providing music content to a user terminal through a network, 제공되는 음악 컨텐츠들이 특징 벡터를 토대로 하는 그룹별로 분류되어 저장되어 있는 서비스 데이터베이스;A service database in which provided music contents are classified and stored in groups based on feature vectors; 음악 컨텐츠를 구성하는 오디오 데이터로부터 특징 벡터를 추출하고, 추출된 특징 벡터를 양자화하고 그 값에 따라 소정 그룹으로 분류하는 분류 처리 서버;A classification processing server for extracting feature vectors from audio data constituting music contents, quantizing the extracted feature vectors, and classifying the extracted feature vectors into predetermined groups according to their values; 인가되는 오디오 쿼리의 특징 벡터 관련 정보를 토대로 상기 음악 서비스 데이터베이스를 검색하여, 상기 오디오 쿼리에 해당하는 음악 컨텐츠, 상기 음악 컨텐츠와 관련된 유사 음악 컨텐츠를 검색하는 검색 서버;A search server that searches the music service database based on the feature vector related information of an applied audio query, and searches for music contents corresponding to the audio query and similar music contents related to the music contents; 상기 사용자 단말기로부터 전달되는 오디오 쿼리를 상기 검색 서버로 전달하 고, 상기 검색 서버로부터 제공되는 오디오 쿼리에 해당하는 음악 컨텐츠, 유사 음악 컨텐츠 중 적어도 하나를 포함하는 검색 정보를 상기 사용자 단말기로 전달하는 정보 제공 서버Information for delivering an audio query transmitted from the user terminal to the search server and for transmitting search information including at least one of music content and similar music content corresponding to the audio query provided from the search server to the user terminal; Provisioning server 를 포함하는 음악 컨텐츠 제공 시스템.Music content providing system comprising a. 제9항에 있어서The method of claim 9 상기 분류 처리 서버는 상기 오디오 쿼리로부터 특징 벡터를 추출하고, 추출된 특징 벡터를 양자화하여 그에 따른 특징 벡터 관련 정보를 검색 서버로 전달하고,The classification processing server extracts a feature vector from the audio query, quantizes the extracted feature vector, and delivers feature vector related information to the search server accordingly. 상기 검색 서버는 상기 특징 벡터 관련 정보를 토대로 상기 서비스 데이터베이스를 검색하여 상기 정보에 대응하는 음악 컨텐츠 및 그의 유사 음악 컨텐츠를 검색하며,The search server searches the service database based on the feature vector related information to search for music content corresponding to the information and its similar music content, 상기 특징 벡터 관련 정보는 상기 양자화 값, 상기 양자화에 따라 분류될 수 있는 그룹의 식별값 중 적어도 하나인 음악 컨텐츠 제공 시스템.And the feature vector related information is at least one of the quantization value and an identification value of a group that may be classified according to the quantization. 제9항 또는 제10항에 있어서The method of claim 9 or 10 상기 사용자 단말기는 The user terminal 음악 컨텐츠가 저장되는 컨텐츠 저장부;A content storage unit for storing music contents; 상기 음악 컨텐츠가 재생되는 재생부;A playback unit for playing the music contents; 상기 음악 컨텐츠 관련 정보가 표시되는 인터페이스부;An interface unit displaying the music content related information; 상기 재생부에 의하여 재생되거나 상기 인터페이스부를 통하여 표시되는 음악 컨텐츠에 대한 오디오 쿼리를 생성하여 상기 시스템으로 전달하는 쿼리 처리부; 및A query processing unit for generating an audio query for music content reproduced by the playback unit or displayed through the interface unit and transmitting the generated audio query to the system; And 상기 시스템으로부터 전달되는 검색 정보에 포함된 음악 컨텐츠를 수신하여 상기 컨텐츠 저장부, 재생부, 인터페이스부 중 적어도 하나로 선택적으로 제공하는 컨텐츠 관리부Content management unit for receiving the music content included in the search information transmitted from the system and selectively provide to at least one of the content storage unit, playback unit, interface unit 를 포함하는 음악 컨텐츠 제공 시스템.Music content providing system comprising a. 제9항 또는 제10항에 있어서The method of claim 9 or 10 상기 오디오 쿼리는 음악 컨텐츠를 구성하는 오디오 데이터, 음악 컨텐츠 관련 정보 중 적어도 하나이고,The audio query is at least one of audio data constituting music content and music content related information. 상기 검색 서버는 상기 오디오 쿼리가 오디오 데이터인 경우에는 상기 오디오 쿼리를 분류 처리 서버로 전달하고, 이후 분류 처리 서버로부터 전달되는 상기 오디오 쿼리에 대한 특징 벡터 관련 정보를 토대로 검색을 수행하고,If the audio query is audio data, the search server transmits the audio query to a classification processing server, and then performs a search based on the feature vector related information on the audio query transmitted from the classification processing server. 상기 오디오 쿼리가 컨텐츠 관련 정보인 경우에는 상기 컨텐츠 관련 정보를 토대로 검색을 수행하는 음악 컨텐츠 제공 시스템.And if the audio query is content related information, perform a search based on the content related information.
KR1020050011668A 2005-02-11 2005-02-11 music contents classification method, and system and method for providing music contents using the classification method KR100615522B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050011668A KR100615522B1 (en) 2005-02-11 2005-02-11 music contents classification method, and system and method for providing music contents using the classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050011668A KR100615522B1 (en) 2005-02-11 2005-02-11 music contents classification method, and system and method for providing music contents using the classification method

Publications (2)

Publication Number Publication Date
KR20060091063A KR20060091063A (en) 2006-08-18
KR100615522B1 true KR100615522B1 (en) 2006-08-25

Family

ID=37592975

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050011668A KR100615522B1 (en) 2005-02-11 2005-02-11 music contents classification method, and system and method for providing music contents using the classification method

Country Status (1)

Country Link
KR (1) KR100615522B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100715949B1 (en) 2005-11-11 2007-05-08 삼성전자주식회사 Method and apparatus for classifying mood of music at high speed
KR100822376B1 (en) * 2006-02-23 2008-04-17 삼성전자주식회사 Method and system for classfying music theme using title of music
KR101114606B1 (en) 2009-01-29 2012-03-05 삼성전자주식회사 Music interlocking photo-casting service system and method thereof
US8229935B2 (en) 2006-11-13 2012-07-24 Samsung Electronics Co., Ltd. Photo recommendation method using mood of music and system thereof
KR101477678B1 (en) * 2013-12-24 2014-12-31 상명대학교서울산학협력단 The apparatus and method for classification of music file using MP3

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100772386B1 (en) * 2005-12-10 2007-11-01 삼성전자주식회사 Method of classifying music file and system thereof
KR100717387B1 (en) * 2006-01-26 2007-05-11 삼성전자주식회사 Method and apparatus for searching similar music
KR100749045B1 (en) 2006-01-26 2007-08-13 삼성전자주식회사 Method and apparatus for searching similar music using summary of music content
KR100852196B1 (en) * 2007-02-12 2008-08-13 삼성전자주식회사 System for playing music and method thereof
KR100901371B1 (en) * 2008-10-09 2009-06-05 인하대학교 산학협력단 A speech and music classification method for 3gpp2 smv codec using a support vector machine
KR101034373B1 (en) * 2009-04-21 2011-05-16 연세대학교 산학협력단 Media contents Exploring system and method using Emotional Model
KR101615262B1 (en) 2009-08-12 2016-04-26 삼성전자주식회사 Method and apparatus for encoding and decoding multi-channel audio signal using semantic information
KR101637282B1 (en) * 2014-12-09 2016-07-07 현대자동차 주식회사 Method and device for generating music playlist
KR102068484B1 (en) * 2018-08-01 2020-01-21 서울대학교병원 Method for making prediction model for sleep apnea syndrome and method for predicting sleep apnea syndrome by using the same model
KR102248570B1 (en) * 2019-10-14 2021-05-04 금오공과대학교 산학협력단 Fuzzy-based multimedia contents retrieval method using mood tags and their synonyms in social networks

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100715949B1 (en) 2005-11-11 2007-05-08 삼성전자주식회사 Method and apparatus for classifying mood of music at high speed
KR100822376B1 (en) * 2006-02-23 2008-04-17 삼성전자주식회사 Method and system for classfying music theme using title of music
US8229935B2 (en) 2006-11-13 2012-07-24 Samsung Electronics Co., Ltd. Photo recommendation method using mood of music and system thereof
KR101114606B1 (en) 2009-01-29 2012-03-05 삼성전자주식회사 Music interlocking photo-casting service system and method thereof
US8354579B2 (en) 2009-01-29 2013-01-15 Samsung Electronics Co., Ltd Music linked photocasting service system and method
KR101477678B1 (en) * 2013-12-24 2014-12-31 상명대학교서울산학협력단 The apparatus and method for classification of music file using MP3

Also Published As

Publication number Publication date
KR20060091063A (en) 2006-08-18

Similar Documents

Publication Publication Date Title
KR100615522B1 (en) music contents classification method, and system and method for providing music contents using the classification method
US6476306B2 (en) Method and a system for recognizing a melody
US8344233B2 (en) Scalable music recommendation by search
US20210357451A1 (en) Music cover identification with lyrics for search, compliance, and licensing
US11636835B2 (en) Spoken words analyzer
Liu et al. A singer identification technique for content-based classification of MP3 music objects
Goto et al. Recent studies on music information processing
KR20060019096A (en) Hummed-based audio source query/retrieval system and method
US9569532B1 (en) Melody recognition systems
CN105575400A (en) Method, terminal, server, and system for obtaining song information
CN111460215B (en) Audio data processing method and device, computer equipment and storage medium
Shen et al. Towards efficient automated singer identification in large music databases
KR20200118587A (en) Music recommendation system using intrinsic information of music
Iriz et al. CONEqNet: convolutional music equalizer network
KR20020053979A (en) Apparatus and method for contents-based musical data searching
KR20100007102A (en) Online digital contents management system
Qin et al. Audio retrieval based on manifold ranking and relevance feedback
Thoshkahna et al. Projekt quebex: A query by example system for audio retrieval
Borjian A survey on query-by-example based music information retrieval
Burred An objective approach to content-based audio signal classification
Deshmukh et al. Audio descriptive analysis of singer and musical instrument identification in North Indian Classical Music
Sahbudin et al. Audio Recognition Techniques: Signal Processing Approaches with Secure Cloud Storage
Chen Research on Music Style Similarity Detection Algorithm Based on Relative Features
Vafaie et al. A tree grammar scheme for generation and recognition of simple texture paths in pictures
JP2007072316A (en) Retrieval method of recorded song pieces, database structure of the recorded song pieces

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100802

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee