KR20010094312A - 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법 - Google Patents

컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법 Download PDF

Info

Publication number
KR20010094312A
KR20010094312A KR1020000017906A KR20000017906A KR20010094312A KR 20010094312 A KR20010094312 A KR 20010094312A KR 1020000017906 A KR1020000017906 A KR 1020000017906A KR 20000017906 A KR20000017906 A KR 20000017906A KR 20010094312 A KR20010094312 A KR 20010094312A
Authority
KR
South Korea
Prior art keywords
music
song
information
user
database
Prior art date
Application number
KR1020000017906A
Other languages
English (en)
Inventor
고재용
Original Assignee
고재용
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고재용 filed Critical 고재용
Priority to KR1020000017906A priority Critical patent/KR20010094312A/ko
Publication of KR20010094312A publication Critical patent/KR20010094312A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

본 발명은 컴퓨터 네트워크를 이용한 음악파일의 검색방법에 관한 것으로, 인터넷 상의 웹 사이트를 통하여 보다 쉽게 노래를 선택할 수 있으며, 음악파일을 다운로드(download) 할 수 있는 방법을 나타내는 것이다.
컴퓨터에 연결된 마이크를 통해 사용자가 음성으로 기억나는 가락의 일부를 불러 입력하면, 입력된 가락을 구성하는 음들의 고저, 장단 등 곡 특성을 추출하여 데이터베이스 내에 저장되어 있는 곡들의 악보와 비교하여 입력된 가락의 특성과 충분히 일치하는 곡들의 리스트를 보여 주고, 리스트된 곡들의 정보 즉, 곡명, 가수명, 소리 클립(clip), 해당 미디파일(midi file) 또는 엠피쓰리(mp3) 등을 검토하여, 사용자가 원하였던 정확한 곡을 선택할 수 있게 한다.
또한, 상기와 같이 원하던 곡을 선택하면, 그 곡에 대한 정보가 제공되며, 구매 의사에 따라 유료 음악파일 데이터베이스 내에 저장되어 있는 엠피쓰리(mp3)나 라(ra) 등의 음악파일을 전자상거래의 방법으로 빌링(Billing)처리하여 원하는 곡을 다운로드받을 수 있도록 한다.

Description

컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법{electronic commerce method of music data using computer network}
본 발명은 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법으로서, 특히 인터넷에 접속된 컴퓨터의 마이크를 통해 사용자가 기억하고 있는 일부의 가락을 소리로 입력하고, 그 입력된 소리에 대응하는 노래를 데이터베이스내에서 검색하여 음악파일이나 관련정보를 다운로드(download)하거나 구매하는 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법에 관한 것이다.
A. 콧노래를 통한 검색(Query by humming)
오늘날, 신호처리 기술의 발달에 따라 사람의 콧노래 등 목소리나 악기 소리로부터 그 소리 속에 담긴 곡의 가락(음의 고저, 장단, 강약)정보를 추출해 내는 것이 가능해 졌다. 이를 통해 기존 표준화 동향(Moving Picture Experts Group : MPEG-7) 및 미국특허 US 5874686, US 5963957 등에는 사용자가 가락의 일부는 기억하고 있지만 곡명을 모르는 경우, 컴퓨터 시스템을 이용하여 곡명 등을 알아내고 원하는 곡을 선택할 수 있게 해주는 시스템을 구현하고 있다. 즉, 사용자가 자신이 기억하는 가락을 콧노래 등으로 재현하면 컴퓨터 시스템이 이 소리 신호를 해석하여 사용자가 재현한 가락에 해당하는 곡의 정보를 데이타베이스에서 찾아내는 것이다.
특히, 미국특허 US 5874686 및 US 5963957에서는 악곡 성분을 뽑아내는 신호처리 및 비슷한 곡을 찾아주는 데이타베이스 검색이 개시되어 있으나, 또 이와 같은 연구는 이미 논문 등을 통해 발표되었으며, 그 상세한 기술적인(technical) 내용을 제외하고는 이미 공지된 것이다.
한편, MPEG-7은 멀티미디어 데이터의 내용에 대한 표현방법을 나타내는 것으로서, 크게 음성이나 음향정보를 포함한 오디오 데이터에 대한 내용기반 검색, 사진이나 그래픽을 포함한 정지영상 테이터에 대한 내용기반 검색, 그리고 비디오를포함한 동영상 데이터에 대한 내용기반 검색 등을 정의한다. 이 표준화 동향은 데이터베이스나 TV, 라디오 채널 등을 통해 제공되는 멀티미디어 데이터에 관한 표준으로서, 사용자 자신이 원하는 콘텐츠(contents)를 구매하거나 찾아내는데 도움을 주도록 데이터 화일을 구성하는 표준이다.
종래, 노래의 선택 및 검색방법은 도 1에 나타낸 바와 같이, 먼저 사용자가 마이크(101)를 통해 기억하는 가락의 일부를 음성으로 재현한다. 이때, 마이크(101)를 통해 입력된 신호는 소리를 샘플링한 시간도메인(time-domain)의 일차원 신호가 된다.
다음에, 사용자가 입력한 소리 신호의 음악적 특성 즉, 가락에 대한 정보를 특성 추출모듈(102)에서 추출한다. 특성 추출모듈(102)은, 예를 들면 사용자의 음성신호로부터 음들을 분리하고, 각 음의 상대적 길이와 높낮이를 계산한다.
이어서, 상기 특성 추출모듈(102)을 통해 추출된 특성정보와 사업자가 미리음악들에 대한 정보를 저장해 놓은 곡 데이터 베이스(105)내의 정보를 패턴 매칭모듈(104)에서 비교한다. 이때, 곡 데이터 베이스(105)에는 기존에 알려진 음악들에 대한 정보, 예컨대 음악을 구성하는 각 음의 음정, 박자 등 음악의 가락에 관련된 정보가 저장되어 있다.
다음에, 패턴 매칭모듈(104)의 비교 결과, 가장 비슷한 특성을 지닌 후보곡들을 곡 데이터 베이스(105)로부터 추출하여 디스플레이(107)에 나타낸다.
B. 기존의 인터넷 음악 검색엔진
현재, 인터넷을 통해 음악파일을 판매하는 싸이트들 역시 검색엔진을 대부분보유하고 있으나 이들 검색엔진들은 노래의 곡명이나, 가수명 등 텍스트 정보를 입력하여 선택하게 하고 있다. 따라서, 사용자가 음악파일을 구매하고자 하는 경우, 노래의 곡명이나 가수명, 제작사 등을 알지 못하면 구매하기 어렵다는 문제점이 있었다. 즉, 사용자들은 곡을 구성하는 가락의 일부는 흥얼거리며 기억하고 있으나 곡명이나 가수명을 기억하거나 알지 못하는 경우가 많다.
따라서, 본 발명의 목적은 인터넷에 접속된 컴퓨터의 마이크를 통해 사용자가 기억하고 있는 일부의 가락을 소리로 입력하여 데이터베이스내에 저장된 음악파일이나 관련정보를 검색하는 것에 의해, 음악파일이나 관련정보를 용이하게 선택 또는 검색하는 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법을 제공하는데 있다.
또, 본 발명의 다른 목적은 인터넷상에서 음악파일을 용이하게 검색하여 구매하거나 다운로드 하는 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법을 제공하는데 있다.
도 1은 종래 방법에 의해 노래가락을 검색하는 흐름도,
도 2는 본 발명의 주요 시스템 구성도,
도 3은 도 2의 악곡정보제공 모듈의 상세도,
도 4는 도 2의 곡특성 추출모듈의 상세도,
도 5는 도 3의 악곡 데이터 베이스의 구조를 나타내는 도면,
(도면의 주요 부분에 대한 부호의 설명)
102 특성 추출모듈 104 패턴 매칭모듈
105 곡 데이터베이스 107 디스플레이
203 웹 서버 및 홈페이지 205 악곡정보 제공모듈
206 유료음악파일 데이터베이스 209 빌링처리모듈
상술한 목적을 달성하기 위해, 본 발명은 사용자가 기억나는 일부의 가락을 인터넷 웹 서버에 접속된 컴퓨터의 마이크를 통해 소리로 입력하거나 또는 키보드를 통해 정보를 입력하는 입력단계와; 상기 웹 서버의 곡특성 추출모듈을 이용하여 상기 마이크를 통해 입력된 소리로부터 곡의 특성을 추출하는 곡특성 추출단계와; 상기 웹 서버의 패턴 매칭모듈을 이용하여 상기 곡특성 추출단계에서 추출된 곡특성에 대응하는 노래를 미리 곡특성 정보를 저장한 데이터베이스내의 노래와 비교하여 검색하는 검색단계와; 상기 검색단계에서 상기 마이크를 통해 입력된 곡과 데이터베이스내의 곡이 일치하면, 사용자의 모니터에 일치하는 후보곡과 그 곡의 정보를 표시하는 표시단계와; 상기 표시단계에서 표시된 후보곡을 선택하면 해당하는 노래와 그 곡의 정보를 모니터 또는 스피커를 통해 출력하는 출력단계와; 상기 표시단계에서 모니터를 통해 출력되는 후보곡중 구매항목을 선택하여 구매처리(Billing)를 행하는 빌링처리 단계와; 상기 빌링처리 단계에서 구매처리를 행한 후, 선택된 후보곡의 음악파일을 전송하는 전송단계를 포함한다.
이하, 본 발명의 실시형태에 대해서 도면을 참조하여 설명한다.
도 2는 본 발명의 주요 시스템의 구성도이고, 도 3은 도 2의 "악곡정보 제공모듈"의 상세도이다.
우선, 도 2의 악곡정보 제공모듈(205)은 사용자가 마이크(200)를 통해 입력한 곡의 가락으로부터 해당 곡을 찾아주는 모듈로로서, 도 3에 나타낸 바와 같이, 사업자가 미리 구성해 놓는 악곡 데이터 베이스(304)를 가지고 있다. 이 악곡 데이터 베이스(304)에는 각 곡마다의 곡명, 가수명, 레코드사, 구입정보 등 곡에 대한 정보와 함께 곡을 이루는 각 음의 음정, 박자 등 곡의 가락에 대한 정보가 저장되어 있다.
또한, 악곡 데이터 베이스(304)에 저장되는 곡과 가락에 대한 정보는 사업자가 미리 구축해 놓고, 수시로 추가 및 삭제할 수 있게 되어 있다. 또, 가락에 대한 정보란 곡의 내용을 각 음으로 나누어 각 음의 음정, 박자 정보 등의 형태로 수록되어 빠르게 찾을 수 있는 인덱스를 만들어 데이타베이스화 한 것을 의미한다. 향후 사용자가 웹 서버에 접속하여 목소리로 곡을 재현하는 경우, 재현된 가락과 가장 가깝게 일치하는 곡들을 찾아주기 위한 것이다.
다음에, 도 2에 나타낸 바와 같이, 사용자는 컴퓨터를 이용하여 인터넷을 통해 사업자 홈 페이지(203)에 접속한다. 이어서, 사용자가 소리신호, 콧노래, 노래, 악기 음 등 자신이 의도하는 노래 가락을 소리로 재현하여 컴퓨터에 연결된 마이크(200)로 입력한다.
다음에, 웹 서버 및 사업자 홈페이지(203)와 연결된 악곡정보 제공모듈(205)을 통해 상기 마이크(200)를 통해 입력된 소리에 해당하는 곡을 검색하여, 그 정보를 제공한다.
즉, 상기 마이크(200)를 통해 입력된 소리는 시간 도메인(time-domain)의 일차원 신호이고, 이와 같은 시간 도메인 신호에 의해, 사용자가 의도하는 곡을 자동으로 찾아내기란 쉽지 않다. 곡을 데이터베이스로부터 찾아내기 위해서는 입력된 소리신호로부터 노래의 음악적 특성 즉, 가락에 대한 정보를 추출해야 한다. 가락에 대한 정보는 여러가지 형태, 예컨대 각 음의 상대적 길이와 높낮이, 음의 높낮이의 전이에 주목하여 추출할 수 있다.
이러한 가락에 대한 정보를 추출하기 위해, 도 3에 나타낸 바와 같이, 신호처리의 여러가지 기법을 사용하여 구현할 수 있는 곡특성 추출모듈(301)을 둔다.
곡특성 추출모듈(301)에서 추출되는 곡특성 정보(302)는 악곡 데이터베이스(304)에 저장되어 있는 있는 가락정보와 호환 가능하여야 한다. 즉,사업자가 악곡 데이터베이스(304)를 구축할 때, 곡특성 추출모듈(301)에서 추출되는 데이터 형태를 고려하여 악곡 데이터베이스(304)를 구축하여야 한다. 즉, 악곡 데이터 베이스(304)의 상세도인 도 5에서 501과 502는 같은 포맷이어야 한다.
또한, 패턴 매칭모듈(303)은 곡특성 추출모듈(301)에서 추출되는 곡특성 정보(302)와 사업자가 미리 저장해 놓은 데이터베이스내의 곡 정보를 비교 및 검색하여 가장 비슷한 특성을 지닌 후보곡들을 악곡 데이터베이스(304)로부터 추출한다.
이와 같이 악곡 데이터베이스(304)에서 추출된 후보곡들은 정보표시모듈(306)을 통해 사용자에게 인터넷을 거쳐 전송된다.
도 3의 내용을 도 4 및 도 5를 참조하여 각각의 기능에 대해서 상세히 설명한다.
(곡특성 추출모듈:301)
곡특성 추출은 피치검출을 이용한 음 곡선 검출 알고리즘을 통해 이루어진다. 상기의 곡특성 추출모듈을 도 4를 참조하여 더 상세히 설명하면 다음과 같다.
(FFT 신호처리과정:401)
콧노래와 같은 입력신호를 분석하기 위해 먼저 고속 퓨리에변환(Fast Fourier Transform)을 통하여 주파수축으로 변환한다.
(잡음제거과정 및 음성 비음성 분리과정:402)
마이크 등의 입력장치로부터 신호를 입력받을 때 원하는 신호 이외의 다른 간섭신호가 들어오게 된다. 이와 같은 경우 원하지 않은 신호에 의해 피치정보가 손상을 입을 수도 있다. 따라서 주된 음성신호는 보전하고 간섭신호를 제거하기 위한 간섭신호제거를 피치검출의 전단계로서 이용하며, 이러한 방법으로 일반적인 스펙트럼 차감법(spectral subtraction)을 이용한다.
이를 위해, 기본 가정으로서 콧노래는 사람의 성도(vocal tract)로부터 나왔기 때문에 기본적으로 선형시스템으로 모델링할 수 있다. 이러한 성도로 부터 나온 사람의 음성신호와 간섭신호를 주파수축에서 차감함으로서 원래의 음성신호를 추정할 수 있다. 또한, 간섭 잡음의 환경은 어느 정도 정상(stationary) 상태라는 가정을 바탕으로 한다. 수식적으로 나타내면, 잡음신호(N)가 음성신호(X)에 인가되어 오염된 음성신호(Y)를 만든다고 가정했을 때 퓨리에변환을 통하여 아래의 식(1)과 같이 나타낼 수 있다.
····· (1)
여기서 k는 주파수채널, t는 시간 프레임을 나타내는 첨자이다.
다음에, 스펙트럼 차감법에 의해 원래의 음성신호()를 추정하기 위해 평균 잡음 스펙트럼을 오염된 음성신호(Y)로부터 빼는 작업을 수행하며, 아래의 식(2)과 같이 나타낼 수 있다.
····· (2)
(여기서,는 잡음 신호의 평균값을 의미한다)
상기 잡음제거과정을 거친 후에는, 음성 및 비음성 분리과정을 거치게 된다.즉, 실제 피치를 비음성구간에서 찾아내면 그값은 의미가 없기 때문에,오류를 유발할 수 있으며 당연히 계산량도 크게 증가한다. 따라서, 음성을 복소가우시안 확률분포 등으로 모델링하여 음성의 존재와 부재여부를 확률적으로 나타내어 구분하고, 음성이 존재하지 않는 부분은 처리하지 않는다.
(음표길이 추출과정:403)
소리 신호에서 사용자가 의도한 각각의 음의 길이를 추정하기 위해 신호처리의 기본 단위인 시간 프레임(frame)에서의 평균에너지의 변화를 추적한다. 즉, 한 음의 시작부분에서 소리의 에너지가 높아졌다 점차 감쇄하므로 각 에너지가 높아지는 시점을 한 음의 시작점으로 나눈다.
(대표피치 검출과정:404)
한 시간 프레임에서 음의 높낮이에 해당하는 대표피치(k)는 다음과 같은 자기상관함수(autocorrelation)를 이용하여 구할 수 있다. 즉, 아래의 R(k)를 최대화 하는 k가 대표피치이다.
····· (3)
(은 시점 n에서의 소리의 이산 신호(discrete time sequence)이다)
이때, 피치검출기의 가장 큰 문제인 실제의 피치를 반으로 추정을 한다든지 또는 실제의 피치를 배로 추정되는 것을 줄이기 위해 다음 예와 같이 여러 구간(i=1, 2, 3 등)으로 나누어 피치 값(R)을 계산할 수 있다.
i = 1, k= 80 ....., 143,
i = 2, k= 40 ....., 79,
i = 3, k= 20 ....., 39,
전체 음성신호의 에너지로 정규화 한 자기상관함수가 각 구간에서는 아래의 식(4)과 같이 구해지며,
i = 1, 2, 3 ····· (4)
(는 구간 i에서의 최대 R(k) 값이다)
실제의 피치가 반으로 줄어드는 문제를 해결하기 위해 실제로는 낮은 구간에서 구해진 피치에 강조점을 두어 구하게 된다.
(악곡 데이터베이스:304 및 패턴 매칭모듈:303)
도 5에 나타낸 바와 같이, 악곡 데이터베이스(304)는 사용자들이 찾을 것으로 예상되는 대부분의 악곡들에 대한 정보가 저장되어 있다. 즉, 각 악곡은 그 악곡을 이루는 다수 음의 순열로 이루어져 있으며, 각 음은 다시 그 음의 고저, 장단, 강약 정보로 이루어져 있다. 심지어 사용자는 가사의 일부까지 기억할 수 있으므로 음성인식을 통해 가사의 비교를 병행할 수 있다. 이 경우, 데이터베이스(304)에 가사정보까지 저장할 수 있다.
그러나, 빠른 검색을 위해 이러한 정보는 간략화 될 수 있다. 예를 들면, 각 음의 고저, 즉 주파수만을 저장할 수 있다. 그러나, 이 경우에도 한 음이 가질 수 있는 주파수 값이 상당히 많은 경우의 수가 된다. 예컨대, 피아노의 경우 한 음이 가질 수 있는 주파수의 종류, 즉 건반 수는 88개이다.
이와 같이, 많은 주파수의 종류를 가지게 되면 그만큼 정보량이 많아지고, 비슷한 곡을 검색하는 과정이 복잡해 진다. 또한 사용자가 노래 가락을 재현할 때주파수를 아주 정확하게 재현하지 않기 때문에 주파수 절대값을 저장하는 것은 크게 의미가 없다.
따라서, 절대적인 고저를 나타내는 주파수 값 대신, 한음에서 다음 음으로 넘어갈 때 높낮이가 높아지는지(Up: 예컨데 `도`에서 `미`로), 낮아지는지(Down: `솔`에서 `도`로), 아니면 같은 높낮이의 반복(Repeat: `파`에서 `파`로)인지 등, 높낮이의 전이만 저장될 수 있다.
이와 같이 하면, 한 음의 고저 성분이 가질 수 있는 경우의 수는 피아노의 경우 88에서 3으로 줄게 된다.
이와 같은 방법으로, 음의 길이에 대해서도 절대적인 길이를 저장하기 보다 한 음에서 다음 음으로 넘어갈 때 그 전 길이보다 길어지는지(Up: 사분음에서 이분음으로), 짧아지는지(Down), 비슷한 길이인지(Repeat)를 저장할 수 있다.
길이의 변화는 고저의 변화보다 폭이 크므로 단순히 3단계의 길어짐(Up), 짧아짐(Down), 반복(Repeat)으로 나누는 것보다 아주 길어짐(UpUp), 길어짐(Up), 반복(Repeat), 짧아짐(Down), 아주 짧아짐(DownDonw)의 다섯 가지로 분류할 수 있다.
마지막으로, 음의 강약 정보는 곡이 연주될 때 마다 연주자의 주관대로 달라질 가능성이 아주 크므로 대부분의 경우 저장해도 도움이 되지 않는다. 이와 같이 각 음에 대해 고저의 전이 3가지와 길이의 전이 5가지를 저장하는 경우 하나의 음은 아래의 표 1에 나타내는 바와 같이 총15개 중의 하나로 나타낼 수 있다.
즉, 각 음은 상기 표 1의 a∼o 중 하나로 표시된다. 이와 같이 분류된 a 부터 o를 음의 알파벳이라고 하면, 각 악곡은 상기와 같이 a∼o 중 하나로 표시되는 음들의 순열로 되어 casablanca 등 마치 문자열(text) 정보처럼 데이타베이스에 저장될 수 있다.
이와 같이 구성되는 데이터는 서비스 제공자에 의해 미리 처리되어(preprocessing) 저장된다. 서비스 제공자는 서비스 제공 전에 충분한 양의 곡들에 대해 상기와 같이 정해진 형식으로 악곡 정보를 저장하며, 서비스 중에도 추가 곡이 있을 경우 상기의 형식대로 곡을 변환하여 악곡 데이터베이스(304)에 저장할 수 있다.
또한, 곡특성 추출모듈(301)에서 기술한 바와 같이, 곡특성 추출모듈(301)로부터 추출된 사용자 입력의 음 특성과 악곡 데이터 베이스(304) 안에 저정되어 있는 악곡정보는 같은 형식의 문자열로 가공된다(도 5 참조).
도 5의 패턴 매칭모듈(303)에서는 상술된 곡특성 추출모듈(301)에서 뽑아낸 악곡정보와 가장 또는 충분히 유사한 정보를 가지는 악곡 데이타 베이스(304) 내의악곡을 검색하는 작업을 한다. 이와 같은 패턴 매칭은 `퍼지`검색을 가능토록 해야 한다.
즉, 악곡 데이터 베이스(304) 내의 악곡 정보(501)와 추출된 사용자의 악곡 특성(502)이 정확이 같지 않더라도 충분히 같은 것을 찾아내야 한다. 이는 사용자가 노래 가락을 재현할 때 항상 정확하게 재현하지 않을 수 있기 때문이다.
사용자 입력이 100% 정확하지 않더라도 충분히 근사한 곡들을 찾아 주어야 하며, 사용자가 원하는 곡으로 생각되는 후보 곡이 여러 곡일 경우 좀더 가까운 곡을 먼저 리스팅(listing)해 주어 사용자의 곡 선택이 쉽도록 한다.
이후, 사용자가 입력한 소리로부터 추출된 음 정보를 패턴(Pattern)(502)이라 부르고, 원곡에 해당하는 음 정보를 텍스트(Text)(501)라 부르기로 한다. 악곡 데이터 베이스(304)에 저장된 원곡의 텍스트(Text)(501)집합을 T = t1, t2, t3, ..., tm이라 하고, 사용자 입력으로부터 추출된 패턴(Pattern)(502)을 P = p1, p2, p3, ..., pn(각 pi, ti은 음의 알파벳, 즉 a∼o)이라고 하면, 사용자가 발음한 곡과 유사한 곡을 악곡 데이타 베이스(304)에서 찾아주는 과정(503)은 T(501)내에서 P(502)와 충분히 유사한 것을 찾는 과정이 된다. 이때, 사용자 발음의 오류나 잡음에 의해 여러 부정확성이 발생할 수 있다.
따라서, 표 2는 자주 발생할 수 있는 부정확한 상황들을 유형별로 정리하고 있으며, 이와 같은 부정확성 하에서 T와 P간을 비교 했을 때, T 내에서 P와 충분이 가까운 부분들을 검색하여 그 부분에 해당하는 곡 정보를 나타낼 수 있다. 이때 곡들은 P와 가장 일치하는 것으로부터 충분히 일치하는 것까지 순서대로 나열해 줄 수 있다.
이와 같은 검색은 기존의 유사 문자열 검색 기법(approximate string matching) 등으로 수행할 경우 O(mn) 복잡도부터 O(n log(m)) 복잡도로 수행될 수 있다. 또한 이러한 검색을 음의 고저 성분과 장단 성분에 대해 독립적으로 수행하여 정확도를 높힐 수 있으며, 여러 가지 기법으로 속도와 정확성을 개선할 수 있다.
상술한 일련의 과정을 거쳐 악곡정보 제공모듈(205)이 구현된다. 단, 성능이나 호환성 등을 고려하여 악곡정보 제공의 각 부분이 웹 서버(203)에서 동작하도록 구현할 수 있고, 사용자의 컴퓨터 또는 제3의 컴퓨터에서 동작하고록 구현할 수도 있다.
또한, 여러 형태의 웹 기술 예를 들면, 자바(Java), 액티브 엑스(ActiveX), 애플릿/스크립트(applet/script)를 통하여 구현할 수 있다. 이 서브 시스템의 역할 을 요약하면, 사용자의 노래 소리 입력으로부터 그 소리에 가장 가까운 곡들을 자신의 악곡 데이터베이스(304)에서 찾아 리스트를 보여 주는 것이다. 사용자는 리스트 된 곡들의 정보, 예를 들면, 곡명, 가수명, 소리 클립 또는 해당 미디파일(midi file) 등을 검토해 보고, 이 중 자신이 원하던 정확한 곡을 선택하도록 한다.
이때, 웹 페이지는 사용자의 빠르고 정확한 선택을 위해 소리를 통한 검색 뿐만 아니라 검색에 유용하게 쓰일 수 있는 사용자의 단편적 부분 정보들, 예를 들면, 곡의 장르라든지, 가수명, 곡명 중 사용자가 알고 있는 것이 있으면 추가로 입력할 수도 있게 한다. 이와 같이 함으로써, 사용자가 원하는 데이터를 좀 더 빠르고 한정하여 검색할 수 있다.
또한, 유료 음악파일 데이터베이스(206)는 엠피쓰리(mp3) 파일 등 사용자가 구매하고 싶어하는 음악파일을 저장하고 있는 부분으로서, 사업자는 판매 가능한 충분한 양의 음악파일을 미리 레코드사 등의 음원으로부터 라이센싱 하여 사용자의 구매 요구에 대해 음악파일을 제공할 수 있도록 한다. 즉, 악곡정보 제공모듈(205)에서 사용자가 원하는 곡이 검색되면 사용자에게 구매의사를 물어 구매를 결정할 경우, 유료 음악파일 데이터베이스(206)내에 저장되어 있는 엠피쓰리(mp3), 라(ra) 등 음악파일을 다운로드하게 한다.
이때, 음악파일의 라이센싱 및 판매에 대해서는 다음과 같이 생각할 수 있다.
첫째로, 본 발명에 의한 검색엔진 사업자가 직접 라이센싱하여 사용자에게 판매하는 경우,
둘째로, 도 2에 나타내는 바와 같이 본 발명의 검색엔진 사업자는 검색엔진만을 제공하고 즉, 200, 201, 202, 203, 205는 검색엔진 사업자의 홈페이지나 서버에 한정되며, 206, 209는 외부에 존재한다. 따라서 유료 음악파일 데이터베이스(206), 빌링처리모듈(209)에 대해서는 외부 음악파일 판매 사업자, 예를 들면, 레코드사나 음악데이터 제공자 등의 사업자에게 사용자를 연결하여 판매를 하는 경우가 있을 수 있다.
마지막으로, 상기의 첫째, 둘째를 혼합한 경우이다.
상기 두번째의 경우에 있어서, 본 발명에 의한 사업자는 직접적인 음악파일 판매를 통해서 이윤을 얻는 것이 아니고, 자신이 지원하는 음악파일 판매 사업자로부터 커미션을 받기도 하고, 추가로 웹 사이트에 광고를 하여 수익을 올릴 수 있다.
마지막으로, 구매의사가 있는 경우의 빌링처리, 즉 상기의 도 6에 나타내는 바와 같이 빌링처리모듈(209)에서는, 통상적인 이-비지니스(e-business) 상에서 사용자의 신용카드나 이-머니(e-money) 등을 통해 빌링처리를 하는 표준적인 방법들이 존재하며 이 중 타당한 것을 도입하여 사용할 수 있다.
상술한 바와 같이, 본 발명에 의하면 인터넷에 접속된 컴퓨터의 마이크를 통해 사용자가 기억하고 있는 일부의 가락을 소리로 입력하고, 그 입력된 소리에 대응하는 노래를 웹 서버의 데이터베이스내에서 검색하여 음악파일이나 관련정보를 구매하거나 다운로드(download) 하기 때문에, 인터넷상에서 용이하게 음악을 검색 및 구매할 수 있다는 효과가 있다.
또한, 본 발명에 의하면 노래의 곡명이나 가수를 알지 못하더라도 사용자가용이하게 원하는 곡을 검색하여 선택할 수 있고, 또 컴퓨터를 이용하여 엠피쓰리(mp3) 파일이나 라(ra) 등의 음악파일을 다운로드(dwonload) 받을 수 있으며, 전자상거래 방식으로 구매처리를 행할 수 있다는 효과가 있다.

Claims (5)

  1. 사용자가 기억나는 일부의 가락을 인터넷 웹 서버에 접속된 컴퓨터의 마이크를 통해 소리로 입력하거나 또는 키보드를 통해 정보를 입력하는 입력단계와;
    상기 웹 서버의 곡특성 추출모듈을 이용하여 상기 마이크를 통해 입력된 소리로부터 곡의 특성을 추출하는 곡특성 추출단계와;
    상기 웹 서버의 패턴 매칭모듈을 이용하여 상기 곡특성 추출단계에서 추출된 곡특성에 대응하는 노래를 미리 곡특성 정보를 저장한 데이터베이스내의 노래와 비교하여 검색하는 검색단계와;
    상기 검색단계에서 상기 마이크를 통해 입력된 곡과 데이터베이스내의 곡이 일치하면, 사용자의 모니터에 일치하는 후보곡과 그 곡의 정보를 표시하는 표시단계와;
    상기 표시단계에서 표시된 후보곡을 선택하면 해당하는 노래와 그 곡의 정보를 모니터 또는 스피커를 통해 출력하는 출력단계와;
    상기 표시단계에서 모니터를 통해 출력되는 후보곡중 구매항목을 선택하여 구매처리(Billing)를 행하는 빌링처리 단계와;
    상기 빌링처리 단계에서 구매처리를 행한 후, 선택된 후보곡의 음악파일을 전송하는 전송단계를 포함하는 것을 특징으로 하는 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법.
  2. 제 1 항에 있어서,
    상기 입력단계는 단편적으로 알고 있는 장르, 가수명 등 문자열을 입력함으로써 보다 빠르게 검색할 수 있는 것을 특징으로 하는 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법.
  3. 제 1 항에 있어서,
    상기 출력단계는 일치하는 후보곡을 음성으로 변조시켜 스피커나 다른 출력장치를 통해 출력하는 것을 특징으로 하는 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법.
  4. 제 1 항에 있어서,
    상기 빌링처리 단계는 검색엔진 사업자가 직접 라이센싱하는 방식, 음악파일 사업자에게 사용자를 연결하는 방식, 또는 이들 2가지 방식을 혼합한 방식으로 음악파일을 라이센싱하거나 판매하는 것을 특징으로 하는 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법.
  5. 제 4 항에 있어서,
    상기 음악파일 사업자에게 사용자를 연결하는 방식은 음악파일 사업자로부터 커미션을 받거나 또는 웹 사이트 광고를 통하여 수익을 올리는 것을 특징으로 하는 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법.
KR1020000017906A 2000-04-06 2000-04-06 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법 KR20010094312A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000017906A KR20010094312A (ko) 2000-04-06 2000-04-06 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000017906A KR20010094312A (ko) 2000-04-06 2000-04-06 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법

Publications (1)

Publication Number Publication Date
KR20010094312A true KR20010094312A (ko) 2001-10-31

Family

ID=19662124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000017906A KR20010094312A (ko) 2000-04-06 2000-04-06 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법

Country Status (1)

Country Link
KR (1) KR20010094312A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030059503A (ko) * 2001-12-29 2003-07-10 한국전자통신연구원 사용자별 선호도에 따른 맞춤형 음악 서비스 시스템 및 방법
KR100625212B1 (ko) * 2004-09-20 2006-09-20 (주)디지탈플로우 멀티미디어 컨텐츠의 텍스트 정보 서비스 시스템 및 방법
KR100788682B1 (ko) * 2006-03-03 2007-12-26 삼성전자주식회사 음원 컨텐츠 전송 서비스 제공 방법 및 장치
WO2008106666A2 (en) * 2007-03-01 2008-09-04 Microsoft Corporation Query by humming for ringtone search and download

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030059503A (ko) * 2001-12-29 2003-07-10 한국전자통신연구원 사용자별 선호도에 따른 맞춤형 음악 서비스 시스템 및 방법
KR100625212B1 (ko) * 2004-09-20 2006-09-20 (주)디지탈플로우 멀티미디어 컨텐츠의 텍스트 정보 서비스 시스템 및 방법
KR100788682B1 (ko) * 2006-03-03 2007-12-26 삼성전자주식회사 음원 컨텐츠 전송 서비스 제공 방법 및 장치
WO2008106666A2 (en) * 2007-03-01 2008-09-04 Microsoft Corporation Query by humming for ringtone search and download
WO2008106666A3 (en) * 2007-03-01 2008-10-23 Microsoft Corp Query by humming for ringtone search and download
US8116746B2 (en) 2007-03-01 2012-02-14 Microsoft Corporation Technologies for finding ringtones that match a user's hummed rendition
US9396257B2 (en) 2007-03-01 2016-07-19 Microsoft Technology Licensing, Llc Query by humming for ringtone search and download

Similar Documents

Publication Publication Date Title
Typke et al. A survey of music information retrieval systems
US6188010B1 (en) Music search by melody input
US5963957A (en) Bibliographic music data base with normalized musical themes
US20070282860A1 (en) Method and system for music information retrieval
US20070276733A1 (en) Method and system for music information retrieval
US7838755B2 (en) Music-based search engine
US6307139B1 (en) Search index for a music file
JP5066963B2 (ja) データベース構築装置
CN101271457A (zh) 一种基于旋律的音乐检索方法及装置
CN1729506B (zh) 音频信号分析方法和设备
CN101657817A (zh) 基于音乐的搜索引擎
CN1953046B (zh) 一种基于哼唱的乐曲自动选择装置和方法
KR100512143B1 (ko) 멜로디 기반 음악 검색방법과 장치
Raju et al. TANSEN: A query-by-humming based music retrieval system
US7890374B1 (en) System and method for presenting music to consumers
Gurjar et al. Comparative Analysis of Music Similarity Measures in Music Information Retrieval Systems.
KR20060019096A (ko) 허밍 기반의 음원 질의/검색 시스템 및 그 방법
Kurth et al. Syncplayer-An Advanced System for Multimodal Music Access.
KR20010094312A (ko) 컴퓨터 네트워크를 이용한 음악데이터 전자상거래 방법
KR100702059B1 (ko) 고객 특성이 피드백 반영되는 질의 풀 기반의 유비쿼터스음악 정보 검색 시스템 및 방법
KR102165940B1 (ko) Cbmr 기반 음을 이용한 음악 검색 서비스 제공 시스템 및 방법
JP2003131674A (ja) 楽曲検索システム
KR20020053979A (ko) 내용 기반의 음악 자료 검색 시스템 및 그 방법
KR100378047B1 (ko) 전화를 이용한 노래의 선택 및 검색방법
Arentz et al. Retrieving musical information based on rhythm and pitch correlations

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application