KR101426166B1 - 음악 분위기 수치화 장치 및 방법 - Google Patents

음악 분위기 수치화 장치 및 방법 Download PDF

Info

Publication number
KR101426166B1
KR101426166B1 KR1020120154626A KR20120154626A KR101426166B1 KR 101426166 B1 KR101426166 B1 KR 101426166B1 KR 1020120154626 A KR1020120154626 A KR 1020120154626A KR 20120154626 A KR20120154626 A KR 20120154626A KR 101426166 B1 KR101426166 B1 KR 101426166B1
Authority
KR
South Korea
Prior art keywords
value
atmosphere
music
variable
beat
Prior art date
Application number
KR1020120154626A
Other languages
English (en)
Other versions
KR20140092434A (ko
Inventor
한영미
박종훈
조봉우
최인수
송대진
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020120154626A priority Critical patent/KR101426166B1/ko
Publication of KR20140092434A publication Critical patent/KR20140092434A/ko
Application granted granted Critical
Publication of KR101426166B1 publication Critical patent/KR101426166B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

본 발명은 음악 분위기 수치화 장치에 관한 것으로서, 상기 음악 분위기 수치화 장치의 한 예는 템포, 음높이, 박자, 화성 및 장르의 값을 입력하는 변수 입력부, 그리고 상기 변수 입력부와 연결되어 있고, 입력된 상기 템포, 음높이, 박자, 화성 및 장르의 값을 이용하여 음악의 분위기 값을 산출하는 제어부를 포함한다. 이로 인해, 음악의 분위기를 수치로 정확하게 표시하므로, 사용자는 해당 음악의 분위기를 용이하고 정확하게 파악하게 된다. 따라서, 사용자가 원하는 분위기의 음악이나 주변 분위기에 맞는 음악의 선곡이 정확하게 이루어져 사용자의 만족도가 크게 향상된다.

Description

음악 분위기 수치화 장치 및 방법{APPARATUS FOR DIGITIZING MUSIC MODE AND METHOD THEREFOR}
본 발명은 음악 분위기 수치화 장치 및 방법에 관한 것이다.
음악, 특히 가요는 대중 문화에 많은 영향을 미치고 있고, 문화산업에서 대중가요가 차지하는 비중이 날로 커지고 있다.
음악 산업은 시대가 지날수록 나날이 발전하고 있으며, 음악 분야에 대한 투자와 연구 개발이 활발히 이루어지고 있다.
정보 기술(information technology, IT)의 발전으로 인해, 음악 IT 기술을 접목시켜 음악의 분야를 분류하고 음악의 분위기를 분류하는 기술이 개발되고 있 다.
음악의 분위기를 분류하기 위해, 종래에는 음원의 주파수를 이용하였다. 즉, 고속 푸리에 변환(FFT, fast Fourier transform)을 이용하여 주파수별 파형을 분석한 후 비교 패턴 방식을 이용하여 음악의 분위기를 분류하였다.
하지만 주파수를 분석하는 작업은 매우 복잡하고 전문적인 지식을 요구하기 때문에 어렵고 많은 작업 시간이 소요되며, 여러 가지 음악을 비교하여 분위기를 분류하고 있기 때문에 새로운 장르의 음악과 같이 비슷한 음악이 없는 경우에는 해당 음악에 대한 분위기를 수치화하여 분류하는데 많은 어려움이 있다. 또한, 단순히 음악을 분류하는 방법으로써 분위기를 추출하고 있어서 음악의 분위기를 정확하게 수치화하지 못한다.
따라서 본 발명이 이루고자 하는 기술적 과제는 음악의 분위기를 정확하게 수치화하여 사용자의 편리성을 향상시키기 위한 것이다.
본 발명의 한 특징에 따른 음악 분위기 수치화 장치는 템포, 음높이, 박자, 화성 및 장르의 값을 입력하는 변수 입력부, 그리고 상기 변수 입력부와 연결되어 있고, 입력된 상기 템포, 음높이, 박자, 화성 및 장르의 값을 이용하여 음악의 분위기 값을 산출하는 제어부를 포함한다.
상기 제어부는 다음의 식을 이용하여 상기 분위기 값을 산출하는 것이 좋다.
Figure 112012108350745-pat00001
(여기에서, t은 템포에 대한 변수값, n은 박자에 대한 변수값, p는 음높이에 대한 변수값, h는 화성에 대한 변수값 그리고 g는 장르에 대한 변수값이다.)
상기 특징에 따른 음악 분위기 수치화 장치는 상기 제어부에 연결되어 있고, 산출된 상기 분위기 값을 저장하는 저장부를 더 포함할 수 있다.
상기 저장부는 '80 이상, '60 이상 80미만' '40이상 60 미만', '20 이상 40 미만' 그리고 '20 이하'의 영역으로 분리되어 있고, 상기 제어부는 산출된 분위기 값을 따라 상기 저장부의 해당 영역에 해당 음악을 저장할 수 있다.
본 발명의 다른 특징에 따른 음악 분위기 수치화 방법은 템포, 음높이, 박자, 화성 및 장르의 값인 변수값이 입력되는지를 판정하는 단계, 그리고 상기 변수값이 모두 입력될 경우, 입력된 상기 템포, 음높이, 박자, 화성 및 장르의 값을 이용하여 음악의 분위기 값을 산출하는 단계를 포함한다.
상기 분위기 값 산출 단계는 다음의 식을 이용하여 상기 분위기 값을 산출하는 것이 좋다.
Figure 112012108350745-pat00002
(여기에서, t은 템포에 대한 변수값, n은 박자에 대한 변수값, p는 음높이에 대한 변수값, h는 화성에 대한 변수값 그리고 g는 장르에 대한 변수값이다.)
상기 특징에 따른 음악 분위기 수치화 방법은 산출된 상기 분위기 값을 저장부에 저장하는 단계를 더 포함할 수 있다.
이때, 상기 저장부는 '80 이상, '60 이상 80미만' '40이상 60 미만', '20 이상 40 미만' 그리고 '20 이하'의 영역으로 분리되어 있고, 상기 저장 단계는 산출된 분위기 값을 따라 상기 저장부의 해당 영역에 해당 음악을 저장할 수 있다.
이러한 특징에 따르면, 음악의 분위기를 수치로 정확하게 표시하므로, 사용자는 해당 음악의 분위기를 용이하고 정확하게 파악하게 된다. 이로 인해, 사용자가 원하는 분위기의 음악이나 주변 분위기에 맞는 음악의 선곡이 정확하게 이루어져 사용자의 만족도가 향상된다.
도 1은 본 발명의 한 실시예에 따른 음악 분위기 수치화 장치의 블럭도이다.
도 2는 본 발명의 한 실시예에 따른 음악 분위기 수치화 방법의 동작 순서도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
그러면 첨부한 도면을 참고로 하여 본 발명의 한 실시예에 따른 음악 분위기 수치화 장치 및 방법에 대하여 설명한다.
먼저, 도 1을 참고로 하여 본 발명의 한 실시예에 따른 음악 분위기 수치화 장치에 대하여 상세하게 설명한다.
도 1을 참고로 하면, 본 발명의 한 실시예에 따른 음악 분위기 수치화 장치는 음악을 수치화하기 위해 사용되는 변수의 값(이하, '변수값'이라 함)을 입력하는 변수 입력부(10), 변수 입력부(10)에 연결되어 입력되는 변수값을 이용하여 음악의 수치를 산출하는 제어부(200), 산출된 음악의 수치를 출력하는 표시부(300), 그리고 제어부(200)와 연결되어 있는 데이터베이스(400)를 구비한다.
본 실시예에서, 해당 음악의 분위기를 값으로 수치화하기 위해 사용되는 변수는 템포(tempo)(즉, 빠르기), 음의 높낮이(즉, 음높이), 박자, 화성 및 장르(genre)로서, 이들 변수는 해당 음악이 실려있는 악보를 통해서 얻어진다.
한 예로서, 템포는 1분 사이의 박자 수를 메트로놈(metronome) 수에 따라 표시하는 메트로놈 기호(예, M.M♩=100)를 포함하여 속도 표기를 한 것을 이용하지만, 이와는 달리, 부분적인 연주 시간을 지정한 것(예, 8마디=20초)을 사용할 수도 있다.
이러한 템포는 약 60 내지 160의 값을 갖는다.
음높이는 음의 높이가 높아질수록 흥분도가 높아지기 때문에, 해당 음악의 악보에 기보되어 있는 총 음표 중에서 첫 번째 옥타브(octave)에 속하는 '도', '레', '미', '파', '솔', '라', '시' 및 '도' 중에서 정해진 설정 음높이(예, 시) 이상을 나타내는 음표의 개수를 백분율로 산출한 값이다. 음높이 '시'가 일반적으로 가요에서 쓰이는 음높이 중 중간음이기 때문에 '시'를 설정 음높이로 정한다.
박자는 해당 음악의 악보 초반부에 기재되어 있으며, 예를 들어, 4분의 3박자나 4분의 4박자 등이다. 박자를 나타내는 분수에서 분자 부분이 곡의 분위기를 좌우하는 리듬에 영향을 주고, 예를 들어, 분자의 값이 증가할수록 음악의 경쾌한 느낌이 증가다. 따라서, 본 예의 경우, 박자에 대한 변수값은 분자에 해당 값, 즉, '박자'에 해당값을 값을 사용한다. 한 예로서, 분위기를 수치화하기 위한 음악의 박자가 '4분의 3박자일' 경우, 박자에 대한 변수값은 '3'이 된다.
본 예에서, 박자의 최대 12의 변수값을 가질 수 있다.
화성은 음악의 밝고 어두움을 나타내는 요소로서, 장조나 단조를 구분한다.
장조일 경우, 밝은 곡의 느낌을 주고 단조일 경우에는 어두운 곡의 느낌을 주다. 본 예에서, 화성이 장조일 경우, 화성의 변수값은 '5'이고, 화성이 단조일 경우, 화성의 변수값은 '0'이다.
본 예에서, 장르는 댄스(dance), 락(rock), 발라드(ballade), 락발라드(rock ballade), R&B(rhythm and blues), 소울(soul) 및 기타로 나눠진다.
장르에 따라 음악의 분위기가 달라지므로, 분위기 수치의 산출 오차를 줄이기 위해 각 장르의 종류에 따라 상이한 변수값을 할당하여 추가적인 점수를 부여하도록 한다.
따라서, 본 실시예의 경우, 댄스와 락의 경우, 장르의 변수값은 '5'이고, 발라드, 락발라드, R&B 및 소울의 경우, 장르의 변수값은 '-5'이며, 기타에 해당할 경우, 장르의 변수값은 '0'이다.
이와 같이, 음악의 분위기를 수치화하기 위해 사용되는 변수의 값을 입력하는 변수 입력부는 키보드(keyboard)나 키패드(key pad)와 같은 숫자를 입력하는 입력 수단이다.
제어부(20)는 변수 입력부(10)를 통해 음악의 분위기를 수치화하기 위해 필요한 변수값이 입력되면, 이들 변수값을 이용하여 각 항을 100으로 환산한 후 각 항에 각각 정해진 가중치를 곱하여 최종 점수를 산출하여 산출된 최종 점수를 해당 음악에 대한 분위기 수치로 정한다.
본 예에서, 변수 입력부(10)를 통해 입력되는 변수값을 이용해 음악의 분위기 수치를 산출하는 산출식은 다음 [수학식 1]과 같다.
Figure 112012108350745-pat00003
수학식 1에서, t은 템포에 대한 변수값, n은 박자에 대한 변수값, p는 음높이에 대한 변수값, h는 화성에 대한 변수값 그리고 g는 장르에 대한 변수값이다.
이때, 템포에 대한 백분율을 산출하는 항은 '(t-60)×0.5'이고, 이때, 이 항에는 0.5의 가중치가 곱해짐을 알 수 있다.
즉, 이미 설명한 것처럼, 템포에 대한 변수값의 범위는 60 내지 160이므로, 템포에 대한 백분율을 산출하기 위해 템포의 해당 변수값에서 '60'을 빼줘(t-60), 이 항의 값을 최대 100(0 내지 100)으로 환산한다. 또한, 템포는 음악의 분위기를 결정하는 매우 중요한 변수이므로, 분위기 수치의 50%에 해당하는 0.5를 가중치로 부가한다.
또한, 박자에 대한 백분율을 산출하는 항은 '(10×n)'으로서, 박자(n)에 대한 변수값이 최대 12, 약 10이므로, 이 항의 최대 값을 대략 100(12×n)으로 환산하기 위해 박자에 대한 변수값(n)에 10을 곱하고, 또한, 분위기에 박자가 차지하는 부분은 크지만 템보보다는 기여도가 낮기 때문에 템포의 경우보다 낮은 0.2의 가중치를 부가한다.
음높이(p)에 대한 백분율의 산출 항은 (p×0.2)이고, 산출 항에서 알 수 있듯이 음 높이에 가중치는 박자와 동일한 값인 0.2로 정하여 음 높이에 대한 백분율을 산출한다.
따라서, 변수 입력부(10)로부터 해당하는 변수의 값이 입력되면, 제어부(20)는 [수학식 1]을 이용하여 해당 음악의 분위치에 대한 수치를 산출한다.
예를 들어, 박효신이 부른 '눈의 꽃'일 경우, 템포는 72이고, 박자는 4분의 4박자이며, 음높이는 73%이고, 화성은 사장조이며 장르는 발라드이다.
이 경우, [수학식 1]에 의해 산출된 분위기 값은 (72-60)×0.5+(10×4)×0.2+73×0.2+5+(-5)=28.2
또한, '거리에서(가수: 성시경)'의 경우, 템포는 66이고, 박자는 4분의 4박자이며, 음높이는 74%이고, 화성은 사장조이며 장르는 발라드이다. 이 경우, 산출된 분위기 값은 (66-60)×0.5+(10×4)×0.2+74×0.2+5+(-5)=25.8이다.
가수 원더걸스가 부른 '텔미(tell me)'의 경우, 템포는 130이고, 박자는 4분의 4박자이며, 음높이는 12%이고, 화성은 바장조이며 장르는 댄스이다. 이 경우, 산출된 분위기 값은 (130-60)×0.5+(10×4)×0.2+12×0.2+5+5=55.4이다.
김건모의 '잘못된 만남'의 경우, 템포는 162이고, 박자는 4분의 4박자이며, 음높이는 100%이고, 화성은 라장조이며 장르는 댄스이다. 이 경우, 산출된 분위기 값은 (162-60)×0.5+(10×4)×0.2+100×0.2+5+5=89이다.
표시부(300)는 제어부(20)에 산출된 분위기 값을 표시하는 것으로서, 액정 표시 장치 등으로 이루어져 있다. 따라서, 제어부(200)에서 산출된 분위기 값에 해당하는 데이터에 따라 해당하는 숫자, 문자 또는 그래프 등을 표시하여, 선택된 음악의 분위기 값을 용이하게 판정하도록 한다. 이러한 표시부(300)는 생략 가능하다.
데이터베이스(400)는 제어부(20)의 제어에 의해 산출된 분위기 값을 크기에 따라 분류하여 저장하는 저장부이다.
이때, 데이터베이스(400)는 산출된 분위기 값을 기초하여 복수의 영역으로 분할되어, 산출된 분위기 값에 해당하는 영역에 해당 음악의 제목, 가수 등과 같은 다양한 부가 정보와 함께 산출된 분위기 값이 저장된다.
한 예로서, 데이터베이스(400)는 산출된 분위기 값을 기초로 '80 이상, '60 이상 80미만' '40이상 60 미만', '20 이상 40 미만' 그리고 '20 이하'의 영역으로 분리될 수 있다. 이때, 산출된 분위치 값이 80 이상일 경우 매우 밝은 곡으로 분류되고, 60 이상 80미만일 경우는 밝은 곡, 40이상 60 미만이면 중성적인 곡, 20 이상 40 미만일 경우는 어둡고 잔잔한 곡, 그리고 20 이하일 경우에는 매우 어둡고 잔잔한 곡으로 분류된다.
따라서, '눈의 꽃'과 '거리에서'의 분위기 값은 각각 28.6과 25.8이므로, 어둡고 잔잔한 곡으로 분류되어 저장되고, '텔미'는 55.4의 분위기 값을 가지므로, 중성적인 곡으로 분류되며, '잘못된 만남'은 89의 분위기 값을 가지므로 매우 밝은 곡으로 분류된다.
이와 같이, 선택된 음악에 대한 분위기 값이 신속하고 정확하게 산출되면, 사용자는 산출된 분위기 값을 이용하여 원하는 음악을 선곡하여 부르거나 감상하게 된다. 이로 인해, 사용자의 만족도가 증가한다.
또한, 악보를 이용하여 쉽고 간단하게 분위기 값이 산출되면, 산출 시간이 단축되는 간단한 알고리즘(algorithm)으로 용이하게 구현 가능하며, 제조 비용이 절감된다.
이러한 구조를 갖는 음악 분위기 수치화 장치의 동작은 다음과 같다.
도 2에 도시한 것처럼, 음악 분위기 수치화 장치의 동작에 필요한 전원이 공급되어 음악 분위기 수치화 장치의 동작이 시작되면(S10), 변수 입력부(100)를 통해 변수가 입력되는지를 판정한다(S11, S13).
다음, 분위기 값 산출에 필요한 모든 변수가 입력되면(S15), [수학식 1]을 이용하여 분위기 값을 산출한다(S17).
그런 다음, 산출된 값을 표시부(300)로 출력하고 또한 산출된 값에 따라 데이터베이스(400)의 해당하는 항목에 저장한다(S19).
하지만, 단계(S13, S15)에서, 변수가 입력되지 않거나 분위기 값 산출을 위한 모든 변수가 입력되지 않을 경우, 변수 입력부(100)의 신호를 판독하여 원하는 변수값이 입력되었는지를 판정한다(S11).
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100: 변수 입력부 200: 제어부
300: 표시부 400: 데이터베이스

Claims (8)

  1. 템포, 음높이, 박자, 화성 및 장르의 값을 입력하는 변수 입력부, 그리고
    상기 변수 입력부와 연결되어 있고, 입력된 상기 템포, 음높이, 박자, 화성 및 장르의 값을 이용하여 음악의 분위기 값을 산출하는 제어부
    를 포함하고,
    상기 제어부는 다음의 식을 이용하여 상기 분위기 값을 산출하는 음악 분위기 수치화 장치.
    Figure 112014021159311-pat00004

    (여기에서, t은 템포에 대한 변수값, n은 박자에 대한 변수값, p는 음높이에 대한 변수값, h는 화성에 대한 변수값 그리고 g는 장르에 대한 변수값이다.)
  2. 삭제
  3. 제1항에서,
    상기 제어부에 연결되어 있고, 산출된 상기 분위기 값을 저장하는 저장부를 더 포함하는 산출하는 음악 분위기 수치화 장치.
  4. 제3항에서,
    상기 저장부는 '80 이상, '60 이상 80미만' '40이상 60 미만', '20 이상 40 미만' 그리고 '20 이하'의 영역으로 분리되어 있고, 상기 제어부는 산출된 분위기 값을 따라 상기 저장부의 해당 영역에 해당 음악을 저장하는 음악 분위기 수치화 장치.
  5. 템포, 음높이, 박자, 화성 및 장르의 값인 변수값이 입력되는지를 판정하는 단계, 그리고
    상기 변수값이 모두 입력될 경우, 입력된 상기 템포, 음높이, 박자, 화성 및 장르의 값을 이용하여 음악의 분위기 값을 산출하는 단계
    를 포함하고,
    상기 분위기 값 산출 단계는 다음의 식을 이용하여 상기 분위기 값을 산출하는 음악 분위기 수치화 방법.
    Figure 112014021159311-pat00005

    (여기에서, t은 템포에 대한 변수값, n은 박자에 대한 변수값, p는 음높이에 대한 변수값, h는 화성에 대한 변수값 그리고 g는 장르에 대한 변수값이다.)
  6. 삭제
  7. 제5항에서,
    산출된 상기 분위기 값을 저장부에 저장하는 단계를 더 포함하는 음악 분위기 수치화 방법.
  8. 제7항에서,
    상기 저장부는 '80 이상, '60 이상 80미만' '40이상 60 미만', '20 이상 40 미만' 그리고 '20 이하'의 영역으로 분리되어 있고, 상기 저장 단계는 산출된 분위기 값을 따라 상기 저장부의 해당 영역에 해당 음악을 저장하는 음악 분위기 수치화 방법.
KR1020120154626A 2012-12-27 2012-12-27 음악 분위기 수치화 장치 및 방법 KR101426166B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120154626A KR101426166B1 (ko) 2012-12-27 2012-12-27 음악 분위기 수치화 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120154626A KR101426166B1 (ko) 2012-12-27 2012-12-27 음악 분위기 수치화 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20140092434A KR20140092434A (ko) 2014-07-24
KR101426166B1 true KR101426166B1 (ko) 2014-08-06

Family

ID=51739072

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120154626A KR101426166B1 (ko) 2012-12-27 2012-12-27 음악 분위기 수치화 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101426166B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7115808B2 (en) 2004-03-25 2006-10-03 Microsoft Corporation Automatic music mood detection
US7396990B2 (en) 2005-12-09 2008-07-08 Microsoft Corporation Automatic music mood detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7115808B2 (en) 2004-03-25 2006-10-03 Microsoft Corporation Automatic music mood detection
US7396990B2 (en) 2005-12-09 2008-07-08 Microsoft Corporation Automatic music mood detection

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Renato Panda 외 1인, ‘AUTOMATIC CREATION OF MOOD PLAYLISTS IN THE THAYER PLANE: A METHODOLOGY AND A COMPARATIVE STUDY’, 2011년*
Renato Panda 외 1인, 'AUTOMATIC CREATION OF MOOD PLAYLISTS IN THE THAYER PLANE: A METHODOLOGY AND A COMPARATIVE STUDY', 2011년 *

Also Published As

Publication number Publication date
KR20140092434A (ko) 2014-07-24

Similar Documents

Publication Publication Date Title
US7829777B2 (en) Music displaying apparatus and computer-readable storage medium storing music displaying program
US9087500B2 (en) Note sequence analysis apparatus
US7323631B2 (en) Instrument performance learning apparatus using pitch and amplitude graph display
US9607593B2 (en) Automatic composition apparatus, automatic composition method and storage medium
US9257111B2 (en) Music analysis apparatus
US8946533B2 (en) Musical performance training device, musical performance training method and storage medium
US20100300262A1 (en) Music difficulty level calculating apparatus and music difficulty level calculating method
WO2020199381A1 (zh) 音频信号的旋律检测方法、装置以及电子设备
JP2017111268A (ja) 技法判定装置
WO2017090720A1 (ja) 技法判定装置及び記録媒体
JP5196550B2 (ja) コード検出装置およびコード検出プログラム
JP2011164162A (ja) 演奏表情付け支援装置
JP2010276891A (ja) 楽曲難易度評価装置および楽曲難易度評価プログラム
US20130284000A1 (en) Music note position detection apparatus, electronic musical instrument, music note position detection method and storage medium
JP2010134207A (ja) 演奏評価システムおよび演奏評価プログラム
KR101426166B1 (ko) 음악 분위기 수치화 장치 및 방법
US9040799B2 (en) Techniques for analyzing parameters of a musical performance
US10410616B2 (en) Chord judging apparatus and chord judging method
JP5434679B2 (ja) 歌詞音節数提示装置及びプログラム
JP5830840B2 (ja) 音声評価装置
Della Ventura The influence of the rhythm with the pitch on melodic segmentation
JP5585320B2 (ja) 歌唱音声評価装置
JP2015194767A (ja) 音声評価装置
JP6638305B2 (ja) 評価装置
JPH05346781A (ja) 調検出装置および自動編曲装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170704

Year of fee payment: 4

R401 Registration of restoration