KR100658219B1 - 동기정보에 의한 연주음 표시 방법 및 장치 - Google Patents

동기정보에 의한 연주음 표시 방법 및 장치 Download PDF

Info

Publication number
KR100658219B1
KR100658219B1 KR1020010036405A KR20010036405A KR100658219B1 KR 100658219 B1 KR100658219 B1 KR 100658219B1 KR 1020010036405 A KR1020010036405 A KR 1020010036405A KR 20010036405 A KR20010036405 A KR 20010036405A KR 100658219 B1 KR100658219 B1 KR 100658219B1
Authority
KR
South Korea
Prior art keywords
information
note
performance
score
time
Prior art date
Application number
KR1020010036405A
Other languages
English (en)
Other versions
KR20030001628A (ko
Inventor
정도일
강기훈
전용우
Original Assignee
어뮤즈텍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 어뮤즈텍(주) filed Critical 어뮤즈텍(주)
Priority to KR1020010036405A priority Critical patent/KR100658219B1/ko
Priority to PCT/KR2002/001193 priority patent/WO2003001500A1/en
Priority to US10/482,180 priority patent/US7038120B2/en
Publication of KR20030001628A publication Critical patent/KR20030001628A/ko
Application granted granted Critical
Publication of KR100658219B1 publication Critical patent/KR100658219B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • G09B15/02Boards or like means for providing an indication of notes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

본 발명은 동기정보에 의한 연주음 표시 방법 및 장치에 관한 것으로서, 연주될 악보 또는 미디데이터로부터 악보연주정보를 도출한 후, 그 악보 또는 악보연주정보에 의거하여 전자악보에 포함된 모든 음표들에 대한 음표위치정보를 생성하고, 해당 음표들이 연주될 시간정보를 포함하는 동기정보 및 음표위치정보에 의거하여 각 연주시점에 해당하는 연주음들을 전자악보에 표시하도록 하는 것을 특징으로 한다. 이 때, 동기정보는 악보연주정보 또는 미디데이터로부터 생성하거나 저장되어 있는 동기정보파일을 읽어서 적용할 수도 있으며, 입력되는 연주음악을 분석하여 실시간으로 생성한 동기정보를 적용할 수도 있다. 따라서, 음악을 연주하거나 들으면서 그 음악의 연주진행상황을 시각적으로 확인할 수 있다는 특징이 있고, 이로 인해 탁월한 음악학습효과를 기대할 수 있다는 장점이 있다.

Description

동기정보에 의한 연주음 표시 방법 및 장치{Method and apparatus for designating expressive performance notes with synchronization information}
도 1은 본 발명의 제1 실시예에 따른 연주음 표시 장치에 대한 개략적인 블록도,
도 1a는 본 발명의 제2 실시예에 따른 연주음 표시 장치에 대한 개략적인 블록도,
도 2는 본 발명의 제1 실시예에 따른 연주음 표시 방법에 대한 처리 흐름도,
도 2a는 본 발명의 제1 실시예에 따른 악보연주정보 도출 과정에 대한 처리 흐름도,
도 2b는 본 발명의 제1 실시예에 따른 동기정보 생성 과정에 대한 처리 흐름도,
도 3은 본 발명의 제2 실시예에 따른 연주음 표시 방법에 대한 처리 흐름도,
도 4는 본 발명의 제3 실시예에 따른 연주음 표시 방법에 대한 처리 흐름도,
도 5는 본 발명의 제4 실시예에 따른 연주음 표시 방법에 대한 처리 흐름도,
도 6a 내지 도 9c는 본 발명의 실시예에 따라 연주음을 표시하기 위한 처리 과정을 예시적으로 설명하기 위한 도면.
♣ 도면의 주요 부분에 대한 부호의 설명 ♣
10 : 악보정보 입력부 20 : 연주정보 관리부
30 : 전자악보 도시부 40 : 음표위치 관리부
50 : 동기정보 관리부 60 : 동기음표 표시부
70 : 연주음 입력부
본 발명은 연주음 표시 방법 및 장치에 관한 것으로서, 악보와 그 연주에 따른 연주음악 간의 동기정보에 의거하여 그 연주음악의 진행에 따른 연주음들을 전자악보에 표시하도록 하는 것을 특징으로 하는 연주음 표시 방법 및 장치에 관한 것이다.
일반적으로 음악교육은 악보 및 간단한 곡 해설이 수록된 교재와, 그 음악이 기록된 기록장치(예컨대, 테이프 또는 CD 등)에 의해 이루어진다. 즉, 음악이 기록된 기록장치를 재생하여 듣고, 해당 음악에 대한 악보를 보고 연주하고, 자신이 연주한 음악을 녹음하여 확인하는 일련의 과정들을 반복 수행함으로써, 해당 곡에 대한 학습이 이루어진다.
한편, 학습자들은 음악이 기록된 기록장치를 재생하여 해당 음악을 감상할 때, 그 음악에 대한 악보를 보면서 음악을 학습하기도 한다. 이 경우, 학습자의 청각적 기능과 시각적 기능을 동시에 자극함으로써, 보다 월등한 학습효과를 얻을 수가 있다.
하지만, 일반적인 종이악보를 보면서 음악감상을 할 경우, 학습자의 착오로 인해 악보의 현재 연주위치를 잘못 판단하게 될 경우가 있고, 악보의 해독능력이 떨어지는 경우에는 귀로 들리는 음악과 눈으로 보이는 악보를 매칭하지 못하는 경우도 있다.
따라서, 본 발명은 상기한 바와 같은 종래의 제반 문제점을 해결하기 위해 안출된 것으로서, 전자악보에 현재 연주위치를 표시할 수 있도록 하기 위해, 연주될 악보 또는 미디데이터로부터 악보연주정보를 도출한 후, 그 악보 또는 악보연주정보에 의거하여 전자악보에 포함된 모든 음표들에 대한 음표위치정보를 생성하고, 해당 음표들이 연주될 시간정보를 포함하는 동기정보 및 음표위치정보에 의거하여 각 연주시점에 해당하는 연주음들을 전자악보에 표시하도록 하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 방법 및 장치를 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 연주음 표시 방법은 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)로부터 악보연주정보(Meta Score)를 도출하는 제1 과정과, 상기 악보 또는 악보연주정보에 의거하여 전자악보(Electronic Score)를 화면상에 도시(display)하는 제2 과정과, 상기 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출하여, 각 음표들의 좌표정보와 상기 악보연주정보를 매칭시킨 음표위치정보(Note Position)를 생성하는 제3 과정과, 상기 악보연주정보의 각 음표들과 해당 음표들이 연주될 실제연 주시간정보를 포함하는 동기정보(Synchronization Information)를 생성하는 제4 과정과, 연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 연주음들을 상기 음표위치정보에 의거하여 상기 전자악보에 표시(designate)하는 제5 과정을 포함하는 것을 특징으로 한다.
또한, 상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 연주음 표시 방법은 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)로부터 악보연주정보(Meta Score)를 도출하는 제1 과정과, 상기 악보 또는 악보연주정보에 의거하여 전자악보(Electronic Score)를 화면상에 도시(display)하는 제2 과정과, 상기 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출하여, 각 음표들의 좌표정보와 상기 악보연주정보를 매칭시킨 음표위치정보(Note Position)를 생성하는 제3 과정과, 입력된 연주음악을 분석하여 도출된 실제연주시간정보 및 음높이정보(Pitch)에 의거하여, 현재의 연주음과 매칭되는 악보연주정보의 음표들과 상기 실제연주시간정보를 포함하는 동기정보를 생성하는 제4 과정과, 상기 제4 과정에서 생성된 동기정보 및 상기 음표위치정보에 의거하여 현재 진행중인 연주음들을 상기 전자악보에 표시(designate)하는 제5 과정을 포함하는 것을 특징으로 한다.
한편, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 연주음 표시 장치는 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)에 포함된 음표들의 음높이정보(Pitch) 및 음길이정보(Note Length)를 포함하는 악보정보를 입력하는 악보정보 입력부와, 상기 악보정보로부터 악보연주정보(Meta Score)를 도출하고 그 악보연주정보를 저장 관리하는 연주정보 관리부와, 상기 악보 또는 악보연주정보에 의거한 전자악보(Electronic Score)를 화면상에 도시(display)하고, 그 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출하는 전자악보 도시부와, 상기 전자악보 도시부에서 추출된 좌표정보와 상기 악보연주정보를 매칭시켜 음표위치정보(Note Position)를 생성하고, 그 음표위치정보를 관리하는 음표위치 관리부와, 상기 악보연주정보의 각 음표들이 연주될 실제연주시간정보 및 음높이정보를 포함하는 동기정보(Synchronization Information)를 생성하고 관리하는 동기정보 관리부와, 연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 연주음들을 상기 음표위치정보에 의거하여 전자악보에 표시(designate)하는 동기음표 표시부를 포함하는 것을 특징으로 한다.
또한, 상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 연주음 표시 장치는 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)에 포함된 음표들의 음높이정보(Pitch) 및 음길이정보(Note Length)를 포함하는 악보정보를 입력하는 악보정보 입력부와, 상기 악보정보로부터 악보연주정보(Meta Score)를 도출하고 그 악보연주정보를 저장 관리하는 연주정보 관리부와, 상기 악보 또는 악보연주정보에 의거한 전자악보(Electronic Score)를 화면상에 도시(display)하고, 그 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출하는 전자악보 도시부와, 상기 전자악보 도시부에서 추출된 좌표정보와 상기 악보연주정보를 매칭시켜 음표위치정보(Note Position)를 생성하고, 그 음표위치정보를 관리하는 음표위치 관리부와, 연주음악을 입력으로 받아들이는 연주음 입력부와, 상기 연주음 입 력부에서 입력된 연주음악을 분석하여 도출된 실제연주시간정보 및 음높이정보를 포함하는 동기정보(Synchronization Information)를 생성하고 관리하는 동기정보 관리부와, 연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 연주음들을 상기 음표위치정보에 의거하여 전자악보에 표시(designate)하는 동기음표 표시부를 포함하는 것을 특징으로 한다.
이하, 본 발명에 따른 동기정보에 의한 연주음 표시 방법 및 장치에 대한 바람직한 실시예를 첨부된 도면에 의거하여 상세하게 설명한다.
도 1은 본 발명의 제1 실시예에 따른 연주음 표시 장치에 대한 개략적인 블록도이다.
도 1을 참조하면, 본 발명의 제1 실시예에 따른 연주음 표시 장치는 악보정보 입력부(10), 연주정보 관리부(20), 전자악보 도시부(30), 음표위치 관리부(40), 동기정보 관리부(50) 및 동기음표 표시부(60)를 포함한다.
한편, 실시간으로 입력되는 연주음을 전자악보에 표시하기 위한 연주음 입력부(70)는 선택적으로 포함한다.
악보정보 입력부(10)는 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)에 포함된 음표들의 음높이정보(Pitch) 및 음길이정보(Note Length)를 포함하는 악보정보를 입력한다. 이 때, 미디데이터(MIDI Date)란 일반적으로 통용되는 형태의 연주정보로서, 이미 공지된 기술이므로 그 구체적인 구성에 대한 설명은 생략한다.
연주정보 관리부(20)는 악보정보로부터 악보연주정보(Meta Score)를 도출하 고 그 악보연주정보를 저장 관리한다. 연주정보란 해당 악보를 연주할 때 참고가 되는 사항들을 소정 규격에 따라 표현한 것으로서, 연주정보는 도 6b에 도시된 바와 같이 음표별 악보연주시간정보(Meta-Score Time)와, 음표식별정보(Meta Score Note ID)와, 음표길이정보(Note Length)를 포함한다.
즉, 연주정보 관리부(20)는 각 음표의 종류를 그 길이에 따라 수치적으로 표현한 음표길이정보에 의거하여, 해당 악보에 포함된 모든 음표들이 연주될 시간을 가상적으로 표현한 음표별 악보연주시간정보와, 해당 음표의 식별정보와, 그 음표의 길이정보를 포함하는 악보연주정보를 도출하고, 그 악보연주정보를 저장 관리한다.
이 때, 악보연주정보를 구성하는 각 요소들에 대하여 보다 구체적으로 설명하면 다음과 같다.
우선, 음표식별정보(Meta Score Note ID)는 도 4b의 예에서와 같이 그 음표를 식별할 수 있는 수치로 표현되며, 음높이정보를 가진다. 이 때, 74, 67, 69, 71, 72, 74와 같은 수치들은 한 옥타브를 12개의 숫자에 의해 표현할 때 사용되는 숫자들로서, 각각의 숫자 옆 괄호 안에 들어 있는 음 높이를 나타낸다.
음표길이정보는 각 음표의 종류를 그 길이에 따라 수치적으로 표현한 것으로서, 도 6b의 예에서는 1/4 음표를 64로 표현하고, 1/8의 경우 64를 2로 나눈 32로 표현한다. 이는 기준 음표의 길이 값을 어떻게 설정하느냐에 따라 그 값이 달라질 수도 있다.
한편, 음표별 악보연주시간정보는 그 음표길이정보에 의거하여 해당 음표가 연주되는 시간정보를 가상적으로 표현한 정보로서, 도 6b의 예에서, '1:00'이란 첫 번째 마디가 시작할 때를 나타내는 가상적인 시간정보이다. 따라서, 그 때의 음표식별정보 및 음표길이정보를 참조하면, 첫 번째 마디가 시작할 때 74(D5) 음표를 연주하되, 64 길이만큼 연주한다는 것을 나타낸다. 그리고, '1:64'란 첫 번째 마디의 시작 시점으로부터 64 만큼이 흐른 시점을 나타내는 가상적인 시간정보로서, 그 때의 음표식별정보 및 음표길이정보를 참조하면, 첫 번째 마디가 시작된 시점으로부터 64 만큼의 시간이 흐른 뒤에 67(G4) 음표를 32 길이 만큼 연주한다는 것을 나타낸다. '1:96', '1:128', '1:160'의 경우도 이 경우와 동일하다. 한편, '2:00'은 두 번째 마디가 시작할 때를 나타낸다.
전자악보 도시부(30)는 악보 또는 악보연주정보에 의거한 전자악보(Electronic Score)를 화면상에 도시(display)한다. 그리고, 그 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출한다. 즉, 도 6d에 도시된 바와 같이 각 음표의 머리 부분을 포함하는 소정 영역을 기준으로 해당 음표의 X축 및 Y축 좌표 정보를 추출한다.
음표위치 관리부(40)는 전자악보 도시부(30)에서 추출된 음표별 좌표정보와 악보연주정보를 매칭시켜 음표위치정보(Note Position)를 생성하고, 그 음표위치정보를 관리한다. 음표위치정보는 도 6e에 도시된 바와 같이 전자악보에 포함된 모든 음표들에 대한 음표별 악보연주시간정보(Meta-Score Time)와, 해당 음표의 식별정보와, 그 음표의 X축 및 Y축 좌표정보를 포함한다.
동기정보 관리부(50)는 악보연주정보의 각 음표들이 연주될 실제연주시간정 보 및 음높이정보를 포함하는 동기정보(Synchronization Information)를 생성하고 관리한다. 도 6f는 동기정보의 형태를 예시한 도면으로서, 도 6f를 참조하면, 음표별 실제연주시간정보와, 악보연주시간정보와, 음표식별정보를 포함한다.
이 때, 동기정보 관리부(50)는 악보연주정보 또는 미디데이터로부터 동기정보를 생성하거나, 기 저장된 동기정보파일을 읽어서 적용하는 것이 가능하다.
동기정보 관리부(50)가 악보연주정보로부터 동기정보를 생성하기 위해서는 연주정보 관리부(20)로부터 악보연주정보를 입력받아 그 악보연주정보에 포함된 각 음표별 악보연주시간정보를 추출하고, 그 악보연주시간정보에 의거하여 해당 음표가 실제로 연주될 시간정보를 산출한 후, 그 실제연주시간정보와 매칭되는 음표의 음표식별정보 및 악보연주시간정보를 실제연주시간정보와 함께 관리한다.
동기정보 관리부(50)가 미디데이터로부터 동기정보를 생성하기 위해서는 미디데이터로부터 악보연주정보의 각 음표별 미디연주시간정보를 도출한 후, 그 미디연주시간정보에 의거하여 해당 음표가 실제로 연주될 시간정보를 산출하고, 동기정보 관리부(50)가 기 저장된 동기정보파일을 읽어서 동기정보를 생성하기 위해서는 선택된 동기정보파일을 읽어서 악보연주정보의 각 음표별 실제연주시간정보를 도출한다. 그리고, 그 실제연주시간정보와, 해당 음표의 악보연주시간정보와, 해당 음표의 식별정보를 포함하는 동기정보를 생성 관리한다. 이 때, 기 저장된 동기정보파일을 읽어서 동기정보를 생성하는 경우는 유명한 연주자들의 연주기법을 학습하고자 할 때 응용 가능한 것으로서, 유명한 연주자의 연주에 의해 발생된 동기정보를 기준으로 악보의 연주 상태를 전자악보에 표시함으로써, 학습자가 그 연주자의 연주기법을 학습하도록 할 수 있다.
동기음표 표시부(60)는 음표위치 관리부(40)에 저장된 음표위치정보와, 동기정보 관리부(50)에 저장된 동기정보에 의거하여 그 연주음악의 진행에 따른 연주음들을 전자악보에 표시(designate)한다.
이 때, 동기음표 표시부(60)가 연주음악의 진행에 따라 음표들을 전자악보에 표시하는 방법은 두가지가 가능하다. 한가지는 실제 연주자의 연주와 무관하게 동작되는 것으로서, 동기정보 관리부(50)에 저장된 동기정보에 의거하여 예측되는 연주음을 전자악보에 표시하는 것이고, 나머지 한가지는 실제 연주자의 연주음 정보를 입력받아 그 정보를 전자악보에 표시하는 것이다.
먼저, 실제 연주자의 연주와 무관하게 동작되는 경우, 동기음표 표시부(60)는 동기정보 관리부(50)에서 입력된 동기정보 및 음표위치 관리부(40)에서 입력된 음표위치정보에 의거하여, 연주음악의 진행에 따른 동기정보의 각 시간마다 그 시간에 연주될 음표별 좌표정보를 추출한 후, 전자악보의 해당 좌표위치에 각 연주음들을 표시한다. 즉, 동기음표 표시부(60)는 해당 연주의 시작 정보만을 가지고 동작되며, 실제 연주음의 입력 여부와 관계없이 동기정보에 저장된 음표별 실제연주시간정보에 의거하여 해당 연주음들을 전자악보에 표시한다.
한편, 실제 연주음 정보를 전자악보에 표시하고자 하는 경우, 동기음표 표시부(60)는 실제 연주음의 진행에 따라 동기정보와 음표위치정보를 매칭하여 현재 연주음의 위치정보를 분석하고, 그 결과에 의해 현재 연주음을 전자악보에 표시한다. 이를 위해서는 연주음악을 입력으로 받아들이는 연주음 입력부(70)를 더 포함하여 야 하는데, 연주음 입력부(70)를 통해 입력되는 연주음악은 실제 어쿠스틱 연주음이나 미디연주에 따른 미디신호 또는 웨이브(wave) 파일의 연주정보가 모두 가능하다.
즉, 동기음표 표시부(60)는 동기정보 관리부(50)에서 입력된 동기정보 및 음표위치 관리부(40)에서 입력된 음표위치정보에 의거하여 연주가 진행됨에 따라 동기정보의 각 시간마다 그 시간에 연주될 음표별 좌표정보를 추출하고, 연주음 입력부(70)에서 입력된 연주음악을 분석하여 실제연주시간정보 및 음높이정보를 도출한다. 그리고, 실제 연주음으로부터 도출된 실제연주시간정보와 동기정보의 실제연주시간정보를 비교하여 그 차이값을 추출하고, 그 차이값과 해당 음표에 대한 음표위치정보의 X축 값을 비교하여 실제 연주음이 표시될 X축 값을 설정한다. 또한, 실제 연주음으로부터 도출된 음높이정보와 동기정보에 설정된 음표식별정보에 의해 유추된 해당 음표의 음높이정보를 비교하여 그 차이값을 추출하고, 그 차이값과 해당 음표에 대한 음표위치정보의 Y축 값을 비교하여 실제 연주음이 표시될 Y축 값을 설정한다. 그리고, 전자악보의 해당 좌표위치에 각 연주음들을 표시한다.
도 1a는 본 발명의 제2 실시예에 따른 연주음 표시 장치에 대한 개략적인 블록도이다. 도 1a는 동기정보를 연주음악이 진행되기 이전에 미리 생성하는 것이 아니고, 연주음악의 진행에 따라 동기정보를 실시간으로 발생시키고, 그 동기정보를 이용하여 연주음을 표시하는 장치를 나타낸 도면이다.
도 1a를 참조하면 본 발명의 제2 실시예에 따른 연주음 표시 장치는 악보정보 입력부(10a), 연주정보 관리부(20a), 전자악보 도시부(30a), 음표위치 관리부(40a), 동기정보 관리부(50a), 동기음표 표시부(60a) 및 연주음 입력부(70a)를 포함한다.
이 때, 각 장치들의 동작은 대부분 본 발명의 제1 실시예와 유사하며, 동기정보의 생성을 위해 연주음 입력부(70a)로부터 입력되는 연주음이 실시간으로 동기정보 관리부(50a)로 전달된다는 것이 본 발명의 제1 실시예와 두드러지게 다른 점이다.
따라서, 악보정보 입력부(10a), 연주정보 관리부(20a), 전자악보 도시부(30a) 및 음표위치 관리부(40a)의 구체적인 설명은 생략한다.
우선 연주음 입력부(70a)는 연주음악을 입력받아 동기정보 관리부(50a) 및 동기음표 표시부(60a)로 전달하는 장치로서, 연주음 입력부(70a)를 통해 입력되는 연주음악은 실제 어쿠스틱 연주음이나 미디연주에 따른 미디신호 또는 웨이브(wave) 파일의 연주정보가 모두 가능하다.
동기정보 관리부(50a)는 연주음 입력부(70a)에서 입력된 연주음악을 분석하여 실제연주시간정보 및 음높이정보를 도출한다. 그리고, 그 실제연주시간정보 및 음높이정보를 연주정보 관리부(20a)에서 생성된 악보연주정보와 비교하여, 현재의 연주음과 매칭된 악보연주정보의 각 음표별로 음표별 악보연주시간정보, 해당 음표의 식별정보, 그리고 현재 연주음이 연주된 시점인 실제연주시간정보를 포함하는 동기정보(Synchronization Information)를 실시간으로 생성하고 관리한다.
동기음표 표시부(60a)는 연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 연주음들을 음표위치정보에 의거하여 전자악보에 표시(designate)한다.
이 경우 동기정보가 실제 연주음에 의거하여 생성됨으로써, 실제 연주음의 연주시간정보와 동기정보에 포함된 실제연주시간정보는 항상 일치하게된다. 하지만, 실제 연주음의 음높이정보와 동기정보에 포함된 음높이정보는 다를 수가 있다.
따라서, 이 경우에도 본 발명의 제1 실시예와 같이 실제 연주자의 연주와 무관한 연주음을 전자악보에 표시하는 방법과, 실제 연주자의 연주음 정보를 입력받아 그 정보를 전자악보에 표시하는 방법이 모두 가능하다.
우선, 전자의 경우, 동기음표 표시부(60a)는 동기정보 관리부(50a)에서 입력된 동기정보 및 음표위치 관리부(40a)에서 입력된 음표위치정보에 의거하여 연주의 진행에 따른 동기정보의 각 시간마다 그 시간에 연주될 음표별 좌표정보를 추출하고, 전자악보의 해당 좌표위치에 각 연주음들을 표시한다.
한편, 후자의 경우, 동기음표 표시부(60a)는 동기정보 관리부(50a)에서 입력된 동기정보 및 음표위치 관리부(40a)에서 입력된 음표위치정보에 의거하여 연주가 진행됨에 따라 동기정보의 각 시간마다 그 시간에 연주될 음표별 좌표정보를 추출한 후, 연주음 입력부(70a)에서 입력된 연주음악을 분석하여 도출된 실제연주시간정보 및 음높이정보를 동기정보의 실제연주시간정보 및 음표식별정보와 비교하여 실제 연주음의 좌표위치를 산출한다. 그리고, 전자악보의 해당 좌표위치에 각 연주음들을 표시한다.
도 2는 본 발명의 제1 실시예에 따른 연주음 표시 방법에 대한 처리 흐름도이다.
도 2를 참조하면, 본 발명의 제1 실시예에 따라 연주음을 표시하기 위해 먼 저, 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)로부터 악보연주정보(Meta Score)를 도출한다(S210). 이 때, 악보연주정보란 해당 악보를 연주할 때 참고가 되는 사항들을 소정 규격에 따라 표현한 것으로서, 그 구성은 도 6b에 도시된바와 같다. 그리고, 악보 또는 악보연주정보에 의거하여 전자악보를 도시한다(S220).
또한, 그 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출하여, 각 음표들의 좌표정보와 상기 악보연주정보를 매칭시킨 음표위치정보(Note Position)를 생성한다(S230). 이 때, 음표위치정보를 생성하는 방법 및 그 구성은 도 6d 및 도 6e에 도시된 바와 같으며, 도 1에 도시된 전자악보 도시부(30) 및 음표위치 관리부(40)의 동작 설명시 언급되었으므로 생략한다.
한편, 상기 악보연주정보의 각 음표들과 해당 음표들이 연주될 실제연주시간정보를 포함하는 동기정보(Synchronization Information)를 생성한다(S240). 이 때, 동기정보의 생성방법 및 구성은 도 1 및 도 6f를 참조한 동기정보 관리부(50)의 동작 설명시 언급되었으므로 생략한다.
이와 같이 해당 악보의 음표위치정보 및 동기정보가 생성된 후, 연주가 진행되면 그에 따라 동기정보의 각 시간에 해당하는 연주음들을 음표위치정보에 의거하여 상기 전자악보에 표시(designate)한다(S250 내지 S270).
이 때, 연주음을 전자악보에 표시하는 방법은 도 1의 동기음표 표시부(60)의 동작 설명시 언급된 바와 같이 두가지 방법이 가능하다.
즉, 한가지는 실제 연주자의 연주와 무관하게 동작되는 것으로서, 기 저장된 동기정보에 의거하여 예측되는 연주음을 전자악보에 표시하는 것이고, 나머지 한가지는 실제 연주자의 연주음 정보를 입력받아 그 정보를 전자악보에 표시하는 것이다.
도 2에서는 전자의 경우에 대한 처리 과정을 설명하였다. 후자의 경우는 도 3을 참조한 설명시 언급한다.
도 2a는 상기 악보연주정보 도출 과정(S210)에 대한 보다 상세한 처리 흐름도이다. 즉, 도 2a를 참조하면, 악보로부터 악보연주정보를 도출하고자하는 경우 선택된 악보로부터 악보연주정보를 도출하고(S211, S212), 미디데이터로부터 악보연주정보를 도출하고자하는 경우 선택된 미디데이터로부터 미디연주정보를 도출하고(S213, S214), 그 미디연주정보로부터 악보연주정보를 도출하는 과정을 수행한다(S215).
도 2b는 상기 동기정보 생성 과정(S240)에 대한 보다 상세한 처리 흐름도이다. 도 2b를 참조하면, 동기정보를 생성하기 전에 생성될 동기정보를 선택한다(S241). 즉, 동기정보는 그 생성방법에 따라, 연주될 악보로부터 동기정보를 생성하는 악보동기정보, 미디데이터로부터 동기정보를 생성하는 미디동기정보, 기 저장된 동기정보파일로부터 동기정보를 생성하는 파일동기정보로 구분할 수 있는데, 이들 중 어느 하나의 동기정보를 선택하는 것이다.
상기 과정(S241)에서 악보동기정보를 선택하였으면, 악보연주정보에 포함된 각 음표별 악보연주시간정보에 의거하여 해당 음표가 실제로 연주될 시간정보를 산출한 값인 실제연주시간정보와, 해당 음표의 악보연주시간정보와, 해당 음표의 식 별정보를 포함하는 악보동기정보를 생성하고(S242), 미디동기정보를 선택하였으면, 선택된 미디데이터로부터 상기 악보연주정보의 각 음표별 미디연주시간정보를 도출한 후, 그 미디연주시간정보에 의거하여 해당 음표가 실제로 연주될 시간정보를 산출한 값인 실제연주시간정보와, 해당 음표의 악보연주시간정보와, 해당 음표의 식별정보를 포함하는 미디동기정보를 생성한다(S244). 한편, 상기 과정(S241)에서 파일동기정보를 선택하였으면, 선택된 동기정보파일을 읽어서 상기 악보연주정보의 각 음표별 실제연주시간정보와, 해당 음표의 악보연주시간정보와, 해당 음표의 식별정보를 포함하는 파일동기정보를 생성한다(S243).
도 3은 본 발명의 제2 실시예에 따른 연주음 표시 방법에 대한 처리 흐름도로서, 연주음을 전자악보에 표시하는 두가지 방법 중 실제 연주자의 연주음 정보를 입력받아 그 정보를 전자악보에 표시하리 위한 처리 과정을 나타낸다.
도 3을 참조하면, 우선, 연주하고자 하는 악보 또는 미디데이터로부터 악보연주정보(Meta Score), 음표위치정보 및 동기정보를 생성하는 일련의 처리 과정(S310 내지 S340)을 수행한다. 이 때, 상기 처리 과정(S310 내지 S340)은 도 2에 도시된 처리 과정(S210 내지 S240)과 유사하므로 구체적인 설명은 생략한다.
이와 같이 해당 악보의 음표위치정보 및 동기정보가 생성된 후, 연주가 진행되면 그에 따라 동기정보의 각 시간에 해당하는 연주음들을 음표위치정보에 의거하여 상기 전자악보에 표시(designate)한다(S350 내지 S380).
즉, 연주음악이 입력되면, 그 연주음악을 분석하여 현재시간(실제 연주음이 연주되는 시간) 및 음높이정보를 도출한다(S355, S360). 그리고, 상기 과정(S340) 에서 생성된 동기정보에 의거하여 상기 악보연주정보의 각 음표별 실제연주시간정보가 상기 실제 연주음의 연주시간에 해당하는 음표를 추출하여(S365), 상기 과정(S360)에서 도출된 실제 연주음 정보와 상기 과정(S365)에서 추출된 동기정보를 비교하여 연주음의 X축 및 Y축 좌표를 산출한다(S370). 다시 말하면, 상기 과정(S360)에서 도출된 연주음악의 실제연주시간과 상기 과정(S365)에서 추출된 동기정보의 실제연주시간정보를 비교하여 실제 연주음의 X축 좌표를 산출하고, 상기 과정(S360)에서 도출된 연주음악의 음높이정보와 상기 과정(S365)에서 추출된 음표의 식별정보(음높이정보)를 비교하여 실제 연주음의 Y축 좌표를 산출한다. 만일, 실제 연주음 정보와 기 생성된 동기정보에 저장된 실제연주시간정보 및 음높이정보(음표식별정보)가 일치하는 경우, 그 실제연주시간정보 및 음높이정보를 가지고 음표위치정보를 검색하여, 해당 음표의 X축 및 Y축 좌표를 산출한 후, 해당 위치에 현재 연주음을 표시한다.
그리고, 상기 과정(S370)에서 산출된 X축 및 Y축 좌표에 의거하여 실제 연주음을 전자악보의 해당 좌표위치에 표시한다(S375). 이러한 일련의 과정(S355 내지 S375)을 연주가 종료되거나 종료 명령이 입력될 때까지(S380) 반복 수행한다.
도 4는 본 발명의 제3 실시예에 따른 연주음 표시 방법에 대한 처리 흐름도이고, 도 5는 본 발명의 제4 실시예에 따른 연주음 표시 방법에 대한 처리 흐름도이다.
즉, 도 4 및 도 5는 입력되는 연주음악을 분석하여 실시간으로 생성한 동기정보를 이용하여 연주음을 표시하는 방법을 나타낸 것으로서, 도 4는 이와 같이 생 성된 동기정보만을 이용하여 연주음을 표시하는 방법을 나타낸 것이고, 도 5는 이와 같이 생성된 동기정보와 실제 연주음의 분석 결과를 비교하여 실제 연주음에 의거한 연주음 표시방법을 나타낸 것이다.
도 4를 참조하면, 본 발명의 제3 실시예에 따른 연주음 표시 방법은 우선, 연주하고자 하는 악보 또는 미디데이터로부터 악보연주정보(Meta Score)를 도출하고, 전자악보를 도시한 후, 음표위치정보를 생성하는 일련의 처리 과정(S410 내지 S430)을 수행한다. 이 때, 상기 처리 과정(S410 내지 S430)은 도 2에 도시된 처리 과정(S210 내지 S230)과 유사하므로 구체적인 설명은 생략한다.
그리고, 연주음 표시시작 명령과 함께 연주음악이 입력되면(S440, S450), 그 연주음악을 분석하여 실제연주시간정보 및 음높이정보(Pitch)를 도출하고, 그 실제연주시간정보 및 음높이정보에 의거하여 현재의 연주음과 매칭되는 악보연주정보의 음표들과 상기 실제연주시간정보를 포함하는 동기정보를 생성한다(S460 내지 S480). 이 때, 생성되는 동기정보는 현재 연주음과 매칭된 악보연주정보의 각 음표별 악보연주시간정보, 해당 음표의 식별정보, 그리고 현재 연주음이 연주된 시점인 실제연주시간정보를 포함한다. 즉, 도 2 또는 도 3의 예에서 생성된 동기정보와 그 구성이 동일하다.
상기와 같이 동기정보가 생성되면, 그 동기정보 및 음표위치정보에 의거하여 현재 진행중인 연주음들을 상기 전자악보에 표시(designate)한다(S490). 즉, 연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 악보연주정보의 음표별 좌표정보를 상기 음표위치정보에 의거하여 추출하고, 전자악보의 해당 좌표위치에 각 연주 음들을 표시한다.
이러한 일련의 과정(S450 내지 S490)을 연주가 종료되거나 종료 명령이 입력될 때까지(S500) 반복 수행한다.
한편, 도 5를 참조하면, 본 발명의 제4 실시예에 따른 연주음 표시 방법은 우선, 연주하고자 하는 악보 또는 미디데이터로부터 악보연주정보(Meta Score)를 도출하고, 전자악보를 도시한 후, 음표위치정보를 생성하는 일련의 처리 과정(S510 내지 S530)을 수행한다. 이 때, 상기 처리 과정(S510 내지 S530)은 도 2에 도시된 처리 과정(S210 내지 S230)과 유사하므로 구체적인 설명은 생략한다.
그리고, 연주음 표시시작 명령과 함께 연주음악이 입력되면(S540, S545), 그 연주음악을 분석하여 실제연주시간정보 및 음높이정보(Pitch)를 도출하고, 그 실제연주시간정보 및 음높이정보에 의거하여 현재의 연주음과 매칭되는 악보연주정보의 음표들과 상기 실제연주시간정보를 포함하는 동기정보를 생성한다(S550 내지 S560).
이와 같이 동기정보가 생성되었으면, 먼저, 그 동기정보와 음표위치정보의 매칭에 의해 해당음표의 X축 좌표를 산출하고(S565), 상기 동기정보의 음표식별정보와 실제 연주음에 의해 분석된 현재 연주음의 음높이정보를 비교하여 현재 연주음의 Y축 좌표를 산출한다(S570). 그리고, 그 X축 좌표 및 Y축 좌표에 의거하여 실제 연주음을 전자악보에 표시한다(S575).
이러한 일련의 과정(S545 내지 S575)을 연주가 종료되거나 종료 명령이 입력될 때까지(S580) 반복 수행한다.
한편, 도 6a 내지 도 8f는 본 발명의 실시예에 따라 연주음을 표시하기 위한 처리 과정을 예시적으로 설명하기 위한 도면이다.
도 6a는 본 발명을 예시적으로 설명하기 위해 바흐(Bach)의 미뉴에트(Minuet) G장조의 처음 두 마디에 대한 악보를 도시하였다. 도 6b는 도 6a에 도시된 악보에 의해 도출된 오른손 파트의 악보연주정보(Meta Score)의 일부를 도시한 도면이고, 도 6c는 도 6a에 도시된 악보에 의해 도출된 왼손 파트의 악보연주정보(Meta Score)의 일부를 도시한 도면이다.
도 6d는 상기 악보 또는 악보연주정보에 의해 디스플레이된 전자악보로부터 각 음표의 좌표정보를 도출하기 위한 방법을 설명하기 위한 도면으로서, 도 6d를 참조하면, 음표의 머리부분의 소정 영역의 좌측 상단 부분을 기준으로 해당 음표의 X축 및 Y축 좌표값을 설정한다. 그리고, 이러한 과정을 거쳐 생성된 음표위치정보의 예가 도 6e에 나타나 있다.
도 6f는 도 6b 및 도 6c에 도시된 악보연주정보(Meta Score)에 의해 생성된 동기정보에 대한 예가 나타나 있다. 이러한 동기정보는 이와 같이 악보연주정보(Meta Score)로부터 생성할 수도 있고, 미디 음악에서 통용되는 미디(MIDI)데이터 및 기 저장된 동기정보파일로부터 생성할 수도 있다. 또한, 연주자의 실제 어쿠스틱 연주음이나 미디연주에 따른 미디신호 또는 웨이브(wave) 파일로부터 실시간으로 생성하는 것도 가능하다.
도 7a는 동기정보, 악보연주정보 및 음표위치정보를 나타내고, 도 7b 내지 도 7f는 도 7a에 도시된 동기정보에 의거하여 현재 연주음을 전자악보에 표시하는 예를 도시한 도면이다. 도 7b 내지 도 7f에서 흐리게 표시된 부분은 초기에 디스플레이된 전자악보를 나타내고, 음표의 머리 부분이 진하게 표시된 부분이 현재 연주음의 위치를 나타낸다.
즉, 도 7a에 도시된 동기정보를 참조하면, 해당 음악의 연주가 시작되는 시점(0.000)에 74(D5), 59(B3), 55(G3)가 동시에 연주되며, 그 연주음을 전자악보에 표시한 예가 도 7b이다. 또한, 도 7a에 도시된 동기정보를 참조하면, 해당 음악이 연주된 후 1.000초 후에는 67(G4)이 연주되며, 그 연주음을 전자 악보에 표시한 예가 도 7c이다. 한편, 도 7a에 도시된 동기정보를 참조하면, 해당 음악이 연주된 후 1.500초 후에는 69(A4)가 연주되고, 해당 음악이 연주된 후 2.000초 후에는 71(B4)과 57(A3)이 동시에 연주되고, 해당 음악이 연주된 후 2.500초 후에는 72(C5)가 연주된다. 도 7d는 음악이 연주된 후 1.500초 후에 현재 연주음을 전자악보에 표시한 예를 나타내고, 도 7e는 음악이 연주된 후, 2.000초 후에 현재 연주음을 전자악보에 표시한 예를 나타내고, 도 7f는 음악이 연주된 후, 2.500초 후에 현재 연주음을 전자악보에 표시한 예를 나타낸다.
이 때, 전자악보에 표시된 현재 연주음은 실제 연주와는 무관한 것으로서, 동기정보에 의해 예측된 시간에 무조건 표시되는 것을 특징으로 한다.
도 8a 내지 도 8f는 실제 연주음이 입력되는 경우 그 연주음 정보(Onset time, 음높이정보)와 기 생성된 동기정보(실제연주시간 정보, 음표식별정보)를 비교하여 실제 연주음의 위치를 전자악보에 표시하는 예를 설명하기 위한 도면으로서, 도 8a는 동기정보, 악보연주정보, 음표위치정보 및 실제 연주음의 분석 정보를 나타내고, 도 8b 내지 도 8f는 도 8a에 도시된 동기정보에 의거하여 현재 연주음을 전자악보에 표시하는 예를 도시한 도면이다. 도 8b 내지 도 8f에서 흐리게 표시된 부분은 초기에 디스플레이된 전자악보를 나타내고, 음표의 머리 부분이 진하게 표시된 부분이 현재 연주음의 위치를 나타낸다. 이 때, 악보의 반주 부분(왼손)은 미디 음악 등을 재생하고, 멜로디 부분(오른손)만 실제로 연주하는 경우를 나타낸다.
즉, 도 8a에 도시된 동기정보를 참조하면, 해당 음악의 연주가 시작되는 시점(0.000)에 74(D5)가 연주되어야 하며, 59(B3), 55(G3)가 미디 음악의 재생에 의해 연주된다. 한편, 그 시점(0.000)에 실제로 연주된 연주음의 분석 정보를 보면, 0.000시점에 74(D5)가 정확하게 연주되었다. 도 8b는 이와 같이 해당 음악의 연주된 시점(0.000)에 실제로 연주된 연주음 및 미디 음악의 재생에 의해 입력된 연주음 정보를 표시한 예를 나타낸다. 또한, 도 8a에 도시된 동기정보를 참조하면, 연주가 시작된 후 0.950초 후에는 67(G4)이 연주되어야 하는데, 실제로 연주된 연주음의 분석 정보를 보면, 0.900초 후에 67(G4)이 연주되었다. 즉, 이 때의 연주음은 동기정보에 의해 실제로 연주되어야할 시점(0.950)보다 0.050초 더 빨리 연주되었다. 따라서, 도 8c에 도시된 바와 같이 현재 연주음의 표시 위치가 전자악보에 표시된 위치보다 좌측으로 조금 치우쳐 있다. 즉, 도 8a에 나타난 해당 음표(0.950초 후에 연주되는 67(G4))의 X축 좌표값보다 적은 값에 의해 X축 좌표값이 결정된다. 이와 같이 동기정보에 의해 설정된 실제연주시간정보와 실제 연주된 연주음의 연주 시간(onset time) 정보가 다를 경우, (수학식 1)에 의해 X축 좌표값을 변경하는 과정을 수행한다.
Figure 112001016584896-pat00041
이 때, X는 실제 연주된 시간 정보에 의거한 음표의 X축 좌표값이고, X1은 동기정보의 실제연주시간정보에 의거한 현재 음표의 X축 좌표값이고, X0은 동기정보의 실제연주시간정보에 의거한 이전 음표의 X축 좌표값이고, t1은 동기정보의 현재 시간 정보이고, t2는 동기정보의 이전 시간 정보이고, tr은 실제 연주 시간이다.
따라서, 이 경우, 실제 연주음 정보에 의해 전자악보에 표시될 음표의 X축 좌표값은 (수학식 2)에 의해 산출된다.
X = 180 - ((180 - 150) * (0.950 - 0.900))/(0.950 - 0.000) ≒ 178.4
즉, 도 8c의 경우 현재 연주음으로 표시된 음표의 좌표값은 (178.4, 102)이 된다.
한편, 도 8a에 도시된 동기정보를 참조하면, 연주가 시작된 후 1.450초 후에는 69(A4)가 연주되어야 하는데, 실제로 연주된 연주음의 분석 정보를 보면, 1.450초 후에 71(B4)이 연주되었다. 즉, 동기정보에 의해 실제로 연주되어야할 연주음보다 한음 높은 음이 연주되었다. 따라서, 도 8d에 도시된 바와 같이 현재 연주음의 표시 위치가 전자 악보에 표시된 위치보다 한음 높게 표시되었다. 즉, Y축 좌표값은 각 음간 일정한 간격을 가지게 되므로, 한음이 '3'으로 설정되었다고 가정할 경우, 도 8a에 나타난 음표(1.450초 후에 연주되는 69(A4))의 Y축 좌표값 '99'에서 '3'을 뺀 '96'이 1.450초 후에 실제로 연주된 음표의 Y축 좌표값이 된다. 즉, 도 8d의 경우 현재 연주음으로 표시된 음표의 좌표값은 (200, 96)이 된다.
상기 음높이와 악보상의 Y축 좌표간 관계를 자세히 살펴보면 다음과 같다. 악보의 표기법과 음악적 해석에 의하면 하나의 옥타브는 도(C), 레(D), 미(E), 파(F), 솔(G), 라(A), 시(B) 등의 7개 음들과 각 음들의 사이에 도#(C#), 레#(D#), 파#(F#), 솔#(G#), 라#(A#) 등의 5개 음들을 갖게 된다. 악보에서는 다 장조의 경우, 앞부분의 7개 음들을 기준으로 표기하며 뒷부분의 5개 음들은 #(Sharp) 또는 ♭(Flat) 기호를 사용한다. 상기 12개의 음들은 4번째 옥타브의 경우 60(C4), 61(C4#), 62(D4), 63(D4#), 64(E4), 65(F4), 66(F4#), 67(G4), 68(G4#), 69(A4), 70(A4#), 71(B4) 등과 같이 구성되며 60(C4), 62(D4) 등 한음의 차이와 64(E4), 65(F4) 등 반음의 차이가 다르지만 악보에서는 동일한 간격으로 표시된다. 그러므로 악보의 기준음에 맞추어 미-파, 시-도 등 반음의 차이가 한음의 차이와 동일하게 표시되는 경우는 상기 도 8d에서와 동일하게 Y축 간격을 적용하여 처리하면 되며, 그 외에 반음의 차이는 음표의 앞부분에 #(Sharp)과 ♭(Flat) 그리고
Figure 112001015359121-pat00001
(Neutral) 등의 기호를 붙여서 표시한다.
이제 도 8e의 경우에서 반음의 차이가 발생하는 경우를 예로 살펴보자. 도 8a에 도시된 동기정보를 참조하면, 연주가 시작된 후 1.990초 후에는 71(B4)이 연주되어야 하는데, 실제로 연주된 연주음의 분석 정보를 보면, 1.900초 후에 72(C5)가 연주되었다. 즉, 동기정보에 의해 실제로 연주되어야할 시점 보다 0.090초 더 빨리 연주되었고, 실제로 연주되어야 할 연주음보다 반음 높은 음이 연주되었다. 여기에서 71(B4)과 72(C5)는 반음 차이이지만 악보에서는 한음의 차이와 같이 표현되므로 상기 설정된 '3'의 간격을 그대로 적용한다. 따라서, 현재 연주음의 표시 위치가 도 8e에 도시된 바와 같다.
즉, X축 좌표값은 (수학식 1)을 참조하여, (수학식 3)과 같은 계산에 의해 산출되며, Y축 좌표값은 '96'에서 '3'을 뺀 '93'이 된다.
X = 220 - ((220 - 200) * (1.990 - 1.900))/(1.990 - 1.450) ≒ 216.7
따라서, 도 8e의 경우 현재 연주음으로 표시된 음표의 좌표값은 (216.7, 93)이 된다.
도 8f는 해당 음악이 연주된 후 2.500초 후에 72(C5)가 정확하게 연주된 상태를 나타낸다.
이 때, X축 좌표값을 변경하기 위해 사용된 산출식(수학식 1)은 하나의 실시예에 불과한 것으로서, 보다 효과적으로 현재음을 표시하기 위해 다른 산출식을 적용하는 것도 가능하다.
도 9a 내지 도 9c는 실제 연주음이 입력되는 경우 그 연주음 정보를 기 생성 된 동기정보와 비교하여 다른 형태의 전자악보에 표시하는 예를 설명하기 위한 도면이다. 도 9a는 도 7a의 동기정보, 악보연주정보 및 새로운 전자악보에 해당하는 음표위치정보를 함께 나타내고, 도 9b는 연주 이전의 전자악보를 나타내며 각 시간별로 음표에 해당하는 영역이 흐리게 표시되어 있다. 도 9c는 상기 전자악보에 오른손 파트의 허밍 연주음을 실시간으로 분석하여 세분화된 음높이를 표시한 것으로 시간의 흐름에 따른 연주음의 음높이를 나타낸다. 이 때에 왼손 파트의 연주는 도 8의 예와 동일하게 미디음악의 재생에 의해 연주된다.
즉, 도 9a에 도시된 동기정보를 참조하면, 해당 음악의 연주가 시작되는 시점(0.000)에 74(D5)가 연주되어야 하며, 1.000초 후에는 67(G4)이 연주되어야 한다. 계속하여 1.500초 후에는 69(A4)가 연주되어야 하고, 2.000초 후에는 71(B4)이 연주되어야 하며, 2.500초 후에는 72(C5)가 연주되어야 한다. 이와 같이 도 9a에 도시된 동기정보에 의한 전자악보가 도 9b에 도시되어 있다.
사람의 목소리에 의한 허밍 등은 음높이가 항상 일정하지 않고 불규칙하게 조금씩 떨리므로 하나의 음표를 연주하는 동안에도 음높이에는 작은 변화가 있다. 이러한 변화를 전자악보에 표시함으로써 음높이가 얼마나 정확하게 유지되는지 확인할 수 있다. 도 9c는 이러한 목적으로 표시하는 하나의 예로서, 도 9a의 동기정보에 의한 음표들의 적정 영역과 실제 연주음의 음높이를 함께 나타낸다.
즉, 0.150초 시점에 음높이가 74에서 약간 낮아진 73.85로 도시되었고, 0.700초에는 약간 높아진 74.10, 1.150초에는 67보다 낮은 66.85, 1.900초에는 69보다 높은 69.25, 2.350초에는 71보다 낮은 70.75로 나타낸다. 이렇게 실제 연주음 의 음높이정보를 세분화하여 실시간으로 정보를 전자악보에 표시함으로써, 연주음의 정확도를 쉽게 확인할 수 있다.
이상의 설명은 하나의 실시예를 설명한 것에 불과한 것으로서, 본 발명은 상술한 실시예에 한정되지 않으며 첨부한 특허청구범위 내에서 다양하게 변경 가능하다. 예를 들어 본 발명의 실시예에 구체적으로 나타난 각 구성 요소의 형상 및 구조는 변형하여 실시할 수 있다.
상기와 같은 본 발명의 동기정보에 의한 연주음 표시 방법 및 장치는 음악을 연주하거나 들으면서, 그 음악의 연주진행상황을 시각적으로 쉽게 확인할 수 있다는 특징이 있고, 이로 인해 탁월한 음악학습효과를 기대할 수 있다는 장점이 있다. 또한, 연주음악을 실시간으로 분석하여 그 연주상태를 실시간으로 전자악보에 표시하도록 함으로써, 연주자의 연주평가를 위한 장치로도 응용할 수 있다.

Claims (29)

  1. 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)로부터, 각 음표의 종류를 그 길이에 따라 수치적으로 표현한 음표길이정보(Note Length)에 의거하여 해당 악보에 포함된 모든 음표들이 연주될 시간을 가상적으로 표현한 음표별 악보연주시간정보(Meta Score Time)와 해당 음표의 식별정보(Meta Score Note ID)와 그 음표의 길이정보를 포함하는 악보연주정보(Meta Score)를 도출하는 제1 과정과,
    상기 악보 또는 악보연주정보에 의거하여 전자악보(Electronic Score)를 화면상에 도시(display)하는 제2 과정과,
    상기 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출하고, 각 음표들의 좌표정보와 상기 악보연주정보를 매칭시켜, 상기 전자악보에 포함된 모든 음표들에 대한 음표별 악보연주시간정보와 해당 음표의 식별정보와 그 음표의 X축 및 Y축 좌표정보를 포함하는 음표위치정보(Note Position)를 생성하는 제3 과정과,
    상기 악보연주정보에 포함된 음표별 악보연주시간정보와, 해당 음표의 식별정보와, 해당 음표가 실제로 연주될 시점인 실제연주시간정보를 포함하는 동기정보(Synchronization Information)를 생성하는 제4 과정과,
    연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 연주음들을 상기 음표위치정보에 의거하여 상기 전자악보에 표시(designate)하는 제5 과정을 포함하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1항에 있어서, 상기 제4 과정은
    동기정보의 생성방법에 따라, 연주될 악보로부터 동기정보를 생성하는 악보동기정보, 미디데이터로부터 동기정보를 생성하는 미디동기정보, 기 저장된 동기정보파일로부터 동기정보를 생성하는 파일동기정보 중 어느 하나의 동기정보를 선택하는 제4-1 과정과,
    상기 제4-1 과정에서 악보동기정보를 선택한 경우, 상기 악보연주정보에 포함된 각 음표별 악보연주시간정보에 의거하여 해당 음표가 실제로 연주될 시간정보를 산출한 값인 실제연주시간정보와, 해당 음표의 악보연주시간정보와, 해당 음표의 식별정보를 포함하는 악보동기정보를 생성하는 제4-2 과정과,
    상기 제4-1 과정에서 미디동기정보를 선택한 경우, 선택된 미디데이터로부터 상기 악보연주정보의 각 음표별 미디연주시간정보를 도출한 후, 그 미디연주시간정보에 의거하여 해당 음표가 실제로 연주될 시간정보를 산출한 값인 실제연주시간정보와, 해당 음표의 악보연주시간정보와, 해당 음표의 식별정보를 포함하는 미디동기정보를 생성하는 제4-3 과정과,
    상기 제4-1 과정에서 파일동기정보를 선택한 경우, 선택된 동기정보파일을 읽어서 상기 악보연주정보의 각 음표별 실제연주시간정보와, 해당 음표의 악보연주시간정보와, 해당 음표의 식별정보를 포함하는 파일동기정보를 생성하는 제4-4 과정을 포함하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 방법.
  7. 제1항에 있어서, 상기 제5 과정은
    동기정보에 의거하여 예측되는 연주음을 전자악보에 표시하고자 하는 경우
    연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 악보연주정보의 음표별 좌표정보를 상기 음표위치정보에 의거하여 추출하고, 전자악보의 해당 좌표위치에 각 연주음들을 표시하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 방법.
  8. 제1항에 있어서, 상기 제5 과정은
    실제 연주음 정보를 전자악보에 표시하고자 하는 경우
    실제 연주음이 연주되는 시간 및 그 연주음의 음높이정보를 분석하는 제5-1 과정과,
    상기 제4 과정에서 생성된 동기정보에 의거하여 상기 악보연주정보의 각 음표별 실제연주시간정보가 상기 실제 연주음의 연주시간에 해당하는 음표를 추출하는 제5-2 과정과,
    상기 제5-2 과정에서 추출된 음표의 실제연주시간정보와 상기 실제 연주음의 연주시간을 비교하여 실제 연주음의 X축 좌표를 산출하고, 상기 제5-2 과정에서 추출된 음표의 식별정보와 실제 연주음의 음높이정보를 비교하여 실제 연주음의 Y축 좌표를 산출하는 제5-3 과정과,
    상기 제5-3 과정에서 산출된 X축 및 Y축 좌표에 의거하여 상기 실제 연주음을 전자악보의 해당 좌표위치에 표시하는 제5-4 과정을 포함하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 방법.
  9. 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)로부터, 각 음표의 종류를 그 길이에 따라 수치적으로 표현한 음표길이정보(Note Length)에 의거하여, 해당 악보에 포함된 모든 음표들이 연주될 시간을 가상적으로 표현한 음표별 악보연주시간정보(Meta Score Time)와 해당 음표의 식별정보(Meta Score Note ID)와 그 음표의 길이정보를 포함하는 악보연주정보(Meta Score)를 도출하는 제1 과정과,
    상기 악보 또는 악보연주정보에 의거하여 전자악보(Electronic Score)를 화면상에 도시(display)하는 제2 과정과,
    상기 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출하고, 각 음표들의 좌표정보와 상기 악보연주정보를 매칭시켜, 상기 전자악보에 포함된 모든 음표들에 대한 음표별 악보연주시간정보와 해당 음표의 식별정보와 그 음표의 X축 및 Y축 좌표정보를 포함하는 음표위치정보(Note Position)를 생성하는 제3 과정과,
    입력된 연주음악을 분석하여 도출된 실제연주시간정보 및 음높이정보(Pitch)에 의거하여, 상기 현재 연주음과 매칭된 악보연주정보의 각 음표별 악보연주시간정보, 해당 음표의 식별정보, 그리고 현재 연주음이 연주된 시점인 실제연주시간정보를 포함하는 동기정보를 생성하는 제4 과정과,
    상기 제4 과정에서 생성된 동기정보 및 상기 음표위치정보에 의거하여 현재 진행중인 연주음들을 상기 전자악보에 표시(designate)하는 제5 과정을 포함하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 방법.
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 제9항에 있어서, 상기 제5 과정은
    동기정보에 의거하여 예측되는 연주음을 전자악보에 표시하고자 하는 경우
    연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 악보연주정보의 음표별 좌표정보를 상기 음표위치정보에 의거하여 추출하고, 전자악보의 해당 좌표위치에 각 연주음들을 표시하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 방법.
  15. 제9항에 있어서, 상기 제5 과정은
    실제 연주음의 음높이정보를 전자악보에 표시하고자 하는 경우
    상기 제4 과정에서 생성된 동기정보와 제3 과정에서 생성된 음표위치정보의 매칭에 의해 해당음표의 X축 좌표를 산출하는 제5-1 과정과,
    상기 제4 과정에서 분석된 현재 연주음의 음높이정보와 동기정보의 음표식별정보를 비교하여 실제 연주음의 Y축 좌표를 산출하는 제5-2 과정과,
    상기 제5-1 과정 및 제5-2 과정에서 산출된 X축 및 Y축 좌표에 의거하여 상기 실제 연주음을 전자악보에 표시하는 제5-3 과정을 포함하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 방법.
  16. 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)에 포함된 음표들의 음높이정보(Pitch) 및 음길이정보(Note Length)를 포함하는 악보정보를 입력하는 악보정보 입력부와,
    상기 악보정보로부터, 각 음표의 종류를 그 길이에 따라 수치적으로 표현한 음표길이정보(Note Length)에 의거하여 해당 악보에 포함된 모든 음표들이 연주될 시간을 가상적으로 표현한 음표별 악보연주시간정보(Meta Score Time)와 해당 음표의 식별정보(Meta Score Note ID)와 그 음표의 길이정보를 포함하는 악보연주정보(Meta Score)를 도출하고 그 악보연주정보를 저장 관리하는 연주정보 관리부와,
    상기 악보 또는 악보연주정보에 의거한 전자악보(Electronic Score)를 화면상에 도시(display)하고, 그 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출하는 전자악보 도시부와,
    상기 전자악보 도시부에서 추출된 좌표정보와 상기 악보연주정보를 매칭시켜, 상기 전자악보에 포함된 모든 음표들에 대한 음표별 악보연주시간정보와 해당 음표의 식별정보와 그 음표의 X축 및 Y축 좌표정보를 포함하는 음표위치정보(Note Position)를 생성하고, 그 음표위치정보를 관리하는 음표위치 관리부와,
    상기 연주정보 관리부로부터 악보연주정보를 입력받아, 그 악보연주정보에 포함된 각 음표별 악보연주시간정보에 의거하여 해당 음표가 실제로 연주될 시간정보를 산출한 값인 실제연주시간정보와 상기 악보연주시간정보와 해당 음표의 식별정보를 포함하는 동기정보(Synchronization Information)를 생성하고 관리하는 동기정보 관리부와,
    연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 연주음들을 상기 음표위치정보에 의거하여 전자악보에 표시(designate)하는 동기음표 표시부를 포함하는 것을 특징으로 하는 동기 정보에 의한 연주음 표시 장치.
  17. 삭제
  18. 삭제
  19. 삭제
  20. 제16항에 있어서, 상기 동기정보 관리부는
    기 설정된 미디데이터로부터 상기 악보연주정보의 각 음표별 미디연주시간정보를 도출하고, 그 미디연주시간정보에 의거하여 동기정보를 생성 관리하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 장치.
  21. 제16항에 있어서, 상기 동기정보 관리부는
    선택된 동기정보파일을 읽어서 동기정보를 생성 관리하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 장치.
  22. 제16항에 있어서, 상기 동기음표 표시부는
    상기 동기정보 관리부에서 입력된 동기정보 및 음표위치 관리부에서 입력된 음표위치정보에 의거하여, 연주가 진행됨에 따른 동기정보의 각 시간마다 그 시간에 연주될 음표별 좌표정보를 추출한 후, 전자악보의 해당 좌표위치에 각 연주음들을 표시하는 것을 특징으로 하는 동기 정보에 의한 연주음 표시 장치.
  23. 제16항에 있어서,
    연주음악을 입력으로 받아들이는 연주음 입력부를 더 포함하고,
    상기 동기음표 표시부는
    상기 동기정보 관리부에서 입력된 동기정보 및 음표위치 관리부에서 입력된 음표위치정보에 의거하여 연주가 진행됨에 따라 동기정보의 각 시간마다 그 시간에 연주될 음표별 좌표정보를 추출하고, 상기 연주음 입력부에서 입력된 연주음악을 분석하여 도출된 실제연주시간정보 및 음높이정보를 동기정보의 실제연주시간정보 및 음표식별정보와 비교하여 실제 연주음의 좌표위치를 산출하고, 전자악보의 해당 좌표위치에 각 연주음들을 표시하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 장치.
  24. 연주될 악보(Musical Score) 또는 미디데이터(MIDI Data)에 포함된 음표들의 음높이정보(Pitch) 및 음길이정보(Note Length)를 포함하는 악보정보를 입력하는 악보정보 입력부와,
    상기 악보정보로부터, 각 음표의 종류를 그 길이에 따라 수치적으로 표현한 음표길이정보(Note Length)에 의거하여 해당 악보에 포함된 모든 음표들이 연주될 시간을 가상적으로 표현한 음표별 악보연주시간정보(Meta Score Time)와 해당 음표의 식별정보(Meta Score Note ID)와 그 음표의 길이정보를 포함하는 악보연주정보(Meta Score)를 도출하고 그 악보연주정보를 저장 관리하는 연주정보 관리부와,
    상기 악보 또는 악보연주정보에 의거한 전자악보(Electronic Score)를 화면상에 도시(display)하고, 그 전자악보에 포함된 모든 음표들에 대한 좌표정보(X-Y Location)를 추출하는 전자악보 도시부와,
    상기 전자악보 도시부에서 추출된 좌표정보와 상기 악보연주정보를 매칭시켜, 상기 전자악보에 포함된 모든 음표들에 대한 음표별 악보연주시간정보와 해당 음표의 식별정보와 그 음표의 X축 및 Y축 좌표정보를 포함하는 음표위치정보(Note Position)를 생성하고, 그 음표위치정보를 관리하는 음표위치 관리부와,
    연주음악을 입력으로 받아들이는 연주음 입력부와,
    상기 연주음 입력부에서 입력된 연주음악을 분석하여 도출된 실제연주시간정보 및 음높이정보를 포함하는 동기정보(Synchronization Information)를 생성하고 관리하는 동기정보 관리부와,
    연주가 진행됨에 따라 동기정보의 각 시간에 해당하는 연주음들을 상기 음표위치정보에 의거하여 전자악보에 표시(designate)하는 동기음표 표시부를 포함하는 것을 특징으로 하는 동기 정보에 의한 연주음 표시 장치.
  25. 삭제
  26. 삭제
  27. 제24항에 있어서, 상기 동기정보 관리부는
    상기 연주음 입력부에서 입력된 연주음악을 분석하여 도출된 실제연주시간정보 및 음높이정보와 상기 연주정보 관리부에서 입력된 악보연주정보를 비교하여, 현재의 연주음과 매칭된 악보연주정보의 각 음표별로 악보연주시간정보, 해당 음표의 식별정보, 그리고 현재 연주음이 연주된 시점인 실제연주시간정보를 포함하는 동기정보를 실시간으로 생성하고, 그 동기정보를 관리하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 장치.
  28. 제24항에 있어서, 상기 동기음표 표시부는
    상기 동기정보 관리부에서 입력된 동기정보 및 음표위치 관리부에서 입력된 음표위치정보에 의거하여 연주가 진행됨에 따라 동기정보의 각 시간마다 그 시간에 연주될 음표별 좌표정보를 추출하여, 전자악보의 해당 좌표위치에 각 연주음들을 표시하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 장치.
  29. 제24항에 있어서, 상기 동기음표 표시부는
    상기 동기정보 관리부에서 입력된 동기정보 및 음표위치 관리부에서 입력된 음표위치정보에 의거하여 연주가 진행됨에 따라 동기정보의 각 시간마다 그 시간에 연주될 음표별 좌표정보를 추출하고, 상기 연주음 입력부에서 입력된 연주음악을 분석하여 도출된 실제연주시간정보 및 음높이정보를 동기정보의 실제연주시간정보 및 음표식별정보와 비교하여 실제 연주음의 좌표위치를 산출하고, 전자악보의 해당 좌표위치에 각 연주음들을 표시하는 것을 특징으로 하는 동기정보에 의한 연주음 표시 장치.
KR1020010036405A 2001-06-25 2001-06-25 동기정보에 의한 연주음 표시 방법 및 장치 KR100658219B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020010036405A KR100658219B1 (ko) 2001-06-25 2001-06-25 동기정보에 의한 연주음 표시 방법 및 장치
PCT/KR2002/001193 WO2003001500A1 (en) 2001-06-25 2002-06-24 Method and apparatus for designating expressive performance notes with synchronization information
US10/482,180 US7038120B2 (en) 2001-06-25 2002-06-24 Method and apparatus for designating performance notes based on synchronization information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010036405A KR100658219B1 (ko) 2001-06-25 2001-06-25 동기정보에 의한 연주음 표시 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20030001628A KR20030001628A (ko) 2003-01-08
KR100658219B1 true KR100658219B1 (ko) 2006-12-15

Family

ID=19711315

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010036405A KR100658219B1 (ko) 2001-06-25 2001-06-25 동기정보에 의한 연주음 표시 방법 및 장치

Country Status (3)

Country Link
US (1) US7038120B2 (ko)
KR (1) KR100658219B1 (ko)
WO (1) WO2003001500A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7166792B2 (en) * 2002-09-26 2007-01-23 Yamaha Corporation Storage medium containing musical score displaying data, musical score display apparatus and musical score displaying program
ITTO20050381A1 (it) * 2005-06-01 2006-12-02 Paolo Guardiani Sistema di rappresentazione musicale cartesiana, procedimento di composizione musicale utilizzante tale sistema e sistema di eleborazione ed esecuzione musicale
JP5198093B2 (ja) * 2008-03-06 2013-05-15 株式会社河合楽器製作所 電子楽音発生器
KR20130057293A (ko) * 2011-11-23 2013-05-31 주식회사 지에스엘앤씨 디지털 음악파일을 이용한 전자악보제공장치 및 전자악보 제공방법
KR101221673B1 (ko) * 2012-03-21 2013-01-16 이승원 전자기타 연습장치
KR20150072597A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법
US9424822B2 (en) * 2014-05-27 2016-08-23 Terrence Bisnauth Musical score display device and accessory therefor
US11132983B2 (en) 2014-08-20 2021-09-28 Steven Heckenlively Music yielder with conformance to requisites
US20160189694A1 (en) * 2014-10-08 2016-06-30 Richard Lynn Cowan Systems and methods for generating presentation system page commands
CN113763991B (zh) * 2019-09-02 2024-04-19 深圳市平均律科技有限公司 一种演奏声音信息和曲谱信息的比对方法及系统
WO2023079419A1 (en) * 2021-11-03 2023-05-11 Sphereo Sound Ltd. Aligning digital note files with audio

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59128576A (ja) * 1983-01-13 1984-07-24 日本ビクター株式会社 音符の表示装置
US4479416A (en) * 1983-08-25 1984-10-30 Clague Kevin L Apparatus and method for transcribing music
JPS603518A (ja) * 1983-06-21 1985-01-09 Victor Co Of Japan Ltd 音符の表示装置
US4771671A (en) * 1987-01-08 1988-09-20 Breakaway Technologies, Inc. Entertainment and creative expression device for easily playing along to background music
WO1997048464A1 (en) * 1996-06-20 1997-12-24 Music Net, Incorporated Electronic display stand
JPH10240117A (ja) * 1997-02-25 1998-09-11 Dainippon Printing Co Ltd 楽器練習の支援装置および楽器練習用情報の記録媒体
KR19990009032A (ko) * 1997-07-07 1999-02-05 배순훈 디지탈 전자악기의 악보표시장치 및 방법
KR20000072127A (ko) * 2000-08-02 2000-12-05 한창호 전자악보 시스템 및 이를 이용한 악보추적방법
JP2000338965A (ja) * 1999-05-25 2000-12-08 Dainippon Printing Co Ltd Midiデータの表示方法および表示装置ならびにmidiデータを表示した楽譜

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3077269B2 (ja) * 1991-07-24 2000-08-14 ヤマハ株式会社 楽譜表示装置
JP3582359B2 (ja) * 1998-05-20 2004-10-27 ヤマハ株式会社 楽譜割付け装置及び楽譜割付けプログラムを記録したコンピュータで読み取り可能な記録媒体
EP1026660B1 (en) * 1999-01-28 2005-11-23 Yamaha Corporation Apparatus for and method of inputting a style of rendition
JP3582396B2 (ja) * 1999-03-17 2004-10-27 ヤマハ株式会社 楽譜編集装置および記録媒体
US6156964A (en) * 1999-06-03 2000-12-05 Sahai; Anil Apparatus and method of displaying music

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59128576A (ja) * 1983-01-13 1984-07-24 日本ビクター株式会社 音符の表示装置
JPS603518A (ja) * 1983-06-21 1985-01-09 Victor Co Of Japan Ltd 音符の表示装置
US4479416A (en) * 1983-08-25 1984-10-30 Clague Kevin L Apparatus and method for transcribing music
US4771671A (en) * 1987-01-08 1988-09-20 Breakaway Technologies, Inc. Entertainment and creative expression device for easily playing along to background music
WO1997048464A1 (en) * 1996-06-20 1997-12-24 Music Net, Incorporated Electronic display stand
JPH10240117A (ja) * 1997-02-25 1998-09-11 Dainippon Printing Co Ltd 楽器練習の支援装置および楽器練習用情報の記録媒体
KR19990009032A (ko) * 1997-07-07 1999-02-05 배순훈 디지탈 전자악기의 악보표시장치 및 방법
JP2000338965A (ja) * 1999-05-25 2000-12-08 Dainippon Printing Co Ltd Midiデータの表示方法および表示装置ならびにmidiデータを表示した楽譜
KR20000072127A (ko) * 2000-08-02 2000-12-05 한창호 전자악보 시스템 및 이를 이용한 악보추적방법

Also Published As

Publication number Publication date
KR20030001628A (ko) 2003-01-08
US20040182229A1 (en) 2004-09-23
WO2003001500A1 (en) 2003-01-03
US7038120B2 (en) 2006-05-02

Similar Documents

Publication Publication Date Title
JP4353018B2 (ja) 楽器演奏教習装置及びそのプログラム
Folkestad et al. Compositional strategies in computer-based music-making
US7663044B2 (en) Musical performance self-training apparatus
JP4124247B2 (ja) 楽曲練習支援装置、制御方法及びプログラム
Stanyek Forum on transcription
KR100658219B1 (ko) 동기정보에 의한 연주음 표시 방법 및 장치
Scheirer Extracting expressive performance information from recorded music
US7041888B2 (en) Fingering guide displaying apparatus for musical instrument and computer program therefor
JP2008026622A (ja) 評価装置
JP4949899B2 (ja) ピッチ表示制御装置
JP2003308067A (ja) ディジタル楽譜の音符とその楽譜のリアリゼーションとの間のリンクを生成する方法
Bonnasse-Gahot An update on the SOMax project
KR100418563B1 (ko) 동기정보에 의한 미디음악 재생 방법 및 장치
JP5297662B2 (ja) 楽曲データ加工装置、カラオケ装置、及びプログラム
JP2007233077A (ja) 評価装置、制御方法及びプログラム
JP4497513B2 (ja) コード練習装置
JP2009169103A (ja) 練習支援装置
JP3753798B2 (ja) 演奏再現装置
Tanghe et al. Collecting ground truth annotations for drum detection in polyphonic music
JP4219652B2 (ja) リピート演奏時に直前に計測したピッチ誤差に基づいて該当箇所の主旋律音量を制御するカラオケ装置の歌唱練習支援システム
JP2004109613A (ja) 演奏判定装置
JP4891135B2 (ja) 評価装置
JP3623557B2 (ja) 自動作曲システムおよび自動作曲方法
JP5416396B2 (ja) 歌唱評価装置およびプログラム
JP2008040258A (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
B601 Maintenance of original decision after re-examination before a trial
J2X1 Appeal (before the patent court)

Free format text: APPEAL AGAINST DECISION TO DECLINE REFUSAL

J302 Written judgement (patent court)

Free format text: JUDGMENT (PATENT COURT) FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20050527

Effective date: 20060519

J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20060525

Effective date: 20061027

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20111201

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee