KR20080051169A - 합주 시스템 - Google Patents

합주 시스템 Download PDF

Info

Publication number
KR20080051169A
KR20080051169A KR1020087008627A KR20087008627A KR20080051169A KR 20080051169 A KR20080051169 A KR 20080051169A KR 1020087008627 A KR1020087008627 A KR 1020087008627A KR 20087008627 A KR20087008627 A KR 20087008627A KR 20080051169 A KR20080051169 A KR 20080051169A
Authority
KR
South Korea
Prior art keywords
performance
terminal
controller
facilitator
playing
Prior art date
Application number
KR1020087008627A
Other languages
English (en)
Inventor
사또시 우사
도모미쯔 우라이
Original Assignee
야마하 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 야마하 가부시키가이샤 filed Critical 야마하 가부시키가이샤
Publication of KR20080051169A publication Critical patent/KR20080051169A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • G10H1/08Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by combining tones
    • G10H1/10Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by combining tones for obtaining chorus, celeste or ensemble effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Abstract

각 참가자의 참가 상태(출결 등)의 관리를 행하여, 매일, 매주, 혹은 매월 어느 정도 활동을 했는지를 용이하게 관리할 수 있는 전자 악기를 제공한다. 컨트롤러(1)는, 각 연주 단말(2)의 연주 조작에 따라 연주 이력을 기록한다. Facilitator가 연주 파트를 할당한 연주 단말(2)은 「출석」으로 하고, 연주 파트를 할당하지 않은 연주 단말(2)은 「결석」으로 하여 연주 개시부터 연주 종료까지 각 연주 단말(2)의 타건 수, 평균 타건 강도(평균 Velocity) 등을 기록한다. 기록한 각 항목의 값은 텍스트 데이터로서 출력한다. 연주마다 각 항목의 값이 기록되므로, 각 사용자가 매일, 매주, 혹은 매월 어느 정도 참가하고 있는지를 용이하게 관리할 수 있다.
Figure P1020087008627
연주 단말, 컨트롤러, 항목, 연주 파트, 관리

Description

합주 시스템 {ENSEMBLE SYSTEM}
본 발명은, 악기의 조작에 익숙하지 않은 사람도 용이하게 합주에 참가할 수 있는 합주 시스템에 관한 것으로, 특히 연주 이력을 용이하게 관리할 수 있는 합주 시스템에 관한 것이다.
종래부터, 연주자의 조작에 대하여 악음(樂音)을 발생하는 전자 악기가 알려져 있다. 이러한 전자 악기는, 예를 들어 피아노 등을 모델로 하고 있으며, 자연 악기인 피아노와 마찬가지의 연주 조작을 행하는 것이 일반적이었다. 또한, 이와 같은 전자 악기로는, 연주의 숙달에 숙련을 요하며, 연주를 충분히 익히는데 시간이 걸리는 것이다.
그러나, 최근에는 악기의 조작에 익숙하지 않은 사람이 용이하게 연주할 수 있는 악기를 실현하는 것이 요망되고 있다. 또한, 연주자가 혼자 연주를 즐길 뿐만아니라, 다수의 연주자가 참가하여 합주를 실현할 수 있는 악기의 실현이 요망되고 있다.
그래서, 악기의 조작에 익숙하지 않은 복수의 사용자가 용이하게 연주에 참가할 수 있는 전자 악기로서, 예를 들어 일본 특허 공개 제2000-276141호 공보의 전자 악기가 제안되어 있다.
이 전자 악기는, 복수의 사용자가 간이한 조작(손으로 흔드는 조작)으로 합주를 행할 수 있다. 또한, 이 전자 악기는, 복수의 사용자가 즐기면서 운동(연주 조작)을 할 수 있기 때문에, 재활 훈련이나 웰니스 활동 등에 이용되고 있다.
전자 악기를 재활 훈련이나 웰니스 활동에 이용할 경우, 각 사용자의 정보를 수집하는 것이 요망되고 있다. 예를 들어, 연주에 따른 사용자의 심신 기능의 변화를 평가하기 위해, 각 사용자의 심박수 등의 심신 기능의 데이터를 수집할 수 있는 전자 악기가 요망되고 있다.
각 사용자의 정보를 수집할 수 있는 것으로서, 예를 들어 일본 특허 공개 제2004-93613호 공보의 연주 처리 장치가 제안되어 있다. 이 연주 처리 장치는, 사용자의 연주 동작이나 신체 상태를 검출하여, 그 동작이나 신체 상태에 기초하여 연주 파라미터(평가용 악곡 데이터)를 기록하고, 표준 악곡 데이터와 비교하여 평가한다.
복수의 사용자(참가자)가 동시에 재활 훈련 등의 활동을 할 경우, 소정의 인원수(예를 들어 5인 정도)로 1개의 그룹을 형성하여, 패실리테이터(가이드역)가 각 참가자를 가이드하는 경우가 많다. 패실리테이터는, 각 참가자의 참가 상태(출결 등)의 관리를 행하여, 매일, 매주, 혹은 매월 어느 정도 활동을 했는지를 관리한다.
상기 전자 악기로는, 복수의 참가자가 용이하게 합주를 행할 수 있는 것이지만, 패실리테이터가 각 참가자의 참가 상태를 관리할 수 있는 것이 아니라, 예를 들어 접수 등으로 출결 기록할 수 밖에 없었다.
또한, 상기 연주 처리 장치는, 심신 기능의 평가에 이용하는 데이터를 수집 할 수 있지만, 각 참가자의 참가 상태(출결 등)의 관리를 행하여, 매일, 매주, 혹은 매월 어느 정도 활동을 했는지를 관리할 수 있는 것은 아니었다.
본 발명의 목적은, 각 참가자의 참가 상태(출결 등)의 관리를 행하여, 매일, 매주, 혹은 매월 어느 정도 활동을 했는지를 용이하게 관리할 수 있는 합주 시스템을 제공하는 것이다.
상기 목적을 달성하기 위하여, 본 발명의 합주 시스템은, 연주 조작을 행하기 위한 적어도 1개의 연주 조작자를 각각 구비하는 복수의 연주 단말과, 적어도 1개의 음원과, 상기 복수의 연주 단말 및 상기 적어도 1개의 음원에 접속되어, 각 연주 단말을 제어하는 컨트롤러로 이루어지는 합주 시스템이며, 상기 컨트롤러는, 복수의 연주 파트로 이루어지는 연주곡 데이터를 기억하는 기억 수단과, 연주의 개시, 및 종료를 지시하기 위한 조작 수단과, 상기 복수의 연주 파트를 상기 복수의 연주 단말에 할당하여, 각 연주 단말의 연주 조작자의 조작 형태에 따라, 그 연주 단말에 할당되어 있는 연주 파트를 판독하여, 당해 판독한 연주 파트의 데이터를 상기 음원에 출력하는 연주 제어 수단과, 각 연주 단말의 사용 및 불사용을 기록하여, 연주의 개시부터 종료까지의 각 연주 단말의 연주 이력을 기록하는 기록 수단을 구비하는 것을 특징으로 한다.
본 발명에서는, 사용자가 컨트롤러의 조작 수단을 이용하여 연주의 개시를 지시하여, 연주 단말의 연주 조작자로 연주 조작을 행한다. 연주 단말의 연주 조작자는, 예를 들어 전자 피아노의 건반이다. 어느 한 건반을 타건하면 조작 신호가 컨트롤러에 송신된다. 컨트롤러는 수신한 조작 신호에 기초하여 발음 지시를 음원에 송신한다. 음원은 발음 지시에 따라 악음을 발음한다. 사용자가 연주의 종료를 지시하면, 각 연주 단말이 연주에 참가하였는지의 여부가 컨트롤러의 메모리 등에 기록된다. 이에 의해, 그룹의 가이드역인 패실리테이터는, 참가자의 참가 상태(출결)를 용이하게 관리할 수 있다. 또한, 연주의 종료를 지시했을 때에, 그 곡에서의 연주 이력이 기록되어, 이것을 매일, 매주, 혹은 매월 참조함으로써, 각 참가자의 연주 상태의 변화를 용이하게 관리할 수 있다.
본 발명에서는, 또한 상기 음원은, 상기 복수의 연주 단말 각각에 내장되고, 상기 컨트롤러의 연주 제어 수단은, 상기 판독한 연주 파트의 정보를, 그 연주 파트가 할당되어 있는 연주 단말에 내장된 음원에 출력하는 것이 바람직하다.
이 바람직한 형태에 의하면, 컨트롤러는 연주 단말기로부터 수신한 조작 신호에 기초하여, 그 연주 단말에 할당되어 있는 연주 파트를 판독하여, 당해 판독한 연주 파트의 데이터를 당해 연주 단말에 내장된 음원에 송신한다. 연주 단말의 내장 음원은 수신한 발음 지시에 따라 악음을 발음한다. 이에 의해, 각 연주 단말에 있어서, 각자의 연주 파트가 발음되게 된다.
본 발명에서는, 또한 상기 연주 이력은, 연주 조작의 횟수 및 연주 조작의 평균 강도의 정보를 포함하는 것이 바람직하다.
이 바람직한 형태에 의하면, 연주 이력으로서 연주 조작(예를 들어 타건)의 횟수, 연주 조작의 평균 강도(타건의 강도)의 정보가 포함된다. 연주 조작의 횟수, 평균 강도의 정보를 기록함으로써, 어느 정도의 운동량인지를 용이하게 관리할 수 있다. 또한, 이것을 매일, 매주, 혹은 매월 참조함으로써, 운동량의 추이, 타건의 강도의 추이를 용이하게 관리할 수 있다.
본 발명에서는, 또한 상기 연주 이력은, 상기 연주 단말 중 가이드역용 연주 단말의 연주 조작과의 평균 어긋남량의 정보를 포함하는 것이 바람직하다.
이 바람직한 형태에 의하면, 연주 이력으로서, 기준으로 되는 연주 단말과의 평균 어긋남량의 정보를 기록한다. 기준이 되는 연주 단말은, 예를 들어 패실리테이터가 사용하는 연주 단말이다. 평균 어긋남량의 정보를 기록함으로써, 연주(합주)의 레벨 관리를 행할 수 있다. 또한, 이것을 매일, 매주, 혹은 매월 참조함으로써, 연주의 숙달 정도를 용이하게 관리할 수 있다.
도1은 연주 시스템의 구성을 도시하는 블록도이다.
도2는 컨트롤러의 구성을 도시하는 블록도이다.
도3은 연주 단말의 구성을 도시하는 블록도이다.
도4는 악곡 데이터의 일례를 도시하는 도면이다.
도5는 파트 할당 테이블의 일례를 도시하는 도면이다.
도6은 메인 조작 윈도우를 도시하는 도면이다.
도7은 합주 윈도우를 도시하는 도면이다.
도8a는 비트(beat) 수의 세팅을 도시하는 도면이고, 도8b는 타건 타이밍이 되는 박자(1박자째, 3박자째)와 타건 타이밍이 안되는 박자(2박자째, 4박자째)의 아이콘 표시예를 도시하는 도면이다.
도9는 현재의 비트의 추이를 도시하는 도면이다.
도10은 연주 단말 「Facilitator」와의 비트의 어긋남을 설명하는 도면이다.
도11은 연주 이력의 일례를 도시하는 도면이다.
도12는 로그 작성 시퀀스를 도시하는 흐름도이다.
이하, 본 발명의 실시 형태를 도면을 참조하면서 상세히 설명한다.
도1은 합주 시스템의 구성을 도시하는 블록도이다. 도1에 도시한 바와 같이 이 합주 시스템은, 컨트롤러(1)와, 컨트롤러(1)에 MIDI 인터페이스 박스(3)를 통하여 접속되는 복수(도1에서는 6대)의 연주 단말(2A 내지 2F)을 구비하고 있다. 복수의 연주 단말(2) 중, 연주 단말(2A)은 패실리테이터(가이드역)용 연주 단말이 되고, 연주 단말(2B 내지 2F)은 참가자(학생역)용 연주 단말이 된다. 연주 단말(2B 내지 2F)을 사용하는 5인의 참가자는, 항상 동일한 연주 단말(2)을 사용한다. 이에 의해, 패실리테이터는 연주 단말로 참가자의 식별이 가능하게 된다.
컨트롤러(1)는, 예를 들어 퍼스널 컴퓨터에 의해 구성되고, 이 퍼스널 컴퓨터에 탑재된 소프트웨어에 의해 각 연주 단말(2)의 제어 및 데이터의 수집을 행한다. 컨트롤러(1)는 복수 파트로 이루어지는 연주곡 데이터를 기억하고 있다. 이들 파트는 1 또는 복수의 멜로디 파트, 리듬 파트, 및 반주 파트 등으로 이루어져 있다. 컨트롤러(1)는, 각 파트(또는 복수의 파트)의 발음 데이터를 각각의 연주 단말(2)에 송신하는, 후술하는 통신부(11)를 구비하고 있다.
연주 단말(2)은, 사용자가 연주 조작을 행하는 동시에, 이 사용자의 연주 조작에 따른 악음을 발생하는 것이며, 예를 들어 전자 피아노 등의 전자 건반 악기에 의해 구성된다. 본 실시 형태에서는, 컨트롤러(1)와 USB로 접속되어 있는 MIDI 인터페이스 박스(3)를 이용하여, 각 연주 단말(2)을 별도의 MIDI 계통으로 접속하고 있다. 도1에서는 연주 단말(2A)을 패실리테이터용의 연주 단말로 한다. 패실리테이터용의 연주 단말의 지정은 컨트롤러(1)에서 행한다. 또한, 연주 단말(2)은 전자 피아노에 한하지 않고, 전자 기타 등의 다른 형태의 전자 악기여도 된다. 또한, 외관상은 자연 악기에 한하지 않고 단순히 버튼 등의 조작자를 구비한 단말이어도 된다.
또한, 연주 단말(2)이 음원을 내장할 필요는 없으며, 독립된 음원을 컨트롤러(1)에 접속하여도 된다. 이 경우, 컨트롤러(1)에 접속하는 음원의 수는 하나이어도 되고, 연주 단말(2)과 동일한 수이어도 된다. 연주 단말(2)과 동일한 수의 음원을 접속할 경우, 컨트롤러(1)는 각각의 음원과 연주 단말(2)을 대응시켜 연주곡 데이터의 각 파트를 할당하도록 하면 된다.
이 합주 시스템은, 컨트롤러(1)가 기억하고 있는 연주곡 데이터의 복수의 연주 파트를, 복수의 연주 단말(2)에 각각 할당, 각 연주 단말(2)이 독자적으로 할당받은 연주 파트의 자동 연주를 진행시켜 간다. 사용자가 연주 단말(2)을 이용하여 연주 조작(예를 들어 전자 피아노의 건반을 타건)을 행하면, 컨트롤러(1)에 템포와 타이밍의 지시가 송신된다. 컨트롤러(1)는, 입력된 템포와 타이밍의 지시에 기초하여 그 연주 단말(2)에 할당한 연주 파트의 각 음표의 발음 지시를 연주 단말(2) 에 송신한다. 연주 단말(2)은 수신한 발음 지시에 기초하여 자동 연주를 행한다. 각 연주 단말(2)을 사용하는 학생이 패실리테이터에 맞춰서 템포를 취함으로써 합주가 성립된다. 이하, 컨트롤러(1)와 연주 단말(2)의 구성에 대하여 상세하게 설명한다.
도2는 컨트롤러(1)의 구성을 도시하는 블록도이다. 도2에 도시한 바와 같이 컨트롤러(1)는, 통신부(11), 제어부(12), HDD(13), RAM(14), 조작부(15), 및 표시부(16)를 구비하고 있다. 제어부(12)에는 통신부(11), HDD(13), RAM(14), 조작부(15) 및 표시부(16)가 접속되어 있다.
통신부(11)는, 연주 단말(2)과 통신을 행하는 회로부이며, USB 인터페이스(도시되지 않음)를 갖고 있다. 이 USB 인터페이스에는, MIDI 인터페이스 박스(3)가 접속되어, 통신부(11)는 이 MIDI 인터페이스 박스(3) 및 MIDI 케이블을 통해서 6대의 연주 단말(2)과 통신한다. HDD(13)는, 컨트롤러(1)의 동작용 프로그램이나, 복수 파트로 이루어지는 연주곡 데이터를 기억하고 있다.
제어부(12)는, HDD(13)에 기억되어 있는 동작용 프로그램을 판독하여 워크 메모리인 RAM(14)에 전개하여, 파트 할당 처리(50), 시퀀스 처리(51), 및 발음 지시 처리(52) 등을 실행한다. 파트 할당 처리(50)에서는, 제어부(12)는 연주곡 데이터의 각 연주 파트를 복수의 연주 단말(2)에 할당한다. 시퀀스 처리(51)에서는, 제어부(12)는 각 연주 단말(2)로부터 수신한 템포, 타이밍의 지시에 따라 연주곡 데이터의 각 연주 파트를 시퀀스(각 음의 음 높이, 음 길이의 결정)한다. 발음 지시 처리(52)에서는, 제어부(12)는 시퀀스 처리(51)에서 결정한 각 음의 음 높이, 음 길이를 발음 지시 데이터로서 연주 단말(2)에 송신한다.
조작부(15)는, 사용자(주로 패실리테이터)가 이 연주 시스템의 동작 지시를 행하기 위한 것이다. 패실리테이터는, 조작부(15)를 조작하여, 예를 들어 연주하는 연주곡 데이터를 지정하거나, 각 연주 단말(2)의 연주 파트를 할당하거나 한다. 표시부(16)는, 디스플레이(모니터)이며, 패실리테이터나 각 참가자는 이 표시부(16)를 보면서 연주 조작을 행한다. 상세한 것은 후술하겠지만, 표시부(16)에는 합주를 행하기 위한 여러가지 정보가 표시된다.
도3은, 연주 단말(2)의 구성을 도시하는 블록도이다. 도3에 도시한 바와 같이 연주 단말(2)은, 통신부(21), 제어부(22), 연주 조작자인 건반(23), 음원(24), 및 스피커(25)를 구비하고 있다. 제어부(22)에는 통신부(21), 건반(23), 및 음원(24)이 접속되어 있다. 또한, 음원(24)에는 스피커(25)가 접속되어 있다.
통신부(21)는, MIDI 인터페이스이며, MIDI 케이블을 통하여 컨트롤러(1)와 통신한다. 제어부(22)는, 연주 단말(2)을 통괄적으로 제어한다. 건반(23)은, 예를 들어 61건반이나 88건반의 건반 수를 갖고,5 내지 7 옥타브의 음역의 연주가 가능하지만, 이 합주 시스템에서는 건반을 구별하지 않고 노트 온/노트 오프 메시지 및 타건 강도(Velocity)의 데이터만을 이용한다. 즉 각 건반에는, 온/오프를 검출하는 센서와 타건의 강도를 검출하는 센서가 내장되어 있고, 건반(23)은 각 건반의 조작 형태(어느 건반이 어느 강도로 타건되었는가 등)에 따라 조작 신호를 제어부(22)에 출력한다. 제어부(22)는, 입력된 조작 신호에 기초하여, 통신부(21)를 통하여 컨트롤러(1)에 노트 온 메시지나 노트 오프 메시지를 송신한다. 음원(24) 은, 제어부(22)의 제어에 따라 악음 파형을 생성하여, 음성 신호로서 스피커(25)에 출력한다. 스피커(25)는, 음원(24)으로부터 입력된 음성 신호를 재생하여, 악음을 발음한다. 또한, 전술한 바와 같이, 음원(24)과 스피커(25)는 연주 단말(2)에 내장하지 않아도 된다. 음원(24)과 스피커(25)를 컨트롤러(1)에 접속하여, 연주 단말(2)과 다른 장소로부터 악음이 발음되도록 하여도 된다. 각 연주 단말(2)과 동일한 수의 음원을 컨트롤러(1)에 접속해도 되지만, 단일의 음원을 사용해도 된다.
상기한 동작에서는, 건반(23)을 타건했을 때, 제어부(22)는 노트 온/노트 오프 메시지를 컨트롤러(1)에 송신(로컬 오프)하여, 건반(23)에 의한 노트 메시지가 아니라, 컨트롤러(1)로부터의 지시에 따라 악음을 발음하지만, 연주 단말(2)은 상기한 바와 같은 동작과는 별도로, 일반적인 전자 악기로서 사용하는 것도 가능하다. 건반(23)을 타건했을 때, 제어부(22)는 노트 메시지를 컨트롤러(1)에 송신하지 않고(로컬 온), 당해 노트 메시지에 기초하여 음원(24)에 악음을 발음하도록 지시하는 것도 가능하다. 로컬 온, 로컬 오프는 사용자가 컨트롤러(1)의 조작부(15)를 이용하여 절환해도 되고, 연주 단말(2)의 단말 조작부(도시하지 않음)에 의해 절환해도 된다. 또한, 일부의 건반만 로컬 오프하고, 다른 건반은 로컬 온으로 되도록 설정하는 것도 가능하다.
다음에 상기한 바와 같은 합주 시스템을 이용하여 합주를 행하기 위한 동작에 대하여 설명한다. 사용자(특히 패실리테이터)는, 컨트롤러(1)의 조작부(15)를 이용하여 연주곡 데이터를 선택한다. 연주곡 데이터는 MIDI 규격에 기초하여 미리 작성된 데이터(스탠다드 MIDI)이며, 컨트롤러(1)의 HDD(13)에 기억되어 있다. 이 악곡 데이터의 일례를 도4에 도시한다. 도4에 도시한 바와 같이 연주곡 데이터는, 복수의 연주 파트로 이루어져, 각 연주 파트를 식별하는 식별 정보와, 각 연주 파트의 연주 정보를 포함하고 있다.
사용자가 연주곡 데이터의 선택을 행하면, 컨트롤러(1)는 접속되어 있는 각 연주 단말(2)의 각각에 연주 파트를 할당한다. 어느 연주 단말에 어느 연주 파트를 할당할지는, 미리 테이블에 규정해 둔다. 도5는, 연주 파트 할당 테이블의 일례를 도시하는 도면이다. 도5에 도시한 바와 같이 연주 파트1에는, MIDI 포트0(패실리테이터용 연주 단말)이 대응하고 있으며, 예를 들어 도1에서는 연주 단말(2A)에 연주 파트1이 할당된다. MIDI 포트는 MIDI 인터페이스 박스(3)의 포트 번호를 나타내고 있으며, 각 연주 단말(2)은 그 접속되어 있는 MIDI 포트로 식별되어 있다. 이하 마찬가지로 연주 파트2에는 MIDI 포트1(피아노1)이 대응하고, 예를 들어 도1에서는 연주 단말(2B)에 연주 파트2가 할당된다. 이와 같이, 각 연주 단말(2)에 각각 자동적으로 연주 파트가 할당된다. 이 연주 파트 할당 테이블은 사전에 패실리테이터가 컨트롤러(1)의 HDD(13)에 등록한 것이다. 또한, 패실리테이터가 컨트롤러(1)의 조작부(15)를 이용하여 메뉴얼 선택 하도록 하여도 된다.
또한, 각 연주 단말(2)이 USB 포트에 접속되어 있는 경우에는, 각 연주 단말(2)을 USB 포트 번호로 식별하도록 하면 된다.
패실리테이터가 연주곡 데이터를 선택하여, 컨트롤러(1)에 의해 각 연주 단말(2)에 연주 파트가 할당되면, 패실리테이터에 의해 컨트롤러(1)의 조작부(15)는 연주 개시 스탠바이의 지시를 입력한다. 여기에서 말하는 연주 개시 스탠바이란 실제로 악음을 발생하는 의미가 아니라, 컨트롤러(1)가 HDD(13)로부터 RAM(14)으로 연주곡 데이터를 판독하여 연주 동작을 행하기 위한 준비 상태로 하는 것이다.
연주 개시 스탠바이의 지시가 조작부(15)에 입력되어, 컨트롤러(1)가 연주 준비를 행하면, 각 연주 단말(2)에서는 연주가 가능하게 된다. 이 합주 시스템에 있어서는, 복수의 사용자가 패실리테이터(합주 리더)의 연주에 맞춰 연주 조작을 행한다. 즉, 단순히 견본 연주(기계 데모 연주)에 맞춰 연주하는 것이 아니라, 패실리테이터의 연주(인간의 연주)에 맞춰 각 사용자가 연주를 행하므로, 실제로 합주를 한다는 실감을 얻을 수 있다.
합주 중에서의 합주 시스템의 동작에 대하여 설명한다. 각 사용자가 연주 단말(2)의 조작자(건반)(23)를 손가락으로 누르면, 제어부(22)는 건반(23)을 누른 강도에 따라 노트 온 메시지를 컨트롤러(1)에 송신한다. 노트 온 메시지에는 타건의 강도(Velocity) 등의 정보가 포함된다. 또한, 건반(23)을 원래 상태로 되돌리면(손가락을 떼면), 제어부(22)는, 노트 오프 메시지를 컨트롤러(1)에 송신한다. 컨트롤러(1)는, 연주 단말(2)로부터 수신한 노트 온 메시지 및 노트 오프 메시지에 기초하여, 그 연주 단말(2)에 할당한 연주 파트 중, 소정 길이만큼(예를 들어 1박자분)의 연주곡 데이터의 각 음의 음 높이, 음 길이를 결정하여, 그 음 높이, 음 길이가 결정된 연주곡 데이터를 발음 지시 데이터로서 연주 단말(2)에 송신한다. 발음 지시 데이터에는, 발음해야 할 타이밍, 음 길이, 강도, 음색, 효과, 음 높이 변화(피치 밴드)나, 템포 등이 포함된다.
컨트롤러(1)는, 노트 온 메시지를 수신하고 나서 노트 오프 메시지를 수신할 때까지의 시간에 기초하여 상기 발음 지시 데이터를 결정한다. 구체적으로는, 노트 온 메시지가 입력되었을 때에, 연주곡 데이터 중 해당하는 연주 파트의 소정 길이 분(1박자분 등)의 연주 정보를 판독하여 발음해야 할 타이밍, 음색, 효과, 음 높이 변화 등을 결정한다. 또한, 컨트롤러(1)는, 노트 온 메시지의 Velocity 정보로부터 발음 강도를 결정한다. 연주곡 데이터의 연주 정보에는 음량을 나타내는 정보가 포함되어 있으며, 이 음량에 Velocity 정보를 승산하여 강도를 결정한다. 즉, 연주곡 데이터에는, 그 곡 중의 볼륨 표현(음의 강약)을 고려한 음량 정보가 미리 포함되어 있지만, 각 사용자가 건반을 누른 강도에 따른 강약 표현이 추가되어, 발음 강도가 결정된다.
컨트롤러(1)는, 노트 오프 메시지가 입력되었을 때, 노트 온 메시지가 입력 되고나서의 시간을 측정한다. 노트 오프 메시지가 입력될 때까지는, 최초로 발음한 악음을 그대로 발생하다가, 노트 오프 메시지가 입력되었을 때에 그 박자분의 템포, 각 음의 음 길이를 결정하여 다음 악음을 발음한다.
또한, 노트 온부터 노트 오프까지의 시간(Gate Time이라고 함)으로부터 단순하게 템포를 결정해도 되지만 이하와 같이 하여 템포를 결정하여도 된다. 즉, 복수 회(바로 전부터 수회 전)의 타건에 대해서, Gate Time의 이동 평균을 산출하여, 이것에 시간에 의한 가중치 부여를 행한다. 바로 전의 타건에 대하여 가장 가중치 부여를 크게 하고, 과거의 타건이 될수록 가중치 부여를 작게 한다. 이렇게 하여 템포를 결정함으로써, 임의의 타건일 때만 Gate Time이 크게 변화되었다고 해도 갑자기 템포가 변화되지 않아, 곡의 흐름에 따라 위화감없이 템포 변화를 행할 수 있 다.
연주 단말(2)의 제어부(22)는, 상기한 바와 같이 컨트롤러(1)가 결정한 발음 지시 데이터를 수신하여, 음원(24)에 악음 파형의 생성을 지시한다. 음원(24)은, 악음 파형을 생성하여, 스피커(25)로부터 악음을 재생한다. 각 사용자가 건반(23)을 누를 때마다 상기한 처리가 반복되어, 예를 들어 1박자마다 건반(23)을 누름으로써 곡의 연주를 행할 수 있다.
또한, 상기한 바와 같이, 노트 오프 메시지가 입력될 때까지는, 최초로 발음한 악음을 그대로 발생하므로, 사용자가 건반(23)으로부터 손가락을 뗄 때까지는 동일한 악음을 계속하여 울리게 되어, 이 합주 시스템에서는 음을 늘리는 연주 표현(페르마타)을 실현할 수 있다.
또한, 상기한 바와 같이 하여 Gate Time의 이동 평균에 의해 템포를 결정함으로써, 이하와 동일한 연주 표현을 실현할 수도 있다. 예를 들어, 임의의 타건일 때만 건반(23)을 짧게 톡 눌렀을 경우, 그 박자분의 각 음의 음 길이를 짧게 하고, 한편으로 건반(23)을 꾹 눌렀을 경우 그 박자분의 각 음의 음 길이를 길게 한다. 이에 의해, 템포는 크게 변화되지 않지만 각 음의 끊어짐을 좋게 하는 연주 표현(스타카토)을 실현하거나, 템포를 크게 변화시키지 않고 음의 길이를 유지하는 연주 표현(테누토)을 실현하거나 할 수 있다.
또한, 본 실시 형태에서는 연주 단말(2A 내지 2F) 중 어느 한 건반(23)을 타건하였다고 해도 노트 온 메시지, 노트 오프 메시지가 컨트롤러(1)에 송신되지만, 상기한 스타카토나 테누토의 표현이 되는 건반과 그렇지 않은 건반을 나누어도 좋 다. 컨트롤러(1)는, 특정한 건반(예를 들어 E3)으로부터의 노트 온 메시지, 노트 오프 메시지가 입력된 경우에만, 템포를 유지하면서 음 길이를 변화시키도록 하면 된다.
다음에 표시부(16)에 표시되는 유저 인터페이스에 대하여 설명한다. 도6은 표시부(16)에 표시되는 메인 조작 윈도우이다. 이 윈도우의 상부 텍스트 필드에는 사용자가 선택한 연주곡 데이터명이 표시된다. 「Setting」 필드 내에는 각각의 연주 단말(Facilitator, Piano1 내지 5)이 표시되어 있고, 각 연주 단말마다 출결을 선택하는 풀 다운 메뉴와, 연주 파트를 할당하는 라디오 버튼이 표시되어 있다. 연주 단말(Facilitator, Piano1 내지 5)은, MIDI 인터페이스 박스(3)의 MIDI 포트에 각각 대응지어져 있다.
출결의 풀 다운 메뉴는 학생의 출결에 따라 패실리테이터가 선택 입력된다. 라디오 버튼은, 연주곡 데이터에 있어서 연주 파트가 할당되어 있는 연주 단말만 표시된다.
이 도면에서의 예에서는, 선택한 연주곡 데이터에 연주 파트(1, 2, 3, 및 10)가 설정되어 있고, 이 연주곡 데이터를 선택하면, 상기 도5의 테이블에 따라 순서대로 연주 단말 「Facilitator」, 「Piano1」, 「Piano2」, 및 「Piano3」이 연주 파트(1, 2, 3, 및 10)에 자동적으로 할당된다. 또한, 도6에서는 선택한 연주곡 데이터에 4개의 연주 파트만이 포함되어 있기 때문에, 연주 단말 「Facilitator」, 및 「Piano1 내지 3」에만 연주 파트가 할당되고 있지만, 예를 들어 연주곡 데이터에 6개의 연주 파트가 포함되어 있는 경우에는, 연주 단말 「Facilitator」 및 「 Piano1 내지 5」 각각에 연주 파트가 할당된다. MIDI 포트(연주 단말)보다도 연주 파트의 수가 많은 경우에는, 연주 단말 「Facilitator」에 복수의 연주 파트를 할당한다. 여기서, 컨트롤러(1)를 조작하는 사용자(패실리테이터)가 라디오 버튼을 선택함으로써 각 연주 파트를 원하는 연주 단말에 메뉴얼 선택하는 것도 가능하다. 또한, 「Facilitator Only」의 체크 박스를 선택하면 모든 연주 파트가 연주 단말 「Facilitator」에 할당된다. 또한, 풀 다운 메뉴가 「결석」으로 된 연주 단말에는 라디오 버튼이 표시되지 않아, 연주 파트가 할당되지 않는다.
또한, 도5의 테이블에 기초하여 자동으로 연주 파트의 할당을 행할 경우도 「출석」 「결석」의 풀 다운 메뉴에 대해서, 「결석」이 선택되어 있는 경우, 그 연주 단말에 할당되어야 할 연주 파트는 연주 단말 「Facilitator」에 할당된다. 또한 이 경우, 「결석」의 연주 파트를 음색이나 역할 관계가 가까운 연주 파트(예를 들어 드럼에 대하여 베이스, 현악기군 등)가 할당되어 있는 다른 연주 단말로 대체하여 할당하도록 하여도 된다. 관련된 연주 파트는 미리 테이블에 의해 규정해 두면 된다.
연주 파트의 할당 후에, 윈도우 중앙 좌측부에 표시되어 있는 연주 컨트롤 버튼 중 Start 버튼을 누르면 연주 개시 스탠바이가 되어, 도7에 도시하는 합주 윈도우가 표시부(16)에 표시된다. 이 윈도우에서도 상부 텍스트 필드에는 선택한 연주곡 데이터명이 표시된다. 윈도우 상부 우측에는 선택되어 있는 연주곡 데이터의 소절 수와 현재 연주 중인 소절이 표시되어 있다. 윈도우 중앙 상부에 표시되어 있는 비트 수 필드(Beat Setting)에는 1소절 내의 비트 수를 설정하는 라디오 버튼 이 표시되어 있다. 도7에서는 1소절이 4박자/4분의 곡 데이터에 대하여 연주를 하므로, 비트 수를 4로 설정하면 1박자마다 타건하게 된다. 또한, 도8a에 도시한 바와 같이 이 연주곡에서 비트 수2의 라디오 버튼을 선택하면, 1박자 건너뛰어 타건하게 되어, 1 박자째, 3박자째가 타건 타이밍이 된다. 이 경우, 컨트롤러(1)는 연주 단말(2)로부터 노트 온 메시지와 노트 오프 메시지가 송신되면,2박자분의 발음 지시 데이터를 회신한다. 즉, 1회의 타건으로 2박자분의 연주가 이루어지게 된다.
도7에서, 합주 윈도우 중앙 좌측에는 각 연주 단말(Facilitator, Piano1, Piano2, Piano3)마다 현재의 소절 수, 소절 내의 박자수(소절 내에서 타건해야 할 수), 및 현재의 비트(현재의 타건 타이밍)가 표시된다. 타건해야 할 수는 도7에 도시한 바와 같이 내부에 숫자가 기입된 사각 형상의 아이콘으로 표시되고, 현재의 비트는 입체 사각 형상 또는 굵은 글씨의 아이콘으로 표시된다. 표시 방식은, 이 예의 아이콘에 한하는 것은 아니며, 다른 형상의 아이콘이어도 된다. 또한, 도8b에 도시한 바와 같이 타건 타이밍이 안되는 박자(2박자째, 4박자째)는 ○표시 숫자 등, 다른 형상의 아이콘으로 변경하여 표시한다.
사용자가 타건하면, 현재의 비트는 도9에 도시한 바와 같이 1박자씩 추이한다. 즉, 타건마다 1박자째, 2박자째, 3박자째, 4박자째로 순서대로 입체 사각 형상 또는 굵은 글씨의 아이콘이 변경된다. 이 예에서의 연주곡 데이터는, 4박자/4분의 곡 데이터이기 때문에, 4박자째의 다음 타건을 행하면 1박자째로 돌아가, 1 소절 진행하게 된다.
도7에서, 윈도우 중앙 우측에는 연주 단말 「Facilitator」와의 비트의 어긋 남을 나타내는 필드가 표시되어 있다. 이 필드에는 종방향으로 복수의 라인(예를 들어 5개)이 표시되고, 각각의 연주 단말에 대응하여 횡방향으로 라인이 표시되어 있다. 또한, 각각의 연주 단말에 대응하여 ○표시가 되어 있다. 이 ○표시가 연주 단말 「Facilitator」와의 어긋남을 나타낸다.
도10은 연주 단말 「Facilitator」와의 비트의 어긋남을 설명하는 도면이다. 도10에 도시한 바와 같이 연주 단말 「Facilitator」에 대응하는 ○표시는, 종방향의 라인 중 중심 라인에 고정되어 표시된다. 각 사용자의 연주 단말(예를 들어 「Piano1」)에 대응하는 ○표시는, 연주 단말 「Facilitator」와의 비트의 어긋남에 따라 좌우로 이동한다. 예를 들어 연주 단말 「Facilitator」보다도 1소절분(이 예에서는 4박자분) 타건이 지연되면, 도10에 도시한 바와 같이 종방향의 라인 1개분 좌측 방향으로 ○표시가 이동한다. 반 소절분(2박자분) 지연된 경우에는 종방향의 중심 라인으로부터 좌측 방향으로 라인 간격의 반만 ○표시가 이동한다. 한편, 연주 단말 「Facilitator」보다도 타건이 빠를 경우는 ○표시가 우측 방향으로 이동하게 된다. 도10에서는 중심 라인으로부터 좌우로 2라인 표시되어 있으므로, 2소절분의 비트의 어긋남을 표시할 수 있게 된다. 2소절 이상 비트의 어긋남이 발생한 경우에는 좌우단의 라인 상에서 아이콘을 변경한다(예를 들어 사각 형상의 아이콘으로 변경함). 이와 같이 하여, 각 사용자는 패실리테이터와의 연주(비트)의 어긋남을 용이하게 인식할 수 있다.
또한, 기준이 되는 연주 단말은 연주 단말 「Facilitator」에 한하는 것은 아니다. 복수의 연주 단말(2) 중, 어느 하나를 기준으로 하여 그 연주 단말(2)과 의 비트의 어긋남량을 표시하여도 된다.
또한, 상기 연주 단말 「Facilitator」와의 비트의 어긋남을 나타내는 필드는, 컨트롤러(1)의 표시부(16)에 표시하는 예에 한하지 않고, 각 연주 단말(2)에 설치한 연주 단말용의 표시부(도시하지 않음)에 표시하도록 해도 된다.
이상과 같이 하여, 각 사용자는 손가락 하나로 건반을 누르는 용이한 조작으로 연주할 수 있고, 표시부(16)에 표시되는 연주 단말 「Facilitator」와의 연주(비트)의 어긋남을 없애도록 조작함으로써, 여러 사람이 즐기면서 합주를 행할 수 있다.
또한, 이 합주 시스템에서는, 컨트롤러(1)가 1곡을 연주할 때마다 각 사용자의 출결, 타건 횟수, 타건 강도, 어긋남량 등을 자동적으로 HDD(13)에 기록한다. 패실리테이터는 기록된 이력을 참조함으로써 그 그룹의 출결 관리를 용이하게 행할 수 있어, 매일, 매주, 혹은 매월 각 사용자가 어느 정도 숙달되었는지를 용이하게 관리할 수 있다. 이하, 연주 이력 기록에 대하여 설명한다.
도11은 연주 이력의 일례를 도시하는 도면이다. 도11에 도시하는 연주 이력은, 컨트롤러(1)가 각 연주 단말(2)의 연주 조작에 따라 각 항목의 수치를 기록하여, 연주 종료 후에 텍스트 데이터인 CSV(Comma Separated Values) 등의 파일 형식으로 출력한다. 기록된 연주 이력은 표 계산 소프트 등으로 표시한다. 패실리테이터에 의해, 도6에 도시한 연주 컨트롤 버튼 중 Start 버튼이 눌러져 연주 개시가 지시되면, 각 항목의 기록이 개시된다. 각 항목은 연주곡 1곡마다 기록한다. 일자, 요일, 시각의 항목은 패실리테이터가 Start 버튼을 눌러 연주 개시를 지시한 날짜, 요일, 시각을 기록한다. 패실리테이터가 연주 개시를 지시했을 때, 도6의 「출석」 「결석」의 풀 다운 메뉴에 대해서, 「출석」이 선택되어 있는 MIDI 포트의 출결 항목을 1로 하고, 「결석」이 선택되어 있는 MIDI 포트의 출결 항목을 0으로 하여 기록한다. 도11에 도시하는 연주 이력의 「출결(Fa)」 항목에 「1」이 표시되어 있으면, 연주 단말 「Facilitator」가 그 연주곡의 연주에 참가한 것을 의미한다. 마찬가지로 「출결(P1)」 항목에 「1」이 표시되어 있으면 연주 단말 「Piano1」이 그 연주곡의 연주에 참가한 것을 의미한다. 「0」이 표시되어 있으면 연주에 참가하지 않은, 즉 「결석」이었던 것을 의미한다.
컨트롤러(1)는, Start 버튼이 눌러지고 나서 Stop 버튼이 눌러질 때까지, 또는 1곡분의 연주가 종료될 때까지, 각 연주 단말(2)의 타건(노트 온 메시지의 입력)을 카운트하여, 집계한다. 도11에 도시하는 연주 이력의 「Keyon(Fa)」 항목은, 그 연주곡에서의 연주 단말 「Facilitator」의 총 타건 수를 나타내는 것이다. 마찬가지로 「Keyon(P1)」 항목은 그 연주곡에서의 연주 단말 「Piano1」의 총 타건 수를 나타내는 것이다.
또한, 컨트롤러(1)는, Start 버튼이 눌러지고 나서 Stop 버튼이 눌러질 때까지, 또는 1곡분의 연주가 종료될 때까지, 각 연주 단말(2)로부터 입력되는 Velocity의 값을 기록하여, 상기 총 타건 수를 이용해서 1곡 중 Velocity 평균값을 산출한다. 도11에 도시하는 연주 이력의 「평균V(Fa)」 항목은, 그 연주곡에서의 연주 단말 「Facilitator」의 평균 Velocity의 값을 나타내는 것이다.
또한, 컨트롤러(1)는 Start 버튼이 눌러지고 나서 Stop 버튼이 눌러질 때까 지, 또는 1곡분의 연주가 종료될 때까지, 각 연주 단말과 연주 단말 「Facilitator」의 타건 타이밍의 어긋남을 기록하고, 상기 총타건 수를 이용하여 평균값을 산출한다. 컨트롤러(1)는, 연주 단말 「Facilitator」와, 현재 노트 온 메시지가 입력된 연주 단말에 대해서, 동일 소절, 동일 박자의 타건이 되었을 때의 시간차를 계산하여, 그 시간을 연주 단말 「Facilitator」와의 어긋남량으로서 기록하고, 집계한다. 도11에 도시하는 연주 이력의 「평균 어긋남(P1)」 항목은 그 연주곡에서의 연주 단말 「Piano1」과 연주 단말 「Facilitator」의 평균 타건 타이밍 어긋남을 나타내는 것이다. 이 값이 작을수록 1곡의 연주에 있어서 연주 단말 「Facilitator」와의 타건 타이밍 어긋남이 적어, 제대로 연주할 수 있었던 것을 의미한다.
이상과 같이 하여, 각 연주 단말(2)의 연주에의 참가 상태, 타건 수, 타건 강도, 어긋남량 등이 연주곡마다 기록, 축적되므로, 패실리테이터는 각 참가자의 상태를 한눈에 파악할 수 있다.
다음에 컨트롤러(1)가 상기 연주 이력을 기록하는 동작에 대하여 상세하게 설명한다. 도12는 컨트롤러(1)의 로그 작성 시퀀스를 도시하는 흐름도이다. 패실리테이터가 조작부(15)를 이용하여 연주의 개시를 지시(연주 컨트롤 버튼 중 Start 버튼을 누름)하는 것이 이 시퀀스의 트리거가 된다. 컨트롤러(1)의 제어부(12)에 의해 본 시퀀스는 실행된다.
우선, 「출석」이 선택되어 있는 MIDI 포트의 출결 항목을 1로 하고, 「결석」이 선택되어 있는 MIDI 포트의 출결 항목을 0으로 하여 RAM(14)에 일시 기록한 다(s11). 그 후에 노트 온 메시지가 수신되었는지의 여부를 판단한다(s12). 노트 온 메시지가 수신될 때까지는 이 판단을 반복한다. 노트 온 메시지가 수신된 경우, 그 연주 단말(2)의 타건 수를 카운트하여, 입력된 Velocity의 값을 RAM(14)에 일시 기록한다(s13). 또한, 연주 단말 「Facilitator」와의 시간 어긋남을 RAM(14)에 일시 기록한다(s14). 여기에서는, 연주 단말 「Facilitator」와, 현재 노트 온 메시지가 입력된 연주 단말에 대해서, 동일 소절, 동일 박자의 타건이 되었을 때의 시간차를 계산하여, 그 시간을 연주 단말 「Facilitator」와의 어긋남량으로서 RAM(14)에 일시 기록한다.
그 후에 연주곡 데이터가 끝까지 재생되어, 1곡분의 연주가 종료되었는지, 또는 패실리테이터가 연주 컨트롤 버튼 중 Stop 버튼을 눌러, 연주의 중지 지시가 입력되었는지의 여부를 판단한다(s15). 연주가 종료, 중지되어 있지 않으면 노트 온 메시지의 수신 판단으로부터 처리를 반복한다(s15→s12). 연주가 종료, 또는 중지된 경우, RAM(14)에 일시 기록하였던 각 항목의 수치를 집계한다(s16). 1곡분의 총 타건 수를 집계하고, 그 타건 수로 Velocity의 평균값을 산출한다. 또한, 연주 단말 「Facilitator」와의 어긋남량의 평균값도 산출한다. 마지막으로 이들 집계값을 텍스트 데이터로서 HDD(13)에 기록한다(s17).
이상과 같이 하여 각 참가자의 로그가 기록되므로, 패실리테이터는 연주의 개시, 종료를 지정하는 것만으로 출결 관리를 용이하게 행할 수 있다. 또한, 매일, 매주, 혹은 매월 각 참가자가 어느 정도 숙달되었는지를 용이하게 관리할 수 있다. 예를 들어 「결석」이 증가하는 경향이 있는 경우에는 그 참가자는 「레슨 이 버겁다」라고 느낄 가능성이 높아, 웰니스 활동의 프로그램을 구성하는데 있어서의 유효한 정보가 된다. 또한, 각 참가자도 상기한 바와 같은 로그를 참조함으로써 자신의 숙달 상태를 인식할 수 있어, 합주 참가에의 의욕을 얻을 수 있다. 또한, 복수의 그룹간에서의 비교나 경쟁 등도 행할 수 있어, 각 참가자의 연습이나 웰니스 활동에의 동기 부여의 하나로서 이용할 수 있다.
본 발명에 따르면, 각 참가자의 출결 관리를 용이하게 행할 수 있어, 매일, 매주, 혹은 매월 어느 정도 숙달되었는지를 용이하게 관리할 수 있다. 또한, 복수의 참가자간 또는 그룹간에서의 비교 등을 행할 수 있어, 합주 참가에의 동기 부여의 하나로서 이용할 수 있다.

Claims (4)

  1. 연주 조작을 행하기 위한 적어도 1개의 연주 조작자를 각각 구비하는 복수의 연주 단말과, 적어도 1개의 음원과, 상기 복수의 연주 단말 및 상기 적어도 1개의 음원에 접속되어, 각 연주 단말을 제어하는 컨트롤러로 이루어지는 합주 시스템이며,
    상기 컨트롤러는,
    복수의 연주 파트로 이루어지는 연주곡 데이터를 기억하는 기억 수단과,
    연주의 개시, 및 종료를 지시하기 위한 조작 수단과,
    상기 복수의 연주 파트를 상기 복수의 연주 단말에 할당하여, 각 연주 단말의 연주 조작자의 조작 형태에 따라, 그 연주 단말에 할당되어 있는 연주 파트를 판독하여, 당해 판독한 연주 파트의 데이터를 상기 음원에 출력하는 연주 제어 수단과,
    각 연주 단말의 사용 및 불사용을 기록하여, 연주의 개시부터 종료까지의 각 연주 단말의 연주 이력을 기록하는 기록 수단을 구비하는 것을 특징으로 하는 합주 시스템.
  2. 제1항에 있어서, 당해 음원은, 상기 복수의 연주 단말 각각에 내장되고,
    상기 컨트롤러의 연주 제어 수단은, 상기 판독한 연주 파트의 데이터를, 그 연주 파트가 할당되어 있는 연주 단말에 내장된 음원에 출력하는 것을 특징으로 하 는 합주 시스템.
  3. 제1항 또는 제2항에 있어서, 상기 연주 이력은, 연주 조작의 횟수 및 연주 조작의 평균 강도의 정보를 포함하는 것을 특징으로 하는 합주 시스템.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 연주 이력은, 상기 연주 단말 중 가이드역용 연주 단말의 연주 조작과의 평균 어긋남량의 정보를 포함하는 것을 특징으로 하는 합주 시스템.
KR1020087008627A 2005-09-12 2006-07-24 합주 시스템 KR20080051169A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005263144A JP4797523B2 (ja) 2005-09-12 2005-09-12 合奏システム
JPJP-P-2005-00263144 2005-09-12

Publications (1)

Publication Number Publication Date
KR20080051169A true KR20080051169A (ko) 2008-06-10

Family

ID=37864755

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087008627A KR20080051169A (ko) 2005-09-12 2006-07-24 합주 시스템

Country Status (6)

Country Link
US (1) US7939740B2 (ko)
EP (1) EP1926080A4 (ko)
JP (1) JP4797523B2 (ko)
KR (1) KR20080051169A (ko)
CN (1) CN101263551A (ko)
WO (1) WO2007032155A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4797523B2 (ja) * 2005-09-12 2011-10-19 ヤマハ株式会社 合奏システム
JP4692189B2 (ja) * 2005-09-28 2011-06-01 ヤマハ株式会社 合奏システム
JP4752425B2 (ja) * 2005-09-28 2011-08-17 ヤマハ株式会社 合奏システム
JP5169328B2 (ja) * 2007-03-30 2013-03-27 ヤマハ株式会社 演奏処理装置及び演奏処理プログラム
JP5109127B2 (ja) * 2007-06-01 2012-12-26 株式会社メガチップス 合奏システム
JP5630155B2 (ja) * 2009-09-14 2014-11-26 ヤマハ株式会社 記憶システムおよび記憶装置
JP2014219558A (ja) * 2013-05-08 2014-11-20 ヤマハ株式会社 音楽セッション管理装置
JP6274985B2 (ja) * 2014-06-25 2018-02-07 株式会社第一興商 音楽療法支援装置
JP6271362B2 (ja) * 2014-07-22 2018-01-31 株式会社第一興商 音楽療法支援システム及び音楽療法支援装置
US9672799B1 (en) * 2015-12-30 2017-06-06 International Business Machines Corporation Music practice feedback system, method, and recording medium
US10311841B2 (en) * 2017-11-06 2019-06-04 Pearl Musical Instrument Co. Electronic mallet controller with range adjustment/low note assignment

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3808936A (en) * 1970-07-08 1974-05-07 D Shrader Method and apparatus for improving musical ability
US3919913A (en) * 1972-10-03 1975-11-18 David L Shrader Method and apparatus for improving musical ability
US3823637A (en) * 1973-01-19 1974-07-16 Scott J Programmed audio-visual teaching aid
US3895555A (en) * 1973-10-03 1975-07-22 Richard H Peterson Teaching instrument for keyboard music instruction
JPS5692567A (en) * 1979-12-27 1981-07-27 Nippon Musical Instruments Mfg Electronic musical instrument
JPS5871797U (ja) * 1981-11-10 1983-05-16 ヤマハ株式会社 電子楽器
JPS61254991A (ja) * 1985-05-07 1986-11-12 カシオ計算機株式会社 電子楽器
US5002491A (en) * 1989-04-28 1991-03-26 Comtek Electronic classroom system enabling interactive self-paced learning
US5521323A (en) 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP3528230B2 (ja) 1994-03-18 2004-05-17 ヤマハ株式会社 自動演奏装置
JP3417662B2 (ja) 1994-06-30 2003-06-16 ローランド株式会社 演奏分析装置
US6448486B1 (en) * 1995-08-28 2002-09-10 Jeff K. Shinsky Electronic musical instrument with a reduced number of input controllers and method of operation
US6441289B1 (en) * 1995-08-28 2002-08-27 Jeff K. Shinsky Fixed-location method of musical performance and a musical instrument
JP3453248B2 (ja) * 1996-05-28 2003-10-06 株式会社第一興商 通信カラオケシステム、カラオケ再生端末
US7989689B2 (en) * 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US7098392B2 (en) * 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US6084168A (en) * 1996-07-10 2000-07-04 Sitrick; David H. Musical compositions communication system, architecture and methodology
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
US7423213B2 (en) * 1996-07-10 2008-09-09 David Sitrick Multi-dimensional transformation systems and display communication architecture for compositions and derivations thereof
US7074999B2 (en) * 1996-07-10 2006-07-11 Sitrick David H Electronic image visualization system and management and communication methodologies
US5952597A (en) * 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
JP3371791B2 (ja) * 1998-01-29 2003-01-27 ヤマハ株式会社 音楽教習システムおよび音楽教習装置、ならびに、音楽教習用プログラムが記録された記録媒体
JP3277875B2 (ja) * 1998-01-29 2002-04-22 ヤマハ株式会社 演奏装置、サーバ装置、演奏方法および演奏制御方法
JP3666291B2 (ja) * 1999-03-25 2005-06-29 ヤマハ株式会社 電子楽器
US6348648B1 (en) * 1999-11-23 2002-02-19 Harry Connick, Jr. System and method for coordinating music display among players in an orchestra
JP4117755B2 (ja) * 1999-11-29 2008-07-16 ヤマハ株式会社 演奏情報評価方法、演奏情報評価装置および記録媒体
US6198034B1 (en) * 1999-12-08 2001-03-06 Ronald O. Beach Electronic tone generation system and method
JP3678135B2 (ja) * 1999-12-24 2005-08-03 ヤマハ株式会社 演奏評価装置および演奏評価システム
JP3758450B2 (ja) * 2000-01-10 2006-03-22 ヤマハ株式会社 曲データ作成のためのサーバ装置、クライアント装置及び記録媒体
US6417435B2 (en) * 2000-02-28 2002-07-09 Constantin B. Chantzis Audio-acoustic proficiency testing device
US6751439B2 (en) * 2000-05-23 2004-06-15 Great West Music (1987) Ltd. Method and system for teaching music
JP4399958B2 (ja) 2000-05-25 2010-01-20 ヤマハ株式会社 演奏支援装置および演奏支援方法
WO2001093261A1 (en) 2000-06-01 2001-12-06 Hanseulsoft Co., Ltd. Apparatus and method for providing song accompanying/music playing service using wireless terminal
IL137234A0 (en) * 2000-07-10 2001-07-24 Shahal Elihai Method and system for learning to play a musical instrument
JP3826697B2 (ja) 2000-09-19 2006-09-27 ヤマハ株式会社 演奏表示装置および演奏表示方法
JP2002132137A (ja) * 2000-10-26 2002-05-09 Yamaha Corp 演奏ガイド装置及び電子楽器
US6660922B1 (en) * 2001-02-15 2003-12-09 Steve Roeder System and method for creating, revising and providing a music lesson over a communications network
US20020165921A1 (en) * 2001-05-02 2002-11-07 Jerzy Sapieyevski Method of multiple computers synchronization and control for guiding spatially dispersed live music/multimedia performances and guiding simultaneous multi-content presentations and system therefor
AU2002305332A1 (en) * 2001-05-04 2002-11-18 Realtime Music Solutions, Llc Music performance system
JP3726712B2 (ja) * 2001-06-13 2005-12-14 ヤマハ株式会社 演奏設定情報の授受が可能な電子音楽装置及びサーバ装置、並びに、演奏設定情報授受方法及びプログラム
US6483019B1 (en) * 2001-07-30 2002-11-19 Freehand Systems, Inc. Music annotation system for performance and composition of musical scores
JP2003084760A (ja) * 2001-09-11 2003-03-19 Yamaha Music Foundation Midi信号中継装置及び楽音システム
JP2003256552A (ja) * 2002-03-05 2003-09-12 Yamaha Corp 演奏者情報提供方法、サーバ、プログラムおよび記録媒体
JP3852348B2 (ja) * 2002-03-06 2006-11-29 ヤマハ株式会社 再生及び送信切替装置及びプログラム
JP3613254B2 (ja) 2002-03-20 2005-01-26 ヤマハ株式会社 楽曲データの圧縮方法
JP3903821B2 (ja) * 2002-03-25 2007-04-11 ヤマハ株式会社 演奏音提供システム
JP3780967B2 (ja) * 2002-03-27 2006-05-31 ヤマハ株式会社 曲データ出力装置及びプログラム
US6768046B2 (en) * 2002-04-09 2004-07-27 International Business Machines Corporation Method of generating a link between a note of a digital score and a realization of the score
JP4144296B2 (ja) * 2002-08-29 2008-09-03 ヤマハ株式会社 データ管理装置、プログラムおよびデータ管理システム
JP3988633B2 (ja) * 2002-12-04 2007-10-10 カシオ計算機株式会社 学習結果表示装置、及びプログラム
US20040176025A1 (en) * 2003-02-07 2004-09-09 Nokia Corporation Playing music with mobile phones
JP3821103B2 (ja) * 2003-02-24 2006-09-13 ヤマハ株式会社 情報表示方法および情報表示装置、並びに、情報表示プログラムを記録した記録媒体
US6995311B2 (en) * 2003-03-31 2006-02-07 Stevenson Alexander J Automatic pitch processing for electric stringed instruments
JP3894156B2 (ja) * 2003-05-06 2007-03-14 ヤマハ株式会社 楽音信号形成装置
US20040237756A1 (en) * 2003-05-28 2004-12-02 Forbes Angus G. Computer-aided music education
EP1639568A2 (en) * 2003-06-25 2006-03-29 Yamaha Corporation Method for teaching music
JP3922224B2 (ja) * 2003-07-23 2007-05-30 ヤマハ株式会社 自動演奏装置及びプログラム
JP2005062697A (ja) 2003-08-19 2005-03-10 Kawai Musical Instr Mfg Co Ltd テンポ表示装置
JP4305153B2 (ja) 2003-12-04 2009-07-29 ヤマハ株式会社 音楽セッション支援方法、音楽セッション用楽器
JP4363204B2 (ja) * 2004-02-04 2009-11-11 ヤマハ株式会社 通信端末
JP4368222B2 (ja) 2004-03-03 2009-11-18 株式会社国際電気通信基礎技術研究所 合奏支援システム
JP4165421B2 (ja) * 2004-03-15 2008-10-15 ヤマハ株式会社 楽曲演奏システム及び端末装置
US7271329B2 (en) * 2004-05-28 2007-09-18 Electronic Learning Products, Inc. Computer-aided learning system employing a pitch tracking line
US7385125B2 (en) * 2005-03-23 2008-06-10 Marvin Motsenbocker Electric string instruments and string instrument systems
JP4797523B2 (ja) * 2005-09-12 2011-10-19 ヤマハ株式会社 合奏システム
JP4513713B2 (ja) * 2005-10-21 2010-07-28 カシオ計算機株式会社 演奏教習装置および演奏教習処理のプログラム
US20080134861A1 (en) * 2006-09-29 2008-06-12 Pearson Bruce T Student Musical Instrument Compatibility Test

Also Published As

Publication number Publication date
EP1926080A1 (en) 2008-05-28
JP2007078751A (ja) 2007-03-29
US20090044685A1 (en) 2009-02-19
JP4797523B2 (ja) 2011-10-19
CN101263551A (zh) 2008-09-10
EP1926080A4 (en) 2010-07-28
WO2007032155A1 (ja) 2007-03-22
US7939740B2 (en) 2011-05-10

Similar Documents

Publication Publication Date Title
KR100920552B1 (ko) 합주 시스템
KR20080051169A (ko) 합주 시스템
JP5169328B2 (ja) 演奏処理装置及び演奏処理プログラム
US20060230909A1 (en) Operating method of a music composing device
EP2045796A1 (en) Portable chord output device, computer program and recording medium
JP5257966B2 (ja) 音楽再生制御システム、音楽演奏プログラム、および演奏データの同期再生方法
KR20080046212A (ko) 합주 시스템
US20020157521A1 (en) Method and system for learning to play a musical instrument
US7405354B2 (en) Music ensemble system, controller used therefor, and program
JP4131279B2 (ja) 合奏パラメータ表示装置
CN110706680A (zh) 一种用于双排键演奏的编曲方法
JP3902736B2 (ja) カラオケ装置
JP4185991B2 (ja) 指動音楽演奏装置
JP3902735B2 (ja) カラオケ装置
JP3752956B2 (ja) 演奏ガイド装置および演奏ガイド方法並びに演奏ガイドプログラムを記録したコンピュータ読み取り可能な記録媒体
JP3404594B2 (ja) 記録媒体及び音楽ゲーム装置
JP2000056669A (ja) 楽器演奏動作検出と楽器演奏動作指導のための装置および方法、並びにそのプログラムを記録した記録媒体
JP2827497B2 (ja) 電子楽器
JP2024054615A (ja) 練習システム、練習方法、及びプログラム、並びに指導者端末装置
JP2008233614A (ja) 小節番号表示装置、小節番号表示方法及び小節番号表示プログラム
JP2008089748A (ja) 合奏システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application