KR100920552B1 - 합주 시스템 - Google Patents

합주 시스템 Download PDF

Info

Publication number
KR100920552B1
KR100920552B1 KR1020087007481A KR20087007481A KR100920552B1 KR 100920552 B1 KR100920552 B1 KR 100920552B1 KR 1020087007481 A KR1020087007481 A KR 1020087007481A KR 20087007481 A KR20087007481 A KR 20087007481A KR 100920552 B1 KR100920552 B1 KR 100920552B1
Authority
KR
South Korea
Prior art keywords
performance
terminal
ensemble
assignment
assigned
Prior art date
Application number
KR1020087007481A
Other languages
English (en)
Other versions
KR20080039525A (ko
Inventor
사또시 우사
도모미쯔 우라이
Original Assignee
야마하 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 야마하 가부시키가이샤 filed Critical 야마하 가부시키가이샤
Publication of KR20080039525A publication Critical patent/KR20080039525A/ko
Application granted granted Critical
Publication of KR100920552B1 publication Critical patent/KR100920552B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

가이드역과 각 참가자 사이에서 연주 파트의 할당을 간편하고 유연하게 행할 수 있는 합주 시스템을 제공한다. 「setting」 필드 내에는 각각의 연주 단말기(Facilitator, Piano 1∼5)가 표시되어 있고, 각 연주 단말기마다 출결을 선택하는 풀 다운 메뉴와, 연주 파트를 할당하는 라디오 버튼이 표시되어 있다. 학생의 출결에 따라 출결의 풀 다운 메뉴가 선택 입력되고, 연주곡 데이터가 선택되면, 컨트롤러(1)는 그 연주곡 데이터의 파트 할당 테이블을 읽어내어, 출석이 선택된 연주 단말기의 각각에 연주 파트를 할당한다. 또한, 연주 파트를 수동으로 각 연주 단말기에 할당할 수도 있다.
Figure R1020087007481
연주 단말기, 컨트롤러, 합주 시스템, 식별 정보, 할당 리스트, 연주 파트, 본보기 연주.

Description

합주 시스템 {ENSEMBLE SYSTEM}
본 발명은, 악기 조작에 익숙하지 않은 사람이라도 용이하게 합주에 참가할 수 있는 합주 시스템에 관한 것이며, 특히 가이드역과 각 참가자의 연주 파트의 할당을 간편하면서도 유연하게 한 합주 시스템에 관한 것이다.
종래부터, 연주자의 조작에 대하여 악음을 발생하는 전자 악기가 알려져 있다. 이러한 전자 악기는, 예를 들면 피아노 등을 모델로 하고 있고, 자연 악기의 피아노와 마찬가지의 연주 조작을 행하는 것이 일반적이었다. 또한, 이러한 전자 악기에서는, 연주의 숙달에 숙련을 요하여, 연주에 익숙해지는데 시간이 걸렸다.
그러나, 최근에는 악기의 조작에 익숙하지 않은 사람이 용이하게 연주할 수 있는 악기를 실현하는 것이 요구되고 있다. 또한, 연주자가 혼자서 연주를 즐길 뿐만 아니라, 다수의 연주자가 참가하여 합주를 실현할 수 있는 악기의 실현이 요구되고 있다.
따라서, 악기의 조작에 익숙하지 않은 복수의 사용자가 용이하게 연주에 참가할 수 있는 전자 악기로서, 예를 들면 일본 특허 공개 제2000-276141호 공보의 전자 악기가 제안되어 있다.
상기 전자 악기는, 복수의 사용자가 간편한 조작(손으로 흔드는 조작)으로 합주를 행할 수 있다. 또한, 이 전자 악기에 있어서는, 자기(子機)(조작자)를 친기(親機)에 접속하여, 미리 1곡분의 연주 정보를 송신한다. 이 때 친기는, 플로피디스크에 기록되어 있는 할당 지시 데이터에 기초하여 각 자기의 연주 파트를 할당한다. 이러한 경우, 한번 친기로부터 자기에 연주 정보가 송신되어 버리면, 송신된 연주 파트는 그 자기에서만 연주할 수 있었다.
또한, 각 자기의 사용자는, 친기의 데모 연주에 맞추어 연주를 행하였다. 그러나, 여러 사람이 동시에 리하빌리테이션 등의 활동을 행하는 경우, 소정의 인원수(예를 들면 5명 정도)로 하나의 그룹을 형성하고, 퍼실리테이터(가이드역)가 각 참가자를 가이드하는 경우가 많다. 상기 전자 악기에 있어서는, 본보기로 되는 사람의 연주에 맞추어 연주를 행하는 것이 불가능하여, 퍼실리테이터가 본보기 연주를 보이는 것도 불가능하였다.
본 발명의 목적은, 가이드역과 각 참가자 사이에서 연주 파트의 할당을 간편하고 유연하게 행할 수 있는 합주 시스템을 제공하는 데 있다.
상기 목적을 달성하기 위해, 본 발명의 합주 시스템은, 연주 조작을 행하기 위한 적어도 하나의 연주 조작자를 각각 구비하는 복수의 연주 단말기와, 적어도 하나의 음원과, 상기 복수의 연주 단말기 및 상기 적어도 하나의 음원에 접속되고, 각 연주 단말기를 제어하는 컨트롤러로 이루어지는 합주 시스템으로서, 상기 컨트롤러는, 복수의 연주 파트로 이루어지는 연주곡 데이터와, 각 연주 파트마다 할당되는 연주 단말기의 식별 정보를 기재한 할당 리스트를 기억하는 기억 수단과, 합주에 참가하는 연주 단말기 및 합주에 참가하지 않는 연주 단말기를 지정하고, 또한 합주하는 연주곡 데이터를 선택하기 위한 조작 수단과, 상기 조작 수단에 의해 연주곡 데이터가 선택되었을 때, 상기 할당 리스트에 기초하여 연주 단말기의 각각에 연주 파트를 할당하는 연주 파트 할당 수단으로서, 합주에 참가하지 않는 연주 단말기를 합주에 참가하는 별도의 연주 단말기를 대신하여, 그 합주에 참가하지 않는 연주 단말기에 할당된 연주 파트를 그 합주에 참가하는 별도의 연주 단말기에 할당하는 것과, 각 연주 단말기의 연주 조작자의 조작 양태에 따라, 그 연주 단말기에 할당되어 있는 연주 파트를 읽어내고, 그 읽어낸 연주 파트의 데이터를 상기 음원에 출력하는 연주 제어 수단을 구비하는 것을 특징으로 한다.
본 발명에서는, 사용자가 컨트롤러의 조작 수단을 이용하여, 합주에 참가하는 연주 단말기와 참가하지 않는 연주 단말기를 선택한다. 또한, 합주하는 연주곡 데이터를 선택한다. 연주곡 데이터는, 복수의 연주 파트로 이루어지고, 각각의 연주 파트를 할당하는 연주 단말기의 식별 정보가 리스트에 기재되어 있다. 사용자가 연주곡 데이터를 선택하면, 컨트롤러는, 리스트를 읽어내서 각 연주 파트를 합주에 참가하는 연주 단말기에 할당한다. 그 후, 사용자는 연주의 개시를 지시하고, 연주 단말기의 연주 조작자로 연주 조작을 행한다. 연주 단말기의 연주 조작자는, 예를 들면 전자 피아노의 건반이다. 어느 하나의 건반을 타건하면 조작 신호가 컨트롤러에 송신된다. 컨트롤러는 수신한 조작 신호에 기초하여, 그 연주 단말기에 할당한 연주 파트의 발음 지시를 음원에 송신한다. 음원은 발음 지시에 따라 악음을 발음한다.
바람직하게는, 상기 컨트롤러는, 또한, 통상의 연주 모드로부터 본보기 연주 모드로 절환하는 모드 절환 수단과, 상기 본보기 연주 모드에 있어서, 상기 복수의 연주 단말기로부터 본보기 연주의 대상으로 되는 적어도 하나의 연주 단말기를 선택하는 선택 수단을 구비하고, 상기 선택 수단에 의해 선택된 연주 단말기의 연주 조작은 가이드역용 연주 단말기로 실행되고, 그 가이드역용 연주 단말기의 연주 조작에 따라 그 선택된 연주 단말기로부터 악음을 재생한다.
이 바람직한 양태에 의하면, 퍼실리테이터(가이드역)의 본보기 연주를 각 사용자가 근처의 연주 단말기로 들을 수 있다.
바람직하게는, 상기 음원은, 상기 복수의 연주 단말기의 각각에 내장되고, 상기 컨트롤러의 연주 제어 수단은, 상기 읽어낸 연주 파트의 데이터를, 그 연주 파트가 할당되어 있는 연주 단말기에 내장된 음원에 출력한다.
이 바람직한 양태에 의하면, 컨트롤러는 연주 단말기로부터 수신한 조작 신호에 기초하여, 그 연주 단말기에 할당되어 있는 연주 파트를 읽어내고, 그 읽어낸 연주 파트의 데이터를 그 연주 단말기에 내장된 음원에 송신한다. 연주 단말기의 내장 음원은 수신한 발음 지시에 따라 악음을 발음한다. 이에 의해, 각 연주 단말기에 있어서, 각자의 연주 파트가 발음되게 된다.
바람직하게는, 상기 연주 파트 할당 수단은, 상기 조작 수단으로부터의 연주 파트의 할당 변경 지시에 따라, 각 연주 단말기에의 연주 파트의 할당을 변경한다.
이 바람직한 양태에 의하면, 사용자는 수동으로 각 연주 단말기의 연주 파트를 변경할 수 있다. 이에 의해, 각 연주 파트를 초기 설정과는 다른 연주 단말기로 자유롭게 연주할 수 있다.
바람직하게는, 상기 연주 파트 할당 수단은, 상기 할당 리스트에 기재되어 있는 연주 단말기가 합주에 참가하지 않는 연주 단말기인 경우에, 그 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트를 가이드역용 연주 단말기에 할당한다.
이 바람직한 양태에 의하면, 퍼실리테이터용의 연주 단말기에는 복수의 연주 파트가 할당된다.
바람직하게는, 상기 기억 수단은, 서로 관련된 복수의 연주 파트를 하나의 그룹으로서 규정하는 테이블을 더 기억하고, 상기 연주 파트 할당 수단은, 상기 할당 리스트에 기재되어 있는 연주 단말기가 합주에 참가하지 않는 연주 단말기인 경우에, 그 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트를, 상기 테이블을 참조하여 동일 그룹에 속하는 다른 연주 파트가 할당되어 있는 연주 단말기에 할당한다.
이 바람직한 양태에 의하면, 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트(예를 들면 드럼)를, 상기 테이블을 참조하여 동일 그룹에 속하는 다른 연주 파트(예를 들면 베이스)가 할당되어 있는 연주 단말기에 할당한다. 이에 의해, 음색이나 역할 관계가 가까운 연주 파트가 할당되어 있는 다른 연주 단말기로 대체할 수 있다. 관련된 복수의 연주 파트로서는, 드럼과 베이스의 연주 파트 외에, 복수의 현악기의 연주 파트나 복수의 관악기의 연주 파트 등이 있다.
도 1은, 연주 시스템의 구성을 도시하는 블록도.
도 2는, 컨트롤러의 구성을 도시하는 블록도.
도 3은, 연주 단말기의 구성을 도시하는 블록도.
도 4는, 악곡 데이터의 일례를 나타내는 도면.
도 5는, 파트 할당 테이블의 일례를 나타내는 도면.
도 6은, 메인 조작 윈도우를 나타내는 도면.
도 7은, MIDI 포트 선택 윈도우를 나타내는 도면.
도 8은, 합주 윈도우를 나타내는 도면.
도 9a는, 박타(拍打)수의 셋팅을 나타내는 도면이고, 도 9b는, 타건 타이밍으로 되는 박자(1박자째, 3박자째)와 타건 타이밍으로 되지 않는 박자(2박자째, 4박자째)의 아이콘 표시예를 나타내는 도면.
도 10은, 현재의 박타의 추이를 나타내는 도면.
도 11은, 연주 단말기 「Facilitator」와의 박타의 어긋남을 설명하는 도면.
도 12a는, 본보기 연주 모드를 설명하는 도면이고, 도 12b는, 본보기 연주를 행하는 연주 단말기를 선택하는 화면의 일부를 나타내는 도면.
도 13은, 본보기 연주 모드시에서의 컨트롤러의 동작을 나타내는 플로우차트.
<발명을 실시하기 위한 최선의 형태>
이하, 본 발명의 실시 형태를 도면을 참조하면서 상술한다.
도 1은, 합주 시스템의 구성을 도시하는 블록도이다. 도 1에 도시한 바와 같이, 이 합주 시스템은, 컨트롤러(1)와, 컨트롤러(1)에 MIDI 인터페이스 박스(3)를 통하여 접속되는 복수(도 1에 있어서는 6대)의 연주 단말기(2A∼2F)를 구비하고 있다. 복수의 연주 단말기(2) 중, 연주 단말기(2A)는 퍼실리테이터(가이드역)용 연주 단말기로 되고, 연주 단말기(2B∼2F)는 참가자(학생역)용 연주 단말기로 된다. 연주 단말기(2B∼2F)를 사용하는 5명의 참가자는, 항상 동일한 연주 단말기(2)를 사용한다. 이에 의해, 퍼실리테이터는 연주 단말기에 의해 참가자의 식별이 가능하게 된다.
컨트롤러(1)는, 예를 들면 퍼스널 컴퓨터에 의해 구성되고, 이 퍼스널 컴퓨터에 탑재된 소프트웨어에 의해 각 연주 단말기(2)의 제어 및 데이터의 수집을 행한다. 컨트롤러(1)는 복수 파트로 이루어지는 연주곡 데이터를 기억하고 있다. 이들 파트는, 1 또는 복수의 멜로디 파트, 리듬 파트, 및 반주 파트 등으로 이루어져 있다. 컨트롤러(1)는, 각 파트(또는 복수의 파트)의 발음 데이터를 각각의 연주 단말기(2)에 송신하는, 후술하는 통신부(11)를 구비하고 있다.
연주 단말기(2)는, 사용자가 연주 조작을 행함과 함께, 이 사용자의 연주 조작에 따른 악음을 발생하는 것이며, 예를 들면 전자 피아노 등의 전자 건반 악기에 의해 구성된다. 본 실시 형태에서는, 컨트롤러(1)와 USB로 접속되어 있는 MIDI 인터페이스 박스(3)를 이용하여, 각 연주 단말기(2)를 별개의 MIDI 계통으로 접속하고 있다. 도 1에 있어서는 연주 단말기(2A)를 퍼실리테이터용의 연주 단말기로 한다. 퍼실리테이터용의 연주 단말기의 지정은 컨트롤러(1)에서 행한다. 또한, 연주 단말기(2)는 전자 피아노에 한정되지 않고, 전자 기타 등의 다른 형태의 전자 악기이어도 된다. 물론, 외관상은 자연 악기에 한정되지 않고, 간단히 버튼 등의 조작자를 구비한 단말기이어도 된다.
또한, 연주 단말기(2)가 음원을 내장할 필요는 없으며, 독립된 음원을 컨트롤러(1)에 접속하여도 된다. 이 경우, 컨트롤러(1)에 접속하는 음원의 수는 하나이어도 되고, 연주 단말기(2)와 동일한 수이어도 된다. 연주 단말기(2)와 동일한 수의 음원을 접속하는 경우, 컨트롤러(1)는 각각의 음원과 연주 단말기(2)를 대응지어 연주곡 데이터의 각 파트를 할당하도록 하면 된다.
상기 합주 시스템은, 컨트롤러(1)가 기억하고 있는 연주곡 데이터의 복수의 연주 파트를, 복수의 연주 단말기(2)에 각각 할당하여, 각 연주 단말기(2)가 독자적으로 할당된 연주 파트의 자동 연주를 진행시켜 간다. 사용자가 연주 단말기(2)를 이용하여 연주 조작(예를 들면 전자 피아노의 건반을 타건)을 행하면, 컨트롤러(1)에 템포와 타이밍의 지시가 송신된다. 컨트롤러(1)는, 입력된 템포와 타이밍의 지시에 기초하여 그 연주 단말기(2)에 할당한 연주 파트의 각 음표의 발음 지시를 연주 단말기(2)에 송신한다. 연주 단말기(2)는 수신한 발음 지시에 기초하여 자동 연주를 행한다. 각 연주 단말기(2)를 사용하는 학생이 퍼실리테이터에 맞추어 템포를 취함으로써 합주가 성립된다. 이하, 컨트롤러(1)와 연주 단말기(2)의 구성에 대하여 상세하게 설명한다.
도 2는, 컨트롤러(1)의 구성을 도시하는 블록도이다. 도 2에 도시한 바와 같이, 컨트롤러(1)는, 통신부(11), 제어부(12), HDD(13), RAM(14), 조작부(15) 및 표시부(16)를 구비하고 있다. 제어부(12)에는 통신부(11), HDD(13), RAM(14), 조 작부(15) 및 표시부(16)가 접속되어 있다.
통신부(11)는, 연주 단말기(2)와 통신을 행하는 회로부이며, USB 인터페이스(도시하지 않음)를 갖고 있다. 이 USB 인터페이스에는, MIDI 인터페이스 박스(3)가 접속되고, 통신부(11)는 이 MIDI 인터페이스 박스(3) 및 MIDI 케이블을 통하여 6대의 연주 단말기(2)와 통신한다. HDD(13)는, 컨트롤러(1)의 동작용 프로그램이나, 복수 파트로 이루어지는 연주곡 데이터를 기억하고 있다.
제어부(12)는, HDD(13)에 기억되어 있는 동작용 프로그램을 읽어내서 워크 메모리인 RAM(14)에 전개하고, 파트 할당 처리(50), 시퀀스 처리(51), 및 발음 지시 처리(52) 등을 실행한다. 파트 할당 처리(50)에서는, 연주곡 데이터의 각 연주 파트를 복수의 연주 단말기(2)에 할당한다. 시퀀스 처리(51)에서는, 각 연주 단말기(2)로부터 수신한 템포, 타이밍의 지시에 따라 연주곡 데이터의 각 연주 파트를 시퀀스(각 음의 음고, 음장 등의 결정)한다. 발음 지시 처리(52)에서는, 시퀀스 처리(51)에서 결정한 각 음의 음고, 음장 등을 발음 지시 데이터로서 연주 단말기(2)에 송신한다.
조작부(15)는, 사용자(주로 퍼실리테이터)가 이 연주 시스템의 동작 지시를 행하기 위한 것이다. 퍼실리테이터는, 조작부(15)를 조작하여, 예를 들면 연주하는 연주곡 데이터를 지정하거나, 각 연주 단말기(2)의 연주 파트를 할당하거나 한다. 표시부(16)는, 디스플레이(모니터)이며, 퍼실리테이터나 각 참가자는 이 표시부(16)를 보면서 연주 조작을 행한다. 상세한 것은 후술하겠지만, 표시부(16)에는 합주를 행하기 위한 여러가지 정보가 표시된다.
도 3은, 연주 단말기(2)의 구성을 도시하는 블록도이다. 도 3에 도시한 바와 같이, 연주 단말기(2)는, 통신부(21), 제어부(22), 연주 조작자인 건반(23), 음원(24), 및 스피커(25)를 구비하고 있다. 제어부(22)에는 통신부(21), 건반(23), 및 음원(24)이 접속되어 있다. 또한, 음원(24)에는 스피커(25)가 접속되어 있다.
통신부(21)는, MIDI 인터페이스이며, MIDI 케이블을 통하여 컨트롤러(1)와 통신한다. 제어부(22)는, 연주 단말기(2)를 통괄적으로 제어한다. 건반(23)은, 예를 들면 61건반이나 88건반의 건반 수를 갖고, 5∼7 옥타브의 음역의 연주가 가능하지만, 이 합주 시스템에서는 건반을 구별하지 않고 노트 온/노트 오프 메시지 및 타건 강도(Velocity)의 데이터만을 이용한다. 즉 각 건반에는, 온/오프를 검출하는 센서와 타건의 강도를 검출하는 센서가 내장되어 있고, 건반(23)은 각 건반의 조작 양태(어느 건반이 어떠한 강도로 타건되었는지 등)에 따라 조작 신호를 제어부(22)에 출력한다. 제어부(22)는, 입력된 조작 신호에 기초하여, 통신부(21)를 통하여 컨트롤러(1)에 노트 온 메시지나 노트 오프 메시지를 송신한다. 음원(24)은, 제어부(22)의 제어에 따라 악음 파형을 생성하고, 음성 신호로서 스피커(25)에 출력한다. 스피커(25)는, 음원(24)으로부터 입력된 음성 신호를 재생하여, 악음을 발음한다. 또한, 전술한 바와 같이, 음원(24)과 스피커(25)는 연주 단말기(2)에 내장되어 있지 않아도 된다. 음원(24)과 스피커(25)를 컨트롤러(1)에 접속하고, 연주 단말기(2)와 다른 장소로부터 악음이 발음되도록 하여도 된다. 각 연주 단말기(2)와 동일한 수의 음원을 컨트롤러(1)에 접속하여도 되지만, 단일한 음원을 이용하여도 된다.
상기의 동작에서는, 건반(23)을 타건했을 때, 제어부(22)는 노트 온/노트 오프 메시지를 컨트롤러(1)에 송신(로컬 오프)하고, 건반(23)에 의한 노트 메시지가 아니라, 컨트롤러(1)로부터의 지시에 따라 악음을 발음하지만, 연주 단말기(2)는 상기와 같은 동작과는 별도로, 일반적인 전자 악기로서 사용하는 것도 물론 가능하다. 건반(23)을 타건했을 때, 제어부(22)는 노트 메시지를 컨트롤러(1)에 송신하지 않고(로컬 온), 그 노트 메시지에 기초하여 음원(24)에 악음을 발음하도록 지시하는 것도 가능하다. 로컬 온, 로컬 오프는 사용자가 컨트롤러(1)의 조작부(15)를 이용하여 절환하여도 되고, 연주 단말기(2)의 단말기 조작부(도시하지 않음)에 의해 절환하여도 된다. 또한, 일부의 건반만 로컬 오프하고, 다른 건반은 로컬 온으로 되도록 설정하는 것도 가능하다.
다음으로, 상기와 같은 합주 시스템을 이용하여 합주를 행하기 위한 동작에 대하여 설명한다. 사용자(특히 퍼실리테이터)는, 컨트롤러(1)의 조작부(15)를 이용하여 연주곡 데이터를 선택한다. 연주곡 데이터는 MIDI 규격에 기초하여 미리 작성된 데이터(스탠다드 MIDI)이며, 컨트롤러(1)의 HDD(13)에 기억되어 있다. 이 악곡 데이터의 일례를 도 4에 나타낸다. 도 4에 나타낸 바와 같이, 연주곡 데이터는, 복수의 연주 파트로 이루어지고, 각 연주 파트를 식별하는 식별 정보와, 각 연주 파트의 연주 정보를 포함하고 있다.
사용자가 연주곡 데이터의 선택을 행하면, 컨트롤러(1)는 접속되어 있는 각 연주 단말기(2)의 각각에 연주 파트를 할당한다. 어느 연주 단말기에 어느 연주 파트를 할당할지는, 미리 테이블을 규정해 둔다. 도 5는, 연주 파트 할당 테이블 의 일례를 나타내는 도면이다. 도 5에 나타낸 바와 같이, 연주 파트(1)에는, MIDI 포트 0(퍼실리테이터용 연주 단말기)이 대응하고 있고, 예를 들면 도 1에 있어서는 연주 단말기(2A)에 연주 파트(1)가 할당된다. MIDI 포트는 MIDI 인터페이스 박스(3)의 포트 번호를 나타내고 있고, 각 연주 단말기(2)는 그 접속되어 있는 MIDI 포트로 식별되어 있다. 이하 마찬가지로 연주 파트(2)에는 MIDI 포트 1(피아노 1)이 대응하고, 예를 들면 도 1에 있어서는 연주 단말기(2B)에 연주 파트(2)가 할당된다. 이와 같이, 각 연주 단말기(2)에 각각 자동적으로 연주 파트가 할당된다. 이 연주 파트 할당 테이블은 사전에 퍼실리테이터가 컨트롤러(1)의 HDD(13)에 등록한 것이다. 또한, 퍼실리테이터가 컨트롤러(1)의 조작부(15)를 이용하여 수동 선택하도록 하여도 된다.
또한, 각 연주 단말기(2)가 USB 포트에 접속되어 있는 경우에는, 각 연주 단말기(2)를 USB 포트 번호로 식별하도록 하면 된다.
퍼실리테이터가 연주곡 데이터를 선택하고, 컨트롤러(1)에 의해 각 연주 단말기(2)에 연주 파트가 할당되면, 퍼실리테이터에 의해 컨트롤러(1)의 조작부(15)는 연주 개시 스탠바이의 지시를 입력한다. 여기에서 말하는 연주 개시 스탠바이란 실제로 악음을 발생하는 의미가 아니라, 컨트롤러(1)가 HDD(13)로부터 RAM(14)에 연주곡 데이터를 읽어내서 연주 동작을 행하기 위한 준비 상태로 하는 것이다.
연주 개시 스탠바이의 지시가 조작부(15)에 입력되고, 컨트롤러(1)가 연주 준비를 행하면, 각 연주 단말기(2)에서는 연주가 가능하게 된다. 이 합주 시스템 에 있어서는, 복수의 사용자가 퍼실리테이터(합주 리더)의 연주에 맞추어 연주 조 작을 행한다. 즉, 단순히 본보기 연주(기계 데모 연주)에 맞추어 연주하는 것이 아니라, 퍼실리테이터의 연주(사람의 연주)에 맞추어 각 사용자가 연주를 행하기 때문에, 실제로 합주를 하고 있다는 실감을 얻을 수 있다.
합주 중에서의 합주 시스템의 동작에 대하여 설명한다. 각 사용자가 연주 단말기(2)의 조작자(건반)(23)를 손가락으로 누르면, 제어부(22)는 건반(23)을 누른 강도에 따라 노트 온 메시지를 컨트롤러(1)에 송신한다. 노트 온 메시지에는 타건의 강도(Velocity) 등의 정보가 포함된다. 또한, 건반(23)을 원래 상태로 되돌리면(손가락을 떼면), 제어부(22)는, 노트 오프 메시지를 컨트롤러(1)에 송신한다. 컨트롤러(1)는, 연주 단말기(2)로부터 수신한 노트 온 메시지 및 노트 오프 메시지에 기초하여, 그 연주 단말기(2)에 할당한 연주 파트 중, 소정 길이분(예를 들면 1박자분)의 연주곡 데이터의 각 음의 음고, 음장 등을 결정하고, 그 음고, 음장 등이 결정된 연주곡 데이터를 발음 지시 데이터로서 연주 단말기(2)에 송신한다. 발음 지시 데이터에는, 발음할 타이밍, 음장, 강도, 음색, 효과, 음고 변화(피치 벤드)나, 템포 등이 포함된다.
컨트롤러(1)는, 노트 온 메시지를 수신하고 나서 노트 오프 메시지를 수신할때까지의 시간에 기초하여 상기 발음 지시 데이터를 결정한다. 구체적으로는, 노트 온 메시지가 입력되었을 때, 연주곡 데이터 중 해당하는 연주 파트의 소정 길이 분(1박자분 등)의 연주 정보를 읽어내서 발음할 타이밍, 음색, 효과, 음고 변화 등을 결정한다. 또한, 컨트롤러(1)는, 노트 온 메시지의 Velocity 정보로부터 발음 강도를 결정한다. 연주곡 데이터의 연주 정보에는 음량을 나타내는 정보가 포함되 어 있으며, 이 음량에 Velocity 정보를 승산하여 강도를 결정한다. 즉, 연주곡 데이터에는, 그 곡 중의 볼륨 표현(음의 강약)을 고려한 음량 정보가 미리 포함되어 있지만, 각 사용자가 건반을 누른 강도에 따른 강약 표현이 추가되어, 발음 강도가 결정된다.
컨트롤러(1)는, 노트 오프 메시지가 입력되었을 때, 노트 온 메시지가 입력되고 나서의 시간을 측정한다. 노트 오프 메시지가 입력될 때까지는, 최초로 발음한 악음을 그대로 발생하고, 노트 오프 메시지가 입력되었을 때 그 박자분의 템포, 각 음의 음장을 결정하여 다음의 악음을 발음한다.
또한, 노트 온에서부터 노트 오프까지의 시간(Gate Time이라고 함)으로부터 단순히 템포를 결정하여도 되지만, 아래와 같이 하여 템포를 결정하여도 된다. 즉, 복수회(가장 최근에서부터 몇회 전)의 타건에 대하여, Gate Time의 이동 평균을 산출하고, 여기에 시간에 의한 가중치 부여를 행한다. 가장 최근의 타건에 대하여 가장 가중치 부여를 크게 하고, 과거의 타건으로 될수록 가중치 부여를 작게 한다. 이와 같이 하여 템포를 결정함으로써, 어느 타건시에만 Gate Time이 크게 변화되었다고 하여도 갑자기 템포가 변화되지 않고, 곡의 흐름에 따라 위화감없게 템포 변화를 행할 수 있다.
연주 단말기(2)의 제어부(22)는, 상기한 바와 같이 컨트롤러(1)가 결정한 발음 지시 데이터를 수신하고, 음원(24)에 악음 파형의 생성을 지시한다. 음원(24)은, 악음 파형을 생성하고, 스피커(25)로부터 악음을 재생한다. 각 사용자가 건반(23)을 누를 때마다 상기의 처리가 반복되고, 예를 들면 1박자마다 건반(23)을 누름으로써 곡의 연주를 행할 수 있다.
또한, 상기한 바와 같이, 노트 오프 메시지가 입력될 때까지는, 최초로 발음한 악음을 그대로 발생하기 때문에, 사용자가 건반(23)으로부터 손가락을 뗄 때까지는 동일 악음을 계속 울리게 되어, 이 합주 시스템에 있어서는, 음을 늘리는 연주 표현(페르마타)을 실현할 수 있다.
또한, 상기한 바와 같이 하여 Gate Time의 이동 평균에 의해 템포를 결정함으로써, 이하와 같은 연주 표현을 실현할 수도 있다. 예를 들면, 어떤 타건시에만 건반(23)이 짧게 톡 눌려진 경우, 그 박자분의 각 음의 음장을 짧게 하고, 한편으로 건반(23)이 느긋하게 눌려진 경우 그 박자분의 각 음의 음장을 길게 한다. 이에 의해, 템포는 크게 변화되지 않지만 각 음을 잘 끊어지게 하는 연주 표현(스타카토)을 실현하거나, 템포를 크게 변화시키지 않고 음의 길이를 유지하는 연주 표현(테누토)을 실현하거나 할 수 있다.
또한, 본 실시 형태에 있어서는 연주 단말기(2A∼2F)의 어느 하나의 건반(23)을 타건했다고 하여도 노트 온 메시지, 노트 오프 메시지가 컨트롤러(1)에 송신되지만, 상기의 스타카토나 테누토가 듣는 건반과 듣지 않는 건반을 나누어도 된다. 컨트롤러(1)는, 특정한 건반(예를 들면 E3)으로부터의 노트 온 메시지, 노트 오프 메시지가 입력된 경우에만, 템포를 유지하면서 음장을 변화시키도록 하면 된다.
다음으로, 표시부(16)에 표시되는 유저 인터페이스에 대하여 설명한다. 도 6은, 표시부(16)에 표시되는 메인 조작 윈도우이다. 이 윈도우의 상부 텍스트 필 드에는 사용자가 선택한 연주곡 데이터명이 표시된다. 「Setting」 필드 내에는 각각의 연주 단말기(Facilitator, Piano 1∼5)가 표시되어 있고, 각 연주 단말기마다 출결을 선택하는 풀 다운 메뉴와, 연주 파트를 할당하는 라디오 버튼이 표시되어 있다. 연주 단말기(Facilitator, Piano 1∼5)는, MIDI 인터페이스 박스(3)의 MIDI 포트에 각각 대응지어져 있다. 또한, 도 7에 도시한 바와 같이, 퍼실리테이터가 수동으로 연주 단말기(Facilitator, Piano 1∼5)와 대응짓는 MIDI 포트를 선택하는 것도 가능하다.
출결의 풀 다운 메뉴는 학생의 출결에 따라 퍼실리테이터가 선택 입력한다. 라디오 버튼은, 연주곡 데이터에 있어서 연주 파트가 할당되어 있는 연주 단말기만 표시된다.
상기 도 7에서의 예에서는, 선택한 연주곡 데이터에 연주 파트(1, 2, 3, 10)가 설정되어 있고, 이 연주곡 데이터를 선택하면, 상기 도 5의 테이블을 따라 순서대로 연주 단말기 「Facilitator」, 「Piano 1」, 「Piano 2」 및 「Piano 3」이 연주 파트(1, 2, 3, 10)에 자동적으로 할당된다. 또한, 도 7 중에서는 선택한 연주곡 데이터에 4개의 연주 파트만이 포함되어 있기 때문에, 연주 단말기「Facilitator」 및 「Piano 1∼3」에만 연주 파트가 할당되어 있지만, 예를 들면 연주곡 데이터에 6개의 연주 파트가 포함되어 있는 경우에는, 연주 단말기 「Facilitator」 및 「Piano 1∼5」의 각각에 연주 파트가 할당된다. MIDI 포트(연주 단말기)보다도 연주 파트의 수가 많은 경우에는, 연주 단말기 「Facilitator」에 복수의 연주 파트를 할당한다. 여기에서, 컨트롤러(1)를 조작하는 사용자(퍼실 리테이터)가 라디오 버튼을 선택함으로써 각 연주 파트를 원하는 연주 단말기에서 수동 선택하는 것도 가능하다. 또한, 「Facilitator Only」의 체크 박스를 선택하면 모든 연주 파트가 연주 단말기 「Facilitator」에 할당된다. 또한, 풀 다운 메뉴가 「결석」으로 된 연주 단말기에는 라디오 버튼이 표시되지 않고, 연주 파트가 할당되지 않는다.
또한, 도 5의 테이블에 기초하여 자동으로 연주 파트의 할당을 행하는 경우에도 「출석」 「결석」의 풀 다운 메뉴에 대하여, 「결석」이 선택되어 있는 경우, 그 연주 단말기에 할당될 연주 파트는 연주 단말기 「Facilitator」에 할당된다. 또한, 이 경우, 「결석」의 연주 파트를 음색이 가까운 연주 파트나 음악적인 역할 관계가 가까운 연주 파트(예를 들면 드럼에 대하여 베이스, 현악기군 등)가 할당되어 있는 다른 연주 단말기로 대체하여 할당하도록 하여도 된다. 서로 관련된 연주 파트는 미리 테이블에 의해 규정해 두면 된다.
연주 파트의 할당 후에, 윈도우 중앙 좌측부에 표시되어 있는 연주 컨트롤 버튼 중 Start 버튼을 누르면 연주 개시 스탠바이로 되고, 도 8에 나타낸 합주 윈도우가 표시부(16)에 표시된다. 이 윈도우에 있어서도 상부 텍스트 필드에는 선택한 연주곡 데이터명이 표시된다. 윈도우 상부 우측에는 선택되어 있는 연주곡 데이터의 소절수와 현재 연주 중인 소절이 표시되어 있다. 윈도우 중앙 상부에 표시되어 있는 박타수 필드(Beat Setting)에는 1소절 내의 박타수를 설정하는 라디오 버튼이 표시되어 있다. 도 8에 있어서는 1소절이 4박자/4분의 곡 데이터에 대하여 연주를 하기 때문에, 박타수를 4로 설정하면 1박자마다 타건하게 된다. 또한, 도 9a에 도시한 바와 같이, 이 연주곡에 있어서 박타수 2의 라디오 버튼을 선택하면, 1박자걸러 타건하게 되고, 1박자째, 3박자째가 타건 타이밍으로 된다. 이 경우, 컨트롤러(1)는, 연주 단말기(2)로부터 노트 온 메시지와 노트 오프 메시지가 송신되면, 2박자분의 발음 지시 데이터를 회신한다. 즉, 1회의 타건으로 2박자분의 연주가 되도록 된다.
도 8에 있어서, 합주 윈도우 중앙 좌측에는 각 연주 단말기(Facilitator, Piano 1, Piano 2, Piano 3)마다 현재의 소절수, 소절 내의 박자수(소절 내에서 타건할 횟수), 및 현재의 박타(현재의 타건 타이밍)가 표시된다. 타건할 횟수는 도 8에 나타낸 바와 같이 내부에 숫자가 기입된 사각 형상의 아이콘으로 표시되고, 현재의 박타는 입체 사각 형상 또는 굵은 글씨의 아이콘으로 표시된다. 표시 방식은, 이 예의 아이콘에 한정되는 것이 아니며, 다른 형상의 아이콘이어도 된다. 또한, 도 9b에 도시한 바와 같이, 타건 타이밍으로 되지 않는 박자(2박자째, 4박자째)는 둥근 숫자 등, 다른 형상의 아이콘으로 변경하여 표시한다.
사용자가 타건하면, 현재의 박타는 도 10에 나타낸 바와 같이 1박자씩 추이한다. 즉, 타건마다 1박자째, 2박자째, 3박자째, 4박자째로 순서대로 입체 사각 형상 또는 굵은 글씨의 아이콘이 변경된다. 이 예에서의 연주곡 데이터는, 4박자/4분의 곡 데이터이기 때문에, 4박자째의 다음의 타건를 행하면 1박자째로 되돌아가서, 1소절 진행하게 된다.
도 8에 있어서, 윈도우 중앙 우측에는 연주 단말기 「Facilitator」와의 박타의 어긋남을 나타내는 필드가 표시되어 있다. 이 필드에는 세로 방향에 복수의 라인(예를 들면 5개)이 표시되고, 각각의 연주 단말기에 대응하여 가로 방향으로 라인이 표시되어 있다. 또한, 각각의 연주 단말기에 대응하여 둥근 표시가 표시되어 있다. 이 둥근 표시가 연주 단말기 「Facilitator」와의 박타의 어긋남을 나타낸다.
도 11은, 연주 단말기 「Facilitator」와의 박타의 어긋남을 설명하는 도면이다. 도 11에 나타낸 바와 같이, 연주 단말기 「Facilitator」에 대응하는 둥근 표시는, 세로 방향의 라인 중 중심 라인에 고정하여 표시된다. 각 사용자의 연주 단말기(예를 들면 「Piano 1」)에 대응하는 둥근 표시는, 연주 단말기 「Facilitator」와의 박타의 어긋남에 따라 좌우로 이동한다. 예를 들면, 연주 단말기 「Facilitator」보다 1소절분(이 예에 있어서는 4박자분) 타건이 지연되면, 도 11에 나타낸 바와 같이 세로 방향의 라인 1개분 좌측 방향으로 둥근 표시가 이동한다. 반 소절분(2박자분) 지연된 경우에는 세로 방향의 중심 라인으로부터 좌측 방향으로 라인 간격의 절반분 만큼 둥근 표시가 이동한다. 한편, 연주 단말기 「Facilitator」보다도 타건이 빠른 경우에는 둥근 표시가 우측 방향으로 이동하게 된다. 도 11에 있어서는 중심 라인으로부터 좌우로 2라인 표시되어 있기 때문에, 2소절분의 박타의 어긋남을 표시할 수 있게 된다. 2소절 이상 박타의 어긋남이 발생한 경우에는 좌우단의 라인 위에서 아이콘을 변경한다(예를 들면, 사각 형상의 아이콘으로 변경함). 이와 같이 하여, 각 사용자는 퍼실리테이터와의 연주(박타)의 어긋남을 용이하게 인식할 수 있다. 또한, 상기 예에서는 라인 1개가 1소절분의 어긋남을 나타내도록 했지만, 예를 들면 라인 1개가 1/2소절이나 2소절의 어긋 남을 나타내도록 하여도 된다.
또한, 기준으로 되는 연주 단말기는 연주 단말기 「Facilitator」에 한정되는 것이 아니다. 복수의 연주 단말기(2) 중, 어느 하나를 기준으로서 그 연주 단말기(2)와의 박타의 어긋남 양을 표시하도록 하여도 된다.
또한, 상기 연주 단말기 「Facilitator」와의 박타의 어긋남을 나타내는 필드는, 컨트롤러(1)의 표시부(16)에 표시하는 예에 한정되지 않고, 각 연주 단말기(2)에 설치한 연주 단말기용의 표시부(도시하지 않음)에 표시하도록 하여도 된다.
이상과 같이 하여, 각 사용자는 손가락 하나로 건반을 누르는 용이한 조작으로 연주를 행할 수 있고, 표시부(16)에 나타내어지는 연주 단말기 「Facilitator」와의 연주(박타)의 어긋남을 없애도록 조작을 행함으로써, 여러 사람이 즐기면서 합주를 행할 수 있다.
또한, 상기 합주 시스템은, 변형예로서 이하와 같은 동작을 행할 수 있다. 도 12a는, 본보기 연주 모드를 설명하는 도면이다. 도 12a에 도시한 바와 같이, 「본보기」 아이콘이, 도 6에 나타낸 메인 조작 윈도우의 어느 한쪽의 영역(예를 들면 좌측부 등)에 표시된다. 퍼실리테이터에 의해, 이 「본보기」 아이콘이 눌러지면, 통상의 연주 모드로부터 본보기 연주 모드로 절환된다. 도 12b는, 본보기 연주를 행하는 연주 단말기를 선택하는 화면의 일부이다. 도 12b에 도시한 바와 같이, 본보기 연주 모드에 있어서는, 퍼실리테이터용 이외의 각 연주 단말기(2)에 대한 라디오 버튼이 표시된다. 퍼실리테이터는, 본보기 연주를 행하고자 하는 연 주 단말기(Piano 1∼Piano 5)의 라디오 버튼을 선택한다. 본보기 연주 모드에서는, 선택된 연주 단말기(2)의 연주 조작은 연주 단말기 「Facilitator」에서 행하게 되며, 연주 단말기 「Facilitator」의 조작에 따라 선택된 연주 단말기(2)로부터 악음을 재생한다. 예를 들면, 도 12b와 같이, Piano 1이 선택되고, 연주 단말기 「Facilitator」의 건반이 타건되면, 컨트롤러(1)는 입력된 노트 메시지에 따라 연주 단말기 「Piano 1」에 발음 데이터를 송신한다. 송신하는 발음 데이터는, 연주 단말기 「Piano 1」에 할당한 연주 파트이다. 연주 단말기 「Piano 1」에 있어서는, 수신한 발음 데이터에 기초하여 악음을 발음한다. 이에 의해, 퍼실리테이터의 본보기 연주를 각 사용자가 근처의 연주 단말기로 들을 수 있다. 또한, 상기 예에서는, 라디오 버튼으로 단일한 연주 단말기를 선택하여 본보기 연주를 행하는 예를 나타냈지만, 동시에 복수의 연주 단말기를 선택하여 본보기 연주를 행하도록 하여도 된다. 또한, 전체 연주 단말기를 선택하는 것도 가능하다.
상기 본보기 연주 모드시의 합주 시스템의 동작에 대하여 상세하게 설명한다. 도 13은, 본보기 연주 모드시의 컨트롤러(1)의 동작을 나타내는 플로우차트이다. 퍼실리테이터에 의해 「본보기」 아이콘이 눌러지는 것이 이 동작을 개시하는 트리거로 된다.
우선, 노트 온 메시지가 수신되었는지의 여부를 판단한다(s11). 노트 온 메시지가 수신될 때까지는 이 판단을 반복한다. 노트 온 메시지가 수신된 경우, 이 노트 온 메시지가 퍼실리테이터용의 연주 단말기로부터 송신받은 노트 온 메시지인지의 여부를 판단한다(s12). 수신된 노트 온 메시지가 퍼실리테이터용의 연주 단 말기로부터 송신받은 노트 메시지가 아니면 수신 판단에서부터 처리를 반복한다(s12→s11). 한편, 수신된 노트 온 메시지가 퍼실리테이터용의 연주 단말기로부터 송신받은 노트 메시지이면, 지정되어 있는 연주 단말기에 할당한 연주 파트의 연주곡 데이터를 시퀀스(각 음의 음고, 음장 등의 결정)한다(s13). 지정 연주 단말기는, 전술한 바와 같이 퍼실리테이터가 선택한다. 퍼실리테이터가, 「본보기」 아이콘을 눌렀을 때에는 초기 상태에서 지정 연주 단말기로서 Piano 1이 선택되어 있는 것으로 하지만, 도 12a 중의 눌러진 「본보기」 아이콘에 대응하는 연주 단말기가 지정 연주 단말기로서 선택되어도 된다. 그 후, 지정 연주 단말기에 발음 데이터를 송신한다(s14).
이상과 같이 하여, 본 실시 형태의 합주 시스템은, 각 연주 단말기의 참가(출석), 불참가(결석)를 지시하는 것만으로 연주 파트가 자동적으로 할당되기 때문에, 퍼실리테이터와 각 참가자의 연주 파트의 할당을 간편하고 유연하게 행할 수 있다. 또한, 수동으로 각 연주 단말기의 연주 파트를 변경할 수 있기 때문에, 각 연주 파트를 초기 설정과 다른 연주 단말기로도 연주할 수 있다.
본 발명에 의하면, 각 연주 단말기의 참가(출석), 불참가(결석)를 지시하는 것만으로 연주 파트가 자동적으로 할당되기 때문에, 가이드역과 각 참가자 사이에서 연주 파트의 할당을 간편하고 유연하게 행할 수 있다. 또한, 수동으로 각 연주 단말기의 연주 파트를 변경할 수 있기 때문에, 각 연주 파트를 초기 설정과 다른 연주 단말기로도 연주할 수 있으므로, 퍼실리테이터용의 연주 단말기로 본보기를 보일 수 있다.

Claims (12)

  1. 연주 조작을 행하기 위한 적어도 하나의 연주 조작자를 각각 구비하는 복수의 연주 단말기와, 적어도 하나의 음원과, 상기 복수의 연주 단말기 및 상기 적어도 하나의 음원에 접속되고, 각 연주 단말기를 제어하는 컨트롤러로 이루어지는 합주 시스템으로서,
    상기 컨트롤러는,
    복수의 연주 파트로 이루어지는 연주곡 데이터와, 각 연주 파트마다 할당되는 연주 단말기의 식별 정보를 기재한 할당 리스트를 기억하는 기억 수단과,
    합주에 참가하는 연주 단말기 및 합주에 참가하지 않는 연주 단말기를 지정하고, 또한 합주하는 연주곡 데이터를 선택하기 위한 조작 수단과,
    상기 조작 수단에 의해 연주곡 데이터가 선택되었을 때, 상기 할당 리스트에 기초하여 연주 단말기의 각각에 연주 파트를 할당하는 연주 파트 할당 수단으로서, 합주에 참가하지 않는 연주 단말기를 합주에 참가하는 별도의 연주 단말기를 대신하여, 그 합주에 참가하지 않는 연주 단말기에 할당된 연주 파트를 그 합주에 참가하는 별도의 연주 단말기에 할당하는 것과,
    각 연주 단말기의 연주 조작자의 조작 양태에 따라, 그 연주 단말기에 할당되어 있는 연주 파트를 읽어내고, 그 읽어낸 연주 파트의 데이터를 상기 음원에 출력하는 연주 제어 수단
    을 구비하는 것을 특징으로 하는 합주 시스템.
  2. 제1항에 있어서,
    상기 컨트롤러는, 통상의 연주 모드로부터 본보기 연주 모드로 절환하는 모드 절환 수단과, 상기 본보기 연주 모드에 있어서, 상기 복수의 연주 단말기로부터 본보기 연주의 대상으로 되는 적어도 하나의 연주 단말기를 선택하는 선택 수단을 더 구비하고, 상기 선택 수단에 의해 선택된 연주 단말기의 연주 조작은 가이드역용 연주 단말기로 실행되고, 그 가이드역용 연주 단말기의 연주 조작에 따라 그 선택된 연주 단말기로부터 악음을 재생하는 것을 특징으로 하는 합주 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 음원은, 상기 복수의 연주 단말기의 각각에 내장되고,
    상기 컨트롤러의 연주 제어 수단은, 상기 읽어낸 연주 파트의 데이터를, 그 연주 파트가 할당되어 있는 연주 단말기에 내장된 음원에 출력하는 것을 특징으로 하는 합주 시스템.
  4. 제1항 또는 제2항에 있어서,
    상기 연주 파트 할당 수단은, 상기 조작 수단으로부터의 연주 파트의 할당의 변경 지시에 따라, 각 연주 단말기에의 연주 파트의 할당을 변경하는 것을 특징으로 하는 합주 시스템.
  5. 제1항 또는 제2항에 있어서,
    상기 연주 파트 할당 수단은, 상기 할당 리스트에 기재되어 있는 연주 단말기가 합주에 참가하지 않는 연주 단말기인 경우에, 그 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트를 가이드역용 연주 단말기에 할당하는 것을 특징으로 하는 합주 시스템.
  6. 제1항 또는 제2항에 있어서,
    상기 기억 수단은, 서로 관련된 복수의 연주 파트를 하나의 그룹으로서 규정하는 테이블을 더 기억하고,
    상기 연주 파트 할당 수단은, 상기 할당 리스트에 기재되어 있는 연주 단말기가 합주에 참가하지 않는 연주 단말기인 경우에, 그 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트를, 상기 테이블을 참조하여 동일 그룹에 속하는 다른 연주 파트가 할당되어 있는 연주 단말기에 할당하는 것을 특징으로 하는 합주 시스템.
  7. 제3항에 있어서,
    상기 연주 파트 할당 수단은, 상기 조작 수단으로부터의 연주 파트의 할당의 변경 지시에 따라, 각 연주 단말기에의 연주 파트의 할당을 변경하는 것을 특징으로 하는 합주 시스템.
  8. 제3항에 있어서,
    상기 연주 파트 할당 수단은, 상기 할당 리스트에 기재되어 있는 연주 단말기가 합주에 참가하지 않는 연주 단말기인 경우에, 그 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트를 가이드역용 연주 단말기에 할당하는 것을 특징으로 하는 합주 시스템.
  9. 제4항에 있어서,
    상기 연주 파트 할당 수단은, 상기 할당 리스트에 기재되어 있는 연주 단말기가 합주에 참가하지 않는 연주 단말기인 경우에, 그 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트를 가이드역용 연주 단말기에 할당하는 것을 특징으로 하는 합주 시스템.
  10. 제3항에 있어서,
    상기 기억 수단은, 서로 관련된 복수의 연주 파트를 하나의 그룹으로서 규정하는 테이블을 더 기억하고,
    상기 연주 파트 할당 수단은, 상기 할당 리스트에 기재되어 있는 연주 단말기가 합주에 참가하지 않는 연주 단말기인 경우에, 그 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트를, 상기 테이블을 참조하여 동일 그룹에 속하는 다른 연주 파트가 할당되어 있는 연주 단말기에 할당하는 것을 특징으로 하는 합주 시스템.
  11. 제4항에 있어서,
    상기 기억 수단은, 서로 관련된 복수의 연주 파트를 하나의 그룹으로서 규정하는 테이블을 더 기억하고,
    상기 연주 파트 할당 수단은, 상기 할당 리스트에 기재되어 있는 연주 단말기가 합주에 참가하지 않는 연주 단말기인 경우에, 그 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트를, 상기 테이블을 참조하여 동일 그룹에 속하는 다른 연주 파트가 할당되어 있는 연주 단말기에 할당하는 것을 특징으로 하는 합주 시스템.
  12. 제5항에 있어서,
    상기 기억 수단은, 서로 관련된 복수의 연주 파트를 하나의 그룹으로서 규정하는 테이블을 더 기억하고,
    상기 연주 파트 할당 수단은, 상기 할당 리스트에 기재되어 있는 연주 단말기가 합주에 참가하지 않는 연주 단말기인 경우에, 그 합주에 참가하지 않는 연주 단말기에 할당되어 있는 연주 파트를, 상기 테이블을 참조하여 동일 그룹에 속하는 다른 연주 파트가 할당되어 있는 연주 단말기에 할당하는 것을 특징으로 하는 합주 시스템.
KR1020087007481A 2005-09-28 2006-07-24 합주 시스템 KR100920552B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2005-00281060 2005-09-28
JP2005281060A JP4752425B2 (ja) 2005-09-28 2005-09-28 合奏システム

Publications (2)

Publication Number Publication Date
KR20080039525A KR20080039525A (ko) 2008-05-07
KR100920552B1 true KR100920552B1 (ko) 2009-10-08

Family

ID=37899503

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087007481A KR100920552B1 (ko) 2005-09-28 2006-07-24 합주 시스템

Country Status (6)

Country Link
US (1) US7947889B2 (ko)
EP (1) EP1930874A4 (ko)
JP (1) JP4752425B2 (ko)
KR (1) KR100920552B1 (ko)
CN (1) CN101278334A (ko)
WO (1) WO2007037068A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190105805A (ko) 2018-03-06 2019-09-18 주식회사 웨이테크 인공지능 합주 시스템 및 인공지능 합주 방법

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1975920B1 (en) 2007-03-30 2014-12-17 Yamaha Corporation Musical performance processing apparatus and storage medium therefor
JP5169328B2 (ja) 2007-03-30 2013-03-27 ヤマハ株式会社 演奏処理装置及び演奏処理プログラム
US8119898B2 (en) 2010-03-10 2012-02-21 Sounds Like Fun, Llc Method of instructing an audience to create spontaneous music
US8962967B2 (en) * 2011-09-21 2015-02-24 Miselu Inc. Musical instrument with networking capability
US8664497B2 (en) * 2011-11-22 2014-03-04 Wisconsin Alumni Research Foundation Double keyboard piano system
KR102099913B1 (ko) * 2012-12-28 2020-04-10 삼성전자주식회사 애플리케이션 실행 방법 및 시스템
CN103258529B (zh) * 2013-04-16 2015-09-16 初绍军 一种电子乐器、音乐演奏方法
JP2014219558A (ja) * 2013-05-08 2014-11-20 ヤマハ株式会社 音楽セッション管理装置
US9672799B1 (en) * 2015-12-30 2017-06-06 International Business Machines Corporation Music practice feedback system, method, and recording medium
JP6733221B2 (ja) * 2016-03-04 2020-07-29 ヤマハ株式会社 録音システム、録音方法及びプログラム
DE112018000423B4 (de) * 2017-01-18 2022-08-25 Yamaha Corporation Part-Anzeigevorrichtung, Elektronische Musikvorrichtung, Bedienterminal-Vorrichtung und Part-Anzeigeverfahren
US11232774B2 (en) 2017-04-13 2022-01-25 Roland Corporation Electronic musical instrument main body device and electronic musical instrument system
CN110517654A (zh) * 2019-07-19 2019-11-29 森兰信息科技(上海)有限公司 基于钢琴的乐器合奏方法、系统、介质及装置
JP7181173B2 (ja) * 2019-09-13 2022-11-30 株式会社スクウェア・エニックス プログラム、情報処理装置、情報処理システム及び方法
JP7192831B2 (ja) * 2020-06-24 2022-12-20 カシオ計算機株式会社 演奏システム、端末装置、電子楽器、方法、およびプログラム
CN112735360B (zh) * 2020-12-29 2023-04-18 玖月音乐科技(北京)有限公司 一种电子键盘乐器重奏方法和系统
KR102488838B1 (ko) * 2022-03-11 2023-01-17 (주)더바통 악보 기반 다자간 사운드 동기화 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040018185A (ko) * 2002-08-22 2004-03-02 야마하 가부시키가이샤 좋은 앙상블로 음악을 재생하기 위한 동기 재생 시스템,및 앙상블을 위한 레코더 및 플레이어
KR100457052B1 (ko) 2000-06-01 2004-11-16 (주)한슬소프트 무선단말기를 이용한 노래반주/음악연주 서비스 장치 및그 방법

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3808936A (en) * 1970-07-08 1974-05-07 D Shrader Method and apparatus for improving musical ability
US3919913A (en) * 1972-10-03 1975-11-18 David L Shrader Method and apparatus for improving musical ability
US3823637A (en) * 1973-01-19 1974-07-16 Scott J Programmed audio-visual teaching aid
US3895555A (en) * 1973-10-03 1975-07-22 Richard H Peterson Teaching instrument for keyboard music instruction
JPS5692567A (en) * 1979-12-27 1981-07-27 Nippon Musical Instruments Mfg Electronic musical instrument
JPS5871797U (ja) * 1981-11-10 1983-05-16 ヤマハ株式会社 電子楽器
JPS61254991A (ja) * 1985-05-07 1986-11-12 カシオ計算機株式会社 電子楽器
US5002491A (en) * 1989-04-28 1991-03-26 Comtek Electronic classroom system enabling interactive self-paced learning
US5521323A (en) 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP3528230B2 (ja) * 1994-03-18 2004-05-17 ヤマハ株式会社 自動演奏装置
JP3417662B2 (ja) 1994-06-30 2003-06-16 ローランド株式会社 演奏分析装置
US6448486B1 (en) * 1995-08-28 2002-09-10 Jeff K. Shinsky Electronic musical instrument with a reduced number of input controllers and method of operation
US6441289B1 (en) * 1995-08-28 2002-08-27 Jeff K. Shinsky Fixed-location method of musical performance and a musical instrument
JP3453248B2 (ja) * 1996-05-28 2003-10-06 株式会社第一興商 通信カラオケシステム、カラオケ再生端末
US7989689B2 (en) * 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
US7074999B2 (en) * 1996-07-10 2006-07-11 Sitrick David H Electronic image visualization system and management and communication methodologies
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US6084168A (en) * 1996-07-10 2000-07-04 Sitrick; David H. Musical compositions communication system, architecture and methodology
US7098392B2 (en) * 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US7423213B2 (en) * 1996-07-10 2008-09-09 David Sitrick Multi-dimensional transformation systems and display communication architecture for compositions and derivations thereof
US5952597A (en) * 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
JP3277875B2 (ja) * 1998-01-29 2002-04-22 ヤマハ株式会社 演奏装置、サーバ装置、演奏方法および演奏制御方法
JP3371791B2 (ja) * 1998-01-29 2003-01-27 ヤマハ株式会社 音楽教習システムおよび音楽教習装置、ならびに、音楽教習用プログラムが記録された記録媒体
JP3666291B2 (ja) 1999-03-25 2005-06-29 ヤマハ株式会社 電子楽器
US6348648B1 (en) * 1999-11-23 2002-02-19 Harry Connick, Jr. System and method for coordinating music display among players in an orchestra
JP4117755B2 (ja) * 1999-11-29 2008-07-16 ヤマハ株式会社 演奏情報評価方法、演奏情報評価装置および記録媒体
US6198034B1 (en) * 1999-12-08 2001-03-06 Ronald O. Beach Electronic tone generation system and method
JP3678135B2 (ja) * 1999-12-24 2005-08-03 ヤマハ株式会社 演奏評価装置および演奏評価システム
JP3758450B2 (ja) * 2000-01-10 2006-03-22 ヤマハ株式会社 曲データ作成のためのサーバ装置、クライアント装置及び記録媒体
JP3654143B2 (ja) * 2000-06-08 2005-06-02 ヤマハ株式会社 時系列データの読出制御装置、演奏制御装置、映像再生制御装置、および、時系列データの読出制御方法、演奏制御方法、映像再生制御方法
US6417435B2 (en) * 2000-02-28 2002-07-09 Constantin B. Chantzis Audio-acoustic proficiency testing device
US6751439B2 (en) * 2000-05-23 2004-06-15 Great West Music (1987) Ltd. Method and system for teaching music
JP4399958B2 (ja) 2000-05-25 2010-01-20 ヤマハ株式会社 演奏支援装置および演奏支援方法
IL137234A0 (en) * 2000-07-10 2001-07-24 Shahal Elihai Method and system for learning to play a musical instrument
JP2002073024A (ja) * 2000-09-01 2002-03-12 Atr Media Integration & Communications Res Lab 可搬型音楽生成装置
JP3826697B2 (ja) 2000-09-19 2006-09-27 ヤマハ株式会社 演奏表示装置および演奏表示方法
JP2002132137A (ja) * 2000-10-26 2002-05-09 Yamaha Corp 演奏ガイド装置及び電子楽器
US6660922B1 (en) * 2001-02-15 2003-12-09 Steve Roeder System and method for creating, revising and providing a music lesson over a communications network
US20020165921A1 (en) * 2001-05-02 2002-11-07 Jerzy Sapieyevski Method of multiple computers synchronization and control for guiding spatially dispersed live music/multimedia performances and guiding simultaneous multi-content presentations and system therefor
US6696631B2 (en) * 2001-05-04 2004-02-24 Realtime Music Solutions, Llc Music performance system
JP3726712B2 (ja) * 2001-06-13 2005-12-14 ヤマハ株式会社 演奏設定情報の授受が可能な電子音楽装置及びサーバ装置、並びに、演奏設定情報授受方法及びプログラム
US6483019B1 (en) * 2001-07-30 2002-11-19 Freehand Systems, Inc. Music annotation system for performance and composition of musical scores
JP2003084760A (ja) * 2001-09-11 2003-03-19 Yamaha Music Foundation Midi信号中継装置及び楽音システム
JP2003256552A (ja) * 2002-03-05 2003-09-12 Yamaha Corp 演奏者情報提供方法、サーバ、プログラムおよび記録媒体
JP3852348B2 (ja) * 2002-03-06 2006-11-29 ヤマハ株式会社 再生及び送信切替装置及びプログラム
JP3613254B2 (ja) * 2002-03-20 2005-01-26 ヤマハ株式会社 楽曲データの圧縮方法
JP3903821B2 (ja) * 2002-03-25 2007-04-11 ヤマハ株式会社 演奏音提供システム
JP3780967B2 (ja) 2002-03-27 2006-05-31 ヤマハ株式会社 曲データ出力装置及びプログラム
US6768046B2 (en) * 2002-04-09 2004-07-27 International Business Machines Corporation Method of generating a link between a note of a digital score and a realization of the score
JP3744477B2 (ja) * 2002-07-08 2006-02-08 ヤマハ株式会社 演奏データ再生装置及び演奏データ再生プログラム
JP4144296B2 (ja) * 2002-08-29 2008-09-03 ヤマハ株式会社 データ管理装置、プログラムおよびデータ管理システム
JP3988633B2 (ja) 2002-12-04 2007-10-10 カシオ計算機株式会社 学習結果表示装置、及びプログラム
US6995311B2 (en) * 2003-03-31 2006-02-07 Stevenson Alexander J Automatic pitch processing for electric stringed instruments
JP3894156B2 (ja) * 2003-05-06 2007-03-14 ヤマハ株式会社 楽音信号形成装置
US20040237756A1 (en) * 2003-05-28 2004-12-02 Forbes Angus G. Computer-aided music education
CN1833265B (zh) * 2003-06-25 2010-10-13 雅马哈株式会社 教授音乐的方法
JP2005062697A (ja) 2003-08-19 2005-03-10 Kawai Musical Instr Mfg Co Ltd テンポ表示装置
JP4305153B2 (ja) * 2003-12-04 2009-07-29 ヤマハ株式会社 音楽セッション支援方法、音楽セッション用楽器
JP4363204B2 (ja) 2004-02-04 2009-11-11 ヤマハ株式会社 通信端末
JP4368222B2 (ja) 2004-03-03 2009-11-18 株式会社国際電気通信基礎技術研究所 合奏支援システム
US7271329B2 (en) * 2004-05-28 2007-09-18 Electronic Learning Products, Inc. Computer-aided learning system employing a pitch tracking line
US7385125B2 (en) * 2005-03-23 2008-06-10 Marvin Motsenbocker Electric string instruments and string instrument systems
JP4797523B2 (ja) 2005-09-12 2011-10-19 ヤマハ株式会社 合奏システム
JP4513713B2 (ja) * 2005-10-21 2010-07-28 カシオ計算機株式会社 演奏教習装置および演奏教習処理のプログラム
US20080134861A1 (en) * 2006-09-29 2008-06-12 Pearson Bruce T Student Musical Instrument Compatibility Test

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100457052B1 (ko) 2000-06-01 2004-11-16 (주)한슬소프트 무선단말기를 이용한 노래반주/음악연주 서비스 장치 및그 방법
KR20040018185A (ko) * 2002-08-22 2004-03-02 야마하 가부시키가이샤 좋은 앙상블로 음악을 재생하기 위한 동기 재생 시스템,및 앙상블을 위한 레코더 및 플레이어

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190105805A (ko) 2018-03-06 2019-09-18 주식회사 웨이테크 인공지능 합주 시스템 및 인공지능 합주 방법

Also Published As

Publication number Publication date
WO2007037068A1 (ja) 2007-04-05
US7947889B2 (en) 2011-05-24
CN101278334A (zh) 2008-10-01
JP2007093821A (ja) 2007-04-12
US20090145285A1 (en) 2009-06-11
KR20080039525A (ko) 2008-05-07
EP1930874A4 (en) 2010-08-04
EP1930874A1 (en) 2008-06-11
JP4752425B2 (ja) 2011-08-17

Similar Documents

Publication Publication Date Title
KR100920552B1 (ko) 합주 시스템
JP4797523B2 (ja) 合奏システム
KR100374761B1 (ko) 가창 반주 시스템
US20100184497A1 (en) Interactive musical instrument game
WO2008004690A1 (fr) Dispositif portatif de production d&#39;accords, programme d&#39;ordinateur et support d&#39;enregistrement
JP5257966B2 (ja) 音楽再生制御システム、音楽演奏プログラム、および演奏データの同期再生方法
JP2008276187A (ja) 演奏処理装置及び演奏処理プログラム
KR20080046212A (ko) 합주 시스템
US7405354B2 (en) Music ensemble system, controller used therefor, and program
JP4131279B2 (ja) 合奏パラメータ表示装置
US7838754B2 (en) Performance system, controller used therefor, and program
JP3902736B2 (ja) カラオケ装置
JP3902735B2 (ja) カラオケ装置
JP4211854B2 (ja) 合奏システム、コントローラ、およびプログラム
JP2007248880A (ja) 演奏制御装置、およびプログラム
JP4218688B2 (ja) 合奏システム、このシステムに用いるコントローラ及びプログラム
JP4429244B2 (ja) カラオケ装置
JP2021099459A (ja) プログラム、方法、電子機器、及び演奏データ表示システム
JP2008233614A (ja) 小節番号表示装置、小節番号表示方法及び小節番号表示プログラム
JP2008089748A (ja) 合奏システム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee